repo_id
stringlengths 5
115
| size
int64 590
5.01M
| file_path
stringlengths 4
212
| content
stringlengths 590
5.01M
|
|---|---|---|---|
ts-phantomnk90/haberdashery
| 64,224
|
asm/aes192gcm_haswell.s
|
# @generated
# https://github.com/facebookincubator/haberdashery/
.text
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI0_0:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI0_1:
.zero 8
.quad -4467570830351532032
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI0_2:
.quad -4467570830351532032
.section .text.haberdashery_aes192gcm_haswell_init,"ax",@progbits
.globl haberdashery_aes192gcm_haswell_init
.p2align 4, 0x90
.type haberdashery_aes192gcm_haswell_init,@function
haberdashery_aes192gcm_haswell_init:
.cfi_startproc
cmpq $24, %rdx
jne .LBB0_2
vmovdqu (%rsi), %xmm2
vmovq 16(%rsi), %xmm0
vpslldq $4, %xmm2, %xmm1
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vaeskeygenassist $1, %xmm0, %xmm3
vpslldq $12, %xmm2, %xmm4
vpxor %xmm4, %xmm1, %xmm1
vpshufd $85, %xmm3, %xmm3
vpxor %xmm2, %xmm1, %xmm1
vmovdqa %xmm2, -120(%rsp)
vpxor %xmm3, %xmm1, %xmm1
vpshufd $255, %xmm1, %xmm3
vpslldq $4, %xmm0, %xmm4
vpxor %xmm0, %xmm4, %xmm4
vpxor %xmm3, %xmm4, %xmm4
vpunpcklqdq %xmm1, %xmm0, %xmm14
vmovdqa %xmm14, -24(%rsp)
vpalignr $8, %xmm1, %xmm4, %xmm15
vmovdqa %xmm15, -40(%rsp)
vpslldq $4, %xmm1, %xmm0
vpslldq $8, %xmm1, %xmm3
vaeskeygenassist $2, %xmm4, %xmm5
vpxor %xmm3, %xmm0, %xmm0
vpslldq $12, %xmm1, %xmm3
vpxor %xmm3, %xmm0, %xmm0
vpshufd $85, %xmm5, %xmm3
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm3
vpshufd $255, %xmm3, %xmm0
vpslldq $4, %xmm4, %xmm1
vpxor %xmm4, %xmm1, %xmm1
vpxor %xmm0, %xmm1, %xmm0
vpslldq $4, %xmm3, %xmm1
vpslldq $8, %xmm3, %xmm4
vpxor %xmm4, %xmm1, %xmm1
vaeskeygenassist $4, %xmm0, %xmm4
vpslldq $12, %xmm3, %xmm5
vpxor %xmm5, %xmm1, %xmm1
vpshufd $85, %xmm4, %xmm4
vpxor %xmm3, %xmm1, %xmm1
vmovdqa %xmm3, -56(%rsp)
vpxor %xmm1, %xmm4, %xmm1
vpshufd $255, %xmm1, %xmm4
vpslldq $4, %xmm0, %xmm5
vpxor %xmm0, %xmm5, %xmm5
vpxor %xmm4, %xmm5, %xmm7
vpunpcklqdq %xmm1, %xmm0, %xmm4
vmovdqa %xmm4, -72(%rsp)
vpalignr $8, %xmm1, %xmm7, %xmm5
vmovdqa %xmm5, -88(%rsp)
vpslldq $4, %xmm1, %xmm0
vpslldq $8, %xmm1, %xmm6
vaeskeygenassist $8, %xmm7, %xmm8
vpxor %xmm6, %xmm0, %xmm0
vpslldq $12, %xmm1, %xmm6
vpxor %xmm6, %xmm0, %xmm0
vpshufd $85, %xmm8, %xmm6
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm6, %xmm6
vpshufd $255, %xmm6, %xmm0
vpslldq $4, %xmm7, %xmm1
vpxor %xmm7, %xmm1, %xmm1
vpxor %xmm0, %xmm1, %xmm0
vpslldq $4, %xmm6, %xmm1
vpslldq $8, %xmm6, %xmm7
vpxor %xmm7, %xmm1, %xmm1
vaeskeygenassist $16, %xmm0, %xmm7
vpslldq $12, %xmm6, %xmm8
vpxor %xmm1, %xmm8, %xmm1
vpshufd $85, %xmm7, %xmm7
vpxor %xmm6, %xmm1, %xmm1
vpxor %xmm1, %xmm7, %xmm1
vpshufd $255, %xmm1, %xmm7
vpslldq $4, %xmm0, %xmm8
vpxor %xmm0, %xmm8, %xmm8
vpxor %xmm7, %xmm8, %xmm10
vpunpcklqdq %xmm1, %xmm0, %xmm7
vmovdqa %xmm7, -104(%rsp)
vpalignr $8, %xmm1, %xmm10, %xmm8
vpslldq $4, %xmm1, %xmm0
vpslldq $8, %xmm1, %xmm9
vaeskeygenassist $32, %xmm10, %xmm11
vpxor %xmm0, %xmm9, %xmm0
vpslldq $12, %xmm1, %xmm9
vpxor %xmm0, %xmm9, %xmm0
vpshufd $85, %xmm11, %xmm9
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm9, %xmm9
vpshufd $255, %xmm9, %xmm0
vpslldq $4, %xmm10, %xmm1
vpxor %xmm1, %xmm10, %xmm1
vpxor %xmm0, %xmm1, %xmm0
vpslldq $4, %xmm9, %xmm1
vpslldq $8, %xmm9, %xmm10
vpxor %xmm1, %xmm10, %xmm1
vaeskeygenassist $64, %xmm0, %xmm10
vpslldq $12, %xmm9, %xmm11
vpxor %xmm1, %xmm11, %xmm1
vpshufd $85, %xmm10, %xmm10
vpxor %xmm1, %xmm9, %xmm1
vpxor %xmm1, %xmm10, %xmm1
vpshufd $255, %xmm1, %xmm10
vpslldq $4, %xmm0, %xmm11
vpxor %xmm0, %xmm11, %xmm11
vpxor %xmm10, %xmm11, %xmm12
vpunpcklqdq %xmm1, %xmm0, %xmm10
vpalignr $8, %xmm1, %xmm12, %xmm11
vpslldq $4, %xmm1, %xmm0
vpslldq $8, %xmm1, %xmm13
vaeskeygenassist $128, %xmm12, %xmm12
vpxor %xmm0, %xmm13, %xmm0
vpslldq $12, %xmm1, %xmm13
vpxor %xmm0, %xmm13, %xmm0
vpshufd $85, %xmm12, %xmm12
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm12, %xmm12
vaesenc %xmm14, %xmm2, %xmm0
vaesenc %xmm15, %xmm0, %xmm0
vaesenc %xmm3, %xmm0, %xmm0
vaesenc %xmm4, %xmm0, %xmm0
vaesenc %xmm5, %xmm0, %xmm0
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm7, %xmm0, %xmm0
vaesenc %xmm8, %xmm0, %xmm0
vaesenc %xmm9, %xmm0, %xmm0
vaesenc %xmm10, %xmm0, %xmm0
vaesenc %xmm11, %xmm0, %xmm0
vaesenclast %xmm12, %xmm0, %xmm0
vpshufb .LCPI0_0(%rip), %xmm0, %xmm0
vpsrlq $63, %xmm0, %xmm1
vpaddq %xmm0, %xmm0, %xmm0
vpshufd $78, %xmm1, %xmm13
vpor %xmm0, %xmm13, %xmm0
vpxor %xmm13, %xmm13, %xmm13
vpblendd $12, %xmm1, %xmm13, %xmm1
vpsllq $63, %xmm1, %xmm13
vpxor %xmm0, %xmm13, %xmm0
vpsllq $62, %xmm1, %xmm13
vpsllq $57, %xmm1, %xmm1
vpxor %xmm1, %xmm13, %xmm1
vpxor %xmm1, %xmm0, %xmm13
vpclmulqdq $0, %xmm13, %xmm13, %xmm0
vpbroadcastq .LCPI0_2(%rip), %xmm15
vpclmulqdq $16, %xmm15, %xmm0, %xmm1
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpclmulqdq $17, %xmm13, %xmm13, %xmm1
vpshufd $78, %xmm0, %xmm14
vpxor %xmm1, %xmm14, %xmm1
vpclmulqdq $16, %xmm15, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm14
vpclmulqdq $16, %xmm13, %xmm14, %xmm0
vpclmulqdq $1, %xmm13, %xmm14, %xmm1
vpxor %xmm0, %xmm1, %xmm0
vpclmulqdq $0, %xmm13, %xmm14, %xmm1
vpslldq $8, %xmm0, %xmm4
vpxor %xmm4, %xmm1, %xmm1
vpclmulqdq $16, %xmm15, %xmm1, %xmm4
vpshufd $78, %xmm1, %xmm2
vpclmulqdq $17, %xmm13, %xmm14, %xmm1
vpxor %xmm2, %xmm4, %xmm2
vpsrldq $8, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpshufd $78, %xmm2, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpclmulqdq $16, %xmm15, %xmm2, %xmm1
vpxor %xmm1, %xmm0, %xmm5
vpclmulqdq $0, %xmm5, %xmm5, %xmm0
vpclmulqdq $16, %xmm15, %xmm0, %xmm2
vpclmulqdq $0, %xmm14, %xmm14, %xmm4
vpclmulqdq $16, %xmm15, %xmm4, %xmm1
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm2
vpshufd $78, %xmm4, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpclmulqdq $17, %xmm14, %xmm14, %xmm1
vpshufd $78, %xmm0, %xmm4
vpxor %xmm4, %xmm1, %xmm1
vpclmulqdq $16, %xmm15, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpclmulqdq $17, %xmm5, %xmm5, %xmm3
vpshufd $78, %xmm2, %xmm4
vpclmulqdq $16, %xmm13, %xmm0, %xmm1
vpxor %xmm4, %xmm3, %xmm3
vpclmulqdq $1, %xmm13, %xmm0, %xmm4
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm15, %xmm2, %xmm2
vpclmulqdq $0, %xmm13, %xmm0, %xmm4
vpslldq $8, %xmm1, %xmm7
vpxor %xmm7, %xmm4, %xmm4
vpclmulqdq $16, %xmm15, %xmm4, %xmm7
vpxor %xmm2, %xmm3, %xmm2
vpshufd $78, %xmm4, %xmm3
vpxor %xmm3, %xmm7, %xmm3
vpsrldq $8, %xmm1, %xmm1
vpclmulqdq $17, %xmm13, %xmm0, %xmm4
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm15, %xmm3, %xmm4
vpshufd $78, %xmm3, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpxor %xmm4, %xmm1, %xmm1
vmovaps -120(%rsp), %xmm3
vmovaps %xmm3, (%rdi)
vmovaps -24(%rsp), %xmm3
vmovaps %xmm3, 16(%rdi)
vmovaps -40(%rsp), %xmm3
vmovaps %xmm3, 32(%rdi)
vmovaps -56(%rsp), %xmm3
vmovaps %xmm3, 48(%rdi)
vmovaps -72(%rsp), %xmm3
vmovaps %xmm3, 64(%rdi)
vmovaps -88(%rsp), %xmm3
vmovaps %xmm3, 80(%rdi)
vmovdqa %xmm6, 96(%rdi)
vmovaps -104(%rsp), %xmm3
vmovaps %xmm3, 112(%rdi)
vmovdqa %xmm8, 128(%rdi)
vmovdqa %xmm9, 144(%rdi)
vmovdqa %xmm10, 160(%rdi)
vmovdqa %xmm11, 176(%rdi)
vmovdqa %xmm12, 192(%rdi)
vmovdqa %xmm13, 208(%rdi)
vmovdqa %xmm14, 224(%rdi)
vmovdqa %xmm5, 240(%rdi)
vmovdqa %xmm0, 256(%rdi)
vmovdqa %xmm1, 272(%rdi)
vmovdqa %xmm2, 288(%rdi)
.LBB0_2:
xorl %eax, %eax
cmpq $24, %rdx
sete %al
retq
.Lfunc_end0:
.size haberdashery_aes192gcm_haswell_init, .Lfunc_end0-haberdashery_aes192gcm_haswell_init
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI1_0:
.byte 15
.byte 128
.byte 128
.byte 128
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI1_1:
.long 1
.long 0
.long 0
.long 0
.LCPI1_2:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI1_3:
.zero 8
.quad -4467570830351532032
.LCPI1_4:
.long 2
.long 0
.long 0
.long 0
.LCPI1_5:
.long 3
.long 0
.long 0
.long 0
.LCPI1_6:
.long 4
.long 0
.long 0
.long 0
.LCPI1_7:
.long 5
.long 0
.long 0
.long 0
.LCPI1_8:
.long 6
.long 0
.long 0
.long 0
.LCPI1_9:
.long 7
.long 0
.long 0
.long 0
.LCPI1_10:
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.LCPI1_11:
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.LCPI1_12:
.zero 16
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI1_13:
.quad -4467570830351532032
.section .text.haberdashery_aes192gcm_haswell_encrypt,"ax",@progbits
.globl haberdashery_aes192gcm_haswell_encrypt
.p2align 4, 0x90
.type haberdashery_aes192gcm_haswell_encrypt,@function
haberdashery_aes192gcm_haswell_encrypt:
.cfi_startproc
pushq %rbp
.cfi_def_cfa_offset 16
pushq %r15
.cfi_def_cfa_offset 24
pushq %r14
.cfi_def_cfa_offset 32
pushq %r13
.cfi_def_cfa_offset 40
pushq %r12
.cfi_def_cfa_offset 48
pushq %rbx
.cfi_def_cfa_offset 56
subq $440, %rsp
.cfi_def_cfa_offset 496
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
.cfi_offset %rbp, -16
movq 496(%rsp), %r15
xorl %eax, %eax
cmpq 512(%rsp), %r15
jne .LBB1_43
cmpq $16, 528(%rsp)
setne %r10b
movabsq $2305843009213693950, %r11
cmpq %r11, %r8
seta %r11b
orb %r10b, %r11b
jne .LBB1_43
movq %r15, %r10
shrq $5, %r10
cmpq $2147483647, %r10
setae %r10b
cmpq $12, %rdx
setne %dl
orb %r10b, %dl
jne .LBB1_43
vmovd (%rsi), %xmm0
vpinsrd $1, 4(%rsi), %xmm0, %xmm0
vpinsrd $2, 8(%rsi), %xmm0, %xmm0
movl $16777216, %edx
vpinsrd $3, %edx, %xmm0, %xmm0
vmovdqa %xmm0, 112(%rsp)
vpxor %xmm15, %xmm15, %xmm15
testq %r8, %r8
je .LBB1_20
cmpq $96, %r8
jb .LBB1_5
vmovdqu (%rcx), %xmm1
vmovdqu 16(%rcx), %xmm2
vmovdqu 32(%rcx), %xmm3
vmovdqu 48(%rcx), %xmm4
vmovdqu 64(%rcx), %xmm5
vmovdqu 80(%rcx), %xmm9
vmovdqa .LCPI1_2(%rip), %xmm0
vpshufb %xmm0, %xmm1, %xmm13
vpshufb %xmm0, %xmm2, %xmm8
vpshufb %xmm0, %xmm3, %xmm6
vpshufb %xmm0, %xmm9, %xmm3
vmovdqa 208(%rdi), %xmm1
vpclmulqdq $0, %xmm3, %xmm1, %xmm9
vpshufb %xmm0, %xmm4, %xmm10
vpclmulqdq $1, %xmm3, %xmm1, %xmm11
vpshufb %xmm0, %xmm5, %xmm5
vpclmulqdq $16, %xmm3, %xmm1, %xmm12
vmovdqa 224(%rdi), %xmm2
vpclmulqdq $17, %xmm3, %xmm1, %xmm7
vmovdqa 240(%rdi), %xmm4
vpclmulqdq $0, %xmm5, %xmm2, %xmm14
vmovdqa 256(%rdi), %xmm3
vpclmulqdq $1, %xmm5, %xmm2, %xmm15
vpxor %xmm11, %xmm12, %xmm11
vpclmulqdq $16, %xmm5, %xmm2, %xmm12
vpxor %xmm9, %xmm14, %xmm9
vpclmulqdq $17, %xmm5, %xmm2, %xmm5
vpxor %xmm12, %xmm15, %xmm12
vpclmulqdq $0, %xmm10, %xmm4, %xmm14
vpxor %xmm12, %xmm11, %xmm11
vpclmulqdq $1, %xmm10, %xmm4, %xmm12
vpxor %xmm7, %xmm5, %xmm7
vpclmulqdq $16, %xmm10, %xmm4, %xmm15
vmovdqa 272(%rdi), %xmm5
vpclmulqdq $17, %xmm10, %xmm4, %xmm10
vpxor %xmm15, %xmm12, %xmm12
vpclmulqdq $0, %xmm6, %xmm3, %xmm15
vpxor %xmm15, %xmm14, %xmm14
vpclmulqdq $1, %xmm6, %xmm3, %xmm15
vpxor %xmm14, %xmm9, %xmm9
vpclmulqdq $16, %xmm6, %xmm3, %xmm14
vpxor %xmm15, %xmm12, %xmm12
vpclmulqdq $17, %xmm6, %xmm3, %xmm6
vpxor %xmm12, %xmm11, %xmm11
vpclmulqdq $0, %xmm8, %xmm5, %xmm12
vpxor %xmm6, %xmm10, %xmm6
vpclmulqdq $1, %xmm8, %xmm5, %xmm10
vpxor %xmm6, %xmm7, %xmm6
vmovdqa %xmm6, (%rsp)
vpclmulqdq $16, %xmm8, %xmm5, %xmm15
vmovdqa 288(%rdi), %xmm6
vpclmulqdq $0, %xmm13, %xmm6, %xmm7
vpxor %xmm10, %xmm14, %xmm10
vpxor %xmm15, %xmm10, %xmm10
vpxor %xmm7, %xmm12, %xmm7
vpxor %xmm7, %xmm9, %xmm9
vpclmulqdq $1, %xmm13, %xmm6, %xmm7
vpxor %xmm7, %xmm10, %xmm7
vpxor %xmm7, %xmm11, %xmm7
vpclmulqdq $16, %xmm13, %xmm6, %xmm10
vpxor %xmm7, %xmm10, %xmm10
vpclmulqdq $17, %xmm8, %xmm5, %xmm7
vpclmulqdq $17, %xmm13, %xmm6, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpxor (%rsp), %xmm7, %xmm8
addq $96, %rcx
leaq -96(%r8), %rsi
cmpq $96, %rsi
jb .LBB1_19
vmovdqa %xmm6, (%rsp)
vmovdqa %xmm5, %xmm6
vmovdqa %xmm3, %xmm5
vmovdqa %xmm2, %xmm3
.p2align 4, 0x90
.LBB1_18:
vmovdqu (%rcx), %xmm12
vmovdqu 32(%rcx), %xmm13
vmovdqu 48(%rcx), %xmm11
vmovdqu 64(%rcx), %xmm14
vmovdqu 80(%rcx), %xmm15
vpslldq $8, %xmm10, %xmm7
vpxor %xmm7, %xmm9, %xmm7
vpsrldq $8, %xmm10, %xmm9
vpbroadcastq .LCPI1_13(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm7, %xmm10
vpshufd $78, %xmm7, %xmm7
vpxor %xmm7, %xmm10, %xmm7
vpclmulqdq $16, %xmm2, %xmm7, %xmm10
vpxor %xmm9, %xmm8, %xmm8
vpshufd $78, %xmm7, %xmm7
vpshufb %xmm0, %xmm12, %xmm9
vpxor %xmm9, %xmm8, %xmm8
vpshufb %xmm0, %xmm15, %xmm12
vpclmulqdq $0, %xmm12, %xmm1, %xmm15
vpxor %xmm7, %xmm8, %xmm7
vmovdqa %xmm1, %xmm2
vmovdqa %xmm0, %xmm1
vpclmulqdq $1, %xmm12, %xmm2, %xmm0
vpxor %xmm7, %xmm10, %xmm8
vpclmulqdq $16, %xmm12, %xmm2, %xmm7
vpshufb %xmm1, %xmm13, %xmm9
vpclmulqdq $17, %xmm12, %xmm2, %xmm10
vpshufb %xmm1, %xmm14, %xmm12
vpclmulqdq $0, %xmm12, %xmm3, %xmm13
vpxor %xmm0, %xmm7, %xmm0
vpclmulqdq $1, %xmm12, %xmm3, %xmm7
vpxor %xmm15, %xmm13, %xmm13
vpclmulqdq $16, %xmm12, %xmm3, %xmm14
vpshufb %xmm1, %xmm11, %xmm11
vpclmulqdq $17, %xmm12, %xmm3, %xmm12
vpxor %xmm7, %xmm14, %xmm7
vpclmulqdq $0, %xmm11, %xmm4, %xmm14
vpxor %xmm7, %xmm0, %xmm0
vpclmulqdq $1, %xmm11, %xmm4, %xmm7
vpxor %xmm10, %xmm12, %xmm10
vpclmulqdq $16, %xmm11, %xmm4, %xmm12
vpxor %xmm7, %xmm12, %xmm7
vpclmulqdq $0, %xmm9, %xmm5, %xmm12
vpxor %xmm12, %xmm14, %xmm12
vpclmulqdq $17, %xmm11, %xmm4, %xmm11
vpxor %xmm12, %xmm13, %xmm12
vpclmulqdq $1, %xmm9, %xmm5, %xmm13
vpxor %xmm7, %xmm13, %xmm7
vpclmulqdq $17, %xmm9, %xmm5, %xmm13
vpxor %xmm7, %xmm0, %xmm0
vpxor %xmm13, %xmm11, %xmm7
vmovdqu 16(%rcx), %xmm11
vpshufb %xmm1, %xmm11, %xmm11
vpclmulqdq $16, %xmm9, %xmm5, %xmm9
vpxor %xmm7, %xmm10, %xmm7
vpclmulqdq $0, %xmm11, %xmm6, %xmm10
vpxor %xmm10, %xmm12, %xmm10
vpclmulqdq $1, %xmm11, %xmm6, %xmm12
vpxor %xmm12, %xmm9, %xmm9
vpclmulqdq $16, %xmm11, %xmm6, %xmm12
vpxor %xmm12, %xmm9, %xmm9
vpxor %xmm0, %xmm9, %xmm0
vpclmulqdq $17, %xmm11, %xmm6, %xmm9
vpxor %xmm7, %xmm9, %xmm7
vmovdqa (%rsp), %xmm11
vpclmulqdq $0, %xmm8, %xmm11, %xmm9
vpxor %xmm9, %xmm10, %xmm9
vpclmulqdq $1, %xmm8, %xmm11, %xmm10
vpxor %xmm0, %xmm10, %xmm0
vpclmulqdq $16, %xmm8, %xmm11, %xmm10
vpxor %xmm0, %xmm10, %xmm10
vpclmulqdq $17, %xmm8, %xmm11, %xmm0
vpxor %xmm0, %xmm7, %xmm8
vmovdqa %xmm1, %xmm0
vmovdqa %xmm2, %xmm1
addq $96, %rcx
addq $-96, %rsi
cmpq $95, %rsi
ja .LBB1_18
.LBB1_19:
vpslldq $8, %xmm10, %xmm0
vpxor %xmm0, %xmm9, %xmm0
vpbroadcastq .LCPI1_13(%rip), %xmm1
vpclmulqdq $16, %xmm1, %xmm0, %xmm2
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vpsrldq $8, %xmm10, %xmm2
vpclmulqdq $16, %xmm1, %xmm0, %xmm1
vpxor %xmm2, %xmm8, %xmm2
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vpxor %xmm1, %xmm0, %xmm15
cmpq $16, %rsi
jae .LBB1_7
jmp .LBB1_12
.LBB1_20:
testq %r15, %r15
jne .LBB1_25
jmp .LBB1_42
.LBB1_5:
movq %r8, %rsi
cmpq $16, %rsi
jb .LBB1_12
.LBB1_7:
vmovdqa 208(%rdi), %xmm0
leaq -16(%rsi), %rdx
testb $16, %dl
je .LBB1_8
cmpq $16, %rdx
jae .LBB1_10
.LBB1_13:
testq %rdx, %rdx
je .LBB1_21
.LBB1_14:
vmovdqa %xmm15, (%rsp)
movq %r9, %r14
movq %r8, %rbx
movq %rdi, %r12
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, 16(%rsp)
leaq 16(%rsp), %rdi
movq %rcx, %rsi
callq *memcpy@GOTPCREL(%rip)
vmovdqa 16(%rsp), %xmm0
testq %r15, %r15
je .LBB1_15
movabsq $-68719476704, %rax
leaq (%r15,%rax), %rcx
incq %rax
cmpq %rax, %rcx
movl $0, %eax
vmovdqa (%rsp), %xmm2
jb .LBB1_43
movq %r12, %rdi
movq %rbx, %r8
movq %r14, %r9
vmovdqa 208(%r12), %xmm1
vpshufb .LCPI1_2(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpbroadcastq .LCPI1_13(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm1, %xmm4
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm3
vpxor %xmm2, %xmm0, %xmm0
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm15
jmp .LBB1_25
.LBB1_8:
vmovdqu (%rcx), %xmm1
vpshufb .LCPI1_2(%rip), %xmm1, %xmm1
vpxor %xmm1, %xmm15, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpslldq $8, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpbroadcastq .LCPI1_13(%rip), %xmm4
vpclmulqdq $16, %xmm4, %xmm2, %xmm5
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm5, %xmm2
addq $16, %rcx
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
vpsrldq $8, %xmm3, %xmm3
vpclmulqdq $16, %xmm4, %xmm2, %xmm4
vpxor %xmm3, %xmm1, %xmm1
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm15
movq %rdx, %rsi
cmpq $16, %rdx
jb .LBB1_13
.LBB1_10:
vmovdqa .LCPI1_2(%rip), %xmm1
vpbroadcastq .LCPI1_13(%rip), %xmm2
.p2align 4, 0x90
.LBB1_11:
vmovdqu (%rcx), %xmm3
vpshufb %xmm1, %xmm3, %xmm3
vpxor %xmm3, %xmm15, %xmm3
vpclmulqdq $0, %xmm3, %xmm0, %xmm4
vpclmulqdq $1, %xmm3, %xmm0, %xmm5
vmovdqu 16(%rcx), %xmm6
vpclmulqdq $16, %xmm3, %xmm0, %xmm7
vpxor %xmm5, %xmm7, %xmm5
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
vpslldq $8, %xmm5, %xmm7
vpxor %xmm7, %xmm4, %xmm4
vpsrldq $8, %xmm5, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpclmulqdq $16, %xmm2, %xmm4, %xmm5
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $16, %xmm2, %xmm4, %xmm5
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpshufb %xmm1, %xmm6, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpxor %xmm3, %xmm5, %xmm3
vpclmulqdq $0, %xmm3, %xmm0, %xmm4
addq $32, %rcx
vpclmulqdq $1, %xmm3, %xmm0, %xmm5
addq $-32, %rsi
vpclmulqdq $16, %xmm3, %xmm0, %xmm6
vpxor %xmm5, %xmm6, %xmm5
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
vpslldq $8, %xmm5, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpsrldq $8, %xmm5, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpclmulqdq $16, %xmm2, %xmm4, %xmm5
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $16, %xmm2, %xmm4, %xmm5
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpxor %xmm3, %xmm5, %xmm15
cmpq $15, %rsi
ja .LBB1_11
.LBB1_12:
movq %rsi, %rdx
testq %rdx, %rdx
jne .LBB1_14
.LBB1_21:
testq %r15, %r15
je .LBB1_42
movabsq $-68719476704, %rcx
leaq (%r15,%rcx), %rdx
incq %rcx
cmpq %rcx, %rdx
jb .LBB1_43
.LBB1_25:
vmovdqa 112(%rsp), %xmm0
vpshufb .LCPI1_0(%rip), %xmm0, %xmm1
movq 504(%rsp), %rdx
vpaddd .LCPI1_1(%rip), %xmm1, %xmm0
cmpq $96, %r15
jb .LBB1_26
leaq 96(%r9), %rcx
leaq 96(%rdx), %rax
vmovdqa .LCPI1_2(%rip), %xmm11
vpshufb %xmm11, %xmm0, %xmm2
vpaddd .LCPI1_4(%rip), %xmm1, %xmm3
vpshufb %xmm11, %xmm3, %xmm3
vpaddd .LCPI1_5(%rip), %xmm1, %xmm4
vpshufb %xmm11, %xmm4, %xmm4
vpaddd .LCPI1_6(%rip), %xmm1, %xmm5
vpaddd .LCPI1_7(%rip), %xmm1, %xmm6
vpshufb %xmm11, %xmm5, %xmm5
vpshufb %xmm11, %xmm6, %xmm6
vpaddd .LCPI1_8(%rip), %xmm1, %xmm7
vpshufb %xmm11, %xmm7, %xmm7
vpaddd .LCPI1_9(%rip), %xmm1, %xmm0
vmovdqa %xmm0, 32(%rsp)
vmovdqa (%rdi), %xmm9
vmovaps 16(%rdi), %xmm0
vmovdqa 32(%rdi), %xmm1
vmovaps 48(%rdi), %xmm10
vpxor %xmm2, %xmm9, %xmm2
vpxor %xmm3, %xmm9, %xmm3
vpxor %xmm4, %xmm9, %xmm4
vpxor %xmm5, %xmm9, %xmm5
vpxor %xmm6, %xmm9, %xmm6
vpxor %xmm7, %xmm9, %xmm8
vmovaps %xmm0, 304(%rsp)
#APP
vaesenc %xmm0, %xmm2, %xmm2
vaesenc %xmm0, %xmm3, %xmm3
vaesenc %xmm0, %xmm4, %xmm4
vaesenc %xmm0, %xmm5, %xmm5
vaesenc %xmm0, %xmm6, %xmm6
vaesenc %xmm0, %xmm8, %xmm8
#NO_APP
#APP
vaesenc %xmm1, %xmm2, %xmm2
vaesenc %xmm1, %xmm3, %xmm3
vaesenc %xmm1, %xmm4, %xmm4
vaesenc %xmm1, %xmm5, %xmm5
vaesenc %xmm1, %xmm6, %xmm6
vaesenc %xmm1, %xmm8, %xmm8
#NO_APP
vmovaps %xmm10, 288(%rsp)
#APP
vaesenc %xmm10, %xmm2, %xmm2
vaesenc %xmm10, %xmm3, %xmm3
vaesenc %xmm10, %xmm4, %xmm4
vaesenc %xmm10, %xmm5, %xmm5
vaesenc %xmm10, %xmm6, %xmm6
vaesenc %xmm10, %xmm8, %xmm8
#NO_APP
vmovaps 64(%rdi), %xmm7
vmovaps %xmm7, 80(%rsp)
#APP
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm4, %xmm4
vaesenc %xmm7, %xmm5, %xmm5
vaesenc %xmm7, %xmm6, %xmm6
vaesenc %xmm7, %xmm8, %xmm8
#NO_APP
vmovaps 80(%rdi), %xmm7
vmovaps %xmm7, 400(%rsp)
#APP
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm4, %xmm4
vaesenc %xmm7, %xmm5, %xmm5
vaesenc %xmm7, %xmm6, %xmm6
vaesenc %xmm7, %xmm8, %xmm8
#NO_APP
vmovaps 96(%rdi), %xmm7
vmovaps %xmm7, 384(%rsp)
#APP
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm4, %xmm4
vaesenc %xmm7, %xmm5, %xmm5
vaesenc %xmm7, %xmm6, %xmm6
vaesenc %xmm7, %xmm8, %xmm8
#NO_APP
vmovaps 112(%rdi), %xmm7
vmovaps %xmm7, 368(%rsp)
#APP
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm4, %xmm4
vaesenc %xmm7, %xmm5, %xmm5
vaesenc %xmm7, %xmm6, %xmm6
vaesenc %xmm7, %xmm8, %xmm8
#NO_APP
vmovaps 128(%rdi), %xmm7
vmovaps %xmm7, 352(%rsp)
#APP
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm4, %xmm4
vaesenc %xmm7, %xmm5, %xmm5
vaesenc %xmm7, %xmm6, %xmm6
vaesenc %xmm7, %xmm8, %xmm8
#NO_APP
vmovaps 144(%rdi), %xmm7
vmovaps %xmm7, 336(%rsp)
#APP
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm4, %xmm4
vaesenc %xmm7, %xmm5, %xmm5
vaesenc %xmm7, %xmm6, %xmm6
vaesenc %xmm7, %xmm8, %xmm8
#NO_APP
vmovaps 160(%rdi), %xmm7
vmovaps %xmm7, 320(%rsp)
#APP
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm4, %xmm4
vaesenc %xmm7, %xmm5, %xmm5
vaesenc %xmm7, %xmm6, %xmm6
vaesenc %xmm7, %xmm8, %xmm8
#NO_APP
vmovdqa 176(%rdi), %xmm7
vmovdqa %xmm7, %xmm0
#APP
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm4, %xmm4
vaesenc %xmm7, %xmm5, %xmm5
vaesenc %xmm7, %xmm6, %xmm6
vaesenc %xmm7, %xmm8, %xmm8
#NO_APP
vmovdqa 192(%rdi), %xmm7
vmovdqa %xmm7, %xmm14
#APP
vaesenclast %xmm7, %xmm2, %xmm2
vaesenclast %xmm7, %xmm3, %xmm3
vaesenclast %xmm7, %xmm4, %xmm4
vaesenclast %xmm7, %xmm5, %xmm5
vaesenclast %xmm7, %xmm6, %xmm6
vaesenclast %xmm7, %xmm8, %xmm8
#NO_APP
vpxor (%r9), %xmm2, %xmm13
vpxor 16(%r9), %xmm3, %xmm2
vpxor 32(%r9), %xmm4, %xmm7
vpxor 48(%r9), %xmm5, %xmm10
vpxor 64(%r9), %xmm6, %xmm3
vmovdqa %xmm2, %xmm6
vpxor 80(%r9), %xmm8, %xmm12
vmovdqa %xmm3, %xmm8
vmovdqu %xmm13, (%rdx)
vmovdqu %xmm2, 16(%rdx)
vmovdqu %xmm7, 32(%rdx)
vmovdqu %xmm10, 48(%rdx)
vmovdqu %xmm3, 64(%rdx)
leaq -96(%r15), %rbx
vmovdqu %xmm12, 80(%rdx)
cmpq $96, %rbx
jb .LBB1_35
vmovaps 208(%rdi), %xmm2
vmovaps %xmm2, 272(%rsp)
vmovaps 224(%rdi), %xmm2
vmovaps %xmm2, 256(%rsp)
vmovaps 240(%rdi), %xmm2
vmovaps %xmm2, 240(%rsp)
vmovaps 256(%rdi), %xmm2
vmovaps %xmm2, 224(%rsp)
vmovaps 272(%rdi), %xmm2
vmovaps %xmm2, 208(%rsp)
vmovdqa 288(%rdi), %xmm2
vmovdqa %xmm2, 192(%rsp)
vmovdqa %xmm1, 160(%rsp)
vmovdqa 32(%rsp), %xmm1
vmovdqa %xmm9, 176(%rsp)
vmovdqa %xmm0, 128(%rsp)
vmovdqa %xmm14, 144(%rsp)
.p2align 4, 0x90
.LBB1_33:
vmovdqa %xmm7, 96(%rsp)
vmovdqa %xmm8, 48(%rsp)
vmovdqa %xmm6, 64(%rsp)
vpshufb %xmm11, %xmm1, %xmm2
vpaddd .LCPI1_1(%rip), %xmm1, %xmm3
vpshufb %xmm11, %xmm3, %xmm3
vpaddd .LCPI1_4(%rip), %xmm1, %xmm4
vpshufb %xmm11, %xmm4, %xmm4
vpaddd .LCPI1_5(%rip), %xmm1, %xmm5
vpshufb %xmm11, %xmm5, %xmm6
vpaddd .LCPI1_6(%rip), %xmm1, %xmm5
vpshufb %xmm11, %xmm5, %xmm8
vpaddd .LCPI1_7(%rip), %xmm1, %xmm5
vmovdqa %xmm11, %xmm14
vpshufb %xmm11, %xmm5, %xmm11
vpshufb %xmm14, %xmm13, %xmm5
vpxor %xmm5, %xmm15, %xmm0
vmovdqa %xmm0, (%rsp)
vpshufb %xmm14, %xmm12, %xmm0
vmovdqa 176(%rsp), %xmm5
vpxor %xmm2, %xmm5, %xmm13
vpxor %xmm3, %xmm5, %xmm15
vpxor %xmm4, %xmm5, %xmm2
vpxor %xmm6, %xmm5, %xmm3
vpxor %xmm5, %xmm8, %xmm4
vpxor %xmm5, %xmm11, %xmm12
vmovaps 304(%rsp), %xmm5
#APP
vaesenc %xmm5, %xmm13, %xmm13
vaesenc %xmm5, %xmm15, %xmm15
vaesenc %xmm5, %xmm2, %xmm2
vaesenc %xmm5, %xmm3, %xmm3
vaesenc %xmm5, %xmm4, %xmm4
vaesenc %xmm5, %xmm12, %xmm12
#NO_APP
vpxor %xmm8, %xmm8, %xmm8
vpxor %xmm6, %xmm6, %xmm6
vpxor %xmm11, %xmm11, %xmm11
vmovaps 272(%rsp), %xmm7
vmovaps 160(%rsp), %xmm9
#APP
vaesenc %xmm9, %xmm13, %xmm13
vaesenc %xmm9, %xmm15, %xmm15
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm9, %xmm4, %xmm4
vaesenc %xmm9, %xmm12, %xmm12
vpclmulqdq $16, %xmm7, %xmm0, %xmm5
vpxor %xmm5, %xmm8, %xmm8
vpclmulqdq $0, %xmm7, %xmm0, %xmm5
vpxor %xmm5, %xmm11, %xmm11
vpclmulqdq $17, %xmm7, %xmm0, %xmm5
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $1, %xmm7, %xmm0, %xmm5
vpxor %xmm5, %xmm8, %xmm8
#NO_APP
vmovdqa 48(%rsp), %xmm0
vpshufb %xmm14, %xmm0, %xmm0
vmovaps 256(%rsp), %xmm7
vmovaps 288(%rsp), %xmm9
#APP
vaesenc %xmm9, %xmm13, %xmm13
vaesenc %xmm9, %xmm15, %xmm15
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm9, %xmm4, %xmm4
vaesenc %xmm9, %xmm12, %xmm12
vpclmulqdq $16, %xmm7, %xmm0, %xmm5
vpxor %xmm5, %xmm8, %xmm8
vpclmulqdq $0, %xmm7, %xmm0, %xmm5
vpxor %xmm5, %xmm11, %xmm11
vpclmulqdq $17, %xmm7, %xmm0, %xmm5
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $1, %xmm7, %xmm0, %xmm5
vpxor %xmm5, %xmm8, %xmm8
#NO_APP
vpshufb %xmm14, %xmm10, %xmm0
vmovaps 80(%rsp), %xmm5
#APP
vaesenc %xmm5, %xmm13, %xmm13
vaesenc %xmm5, %xmm15, %xmm15
vaesenc %xmm5, %xmm2, %xmm2
vaesenc %xmm5, %xmm3, %xmm3
vaesenc %xmm5, %xmm4, %xmm4
vaesenc %xmm5, %xmm12, %xmm12
#NO_APP
vmovaps 240(%rsp), %xmm7
vmovaps 400(%rsp), %xmm9
#APP
vaesenc %xmm9, %xmm13, %xmm13
vaesenc %xmm9, %xmm15, %xmm15
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm9, %xmm4, %xmm4
vaesenc %xmm9, %xmm12, %xmm12
vpclmulqdq $16, %xmm7, %xmm0, %xmm5
vpxor %xmm5, %xmm8, %xmm8
vpclmulqdq $0, %xmm7, %xmm0, %xmm5
vpxor %xmm5, %xmm11, %xmm11
vpclmulqdq $17, %xmm7, %xmm0, %xmm5
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $1, %xmm7, %xmm0, %xmm5
vpxor %xmm5, %xmm8, %xmm8
#NO_APP
vmovdqa 96(%rsp), %xmm0
vpshufb %xmm14, %xmm0, %xmm0
vmovaps 384(%rsp), %xmm5
#APP
vaesenc %xmm5, %xmm13, %xmm13
vaesenc %xmm5, %xmm15, %xmm15
vaesenc %xmm5, %xmm2, %xmm2
vaesenc %xmm5, %xmm3, %xmm3
vaesenc %xmm5, %xmm4, %xmm4
vaesenc %xmm5, %xmm12, %xmm12
#NO_APP
vmovaps 224(%rsp), %xmm7
vmovaps 368(%rsp), %xmm9
#APP
vaesenc %xmm9, %xmm13, %xmm13
vaesenc %xmm9, %xmm15, %xmm15
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm9, %xmm4, %xmm4
vaesenc %xmm9, %xmm12, %xmm12
vpclmulqdq $16, %xmm7, %xmm0, %xmm5
vpxor %xmm5, %xmm8, %xmm8
vpclmulqdq $0, %xmm7, %xmm0, %xmm5
vpxor %xmm5, %xmm11, %xmm11
vpclmulqdq $17, %xmm7, %xmm0, %xmm5
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $1, %xmm7, %xmm0, %xmm5
vpxor %xmm5, %xmm8, %xmm8
#NO_APP
vmovdqa 64(%rsp), %xmm0
vpshufb %xmm14, %xmm0, %xmm0
vmovaps 352(%rsp), %xmm5
#APP
vaesenc %xmm5, %xmm13, %xmm13
vaesenc %xmm5, %xmm15, %xmm15
vaesenc %xmm5, %xmm2, %xmm2
vaesenc %xmm5, %xmm3, %xmm3
vaesenc %xmm5, %xmm4, %xmm4
vaesenc %xmm5, %xmm12, %xmm12
#NO_APP
vmovaps 208(%rsp), %xmm7
vmovaps 336(%rsp), %xmm9
#APP
vaesenc %xmm9, %xmm13, %xmm13
vaesenc %xmm9, %xmm15, %xmm15
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm9, %xmm4, %xmm4
vaesenc %xmm9, %xmm12, %xmm12
vpclmulqdq $16, %xmm7, %xmm0, %xmm5
vpxor %xmm5, %xmm8, %xmm8
vpclmulqdq $0, %xmm7, %xmm0, %xmm5
vpxor %xmm5, %xmm11, %xmm11
vpclmulqdq $17, %xmm7, %xmm0, %xmm5
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $1, %xmm7, %xmm0, %xmm5
vpxor %xmm5, %xmm8, %xmm8
#NO_APP
vmovdqa 192(%rsp), %xmm5
vmovaps 320(%rsp), %xmm7
vmovdqa (%rsp), %xmm9
#APP
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm15, %xmm15
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm4, %xmm4
vaesenc %xmm7, %xmm12, %xmm12
vpclmulqdq $16, %xmm5, %xmm9, %xmm0
vpxor %xmm0, %xmm8, %xmm8
vpclmulqdq $0, %xmm5, %xmm9, %xmm0
vpxor %xmm0, %xmm11, %xmm11
vpclmulqdq $17, %xmm5, %xmm9, %xmm0
vpxor %xmm0, %xmm6, %xmm6
vpclmulqdq $1, %xmm5, %xmm9, %xmm0
vpxor %xmm0, %xmm8, %xmm8
#NO_APP
vpxor %xmm5, %xmm5, %xmm5
vpunpcklqdq %xmm8, %xmm5, %xmm0
vpxor %xmm0, %xmm11, %xmm0
vmovdqa %xmm14, %xmm11
vpunpckhqdq %xmm5, %xmm8, %xmm5
vpbroadcastq .LCPI1_13(%rip), %xmm8
vpclmulqdq $16, %xmm8, %xmm0, %xmm7
vpxor %xmm5, %xmm6, %xmm5
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm7, %xmm0
vpshufd $78, %xmm0, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vpclmulqdq $16, %xmm8, %xmm0, %xmm0
vmovaps 128(%rsp), %xmm6
#APP
vaesenc %xmm6, %xmm13, %xmm13
vaesenc %xmm6, %xmm15, %xmm15
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm12, %xmm12
#NO_APP
vmovaps 144(%rsp), %xmm6
#APP
vaesenclast %xmm6, %xmm13, %xmm13
vaesenclast %xmm6, %xmm15, %xmm15
vaesenclast %xmm6, %xmm2, %xmm2
vaesenclast %xmm6, %xmm3, %xmm3
vaesenclast %xmm6, %xmm4, %xmm4
vaesenclast %xmm6, %xmm12, %xmm12
#NO_APP
vpxor (%rcx), %xmm13, %xmm13
vpxor 16(%rcx), %xmm15, %xmm6
vpxor 32(%rcx), %xmm2, %xmm7
vpxor 48(%rcx), %xmm3, %xmm10
vpxor 64(%rcx), %xmm4, %xmm8
vpxor %xmm0, %xmm5, %xmm15
vpxor 80(%rcx), %xmm12, %xmm12
addq $96, %rcx
vmovdqu %xmm13, (%rax)
vmovdqu %xmm6, 16(%rax)
vmovdqu %xmm7, 32(%rax)
vmovdqu %xmm10, 48(%rax)
vmovdqu %xmm8, 64(%rax)
vmovdqu %xmm12, 80(%rax)
addq $96, %rax
addq $-96, %rbx
vpaddd .LCPI1_8(%rip), %xmm1, %xmm1
cmpq $95, %rbx
ja .LBB1_33
vmovdqa %xmm1, 32(%rsp)
.LBB1_35:
vpshufb %xmm11, %xmm13, %xmm1
vpxor %xmm1, %xmm15, %xmm1
vpshufb %xmm11, %xmm6, %xmm2
vpshufb %xmm11, %xmm7, %xmm3
vpshufb %xmm11, %xmm10, %xmm5
vpshufb %xmm11, %xmm12, %xmm4
vmovdqa 208(%rdi), %xmm6
vpclmulqdq $0, %xmm4, %xmm6, %xmm7
vpshufb %xmm11, %xmm8, %xmm8
vpclmulqdq $1, %xmm4, %xmm6, %xmm9
vmovdqa 224(%rdi), %xmm10
vpclmulqdq $16, %xmm4, %xmm6, %xmm11
vmovdqa 240(%rdi), %xmm12
vpclmulqdq $17, %xmm4, %xmm6, %xmm6
vmovdqa 256(%rdi), %xmm13
vpclmulqdq $0, %xmm8, %xmm10, %xmm14
vmovdqa 272(%rdi), %xmm0
vpclmulqdq $1, %xmm8, %xmm10, %xmm15
vpxor %xmm9, %xmm11, %xmm9
vpclmulqdq $16, %xmm8, %xmm10, %xmm11
vpclmulqdq $17, %xmm8, %xmm10, %xmm8
vmovdqa 288(%rdi), %xmm4
vpxor %xmm7, %xmm14, %xmm7
vpclmulqdq $0, %xmm5, %xmm12, %xmm10
vpxor %xmm11, %xmm15, %xmm11
vpclmulqdq $1, %xmm5, %xmm12, %xmm14
vpxor %xmm11, %xmm9, %xmm9
vpclmulqdq $16, %xmm5, %xmm12, %xmm11
vpxor %xmm6, %xmm8, %xmm6
vpclmulqdq $17, %xmm5, %xmm12, %xmm5
vpxor %xmm11, %xmm14, %xmm8
vpclmulqdq $0, %xmm3, %xmm13, %xmm11
vpxor %xmm11, %xmm10, %xmm10
vpclmulqdq $1, %xmm3, %xmm13, %xmm11
vpxor %xmm7, %xmm10, %xmm7
vpclmulqdq $16, %xmm3, %xmm13, %xmm10
vpxor %xmm11, %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm13, %xmm3
vpxor %xmm8, %xmm9, %xmm8
vpclmulqdq $0, %xmm2, %xmm0, %xmm9
vpxor %xmm3, %xmm5, %xmm3
vpclmulqdq $1, %xmm2, %xmm0, %xmm5
vpxor %xmm3, %xmm6, %xmm3
vpclmulqdq $16, %xmm2, %xmm0, %xmm6
vpxor %xmm7, %xmm9, %xmm7
vpxor %xmm5, %xmm10, %xmm5
vpxor %xmm6, %xmm5, %xmm5
vpxor %xmm5, %xmm8, %xmm5
vpclmulqdq $17, %xmm2, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm0
vpclmulqdq $0, %xmm1, %xmm4, %xmm2
vpxor %xmm2, %xmm7, %xmm2
vpclmulqdq $1, %xmm1, %xmm4, %xmm3
vpxor %xmm3, %xmm5, %xmm3
vpclmulqdq $16, %xmm1, %xmm4, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpclmulqdq $17, %xmm1, %xmm4, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpbroadcastq .LCPI1_13(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm1, %xmm4
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm3
vpxor %xmm2, %xmm0, %xmm0
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm3, %xmm0, %xmm15
movq %rax, %rdx
movq %rcx, %r9
vmovdqa %xmm15, %xmm1
cmpq $16, %rbx
jae .LBB1_36
.LBB1_28:
movq %rdx, %r14
movq %r9, %rsi
vmovdqa 32(%rsp), %xmm4
jmp .LBB1_29
.LBB1_26:
vmovdqa %xmm0, 32(%rsp)
movq %r15, %rbx
vmovdqa %xmm15, %xmm1
cmpq $16, %rbx
jb .LBB1_28
.LBB1_36:
vmovaps (%rdi), %xmm0
vmovaps %xmm0, (%rsp)
vmovaps 16(%rdi), %xmm0
vmovaps %xmm0, 64(%rsp)
vmovaps 32(%rdi), %xmm0
vmovaps %xmm0, 48(%rsp)
vmovaps 48(%rdi), %xmm0
vmovaps %xmm0, 96(%rsp)
vmovdqa 64(%rdi), %xmm0
vmovdqa %xmm0, 80(%rsp)
vmovdqa 80(%rdi), %xmm5
vmovdqa 96(%rdi), %xmm6
vmovdqa 112(%rdi), %xmm7
vmovdqa 128(%rdi), %xmm8
vmovdqa 144(%rdi), %xmm9
vmovdqa 160(%rdi), %xmm10
vmovdqa 176(%rdi), %xmm11
vmovdqa 192(%rdi), %xmm12
vmovdqa 208(%rdi), %xmm13
vmovdqa .LCPI1_2(%rip), %xmm14
vpbroadcastq .LCPI1_13(%rip), %xmm15
vmovdqa 32(%rsp), %xmm4
.p2align 4, 0x90
.LBB1_37:
vpshufb %xmm14, %xmm4, %xmm0
vpxor (%rsp), %xmm0, %xmm0
vaesenc 64(%rsp), %xmm0, %xmm0
vaesenc 48(%rsp), %xmm0, %xmm0
vaesenc 96(%rsp), %xmm0, %xmm0
vaesenc 80(%rsp), %xmm0, %xmm0
vaesenc %xmm5, %xmm0, %xmm0
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm7, %xmm0, %xmm0
vaesenc %xmm8, %xmm0, %xmm0
vaesenc %xmm9, %xmm0, %xmm0
vaesenc %xmm10, %xmm0, %xmm0
vaesenc %xmm11, %xmm0, %xmm0
vaesenclast %xmm12, %xmm0, %xmm0
vpxor (%r9), %xmm0, %xmm0
vmovdqu %xmm0, (%rdx)
vpshufb %xmm14, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpclmulqdq $0, %xmm0, %xmm13, %xmm1
vpclmulqdq $1, %xmm0, %xmm13, %xmm2
vpclmulqdq $16, %xmm0, %xmm13, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $17, %xmm0, %xmm13, %xmm0
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpsrldq $8, %xmm2, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpclmulqdq $16, %xmm15, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpclmulqdq $16, %xmm15, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm1
leaq 16(%r9), %rsi
leaq 16(%rdx), %r14
addq $-16, %rbx
vpaddd .LCPI1_1(%rip), %xmm4, %xmm4
movq %r14, %rdx
movq %rsi, %r9
cmpq $15, %rbx
ja .LBB1_37
.LBB1_29:
vmovdqa %xmm1, (%rsp)
vmovdqa %xmm4, 32(%rsp)
testq %rbx, %rbx
je .LBB1_30
movq %r8, 64(%rsp)
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, 16(%rsp)
leaq 16(%rsp), %rax
movq memcpy@GOTPCREL(%rip), %rbp
movq %rdi, %r13
movq %rax, %rdi
movq %rbx, %rdx
callq *%rbp
vmovdqa 32(%rsp), %xmm0
vpshufb .LCPI1_2(%rip), %xmm0, %xmm0
vpxor (%r13), %xmm0, %xmm0
vaesenc 16(%r13), %xmm0, %xmm0
vaesenc 32(%r13), %xmm0, %xmm0
vaesenc 48(%r13), %xmm0, %xmm0
vaesenc 64(%r13), %xmm0, %xmm0
vaesenc 80(%r13), %xmm0, %xmm0
vaesenc 96(%r13), %xmm0, %xmm0
vaesenc 112(%r13), %xmm0, %xmm0
vaesenc 128(%r13), %xmm0, %xmm0
vaesenc 144(%r13), %xmm0, %xmm0
vaesenc 160(%r13), %xmm0, %xmm0
vaesenc 176(%r13), %xmm0, %xmm0
movq %r13, %r12
vaesenclast 192(%r13), %xmm0, %xmm0
vpxor 16(%rsp), %xmm0, %xmm0
vmovdqa %xmm0, 48(%rsp)
vmovdqa %xmm0, 16(%rsp)
leaq 16(%rsp), %rsi
movq %r14, %rdi
movq %rbx, %rdx
callq *%rbp
testq %r15, %r15
je .LBB1_39
vmovaps 48(%rsp), %xmm0
vmovaps %xmm0, 416(%rsp)
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, 16(%rsp)
leaq 16(%rsp), %rdi
leaq 416(%rsp), %rsi
movq %rbx, %rdx
callq *memcpy@GOTPCREL(%rip)
vmovdqa 16(%rsp), %xmm0
vpshufb .LCPI1_2(%rip), %xmm0, %xmm0
vpxor (%rsp), %xmm0, %xmm0
movq %r12, %rdi
vmovdqa 208(%r12), %xmm1
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
jmp .LBB1_41
.LBB1_30:
vmovdqa (%rsp), %xmm15
jmp .LBB1_42
.LBB1_15:
movq %r12, %rdi
vmovdqa 208(%r12), %xmm1
vpshufb .LCPI1_2(%rip), %xmm0, %xmm0
vpxor (%rsp), %xmm0, %xmm0
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpbroadcastq .LCPI1_13(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm1, %xmm4
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm3
vpxor %xmm2, %xmm0, %xmm0
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm15
movq %rbx, %r8
jmp .LBB1_42
.LBB1_39:
movq %r12, %rdi
vmovdqa 208(%r12), %xmm0
vmovdqa 48(%rsp), %xmm1
vpshufb .LCPI1_2(%rip), %xmm1, %xmm1
vpxor (%rsp), %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm0, %xmm0
.LBB1_41:
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpbroadcastq .LCPI1_13(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm1, %xmm4
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm3
vpxor %xmm2, %xmm0, %xmm0
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm15
movq 64(%rsp), %r8
.LBB1_42:
vmovdqa 208(%rdi), %xmm0
vmovq %r8, %xmm1
vmovq %r15, %xmm2
vpunpcklqdq %xmm1, %xmm2, %xmm1
vpsllq $3, %xmm1, %xmm1
vpxor %xmm1, %xmm15, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpclmulqdq $17, %xmm1, %xmm0, %xmm0
vpxor %xmm3, %xmm4, %xmm1
vpslldq $8, %xmm1, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vpbroadcastq .LCPI1_13(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm2, %xmm4
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm4, %xmm2
vpclmulqdq $16, %xmm3, %xmm2, %xmm3
movq 520(%rsp), %rax
vpxor %xmm0, %xmm3, %xmm0
vmovdqa 112(%rsp), %xmm3
vpxor (%rdi), %xmm3, %xmm3
vaesenc 16(%rdi), %xmm3, %xmm3
vaesenc 32(%rdi), %xmm3, %xmm3
vaesenc 48(%rdi), %xmm3, %xmm3
vaesenc 64(%rdi), %xmm3, %xmm3
vaesenc 80(%rdi), %xmm3, %xmm3
vaesenc 96(%rdi), %xmm3, %xmm3
vaesenc 112(%rdi), %xmm3, %xmm3
vaesenc 128(%rdi), %xmm3, %xmm3
vaesenc 144(%rdi), %xmm3, %xmm3
vaesenc 160(%rdi), %xmm3, %xmm3
vaesenc 176(%rdi), %xmm3, %xmm3
vaesenclast 192(%rdi), %xmm3, %xmm3
vpshufb .LCPI1_2(%rip), %xmm0, %xmm0
vpshufb .LCPI1_10(%rip), %xmm1, %xmm1
vpshufb .LCPI1_11(%rip), %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm0
vmovdqu %xmm0, (%rax)
movl $1, %eax
.LBB1_43:
addq $440, %rsp
.cfi_def_cfa_offset 56
popq %rbx
.cfi_def_cfa_offset 48
popq %r12
.cfi_def_cfa_offset 40
popq %r13
.cfi_def_cfa_offset 32
popq %r14
.cfi_def_cfa_offset 24
popq %r15
.cfi_def_cfa_offset 16
popq %rbp
.cfi_def_cfa_offset 8
retq
.Lfunc_end1:
.size haberdashery_aes192gcm_haswell_encrypt, .Lfunc_end1-haberdashery_aes192gcm_haswell_encrypt
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI2_0:
.byte 15
.byte 128
.byte 128
.byte 128
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI2_1:
.long 1
.long 0
.long 0
.long 0
.LCPI2_2:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI2_3:
.zero 8
.quad -4467570830351532032
.LCPI2_4:
.long 2
.long 0
.long 0
.long 0
.LCPI2_5:
.long 3
.long 0
.long 0
.long 0
.LCPI2_6:
.long 4
.long 0
.long 0
.long 0
.LCPI2_7:
.long 5
.long 0
.long 0
.long 0
.LCPI2_8:
.long 6
.long 0
.long 0
.long 0
.LCPI2_9:
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.LCPI2_10:
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI2_11:
.quad -4467570830351532032
.section .text.haberdashery_aes192gcm_haswell_decrypt,"ax",@progbits
.globl haberdashery_aes192gcm_haswell_decrypt
.p2align 4, 0x90
.type haberdashery_aes192gcm_haswell_decrypt,@function
haberdashery_aes192gcm_haswell_decrypt:
.cfi_startproc
pushq %rbp
.cfi_def_cfa_offset 16
pushq %r15
.cfi_def_cfa_offset 24
pushq %r14
.cfi_def_cfa_offset 32
pushq %r13
.cfi_def_cfa_offset 40
pushq %r12
.cfi_def_cfa_offset 48
pushq %rbx
.cfi_def_cfa_offset 56
subq $456, %rsp
.cfi_def_cfa_offset 512
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
.cfi_offset %rbp, -16
movq 512(%rsp), %r15
xorl %eax, %eax
cmpq 544(%rsp), %r15
jne .LBB2_39
cmpq $16, 528(%rsp)
setne %r10b
movabsq $2305843009213693950, %r11
cmpq %r11, %r8
seta %r11b
movq %r15, %rbx
shrq $5, %rbx
cmpq $2147483647, %rbx
setae %bl
orb %r10b, %r11b
orb %bl, %r11b
cmpq $12, %rdx
setne %dl
orb %r11b, %dl
jne .LBB2_39
movq 520(%rsp), %r12
vmovd (%rsi), %xmm0
vpinsrd $1, 4(%rsi), %xmm0, %xmm0
vpinsrd $2, 8(%rsi), %xmm0, %xmm0
movl $16777216, %edx
vpinsrd $3, %edx, %xmm0, %xmm0
vmovdqa %xmm0, 112(%rsp)
vpxor %xmm11, %xmm11, %xmm11
testq %r8, %r8
je .LBB2_3
cmpq $96, %r8
jb .LBB2_6
vmovdqu (%rcx), %xmm1
vmovdqu 16(%rcx), %xmm2
vmovdqu 32(%rcx), %xmm3
vmovdqu 48(%rcx), %xmm4
vmovdqu 64(%rcx), %xmm5
vmovdqu 80(%rcx), %xmm9
vmovdqa .LCPI2_2(%rip), %xmm0
vpshufb %xmm0, %xmm1, %xmm13
vpshufb %xmm0, %xmm2, %xmm8
vpshufb %xmm0, %xmm3, %xmm6
vpshufb %xmm0, %xmm9, %xmm3
vmovdqa 208(%rdi), %xmm1
vpclmulqdq $0, %xmm3, %xmm1, %xmm9
vpshufb %xmm0, %xmm4, %xmm10
vpclmulqdq $1, %xmm3, %xmm1, %xmm11
vpshufb %xmm0, %xmm5, %xmm5
vpclmulqdq $16, %xmm3, %xmm1, %xmm12
vmovdqa 224(%rdi), %xmm2
vpclmulqdq $17, %xmm3, %xmm1, %xmm7
vmovdqa 240(%rdi), %xmm4
vpclmulqdq $0, %xmm5, %xmm2, %xmm14
vmovdqa 256(%rdi), %xmm3
vpclmulqdq $1, %xmm5, %xmm2, %xmm15
vpxor %xmm11, %xmm12, %xmm11
vpclmulqdq $16, %xmm5, %xmm2, %xmm12
vpxor %xmm9, %xmm14, %xmm9
vpclmulqdq $17, %xmm5, %xmm2, %xmm5
vpxor %xmm12, %xmm15, %xmm12
vpclmulqdq $0, %xmm10, %xmm4, %xmm14
vpxor %xmm12, %xmm11, %xmm11
vpclmulqdq $1, %xmm10, %xmm4, %xmm12
vpxor %xmm7, %xmm5, %xmm7
vpclmulqdq $16, %xmm10, %xmm4, %xmm15
vmovdqa 272(%rdi), %xmm5
vpclmulqdq $17, %xmm10, %xmm4, %xmm10
vpxor %xmm15, %xmm12, %xmm12
vpclmulqdq $0, %xmm6, %xmm3, %xmm15
vpxor %xmm15, %xmm14, %xmm14
vpclmulqdq $1, %xmm6, %xmm3, %xmm15
vpxor %xmm14, %xmm9, %xmm9
vpclmulqdq $16, %xmm6, %xmm3, %xmm14
vpxor %xmm15, %xmm12, %xmm12
vpclmulqdq $17, %xmm6, %xmm3, %xmm6
vpxor %xmm12, %xmm11, %xmm11
vpclmulqdq $0, %xmm8, %xmm5, %xmm12
vpxor %xmm6, %xmm10, %xmm6
vpclmulqdq $1, %xmm8, %xmm5, %xmm10
vpxor %xmm6, %xmm7, %xmm6
vmovdqa %xmm6, (%rsp)
vpclmulqdq $16, %xmm8, %xmm5, %xmm15
vmovdqa 288(%rdi), %xmm6
vpclmulqdq $0, %xmm13, %xmm6, %xmm7
vpxor %xmm10, %xmm14, %xmm10
vpxor %xmm15, %xmm10, %xmm10
vpxor %xmm7, %xmm12, %xmm7
vpxor %xmm7, %xmm9, %xmm9
vpclmulqdq $1, %xmm13, %xmm6, %xmm7
vpxor %xmm7, %xmm10, %xmm7
vpxor %xmm7, %xmm11, %xmm7
vpclmulqdq $16, %xmm13, %xmm6, %xmm10
vpxor %xmm7, %xmm10, %xmm10
vpclmulqdq $17, %xmm8, %xmm5, %xmm7
vpclmulqdq $17, %xmm13, %xmm6, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpxor (%rsp), %xmm7, %xmm8
addq $96, %rcx
leaq -96(%r8), %rsi
cmpq $96, %rsi
jb .LBB2_16
vmovdqa %xmm6, (%rsp)
vmovdqa %xmm5, %xmm6
vmovdqa %xmm3, %xmm5
vmovdqa %xmm2, %xmm3
.p2align 4, 0x90
.LBB2_15:
vmovdqu (%rcx), %xmm12
vmovdqu 32(%rcx), %xmm13
vmovdqu 48(%rcx), %xmm11
vmovdqu 64(%rcx), %xmm14
vmovdqu 80(%rcx), %xmm15
vpslldq $8, %xmm10, %xmm7
vpxor %xmm7, %xmm9, %xmm7
vpsrldq $8, %xmm10, %xmm9
vpbroadcastq .LCPI2_11(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm7, %xmm10
vpshufd $78, %xmm7, %xmm7
vpxor %xmm7, %xmm10, %xmm7
vpclmulqdq $16, %xmm2, %xmm7, %xmm10
vpxor %xmm9, %xmm8, %xmm8
vpshufd $78, %xmm7, %xmm7
vpshufb %xmm0, %xmm12, %xmm9
vpxor %xmm9, %xmm8, %xmm8
vpshufb %xmm0, %xmm15, %xmm12
vpclmulqdq $0, %xmm12, %xmm1, %xmm15
vpxor %xmm7, %xmm8, %xmm7
vmovdqa %xmm1, %xmm2
vmovdqa %xmm0, %xmm1
vpclmulqdq $1, %xmm12, %xmm2, %xmm0
vpxor %xmm7, %xmm10, %xmm8
vpclmulqdq $16, %xmm12, %xmm2, %xmm7
vpshufb %xmm1, %xmm13, %xmm9
vpclmulqdq $17, %xmm12, %xmm2, %xmm10
vpshufb %xmm1, %xmm14, %xmm12
vpclmulqdq $0, %xmm12, %xmm3, %xmm13
vpxor %xmm0, %xmm7, %xmm0
vpclmulqdq $1, %xmm12, %xmm3, %xmm7
vpxor %xmm15, %xmm13, %xmm13
vpclmulqdq $16, %xmm12, %xmm3, %xmm14
vpshufb %xmm1, %xmm11, %xmm11
vpclmulqdq $17, %xmm12, %xmm3, %xmm12
vpxor %xmm7, %xmm14, %xmm7
vpclmulqdq $0, %xmm11, %xmm4, %xmm14
vpxor %xmm7, %xmm0, %xmm0
vpclmulqdq $1, %xmm11, %xmm4, %xmm7
vpxor %xmm10, %xmm12, %xmm10
vpclmulqdq $16, %xmm11, %xmm4, %xmm12
vpxor %xmm7, %xmm12, %xmm7
vpclmulqdq $0, %xmm9, %xmm5, %xmm12
vpxor %xmm12, %xmm14, %xmm12
vpclmulqdq $17, %xmm11, %xmm4, %xmm11
vpxor %xmm12, %xmm13, %xmm12
vpclmulqdq $1, %xmm9, %xmm5, %xmm13
vpxor %xmm7, %xmm13, %xmm7
vpclmulqdq $17, %xmm9, %xmm5, %xmm13
vpxor %xmm7, %xmm0, %xmm0
vpxor %xmm13, %xmm11, %xmm7
vmovdqu 16(%rcx), %xmm11
vpshufb %xmm1, %xmm11, %xmm11
vpclmulqdq $16, %xmm9, %xmm5, %xmm9
vpxor %xmm7, %xmm10, %xmm7
vpclmulqdq $0, %xmm11, %xmm6, %xmm10
vpxor %xmm10, %xmm12, %xmm10
vpclmulqdq $1, %xmm11, %xmm6, %xmm12
vpxor %xmm12, %xmm9, %xmm9
vpclmulqdq $16, %xmm11, %xmm6, %xmm12
vpxor %xmm12, %xmm9, %xmm9
vpxor %xmm0, %xmm9, %xmm0
vpclmulqdq $17, %xmm11, %xmm6, %xmm9
vpxor %xmm7, %xmm9, %xmm7
vmovdqa (%rsp), %xmm11
vpclmulqdq $0, %xmm8, %xmm11, %xmm9
vpxor %xmm9, %xmm10, %xmm9
vpclmulqdq $1, %xmm8, %xmm11, %xmm10
vpxor %xmm0, %xmm10, %xmm0
vpclmulqdq $16, %xmm8, %xmm11, %xmm10
vpxor %xmm0, %xmm10, %xmm10
vpclmulqdq $17, %xmm8, %xmm11, %xmm0
vpxor %xmm0, %xmm7, %xmm8
vmovdqa %xmm1, %xmm0
vmovdqa %xmm2, %xmm1
addq $96, %rcx
addq $-96, %rsi
cmpq $95, %rsi
ja .LBB2_15
.LBB2_16:
vpslldq $8, %xmm10, %xmm0
vpxor %xmm0, %xmm9, %xmm0
vpbroadcastq .LCPI2_11(%rip), %xmm1
vpclmulqdq $16, %xmm1, %xmm0, %xmm2
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vpsrldq $8, %xmm10, %xmm2
vpclmulqdq $16, %xmm1, %xmm0, %xmm1
vpxor %xmm2, %xmm8, %xmm2
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vpxor %xmm1, %xmm0, %xmm11
cmpq $16, %rsi
jae .LBB2_17
jmp .LBB2_8
.LBB2_6:
movq %r8, %rsi
cmpq $16, %rsi
jb .LBB2_8
.LBB2_17:
vmovdqa 208(%rdi), %xmm0
leaq -16(%rsi), %rdx
testb $16, %dl
je .LBB2_18
cmpq $16, %rdx
jae .LBB2_20
.LBB2_9:
testq %rdx, %rdx
je .LBB2_3
.LBB2_10:
vmovdqa %xmm11, 16(%rsp)
movq %r9, %r14
movq %r8, %rbx
movq %rdi, %r13
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, 32(%rsp)
leaq 32(%rsp), %rdi
movq %rcx, %rsi
callq *memcpy@GOTPCREL(%rip)
vmovdqa 32(%rsp), %xmm0
testq %r15, %r15
je .LBB2_11
movabsq $-68719476704, %rax
leaq (%r15,%rax), %rcx
incq %rax
cmpq %rax, %rcx
movl $0, %eax
vmovdqa 16(%rsp), %xmm2
jb .LBB2_39
movq %r13, %rdi
movq %rbx, %r8
movq %r14, %r9
vmovdqa 208(%r13), %xmm1
vpshufb .LCPI2_2(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpbroadcastq .LCPI2_11(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm1, %xmm4
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm3
vpxor %xmm2, %xmm0, %xmm0
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm11
jmp .LBB2_24
.LBB2_18:
vmovdqu (%rcx), %xmm1
vpshufb .LCPI2_2(%rip), %xmm1, %xmm1
vpxor %xmm1, %xmm11, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpslldq $8, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpbroadcastq .LCPI2_11(%rip), %xmm4
vpclmulqdq $16, %xmm4, %xmm2, %xmm5
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm5, %xmm2
addq $16, %rcx
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
vpsrldq $8, %xmm3, %xmm3
vpclmulqdq $16, %xmm4, %xmm2, %xmm4
vpxor %xmm3, %xmm1, %xmm1
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm11
movq %rdx, %rsi
cmpq $16, %rdx
jb .LBB2_9
.LBB2_20:
vmovdqa .LCPI2_2(%rip), %xmm1
vpbroadcastq .LCPI2_11(%rip), %xmm2
.p2align 4, 0x90
.LBB2_21:
vmovdqu (%rcx), %xmm3
vpshufb %xmm1, %xmm3, %xmm3
vpxor %xmm3, %xmm11, %xmm3
vpclmulqdq $0, %xmm3, %xmm0, %xmm4
vpclmulqdq $1, %xmm3, %xmm0, %xmm5
vmovdqu 16(%rcx), %xmm6
vpclmulqdq $16, %xmm3, %xmm0, %xmm7
vpxor %xmm5, %xmm7, %xmm5
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
vpslldq $8, %xmm5, %xmm7
vpxor %xmm7, %xmm4, %xmm4
vpsrldq $8, %xmm5, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpclmulqdq $16, %xmm2, %xmm4, %xmm5
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $16, %xmm2, %xmm4, %xmm5
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpshufb %xmm1, %xmm6, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpxor %xmm3, %xmm5, %xmm3
vpclmulqdq $0, %xmm3, %xmm0, %xmm4
addq $32, %rcx
vpclmulqdq $1, %xmm3, %xmm0, %xmm5
addq $-32, %rsi
vpclmulqdq $16, %xmm3, %xmm0, %xmm6
vpxor %xmm5, %xmm6, %xmm5
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
vpslldq $8, %xmm5, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpsrldq $8, %xmm5, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpclmulqdq $16, %xmm2, %xmm4, %xmm5
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $16, %xmm2, %xmm4, %xmm5
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpxor %xmm3, %xmm5, %xmm11
cmpq $15, %rsi
ja .LBB2_21
.LBB2_8:
movq %rsi, %rdx
testq %rdx, %rdx
jne .LBB2_10
.LBB2_3:
testq %r15, %r15
je .LBB2_12
movabsq $-68719476704, %rcx
leaq (%r15,%rcx), %rdx
incq %rcx
cmpq %rcx, %rdx
jb .LBB2_39
.LBB2_24:
vmovdqa 112(%rsp), %xmm0
vpshufb .LCPI2_0(%rip), %xmm0, %xmm0
movq 536(%rsp), %rax
vpaddd .LCPI2_1(%rip), %xmm0, %xmm6
cmpq $96, %r15
jb .LBB2_25
vmovaps (%rdi), %xmm0
vmovaps %xmm0, 144(%rsp)
vmovaps 16(%rdi), %xmm0
vmovaps %xmm0, 416(%rsp)
vmovaps 32(%rdi), %xmm0
vmovaps %xmm0, 400(%rsp)
vmovaps 48(%rdi), %xmm0
vmovaps %xmm0, 384(%rsp)
vmovaps 64(%rdi), %xmm0
vmovaps %xmm0, 368(%rsp)
vmovaps 80(%rdi), %xmm0
vmovaps %xmm0, 352(%rsp)
vmovaps 96(%rdi), %xmm0
vmovaps %xmm0, 336(%rsp)
vmovaps 112(%rdi), %xmm0
vmovaps %xmm0, 320(%rsp)
vmovaps 128(%rdi), %xmm0
vmovaps %xmm0, 304(%rsp)
vmovaps 144(%rdi), %xmm0
vmovaps %xmm0, 288(%rsp)
vmovaps 160(%rdi), %xmm0
vmovaps %xmm0, 272(%rsp)
vmovaps 176(%rdi), %xmm0
vmovaps %xmm0, 256(%rsp)
vmovaps 192(%rdi), %xmm0
vmovaps %xmm0, 240(%rsp)
vmovaps 208(%rdi), %xmm0
vmovaps %xmm0, 224(%rsp)
vmovaps 224(%rdi), %xmm0
vmovaps %xmm0, 208(%rsp)
vmovaps 240(%rdi), %xmm0
vmovaps %xmm0, 192(%rsp)
movq %r15, %rbx
vmovaps 256(%rdi), %xmm0
vmovaps %xmm0, 176(%rsp)
vmovaps 272(%rdi), %xmm0
vmovaps %xmm0, 160(%rsp)
vmovdqa 288(%rdi), %xmm0
vmovdqa %xmm0, 128(%rsp)
.p2align 4, 0x90
.LBB2_29:
vmovdqa %xmm6, (%rsp)
vmovdqu (%r9), %xmm10
vmovdqa %xmm10, 80(%rsp)
vmovups 32(%r9), %xmm0
vmovaps %xmm0, 16(%rsp)
vmovdqu 48(%r9), %xmm8
vmovdqu 64(%r9), %xmm7
vmovdqa %xmm7, 64(%rsp)
vmovdqu 80(%r9), %xmm9
vmovdqa %xmm9, 96(%rsp)
vmovdqa .LCPI2_2(%rip), %xmm4
vpshufb %xmm4, %xmm6, %xmm0
vpaddd .LCPI2_1(%rip), %xmm6, %xmm1
vpshufb %xmm4, %xmm1, %xmm1
vpaddd .LCPI2_4(%rip), %xmm6, %xmm2
vpshufb %xmm4, %xmm2, %xmm2
vpaddd .LCPI2_5(%rip), %xmm6, %xmm3
vpshufb %xmm4, %xmm3, %xmm3
vmovdqa (%rsp), %xmm5
vpaddd .LCPI2_6(%rip), %xmm5, %xmm5
vpshufb %xmm4, %xmm5, %xmm5
vmovdqa (%rsp), %xmm6
vpaddd .LCPI2_7(%rip), %xmm6, %xmm6
vpshufb %xmm4, %xmm6, %xmm6
vpshufb %xmm4, %xmm10, %xmm12
vpxor %xmm12, %xmm11, %xmm10
vmovdqa %xmm10, 48(%rsp)
vpshufb %xmm4, %xmm9, %xmm10
vmovdqa 144(%rsp), %xmm9
vpxor %xmm0, %xmm9, %xmm13
vpxor %xmm1, %xmm9, %xmm14
vpxor %xmm2, %xmm9, %xmm15
vpxor %xmm3, %xmm9, %xmm1
vpxor %xmm5, %xmm9, %xmm2
vpxor %xmm6, %xmm9, %xmm12
vmovaps 416(%rsp), %xmm0
#APP
vaesenc %xmm0, %xmm13, %xmm13
vaesenc %xmm0, %xmm14, %xmm14
vaesenc %xmm0, %xmm15, %xmm15
vaesenc %xmm0, %xmm1, %xmm1
vaesenc %xmm0, %xmm2, %xmm2
vaesenc %xmm0, %xmm12, %xmm12
#NO_APP
vpxor %xmm5, %xmm5, %xmm5
vpxor %xmm6, %xmm6, %xmm6
vxorps %xmm0, %xmm0, %xmm0
vmovaps 400(%rsp), %xmm9
vmovaps 224(%rsp), %xmm11
#APP
vaesenc %xmm9, %xmm13, %xmm13
vaesenc %xmm9, %xmm14, %xmm14
vaesenc %xmm9, %xmm15, %xmm15
vaesenc %xmm9, %xmm1, %xmm1
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm9, %xmm12, %xmm12
vpclmulqdq $16, %xmm11, %xmm10, %xmm3
vpxor %xmm3, %xmm5, %xmm5
vpclmulqdq $0, %xmm11, %xmm10, %xmm3
vpxor %xmm3, %xmm0, %xmm0
vpclmulqdq $17, %xmm11, %xmm10, %xmm3
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $1, %xmm11, %xmm10, %xmm3
vpxor %xmm3, %xmm5, %xmm5
#NO_APP
vpshufb %xmm4, %xmm7, %xmm3
vmovaps 384(%rsp), %xmm9
vmovaps 208(%rsp), %xmm11
#APP
vaesenc %xmm9, %xmm13, %xmm13
vaesenc %xmm9, %xmm14, %xmm14
vaesenc %xmm9, %xmm15, %xmm15
vaesenc %xmm9, %xmm1, %xmm1
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm9, %xmm12, %xmm12
vpclmulqdq $16, %xmm11, %xmm3, %xmm7
vpxor %xmm7, %xmm5, %xmm5
vpclmulqdq $0, %xmm11, %xmm3, %xmm7
vpxor %xmm7, %xmm0, %xmm0
vpclmulqdq $17, %xmm11, %xmm3, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpclmulqdq $1, %xmm11, %xmm3, %xmm7
vpxor %xmm7, %xmm5, %xmm5
#NO_APP
vpshufb %xmm4, %xmm8, %xmm3
vmovaps 368(%rsp), %xmm7
#APP
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm14, %xmm14
vaesenc %xmm7, %xmm15, %xmm15
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm7, %xmm12, %xmm12
#NO_APP
vmovaps 352(%rsp), %xmm9
vmovaps 192(%rsp), %xmm11
#APP
vaesenc %xmm9, %xmm13, %xmm13
vaesenc %xmm9, %xmm14, %xmm14
vaesenc %xmm9, %xmm15, %xmm15
vaesenc %xmm9, %xmm1, %xmm1
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm9, %xmm12, %xmm12
vpclmulqdq $16, %xmm11, %xmm3, %xmm7
vpxor %xmm7, %xmm5, %xmm5
vpclmulqdq $0, %xmm11, %xmm3, %xmm7
vpxor %xmm7, %xmm0, %xmm0
vpclmulqdq $17, %xmm11, %xmm3, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpclmulqdq $1, %xmm11, %xmm3, %xmm7
vpxor %xmm7, %xmm5, %xmm5
#NO_APP
vmovdqa 16(%rsp), %xmm3
vpshufb %xmm4, %xmm3, %xmm3
vmovaps 336(%rsp), %xmm7
#APP
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm14, %xmm14
vaesenc %xmm7, %xmm15, %xmm15
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm7, %xmm12, %xmm12
#NO_APP
vmovaps 320(%rsp), %xmm9
vmovaps 176(%rsp), %xmm11
#APP
vaesenc %xmm9, %xmm13, %xmm13
vaesenc %xmm9, %xmm14, %xmm14
vaesenc %xmm9, %xmm15, %xmm15
vaesenc %xmm9, %xmm1, %xmm1
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm9, %xmm12, %xmm12
vpclmulqdq $16, %xmm11, %xmm3, %xmm7
vpxor %xmm7, %xmm5, %xmm5
vpclmulqdq $0, %xmm11, %xmm3, %xmm7
vpxor %xmm7, %xmm0, %xmm0
vpclmulqdq $17, %xmm11, %xmm3, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpclmulqdq $1, %xmm11, %xmm3, %xmm7
vpxor %xmm7, %xmm5, %xmm5
#NO_APP
vmovdqu 16(%r9), %xmm3
vmovaps 304(%rsp), %xmm7
#APP
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm14, %xmm14
vaesenc %xmm7, %xmm15, %xmm15
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm7, %xmm12, %xmm12
#NO_APP
vpshufb %xmm4, %xmm3, %xmm7
vmovaps 288(%rsp), %xmm11
vmovaps 160(%rsp), %xmm10
#APP
vaesenc %xmm11, %xmm13, %xmm13
vaesenc %xmm11, %xmm14, %xmm14
vaesenc %xmm11, %xmm15, %xmm15
vaesenc %xmm11, %xmm1, %xmm1
vaesenc %xmm11, %xmm2, %xmm2
vaesenc %xmm11, %xmm12, %xmm12
vpclmulqdq $16, %xmm10, %xmm7, %xmm9
vpxor %xmm5, %xmm9, %xmm5
vpclmulqdq $0, %xmm10, %xmm7, %xmm9
vpxor %xmm0, %xmm9, %xmm0
vpclmulqdq $17, %xmm10, %xmm7, %xmm9
vpxor %xmm6, %xmm9, %xmm6
vpclmulqdq $1, %xmm10, %xmm7, %xmm9
vpxor %xmm5, %xmm9, %xmm5
#NO_APP
vmovdqa 272(%rsp), %xmm9
vmovdqa 128(%rsp), %xmm10
vmovdqa 48(%rsp), %xmm4
#APP
vaesenc %xmm9, %xmm13, %xmm13
vaesenc %xmm9, %xmm14, %xmm14
vaesenc %xmm9, %xmm15, %xmm15
vaesenc %xmm9, %xmm1, %xmm1
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm9, %xmm12, %xmm12
vpclmulqdq $16, %xmm10, %xmm4, %xmm7
vpxor %xmm7, %xmm5, %xmm5
vpclmulqdq $0, %xmm10, %xmm4, %xmm7
vpxor %xmm7, %xmm0, %xmm0
vpclmulqdq $17, %xmm10, %xmm4, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpclmulqdq $1, %xmm10, %xmm4, %xmm7
vpxor %xmm7, %xmm5, %xmm5
#NO_APP
vpxor %xmm9, %xmm9, %xmm9
vpunpcklqdq %xmm5, %xmm9, %xmm7
vpxor %xmm7, %xmm0, %xmm0
vpunpckhqdq %xmm9, %xmm5, %xmm5
vpxor %xmm5, %xmm6, %xmm5
vpbroadcastq .LCPI2_11(%rip), %xmm7
vpclmulqdq $16, %xmm7, %xmm0, %xmm6
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm6, %xmm0
vpclmulqdq $16, %xmm7, %xmm0, %xmm6
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm5, %xmm0
vpxor %xmm6, %xmm0, %xmm11
vmovaps 256(%rsp), %xmm0
#APP
vaesenc %xmm0, %xmm13, %xmm13
vaesenc %xmm0, %xmm14, %xmm14
vaesenc %xmm0, %xmm15, %xmm15
vaesenc %xmm0, %xmm1, %xmm1
vaesenc %xmm0, %xmm2, %xmm2
vaesenc %xmm0, %xmm12, %xmm12
#NO_APP
vmovaps 240(%rsp), %xmm0
#APP
vaesenclast %xmm0, %xmm13, %xmm13
vaesenclast %xmm0, %xmm14, %xmm14
vaesenclast %xmm0, %xmm15, %xmm15
vaesenclast %xmm0, %xmm1, %xmm1
vaesenclast %xmm0, %xmm2, %xmm2
vaesenclast %xmm0, %xmm12, %xmm12
#NO_APP
vpxor 80(%rsp), %xmm13, %xmm0
vpxor %xmm3, %xmm14, %xmm3
vpxor 16(%rsp), %xmm15, %xmm5
vpxor %xmm1, %xmm8, %xmm1
vpxor 64(%rsp), %xmm2, %xmm2
vmovdqu %xmm0, (%rax)
vmovdqu %xmm3, 16(%rax)
vmovdqu %xmm5, 32(%rax)
vmovdqa (%rsp), %xmm6
vmovdqu %xmm1, 48(%rax)
vmovdqu %xmm2, 64(%rax)
vpxor 96(%rsp), %xmm12, %xmm0
vmovdqu %xmm0, 80(%rax)
addq $96, %r9
addq $96, %rax
addq $-96, %rbx
vpaddd .LCPI2_8(%rip), %xmm6, %xmm6
cmpq $95, %rbx
ja .LBB2_29
vmovdqa %xmm11, %xmm3
cmpq $16, %rbx
jb .LBB2_27
.LBB2_30:
vmovdqa 208(%rdi), %xmm0
vmovaps (%rdi), %xmm1
vmovaps %xmm1, (%rsp)
vmovaps 16(%rdi), %xmm1
vmovaps %xmm1, 16(%rsp)
vmovaps 32(%rdi), %xmm1
vmovaps %xmm1, 96(%rsp)
vmovaps 48(%rdi), %xmm1
vmovaps %xmm1, 80(%rsp)
vmovaps 64(%rdi), %xmm1
vmovaps %xmm1, 64(%rsp)
vmovdqa 80(%rdi), %xmm1
vmovdqa %xmm1, 48(%rsp)
vmovdqa 96(%rdi), %xmm7
vmovdqa 112(%rdi), %xmm8
vmovdqa 128(%rdi), %xmm9
vmovdqa 144(%rdi), %xmm10
vmovdqa 160(%rdi), %xmm11
vmovdqa 176(%rdi), %xmm12
movq %rdi, %r13
vmovdqa 192(%rdi), %xmm13
vmovdqa .LCPI2_2(%rip), %xmm14
vpbroadcastq .LCPI2_11(%rip), %xmm15
.p2align 4, 0x90
.LBB2_31:
vmovdqu (%r9), %xmm1
vpshufb %xmm14, %xmm1, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $0, %xmm2, %xmm0, %xmm3
vpclmulqdq $1, %xmm2, %xmm0, %xmm4
vpclmulqdq $16, %xmm2, %xmm0, %xmm5
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vpslldq $8, %xmm4, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpclmulqdq $16, %xmm15, %xmm3, %xmm5
vpsrldq $8, %xmm4, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpshufd $78, %xmm3, %xmm3
vpxor %xmm3, %xmm5, %xmm3
vpclmulqdq $16, %xmm15, %xmm3, %xmm4
vpshufd $78, %xmm3, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vpxor %xmm2, %xmm4, %xmm3
vpshufb %xmm14, %xmm6, %xmm2
vpxor (%rsp), %xmm2, %xmm2
vaesenc 16(%rsp), %xmm2, %xmm2
vaesenc 96(%rsp), %xmm2, %xmm2
vaesenc 80(%rsp), %xmm2, %xmm2
vaesenc 64(%rsp), %xmm2, %xmm2
vaesenc 48(%rsp), %xmm2, %xmm2
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm10, %xmm2, %xmm2
vaesenc %xmm11, %xmm2, %xmm2
vaesenc %xmm12, %xmm2, %xmm2
vaesenclast %xmm13, %xmm2, %xmm2
vpxor %xmm1, %xmm2, %xmm1
vmovdqu %xmm1, (%rax)
leaq 16(%rax), %r14
addq $-16, %rbx
addq $16, %r9
vpaddd .LCPI2_1(%rip), %xmm6, %xmm6
movq %r14, %rax
cmpq $15, %rbx
ja .LBB2_31
jmp .LBB2_32
.LBB2_25:
movq %r15, %rbx
vmovdqa %xmm11, %xmm3
cmpq $16, %rbx
jae .LBB2_30
.LBB2_27:
movq %rdi, %r13
movq %rax, %r14
.LBB2_32:
vmovdqa %xmm3, 16(%rsp)
movq %r8, %rbp
vpxor %xmm1, %xmm1, %xmm1
vpxor %xmm2, %xmm2, %xmm2
testq %rbx, %rbx
je .LBB2_34
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, 32(%rsp)
leaq 32(%rsp), %rdi
movq memcpy@GOTPCREL(%rip), %r12
movq %r9, %rsi
movq %rbx, %rdx
vmovdqa %xmm6, (%rsp)
callq *%r12
vmovdqa (%rsp), %xmm0
vpshufb .LCPI2_2(%rip), %xmm0, %xmm0
vpxor (%r13), %xmm0, %xmm0
vaesenc 16(%r13), %xmm0, %xmm0
vaesenc 32(%r13), %xmm0, %xmm0
vaesenc 48(%r13), %xmm0, %xmm0
vaesenc 64(%r13), %xmm0, %xmm0
vaesenc 80(%r13), %xmm0, %xmm0
vaesenc 96(%r13), %xmm0, %xmm0
vaesenc 112(%r13), %xmm0, %xmm0
vaesenc 128(%r13), %xmm0, %xmm0
vaesenc 144(%r13), %xmm0, %xmm0
vaesenc 160(%r13), %xmm0, %xmm0
vaesenc 176(%r13), %xmm0, %xmm0
vaesenclast 192(%r13), %xmm0, %xmm0
vmovdqa 32(%rsp), %xmm1
vmovdqa %xmm1, (%rsp)
vpxor %xmm1, %xmm0, %xmm0
vmovdqa %xmm0, 32(%rsp)
leaq 32(%rsp), %rsi
movq %r14, %rdi
movq %rbx, %rdx
callq *%r12
vmovdqa (%rsp), %xmm2
vpxor %xmm1, %xmm1, %xmm1
movq 520(%rsp), %r12
.LBB2_34:
vmovdqu (%r12), %xmm0
vmovdqa %xmm0, (%rsp)
vmovdqa %xmm2, 432(%rsp)
vmovdqa %xmm1, 32(%rsp)
leaq 32(%rsp), %rdi
leaq 432(%rsp), %rsi
movq %rbx, %rdx
callq *memcpy@GOTPCREL(%rip)
testq %rbx, %rbx
je .LBB2_35
vmovdqa 32(%rsp), %xmm0
vpshufb .LCPI2_2(%rip), %xmm0, %xmm0
vpxor 16(%rsp), %xmm0, %xmm0
movq %r13, %rdi
vmovdqa 208(%r13), %xmm1
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpbroadcastq .LCPI2_11(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm1, %xmm4
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm3
vpxor %xmm2, %xmm0, %xmm0
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm11
movq %rbp, %r8
jmp .LBB2_37
.LBB2_11:
movq %r13, %rdi
vmovdqa 208(%r13), %xmm1
vpshufb .LCPI2_2(%rip), %xmm0, %xmm0
vpxor 16(%rsp), %xmm0, %xmm0
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpbroadcastq .LCPI2_11(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm1, %xmm4
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm3
vpxor %xmm2, %xmm0, %xmm0
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm11
movq %rbx, %r8
.LBB2_12:
vmovdqu (%r12), %xmm5
jmp .LBB2_38
.LBB2_35:
movq %r13, %rdi
movq %rbp, %r8
vmovdqa 16(%rsp), %xmm11
.LBB2_37:
vmovdqa (%rsp), %xmm5
.LBB2_38:
vmovdqa 208(%rdi), %xmm0
vmovq %r8, %xmm1
vmovq %r15, %xmm2
vpunpcklqdq %xmm1, %xmm2, %xmm1
vpsllq $3, %xmm1, %xmm1
vpxor %xmm1, %xmm11, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpclmulqdq $17, %xmm1, %xmm0, %xmm0
vpxor %xmm3, %xmm4, %xmm1
vpslldq $8, %xmm1, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vpbroadcastq .LCPI2_11(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm2, %xmm4
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm4, %xmm2
vpclmulqdq $16, %xmm3, %xmm2, %xmm3
vpxor %xmm0, %xmm3, %xmm0
vmovdqa 112(%rsp), %xmm3
vpxor (%rdi), %xmm3, %xmm3
vaesenc 16(%rdi), %xmm3, %xmm3
vaesenc 32(%rdi), %xmm3, %xmm3
vaesenc 48(%rdi), %xmm3, %xmm3
vaesenc 64(%rdi), %xmm3, %xmm3
vaesenc 80(%rdi), %xmm3, %xmm3
vaesenc 96(%rdi), %xmm3, %xmm3
vaesenc 112(%rdi), %xmm3, %xmm3
vaesenc 128(%rdi), %xmm3, %xmm3
vaesenc 144(%rdi), %xmm3, %xmm3
vaesenc 160(%rdi), %xmm3, %xmm3
vaesenc 176(%rdi), %xmm3, %xmm3
vaesenclast 192(%rdi), %xmm3, %xmm3
vpshufb .LCPI2_2(%rip), %xmm0, %xmm0
vpshufb .LCPI2_9(%rip), %xmm1, %xmm1
vpshufb .LCPI2_10(%rip), %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpxor %xmm1, %xmm5, %xmm1
vpxor %xmm0, %xmm1, %xmm0
vpxor %xmm3, %xmm0, %xmm0
xorl %eax, %eax
vptest %xmm0, %xmm0
sete %al
.LBB2_39:
addq $456, %rsp
.cfi_def_cfa_offset 56
popq %rbx
.cfi_def_cfa_offset 48
popq %r12
.cfi_def_cfa_offset 40
popq %r13
.cfi_def_cfa_offset 32
popq %r14
.cfi_def_cfa_offset 24
popq %r15
.cfi_def_cfa_offset 16
popq %rbp
.cfi_def_cfa_offset 8
retq
.Lfunc_end2:
.size haberdashery_aes192gcm_haswell_decrypt, .Lfunc_end2-haberdashery_aes192gcm_haswell_decrypt
.cfi_endproc
.section .text.haberdashery_aes192gcm_haswell_is_supported,"ax",@progbits
.globl haberdashery_aes192gcm_haswell_is_supported
.p2align 4, 0x90
.type haberdashery_aes192gcm_haswell_is_supported,@function
haberdashery_aes192gcm_haswell_is_supported:
.cfi_startproc
movl $1, %eax
xorl %ecx, %ecx
#APP
movq %rbx, %rsi
cpuid
xchgq %rbx, %rsi
#NO_APP
movl %ecx, %esi
movl %edx, %edi
notl %edi
notl %esi
movl $7, %eax
xorl %ecx, %ecx
#APP
movq %rbx, %r8
cpuid
xchgq %rbx, %r8
#NO_APP
andl $1993871875, %esi
andl $125829120, %edi
orl %esi, %edi
notl %r8d
andl $297, %r8d
xorl %eax, %eax
orl %edi, %r8d
sete %al
retq
.Lfunc_end3:
.size haberdashery_aes192gcm_haswell_is_supported, .Lfunc_end3-haberdashery_aes192gcm_haswell_is_supported
.cfi_endproc
.ident "rustc version 1.86.0-nightly (9cd60bd2c 2025-02-15)"
.section ".note.GNU-stack","",@progbits
|
ts-phantomnk90/haberdashery
| 65,030
|
asm/aes128gcm_streaming_skylake.s
|
# @generated
# https://github.com/facebookincubator/haberdashery/
.text
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI0_0:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI0_1:
.zero 8
.quad -4467570830351532032
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI0_2:
.quad -4467570830351532032
.section .text.haberdashery_aes128gcm_streaming_skylake_init_key,"ax",@progbits
.globl haberdashery_aes128gcm_streaming_skylake_init_key
.p2align 4, 0x90
.type haberdashery_aes128gcm_streaming_skylake_init_key,@function
haberdashery_aes128gcm_streaming_skylake_init_key:
.cfi_startproc
cmpq $16, %rdx
jne .LBB0_2
vmovdqu (%rsi), %xmm3
vpslldq $4, %xmm3, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vaeskeygenassist $1, %xmm3, %xmm1
vpslldq $12, %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpshufd $255, %xmm1, %xmm1
vpxor %xmm3, %xmm0, %xmm0
vmovdqa %xmm3, %xmm10
vmovdqa %xmm3, -56(%rsp)
vpxor %xmm0, %xmm1, %xmm1
vpslldq $4, %xmm1, %xmm0
vpslldq $8, %xmm1, %xmm2
vaeskeygenassist $2, %xmm1, %xmm3
vpxor %xmm2, %xmm0, %xmm0
vpslldq $12, %xmm1, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpshufd $255, %xmm3, %xmm2
vpxor %xmm1, %xmm0, %xmm0
vmovdqa %xmm1, -24(%rsp)
vpxor %xmm0, %xmm2, %xmm2
vpslldq $4, %xmm2, %xmm0
vaeskeygenassist $4, %xmm2, %xmm3
vpslldq $8, %xmm2, %xmm4
vpxor %xmm4, %xmm0, %xmm0
vpslldq $12, %xmm2, %xmm4
vpxor %xmm4, %xmm0, %xmm0
vpshufd $255, %xmm3, %xmm3
vpxor %xmm2, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm3
vaeskeygenassist $8, %xmm3, %xmm0
vpslldq $4, %xmm3, %xmm4
vpslldq $8, %xmm3, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpslldq $12, %xmm3, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpshufd $255, %xmm0, %xmm0
vpxor %xmm3, %xmm4, %xmm4
vpxor %xmm4, %xmm0, %xmm4
vpslldq $4, %xmm4, %xmm0
vpslldq $8, %xmm4, %xmm5
vpxor %xmm5, %xmm0, %xmm0
vpslldq $12, %xmm4, %xmm5
vpxor %xmm5, %xmm0, %xmm0
vaeskeygenassist $16, %xmm4, %xmm5
vpshufd $255, %xmm5, %xmm5
vpxor %xmm4, %xmm0, %xmm0
vpxor %xmm0, %xmm5, %xmm5
vpslldq $4, %xmm5, %xmm0
vpslldq $8, %xmm5, %xmm6
vpxor %xmm6, %xmm0, %xmm0
vpslldq $12, %xmm5, %xmm6
vaeskeygenassist $32, %xmm5, %xmm7
vpxor %xmm6, %xmm0, %xmm0
vpshufd $255, %xmm7, %xmm6
vpxor %xmm5, %xmm0, %xmm0
vpxor %xmm0, %xmm6, %xmm6
vpslldq $4, %xmm6, %xmm0
vpslldq $8, %xmm6, %xmm7
vpxor %xmm7, %xmm0, %xmm0
vaeskeygenassist $64, %xmm6, %xmm7
vpslldq $12, %xmm6, %xmm8
vpxor %xmm0, %xmm8, %xmm0
vpshufd $255, %xmm7, %xmm7
vpxor %xmm6, %xmm0, %xmm0
vpxor %xmm0, %xmm7, %xmm7
vpslldq $4, %xmm7, %xmm0
vpslldq $8, %xmm7, %xmm8
vaeskeygenassist $128, %xmm7, %xmm9
vpxor %xmm0, %xmm8, %xmm0
vpslldq $12, %xmm7, %xmm8
vpxor %xmm0, %xmm8, %xmm0
vpshufd $255, %xmm9, %xmm8
vpxor %xmm7, %xmm0, %xmm0
vpxor %xmm0, %xmm8, %xmm8
vpslldq $4, %xmm8, %xmm0
vaeskeygenassist $27, %xmm8, %xmm9
vpslldq $8, %xmm8, %xmm11
vpxor %xmm0, %xmm11, %xmm0
vpslldq $12, %xmm8, %xmm11
vpxor %xmm0, %xmm11, %xmm0
vpshufd $255, %xmm9, %xmm9
vpxor %xmm0, %xmm8, %xmm0
vpxor %xmm0, %xmm9, %xmm9
vaeskeygenassist $54, %xmm9, %xmm0
vpslldq $4, %xmm9, %xmm11
vpslldq $8, %xmm9, %xmm12
vpxor %xmm12, %xmm11, %xmm11
vpslldq $12, %xmm9, %xmm12
vpxor %xmm12, %xmm11, %xmm11
vpshufd $255, %xmm0, %xmm0
vpxor %xmm9, %xmm11, %xmm11
vpxor %xmm0, %xmm11, %xmm11
vmovdqa %xmm11, -40(%rsp)
vaesenc %xmm1, %xmm10, %xmm0
vaesenc %xmm2, %xmm0, %xmm0
vaesenc %xmm3, %xmm0, %xmm0
vaesenc %xmm4, %xmm0, %xmm0
vaesenc %xmm5, %xmm0, %xmm0
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm7, %xmm0, %xmm0
vaesenc %xmm8, %xmm0, %xmm0
vaesenc %xmm9, %xmm0, %xmm0
vaesenclast %xmm11, %xmm0, %xmm0
vpshufb .LCPI0_0(%rip), %xmm0, %xmm0
vpsrlq $63, %xmm0, %xmm11
vpaddq %xmm0, %xmm0, %xmm0
vpshufd $78, %xmm11, %xmm12
vpor %xmm0, %xmm12, %xmm0
vpxor %xmm12, %xmm12, %xmm12
vpblendd $12, %xmm11, %xmm12, %xmm11
vpsllq $63, %xmm11, %xmm12
vpxor %xmm0, %xmm12, %xmm0
vpsllq $62, %xmm11, %xmm12
vpsllq $57, %xmm11, %xmm11
vpxor %xmm11, %xmm12, %xmm11
vpxor %xmm0, %xmm11, %xmm11
vpclmulqdq $0, %xmm11, %xmm11, %xmm0
vpbroadcastq .LCPI0_2(%rip), %xmm13
vpclmulqdq $16, %xmm13, %xmm0, %xmm12
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm12, %xmm0
vpclmulqdq $16, %xmm13, %xmm0, %xmm12
vpclmulqdq $17, %xmm11, %xmm11, %xmm14
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm14, %xmm0
vpxor %xmm0, %xmm12, %xmm12
vpclmulqdq $16, %xmm11, %xmm12, %xmm0
vpclmulqdq $1, %xmm11, %xmm12, %xmm14
vpxor %xmm0, %xmm14, %xmm0
vpclmulqdq $0, %xmm11, %xmm12, %xmm14
vpslldq $8, %xmm0, %xmm15
vpxor %xmm15, %xmm14, %xmm14
vpclmulqdq $16, %xmm13, %xmm14, %xmm15
vpshufd $78, %xmm14, %xmm14
vpxor %xmm14, %xmm15, %xmm14
vpsrldq $8, %xmm0, %xmm0
vpclmulqdq $17, %xmm11, %xmm12, %xmm15
vpxor %xmm0, %xmm15, %xmm0
vpshufd $78, %xmm14, %xmm15
vpxor %xmm0, %xmm15, %xmm0
vpclmulqdq $16, %xmm13, %xmm14, %xmm14
vpxor %xmm0, %xmm14, %xmm14
vpclmulqdq $0, %xmm14, %xmm14, %xmm0
vpclmulqdq $16, %xmm13, %xmm0, %xmm15
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm15, %xmm0
vpclmulqdq $17, %xmm14, %xmm14, %xmm15
vpshufd $78, %xmm0, %xmm10
vpxor %xmm10, %xmm15, %xmm10
vpclmulqdq $16, %xmm13, %xmm0, %xmm0
vpxor %xmm0, %xmm10, %xmm0
vmovdqa %xmm0, -72(%rsp)
vpclmulqdq $0, %xmm12, %xmm12, %xmm0
vpclmulqdq $16, %xmm13, %xmm0, %xmm10
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm10, %xmm0
vpclmulqdq $17, %xmm12, %xmm12, %xmm10
vpshufd $78, %xmm0, %xmm15
vpxor %xmm15, %xmm10, %xmm10
vpclmulqdq $16, %xmm13, %xmm0, %xmm0
vpxor %xmm0, %xmm10, %xmm0
vpclmulqdq $16, %xmm11, %xmm0, %xmm10
vpclmulqdq $1, %xmm11, %xmm0, %xmm15
vpxor %xmm10, %xmm15, %xmm10
vpclmulqdq $0, %xmm11, %xmm0, %xmm15
vpslldq $8, %xmm10, %xmm1
vpxor %xmm1, %xmm15, %xmm1
vpclmulqdq $16, %xmm13, %xmm1, %xmm15
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm15, %xmm1
vpsrldq $8, %xmm10, %xmm10
vpclmulqdq $17, %xmm11, %xmm0, %xmm15
vpxor %xmm10, %xmm15, %xmm10
vpclmulqdq $16, %xmm13, %xmm1, %xmm13
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm10, %xmm1
vpxor %xmm1, %xmm13, %xmm1
vmovaps -56(%rsp), %xmm10
vmovaps %xmm10, (%rdi)
vmovaps -24(%rsp), %xmm10
vmovaps %xmm10, 16(%rdi)
vmovdqa %xmm2, 32(%rdi)
vmovdqa %xmm3, 48(%rdi)
vmovdqa %xmm4, 64(%rdi)
vmovdqa %xmm5, 80(%rdi)
vmovdqa %xmm6, 96(%rdi)
vmovdqa %xmm7, 112(%rdi)
vmovdqa %xmm8, 128(%rdi)
vmovdqa %xmm9, 144(%rdi)
vmovaps -40(%rsp), %xmm2
vmovaps %xmm2, 160(%rdi)
vmovdqa %xmm11, 176(%rdi)
vmovdqa %xmm12, 192(%rdi)
vmovdqa %xmm14, 208(%rdi)
vmovdqa %xmm0, 224(%rdi)
vmovdqa %xmm1, 240(%rdi)
vmovaps -72(%rsp), %xmm0
vmovaps %xmm0, 256(%rdi)
.LBB0_2:
xorl %eax, %eax
cmpq $16, %rdx
sete %al
retq
.Lfunc_end0:
.size haberdashery_aes128gcm_streaming_skylake_init_key, .Lfunc_end0-haberdashery_aes128gcm_streaming_skylake_init_key
.cfi_endproc
.section .text.haberdashery_aes128gcm_streaming_skylake_is_supported,"ax",@progbits
.globl haberdashery_aes128gcm_streaming_skylake_is_supported
.p2align 4, 0x90
.type haberdashery_aes128gcm_streaming_skylake_is_supported,@function
haberdashery_aes128gcm_streaming_skylake_is_supported:
.cfi_startproc
movl $1, %eax
xorl %ecx, %ecx
#APP
movq %rbx, %rsi
cpuid
xchgq %rbx, %rsi
#NO_APP
movl %ecx, %esi
movl %edx, %edi
notl %edi
notl %esi
movl $7, %eax
xorl %ecx, %ecx
#APP
movq %rbx, %r8
cpuid
xchgq %rbx, %r8
#NO_APP
andl $1993871875, %esi
andl $125829120, %edi
orl %esi, %edi
notl %r8d
andl $9175337, %r8d
xorl %eax, %eax
orl %edi, %r8d
sete %al
retq
.Lfunc_end1:
.size haberdashery_aes128gcm_streaming_skylake_is_supported, .Lfunc_end1-haberdashery_aes128gcm_streaming_skylake_is_supported
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI2_0:
.byte 15
.byte 128
.byte 128
.byte 128
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI2_1:
.long 1
.long 0
.long 0
.long 0
.section .text.haberdashery_aes128gcm_streaming_skylake_init_state,"ax",@progbits
.globl haberdashery_aes128gcm_streaming_skylake_init_state
.p2align 4, 0x90
.type haberdashery_aes128gcm_streaming_skylake_init_state,@function
haberdashery_aes128gcm_streaming_skylake_init_state:
.cfi_startproc
cmpq $12, %rcx
jne .LBB2_2
vmovd (%rdx), %xmm0
vpinsrd $1, 4(%rdx), %xmm0, %xmm0
vpinsrd $2, 8(%rdx), %xmm0, %xmm0
movl $16777216, %eax
vpinsrd $3, %eax, %xmm0, %xmm0
vpshufb .LCPI2_0(%rip), %xmm0, %xmm1
vpaddd .LCPI2_1(%rip), %xmm1, %xmm1
vxorps %xmm2, %xmm2, %xmm2
vmovups %ymm2, -56(%rsp)
vmovups %ymm2, -88(%rsp)
movq $0, -24(%rsp)
vxorps %xmm2, %xmm2, %xmm2
vmovaps %xmm2, (%rdi)
vmovdqa %xmm0, 16(%rdi)
vmovdqa %xmm1, 32(%rdi)
vmovups -56(%rsp), %ymm0
vmovups -40(%rsp), %xmm1
movq -24(%rsp), %rax
movq -16(%rsp), %rdx
vmovups %ymm0, 48(%rdi)
vmovups %xmm1, 64(%rdi)
movq %rax, 80(%rdi)
movq %rdx, 88(%rdi)
vmovaps %xmm2, 96(%rdi)
.LBB2_2:
xorl %eax, %eax
cmpq $12, %rcx
sete %al
vzeroupper
retq
.Lfunc_end2:
.size haberdashery_aes128gcm_streaming_skylake_init_state, .Lfunc_end2-haberdashery_aes128gcm_streaming_skylake_init_state
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI3_0:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI3_1:
.zero 8
.quad -4467570830351532032
.LCPI3_2:
.zero 16
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI3_3:
.quad -4467570830351532032
.section .text.haberdashery_aes128gcm_streaming_skylake_aad_update,"ax",@progbits
.globl haberdashery_aes128gcm_streaming_skylake_aad_update
.p2align 4, 0x90
.type haberdashery_aes128gcm_streaming_skylake_aad_update,@function
haberdashery_aes128gcm_streaming_skylake_aad_update:
.cfi_startproc
movabsq $-2305843009213693951, %rax
leaq (%rcx,%rax), %r8
incq %rax
cmpq %rax, %r8
jae .LBB3_3
xorl %eax, %eax
retq
.LBB3_3:
pushq %rbp
.cfi_def_cfa_offset 16
pushq %r15
.cfi_def_cfa_offset 24
pushq %r14
.cfi_def_cfa_offset 32
pushq %r13
.cfi_def_cfa_offset 40
pushq %r12
.cfi_def_cfa_offset 48
pushq %rbx
.cfi_def_cfa_offset 56
subq $24, %rsp
.cfi_def_cfa_offset 80
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
.cfi_offset %rbp, -16
movq 96(%rdi), %r14
addq %rcx, %r14
xorl %eax, %eax
movabsq $2305843009213693950, %r8
cmpq %r8, %r14
ja .LBB3_26
cmpq $0, 104(%rdi)
jne .LBB3_26
movq 80(%rdi), %r8
testq %r8, %r8
je .LBB3_6
leaq (%r8,%rcx), %rbx
cmpq $15, %rbx
ja .LBB3_9
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, (%rsp)
leaq (%rsp,%r8), %rax
movq %rdi, %r15
movq %rax, %rdi
movq %rdx, %rsi
movq %rcx, %rdx
movq %rcx, %r12
callq *memcpy@GOTPCREL(%rip)
movq %r15, %rdi
movq %r12, %rcx
vmovdqa 64(%r15), %xmm0
vpxor (%rsp), %xmm0, %xmm0
jmp .LBB3_24
.LBB3_6:
movq %rcx, %rbx
cmpq $96, %rbx
jae .LBB3_11
jmp .LBB3_14
.LBB3_9:
vmovaps 64(%rdi), %xmm0
vmovaps %xmm0, (%rsp)
movl $16, %eax
subq %r8, %rax
addq %rsp, %r8
leaq (%rdx,%rax), %r15
movq %rcx, %rbx
subq %rax, %rbx
movq %rdi, %r12
movq %r8, %rdi
movq %rsi, %r13
movq %rdx, %rsi
movq %rax, %rdx
movq %rcx, %rbp
callq *memcpy@GOTPCREL(%rip)
movq %r13, %rsi
movq %r12, %rdi
movq %rbp, %rcx
movq $0, 80(%r12)
vmovdqa (%rsp), %xmm0
vmovdqa 176(%r13), %xmm1
vpshufb .LCPI3_0(%rip), %xmm0, %xmm0
vpxor (%r12), %xmm0, %xmm0
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI3_3(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vmovdqa %xmm0, (%r12)
movq %r15, %rdx
cmpq $96, %rbx
jb .LBB3_14
.LBB3_11:
vmovdqu 32(%rdx), %xmm1
vmovdqu 48(%rdx), %xmm2
vmovdqu 64(%rdx), %xmm3
vmovdqu 80(%rdx), %xmm4
vmovdqa .LCPI3_0(%rip), %xmm0
vpshufb %xmm0, %xmm1, %xmm6
vpshufb %xmm0, %xmm2, %xmm5
vpshufb %xmm0, %xmm3, %xmm7
vpshufb %xmm0, %xmm4, %xmm8
vmovdqa 176(%rsi), %xmm1
vmovdqa 192(%rsi), %xmm2
vmovdqa 208(%rsi), %xmm3
vmovdqa 224(%rsi), %xmm4
vpclmulqdq $0, %xmm8, %xmm1, %xmm9
vpclmulqdq $1, %xmm8, %xmm1, %xmm10
vpclmulqdq $16, %xmm8, %xmm1, %xmm11
vpxor %xmm10, %xmm11, %xmm10
vpclmulqdq $17, %xmm8, %xmm1, %xmm8
vpclmulqdq $0, %xmm7, %xmm2, %xmm11
vpxor %xmm9, %xmm11, %xmm9
vpclmulqdq $1, %xmm7, %xmm2, %xmm11
vpclmulqdq $16, %xmm7, %xmm2, %xmm12
vpxor %xmm12, %xmm11, %xmm11
vpxor %xmm11, %xmm10, %xmm10
vpclmulqdq $17, %xmm7, %xmm2, %xmm7
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $0, %xmm5, %xmm3, %xmm8
vpclmulqdq $1, %xmm5, %xmm3, %xmm11
vpclmulqdq $16, %xmm5, %xmm3, %xmm12
vpxor %xmm12, %xmm11, %xmm11
vpclmulqdq $0, %xmm6, %xmm4, %xmm12
vpxor %xmm12, %xmm8, %xmm8
vpxor %xmm8, %xmm9, %xmm8
vpclmulqdq $1, %xmm6, %xmm4, %xmm9
vpxor %xmm9, %xmm11, %xmm9
vmovdqu 16(%rdx), %xmm11
vpshufb %xmm0, %xmm11, %xmm11
vpclmulqdq $17, %xmm5, %xmm3, %xmm5
vpxor %xmm9, %xmm10, %xmm9
vpclmulqdq $17, %xmm6, %xmm4, %xmm10
vpxor %xmm5, %xmm10, %xmm10
vmovdqa 240(%rsi), %xmm5
vpclmulqdq $16, %xmm6, %xmm4, %xmm6
vpxor %xmm7, %xmm10, %xmm7
vpclmulqdq $0, %xmm11, %xmm5, %xmm10
vpxor %xmm10, %xmm8, %xmm8
vpclmulqdq $1, %xmm11, %xmm5, %xmm10
vpxor %xmm6, %xmm10, %xmm6
vpclmulqdq $16, %xmm11, %xmm5, %xmm10
vpxor %xmm6, %xmm10, %xmm6
vmovdqu (%rdx), %xmm10
vpshufb %xmm0, %xmm10, %xmm10
vpxor (%rdi), %xmm10, %xmm10
vpxor %xmm6, %xmm9, %xmm9
vmovdqa 256(%rsi), %xmm6
vpclmulqdq $17, %xmm11, %xmm5, %xmm11
vpxor %xmm7, %xmm11, %xmm7
vpclmulqdq $0, %xmm10, %xmm6, %xmm11
vpxor %xmm11, %xmm8, %xmm8
vpclmulqdq $1, %xmm10, %xmm6, %xmm11
vpxor %xmm11, %xmm9, %xmm9
vpclmulqdq $16, %xmm10, %xmm6, %xmm11
vpxor %xmm11, %xmm9, %xmm9
vpclmulqdq $17, %xmm10, %xmm6, %xmm10
vpxor %xmm7, %xmm10, %xmm10
addq $96, %rdx
addq $-96, %rbx
cmpq $96, %rbx
jb .LBB3_13
.p2align 4, 0x90
.LBB3_12:
vmovdqu (%rdx), %xmm11
vmovdqu 32(%rdx), %xmm12
vmovdqu 48(%rdx), %xmm13
vmovdqu 64(%rdx), %xmm14
vmovdqu 80(%rdx), %xmm15
vpslldq $8, %xmm9, %xmm7
vpxor %xmm7, %xmm8, %xmm7
vpsrldq $8, %xmm9, %xmm8
vpxor %xmm8, %xmm10, %xmm8
vpbroadcastq .LCPI3_3(%rip), %xmm10
vpclmulqdq $16, %xmm10, %xmm7, %xmm9
vpshufd $78, %xmm7, %xmm7
vpxor %xmm7, %xmm9, %xmm7
vpclmulqdq $16, %xmm10, %xmm7, %xmm9
vpshufd $78, %xmm7, %xmm7
vpxor %xmm7, %xmm8, %xmm7
vpshufb %xmm0, %xmm11, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpxor %xmm7, %xmm9, %xmm10
vpshufb %xmm0, %xmm12, %xmm8
vpshufb %xmm0, %xmm13, %xmm7
vpshufb %xmm0, %xmm14, %xmm9
vpshufb %xmm0, %xmm15, %xmm11
vpclmulqdq $0, %xmm11, %xmm1, %xmm12
vpclmulqdq $1, %xmm11, %xmm1, %xmm13
vpclmulqdq $16, %xmm11, %xmm1, %xmm14
vpxor %xmm13, %xmm14, %xmm13
vpclmulqdq $17, %xmm11, %xmm1, %xmm11
vpclmulqdq $0, %xmm9, %xmm2, %xmm14
vpxor %xmm12, %xmm14, %xmm12
vpclmulqdq $1, %xmm9, %xmm2, %xmm14
vpclmulqdq $16, %xmm9, %xmm2, %xmm15
vpxor %xmm15, %xmm14, %xmm14
vpxor %xmm14, %xmm13, %xmm13
vpclmulqdq $17, %xmm9, %xmm2, %xmm9
vpxor %xmm11, %xmm9, %xmm9
vpclmulqdq $0, %xmm7, %xmm3, %xmm11
vpclmulqdq $1, %xmm7, %xmm3, %xmm14
vpclmulqdq $16, %xmm7, %xmm3, %xmm15
vpxor %xmm15, %xmm14, %xmm14
vpclmulqdq $0, %xmm8, %xmm4, %xmm15
vpxor %xmm15, %xmm11, %xmm11
vpxor %xmm11, %xmm12, %xmm11
vpclmulqdq $1, %xmm8, %xmm4, %xmm12
vpxor %xmm12, %xmm14, %xmm12
vpclmulqdq $17, %xmm7, %xmm3, %xmm7
vpxor %xmm12, %xmm13, %xmm12
vpclmulqdq $17, %xmm8, %xmm4, %xmm13
vpxor %xmm7, %xmm13, %xmm7
vmovdqu 16(%rdx), %xmm13
vpshufb %xmm0, %xmm13, %xmm13
vpclmulqdq $16, %xmm8, %xmm4, %xmm8
vpxor %xmm7, %xmm9, %xmm7
vpclmulqdq $0, %xmm13, %xmm5, %xmm9
vpxor %xmm9, %xmm11, %xmm9
vpclmulqdq $1, %xmm13, %xmm5, %xmm11
vpxor %xmm11, %xmm8, %xmm8
vpclmulqdq $16, %xmm13, %xmm5, %xmm11
vpxor %xmm11, %xmm8, %xmm8
vpxor %xmm8, %xmm12, %xmm11
vpclmulqdq $17, %xmm13, %xmm5, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $0, %xmm10, %xmm6, %xmm8
vpxor %xmm8, %xmm9, %xmm8
vpclmulqdq $1, %xmm10, %xmm6, %xmm9
vpxor %xmm9, %xmm11, %xmm9
vpclmulqdq $16, %xmm10, %xmm6, %xmm11
vpxor %xmm11, %xmm9, %xmm9
vpclmulqdq $17, %xmm10, %xmm6, %xmm10
vpxor %xmm7, %xmm10, %xmm10
addq $96, %rdx
addq $-96, %rbx
cmpq $95, %rbx
ja .LBB3_12
.LBB3_13:
vpslldq $8, %xmm9, %xmm0
vpxor %xmm0, %xmm8, %xmm0
vpsrldq $8, %xmm9, %xmm1
vpxor %xmm1, %xmm10, %xmm1
vpbroadcastq .LCPI3_3(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm0, %xmm3
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm0
vpclmulqdq $16, %xmm2, %xmm0, %xmm2
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpxor %xmm2, %xmm0, %xmm0
vmovdqa %xmm0, (%rdi)
.LBB3_14:
cmpq $16, %rbx
jae .LBB3_15
testq %rbx, %rbx
jne .LBB3_23
jmp .LBB3_25
.LBB3_15:
vmovdqa (%rdi), %xmm1
vmovdqa 176(%rsi), %xmm0
leaq -16(%rbx), %rax
testb $16, %al
jne .LBB3_17
vmovdqu (%rdx), %xmm2
addq $16, %rdx
vpshufb .LCPI3_0(%rip), %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
vpslldq $8, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpsrldq $8, %xmm3, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpbroadcastq .LCPI3_3(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm2, %xmm4
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm4, %xmm2
vpclmulqdq $16, %xmm3, %xmm2, %xmm3
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
movq %rax, %rbx
.LBB3_17:
cmpq $16, %rax
jb .LBB3_21
vmovdqa .LCPI3_0(%rip), %xmm2
vpbroadcastq .LCPI3_3(%rip), %xmm3
.p2align 4, 0x90
.LBB3_19:
vmovdqu (%rdx), %xmm4
vmovdqu 16(%rdx), %xmm5
vpshufb %xmm2, %xmm4, %xmm4
vpxor %xmm4, %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm4
vpclmulqdq $1, %xmm1, %xmm0, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm7
vpxor %xmm6, %xmm7, %xmm6
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
vpslldq $8, %xmm6, %xmm7
vpxor %xmm7, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm1, %xmm1
vpclmulqdq $16, %xmm3, %xmm4, %xmm6
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm6, %xmm4
vpclmulqdq $16, %xmm3, %xmm4, %xmm6
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm1, %xmm1
addq $32, %rdx
addq $-32, %rbx
vpshufb %xmm2, %xmm5, %xmm4
vpxor %xmm4, %xmm1, %xmm1
vpxor %xmm1, %xmm6, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm4
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vpclmulqdq $16, %xmm1, %xmm0, %xmm6
vpxor %xmm5, %xmm6, %xmm5
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
vpslldq $8, %xmm5, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpsrldq $8, %xmm5, %xmm5
vpxor %xmm5, %xmm1, %xmm1
vpclmulqdq $16, %xmm3, %xmm4, %xmm5
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $16, %xmm3, %xmm4, %xmm5
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm1, %xmm1
vpxor %xmm1, %xmm5, %xmm1
cmpq $15, %rbx
ja .LBB3_19
movq %rbx, %rax
.LBB3_21:
vmovdqa %xmm1, (%rdi)
movq %rax, %rbx
testq %rbx, %rbx
je .LBB3_25
.LBB3_23:
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, (%rsp)
movq %rsp, %rax
movq %rdi, %r15
movq %rax, %rdi
movq %rdx, %rsi
movq %rbx, %rdx
movq %rcx, %r12
callq *memcpy@GOTPCREL(%rip)
movq %r15, %rdi
movq %r12, %rcx
vmovdqa (%rsp), %xmm0
vpxor %xmm1, %xmm1, %xmm1
vmovdqa %xmm1, 48(%r15)
.LBB3_24:
vmovdqa %xmm0, 64(%r15)
movq %rbx, 80(%r15)
.LBB3_25:
movq %r14, 96(%rdi)
movq %rcx, %rax
.LBB3_26:
addq $24, %rsp
.cfi_def_cfa_offset 56
popq %rbx
.cfi_def_cfa_offset 48
popq %r12
.cfi_def_cfa_offset 40
popq %r13
.cfi_def_cfa_offset 32
popq %r14
.cfi_def_cfa_offset 24
popq %r15
.cfi_def_cfa_offset 16
popq %rbp
.cfi_def_cfa_offset 8
.cfi_restore %rbx
.cfi_restore %r12
.cfi_restore %r13
.cfi_restore %r14
.cfi_restore %r15
.cfi_restore %rbp
retq
.Lfunc_end3:
.size haberdashery_aes128gcm_streaming_skylake_aad_update, .Lfunc_end3-haberdashery_aes128gcm_streaming_skylake_aad_update
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI4_0:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI4_1:
.zero 8
.quad -4467570830351532032
.LCPI4_2:
.long 1
.long 0
.long 0
.long 0
.LCPI4_3:
.long 2
.long 0
.long 0
.long 0
.LCPI4_4:
.long 3
.long 0
.long 0
.long 0
.LCPI4_5:
.long 4
.long 0
.long 0
.long 0
.LCPI4_6:
.long 5
.long 0
.long 0
.long 0
.LCPI4_7:
.long 6
.long 0
.long 0
.long 0
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI4_8:
.quad -4467570830351532032
.section .text.haberdashery_aes128gcm_streaming_skylake_encrypt_update,"ax",@progbits
.globl haberdashery_aes128gcm_streaming_skylake_encrypt_update
.p2align 4, 0x90
.type haberdashery_aes128gcm_streaming_skylake_encrypt_update,@function
haberdashery_aes128gcm_streaming_skylake_encrypt_update:
.cfi_startproc
cmpq %r9, %rcx
jne .LBB4_3
movq %rcx, %rax
movabsq $-68719476704, %rcx
leaq (%rax,%rcx), %r9
incq %rcx
cmpq %rcx, %r9
jb .LBB4_3
movq 104(%rdi), %rcx
leaq (%rcx,%rax), %r11
movq %r11, %r9
shrq $5, %r9
cmpq $2147483646, %r9
jbe .LBB4_6
.LBB4_3:
xorl %eax, %eax
retq
.LBB4_6:
pushq %rbp
.cfi_def_cfa_offset 16
pushq %r15
.cfi_def_cfa_offset 24
pushq %r14
.cfi_def_cfa_offset 32
pushq %r13
.cfi_def_cfa_offset 40
pushq %r12
.cfi_def_cfa_offset 48
pushq %rbx
.cfi_def_cfa_offset 56
subq $440, %rsp
.cfi_def_cfa_offset 496
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
.cfi_offset %rbp, -16
testq %rcx, %rcx
setne %r9b
movq 80(%rdi), %rcx
testq %rcx, %rcx
sete %r10b
orb %r9b, %r10b
je .LBB4_10
testq %rcx, %rcx
je .LBB4_11
movq %r11, 16(%rsp)
movq %rdi, %rbp
leaq (%rcx,%rax), %rbx
cmpq $15, %rbx
ja .LBB4_12
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, (%rsp)
leaq (%rsp,%rcx), %r14
movq memcpy@GOTPCREL(%rip), %r13
movq %r14, %rdi
movq %rdx, %rsi
movq %rax, %rdx
movq %rax, %r15
movq %r8, %r12
callq *%r13
vmovdqa (%rsp), %xmm0
vpxor 64(%rbp), %xmm0, %xmm0
vmovdqa %xmm0, 64(%rbp)
vmovdqa %xmm0, (%rsp)
movq %r12, %rdi
movq %r14, %rsi
movq %r15, %r12
movq %r15, %rdx
callq *%r13
movq %rbp, %rdi
jmp .LBB4_24
.LBB4_10:
vmovdqa 64(%rdi), %xmm0
vpshufb .LCPI4_0(%rip), %xmm0, %xmm0
vpxor (%rdi), %xmm0, %xmm0
vmovdqa 176(%rsi), %xmm1
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI4_8(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vmovdqa %xmm0, (%rdi)
vpxor %xmm0, %xmm0, %xmm0
vmovdqu %ymm0, 48(%rdi)
movq $0, 80(%rdi)
.LBB4_11:
movq %rax, %rbx
cmpq $96, %rbx
jb .LBB4_14
.LBB4_16:
vmovups (%rdx), %xmm0
vmovaps %xmm0, 16(%rsp)
vmovdqu 16(%rdx), %xmm2
vmovdqu 32(%rdx), %xmm3
vmovdqu 48(%rdx), %xmm4
vmovdqu 64(%rdx), %xmm6
vmovdqu 80(%rdx), %xmm5
vmovdqa 32(%rdi), %xmm1
vmovdqa .LCPI4_0(%rip), %xmm8
vpshufb %xmm8, %xmm1, %xmm7
vpaddd .LCPI4_2(%rip), %xmm1, %xmm9
vpshufb %xmm8, %xmm9, %xmm9
vpaddd .LCPI4_3(%rip), %xmm1, %xmm10
vpshufb %xmm8, %xmm10, %xmm11
vpaddd .LCPI4_4(%rip), %xmm1, %xmm10
vpshufb %xmm8, %xmm10, %xmm12
vpaddd .LCPI4_5(%rip), %xmm1, %xmm10
vpshufb %xmm8, %xmm10, %xmm13
vpaddd .LCPI4_6(%rip), %xmm1, %xmm10
vpshufb %xmm8, %xmm10, %xmm14
vpaddd .LCPI4_7(%rip), %xmm1, %xmm1
vmovdqa %xmm1, 32(%rdi)
vmovdqa (%rsi), %xmm1
vmovaps 16(%rsi), %xmm15
vmovaps 32(%rsi), %xmm0
vpxor %xmm7, %xmm1, %xmm7
vpxor %xmm1, %xmm9, %xmm10
vpxor %xmm1, %xmm11, %xmm11
vpxor %xmm1, %xmm12, %xmm12
vpxor %xmm1, %xmm13, %xmm13
vpxor %xmm1, %xmm14, %xmm9
vmovaps %xmm15, 352(%rsp)
#APP
vaesenc %xmm15, %xmm7, %xmm7
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm9, %xmm9
#NO_APP
vmovaps %xmm0, 336(%rsp)
#APP
vaesenc %xmm0, %xmm7, %xmm7
vaesenc %xmm0, %xmm10, %xmm10
vaesenc %xmm0, %xmm11, %xmm11
vaesenc %xmm0, %xmm12, %xmm12
vaesenc %xmm0, %xmm13, %xmm13
vaesenc %xmm0, %xmm9, %xmm9
#NO_APP
vmovdqa 48(%rsi), %xmm0
#APP
vaesenc %xmm0, %xmm7, %xmm7
vaesenc %xmm0, %xmm10, %xmm10
vaesenc %xmm0, %xmm11, %xmm11
vaesenc %xmm0, %xmm12, %xmm12
vaesenc %xmm0, %xmm13, %xmm13
vaesenc %xmm0, %xmm9, %xmm9
#NO_APP
vmovaps 64(%rsi), %xmm14
vmovaps %xmm14, 320(%rsp)
#APP
vaesenc %xmm14, %xmm7, %xmm7
vaesenc %xmm14, %xmm10, %xmm10
vaesenc %xmm14, %xmm11, %xmm11
vaesenc %xmm14, %xmm12, %xmm12
vaesenc %xmm14, %xmm13, %xmm13
vaesenc %xmm14, %xmm9, %xmm9
#NO_APP
vmovaps 80(%rsi), %xmm14
vmovaps %xmm14, 304(%rsp)
#APP
vaesenc %xmm14, %xmm7, %xmm7
vaesenc %xmm14, %xmm10, %xmm10
vaesenc %xmm14, %xmm11, %xmm11
vaesenc %xmm14, %xmm12, %xmm12
vaesenc %xmm14, %xmm13, %xmm13
vaesenc %xmm14, %xmm9, %xmm9
#NO_APP
vmovaps 96(%rsi), %xmm14
vmovaps %xmm14, 288(%rsp)
#APP
vaesenc %xmm14, %xmm7, %xmm7
vaesenc %xmm14, %xmm10, %xmm10
vaesenc %xmm14, %xmm11, %xmm11
vaesenc %xmm14, %xmm12, %xmm12
vaesenc %xmm14, %xmm13, %xmm13
vaesenc %xmm14, %xmm9, %xmm9
#NO_APP
vmovaps 112(%rsi), %xmm14
vmovaps %xmm14, 272(%rsp)
#APP
vaesenc %xmm14, %xmm7, %xmm7
vaesenc %xmm14, %xmm10, %xmm10
vaesenc %xmm14, %xmm11, %xmm11
vaesenc %xmm14, %xmm12, %xmm12
vaesenc %xmm14, %xmm13, %xmm13
vaesenc %xmm14, %xmm9, %xmm9
#NO_APP
vmovaps 128(%rsi), %xmm14
vmovaps %xmm14, 256(%rsp)
#APP
vaesenc %xmm14, %xmm7, %xmm7
vaesenc %xmm14, %xmm10, %xmm10
vaesenc %xmm14, %xmm11, %xmm11
vaesenc %xmm14, %xmm12, %xmm12
vaesenc %xmm14, %xmm13, %xmm13
vaesenc %xmm14, %xmm9, %xmm9
#NO_APP
vmovaps 144(%rsi), %xmm14
vmovaps %xmm14, 240(%rsp)
#APP
vaesenc %xmm14, %xmm7, %xmm7
vaesenc %xmm14, %xmm10, %xmm10
vaesenc %xmm14, %xmm11, %xmm11
vaesenc %xmm14, %xmm12, %xmm12
vaesenc %xmm14, %xmm13, %xmm13
vaesenc %xmm14, %xmm9, %xmm9
#NO_APP
vmovaps 160(%rsi), %xmm14
vmovaps %xmm14, 224(%rsp)
#APP
vaesenclast %xmm14, %xmm7, %xmm7
vaesenclast %xmm14, %xmm10, %xmm10
vaesenclast %xmm14, %xmm11, %xmm11
vaesenclast %xmm14, %xmm12, %xmm12
vaesenclast %xmm14, %xmm13, %xmm13
vaesenclast %xmm14, %xmm9, %xmm9
#NO_APP
vpxor %xmm5, %xmm9, %xmm9
vpxor %xmm6, %xmm13, %xmm13
vpxor %xmm4, %xmm12, %xmm14
vpxor %xmm3, %xmm11, %xmm12
vpxor %xmm2, %xmm10, %xmm3
vpxor 16(%rsp), %xmm7, %xmm11
addq $96, %rdx
leaq 96(%r8), %rcx
addq $-96, %rbx
vmovdqu %xmm11, (%r8)
vmovdqu %xmm3, 16(%r8)
vmovdqu %xmm12, 32(%r8)
vmovdqu %xmm14, 48(%r8)
vmovdqu %xmm13, 64(%r8)
vmovdqu %xmm9, 80(%r8)
vmovdqa (%rdi), %xmm15
cmpq $96, %rbx
jb .LBB4_19
vmovaps 176(%rsi), %xmm2
vmovaps %xmm2, 208(%rsp)
vmovaps 192(%rsi), %xmm2
vmovaps %xmm2, 192(%rsp)
vmovaps 208(%rsi), %xmm2
vmovaps %xmm2, 176(%rsp)
vmovaps 224(%rsi), %xmm2
vmovaps %xmm2, 160(%rsp)
vmovaps 240(%rsi), %xmm2
vmovaps %xmm2, 144(%rsp)
vmovdqa 256(%rsi), %xmm2
vmovdqa %xmm2, 128(%rsp)
vmovdqa %xmm1, 112(%rsp)
vmovdqa %xmm0, 96(%rsp)
.p2align 4, 0x90
.LBB4_18:
vmovdqa %xmm12, 368(%rsp)
vmovdqa %xmm3, 384(%rsp)
vmovups (%rdx), %xmm0
vmovaps %xmm0, 16(%rsp)
vmovups 16(%rdx), %xmm0
vmovaps %xmm0, 48(%rsp)
vmovups 32(%rdx), %xmm0
vmovaps %xmm0, 32(%rsp)
vmovups 48(%rdx), %xmm0
vmovaps %xmm0, 80(%rsp)
vmovups 64(%rdx), %xmm0
vmovaps %xmm0, 64(%rsp)
vmovups 80(%rdx), %xmm0
vmovaps %xmm0, 416(%rsp)
vmovdqa 32(%rdi), %xmm0
vpaddd .LCPI4_2(%rip), %xmm0, %xmm2
vpshufb %xmm8, %xmm2, %xmm3
vpaddd .LCPI4_7(%rip), %xmm0, %xmm2
vmovdqa %xmm2, 32(%rdi)
vpaddd .LCPI4_3(%rip), %xmm0, %xmm2
vpshufb %xmm8, %xmm2, %xmm4
vpshufb %xmm8, %xmm11, %xmm2
vpxor %xmm2, %xmm15, %xmm1
vmovdqa %xmm1, 400(%rsp)
vpaddd .LCPI4_4(%rip), %xmm0, %xmm5
vpshufb %xmm8, %xmm5, %xmm5
vpaddd .LCPI4_5(%rip), %xmm0, %xmm7
vpshufb %xmm8, %xmm7, %xmm7
vpshufb %xmm8, %xmm0, %xmm10
vpaddd .LCPI4_6(%rip), %xmm0, %xmm0
vmovdqa %xmm8, %xmm12
vpshufb %xmm8, %xmm0, %xmm8
vpshufb %xmm12, %xmm9, %xmm1
vmovdqa 112(%rsp), %xmm2
vpxor %xmm2, %xmm10, %xmm11
vpxor %xmm3, %xmm2, %xmm15
vpxor %xmm4, %xmm2, %xmm10
vpxor %xmm5, %xmm2, %xmm0
vpxor %xmm7, %xmm2, %xmm3
vpxor %xmm2, %xmm8, %xmm9
vmovaps 352(%rsp), %xmm2
#APP
vaesenc %xmm2, %xmm11, %xmm11
vaesenc %xmm2, %xmm15, %xmm15
vaesenc %xmm2, %xmm10, %xmm10
vaesenc %xmm2, %xmm0, %xmm0
vaesenc %xmm2, %xmm3, %xmm3
vaesenc %xmm2, %xmm9, %xmm9
#NO_APP
vpxor %xmm4, %xmm4, %xmm4
vpxor %xmm5, %xmm5, %xmm5
vpxor %xmm7, %xmm7, %xmm7
vmovdqa %xmm14, %xmm2
vmovaps 208(%rsp), %xmm14
vmovaps 336(%rsp), %xmm6
#APP
vaesenc %xmm6, %xmm11, %xmm11
vaesenc %xmm6, %xmm15, %xmm15
vaesenc %xmm6, %xmm10, %xmm10
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm9, %xmm9
vpclmulqdq $16, %xmm14, %xmm1, %xmm8
vpxor %xmm4, %xmm8, %xmm4
vpclmulqdq $0, %xmm14, %xmm1, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $17, %xmm14, %xmm1, %xmm8
vpxor %xmm5, %xmm8, %xmm5
vpclmulqdq $1, %xmm14, %xmm1, %xmm8
vpxor %xmm4, %xmm8, %xmm4
#NO_APP
vmovdqa %xmm12, %xmm8
vpshufb %xmm12, %xmm13, %xmm1
vmovaps 192(%rsp), %xmm12
vmovaps 96(%rsp), %xmm13
#APP
vaesenc %xmm13, %xmm11, %xmm11
vaesenc %xmm13, %xmm15, %xmm15
vaesenc %xmm13, %xmm10, %xmm10
vaesenc %xmm13, %xmm0, %xmm0
vaesenc %xmm13, %xmm3, %xmm3
vaesenc %xmm13, %xmm9, %xmm9
vpclmulqdq $16, %xmm12, %xmm1, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpclmulqdq $0, %xmm12, %xmm1, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpclmulqdq $17, %xmm12, %xmm1, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vpclmulqdq $1, %xmm12, %xmm1, %xmm6
vpxor %xmm6, %xmm4, %xmm4
#NO_APP
vpshufb %xmm8, %xmm2, %xmm1
vmovaps 176(%rsp), %xmm2
vmovaps 320(%rsp), %xmm12
#APP
vaesenc %xmm12, %xmm11, %xmm11
vaesenc %xmm12, %xmm15, %xmm15
vaesenc %xmm12, %xmm10, %xmm10
vaesenc %xmm12, %xmm0, %xmm0
vaesenc %xmm12, %xmm3, %xmm3
vaesenc %xmm12, %xmm9, %xmm9
vpclmulqdq $16, %xmm2, %xmm1, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpclmulqdq $0, %xmm2, %xmm1, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpclmulqdq $17, %xmm2, %xmm1, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vpclmulqdq $1, %xmm2, %xmm1, %xmm6
vpxor %xmm6, %xmm4, %xmm4
#NO_APP
vmovdqa 368(%rsp), %xmm1
vpshufb %xmm8, %xmm1, %xmm1
vmovaps 160(%rsp), %xmm2
vmovaps 304(%rsp), %xmm12
#APP
vaesenc %xmm12, %xmm11, %xmm11
vaesenc %xmm12, %xmm15, %xmm15
vaesenc %xmm12, %xmm10, %xmm10
vaesenc %xmm12, %xmm0, %xmm0
vaesenc %xmm12, %xmm3, %xmm3
vaesenc %xmm12, %xmm9, %xmm9
vpclmulqdq $16, %xmm2, %xmm1, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpclmulqdq $0, %xmm2, %xmm1, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpclmulqdq $17, %xmm2, %xmm1, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vpclmulqdq $1, %xmm2, %xmm1, %xmm6
vpxor %xmm6, %xmm4, %xmm4
#NO_APP
vmovdqa 384(%rsp), %xmm1
vpshufb %xmm8, %xmm1, %xmm1
vmovaps 144(%rsp), %xmm2
vmovaps 288(%rsp), %xmm12
#APP
vaesenc %xmm12, %xmm11, %xmm11
vaesenc %xmm12, %xmm15, %xmm15
vaesenc %xmm12, %xmm10, %xmm10
vaesenc %xmm12, %xmm0, %xmm0
vaesenc %xmm12, %xmm3, %xmm3
vaesenc %xmm12, %xmm9, %xmm9
vpclmulqdq $16, %xmm2, %xmm1, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpclmulqdq $0, %xmm2, %xmm1, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpclmulqdq $17, %xmm2, %xmm1, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vpclmulqdq $1, %xmm2, %xmm1, %xmm6
vpxor %xmm6, %xmm4, %xmm4
#NO_APP
vmovaps 272(%rsp), %xmm1
#APP
vaesenc %xmm1, %xmm11, %xmm11
vaesenc %xmm1, %xmm15, %xmm15
vaesenc %xmm1, %xmm10, %xmm10
vaesenc %xmm1, %xmm0, %xmm0
vaesenc %xmm1, %xmm3, %xmm3
vaesenc %xmm1, %xmm9, %xmm9
#NO_APP
vmovaps 128(%rsp), %xmm2
vmovdqa 256(%rsp), %xmm6
vmovaps 400(%rsp), %xmm12
#APP
vaesenc %xmm6, %xmm11, %xmm11
vaesenc %xmm6, %xmm15, %xmm15
vaesenc %xmm6, %xmm10, %xmm10
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm9, %xmm9
vpclmulqdq $16, %xmm2, %xmm12, %xmm1
vpxor %xmm1, %xmm4, %xmm4
vpclmulqdq $0, %xmm2, %xmm12, %xmm1
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $17, %xmm2, %xmm12, %xmm1
vpxor %xmm1, %xmm5, %xmm5
vpclmulqdq $1, %xmm2, %xmm12, %xmm1
vpxor %xmm1, %xmm4, %xmm4
#NO_APP
vmovaps 240(%rsp), %xmm1
#APP
vaesenc %xmm1, %xmm11, %xmm11
vaesenc %xmm1, %xmm15, %xmm15
vaesenc %xmm1, %xmm10, %xmm10
vaesenc %xmm1, %xmm0, %xmm0
vaesenc %xmm1, %xmm3, %xmm3
vaesenc %xmm1, %xmm9, %xmm9
#NO_APP
vmovdqa 224(%rsp), %xmm1
#APP
vaesenclast %xmm1, %xmm11, %xmm11
vaesenclast %xmm1, %xmm15, %xmm15
vaesenclast %xmm1, %xmm10, %xmm10
vaesenclast %xmm1, %xmm0, %xmm0
vaesenclast %xmm1, %xmm3, %xmm3
vaesenclast %xmm1, %xmm9, %xmm9
#NO_APP
vpxor 416(%rsp), %xmm9, %xmm9
vpxor 64(%rsp), %xmm3, %xmm13
vpxor 80(%rsp), %xmm0, %xmm14
vpxor 32(%rsp), %xmm10, %xmm12
vpxor 48(%rsp), %xmm15, %xmm3
vpxor 16(%rsp), %xmm11, %xmm11
vpxor %xmm1, %xmm1, %xmm1
vpunpcklqdq %xmm4, %xmm1, %xmm0
vpxor %xmm0, %xmm7, %xmm0
vpunpckhqdq %xmm1, %xmm4, %xmm1
vpxor %xmm1, %xmm5, %xmm1
vpbroadcastq .LCPI4_8(%rip), %xmm4
vpclmulqdq $16, %xmm4, %xmm0, %xmm2
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vpshufd $78, %xmm0, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $16, %xmm4, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm15
vmovdqu %xmm11, (%rcx)
vmovdqu %xmm3, 16(%rcx)
vmovdqu %xmm12, 32(%rcx)
vmovdqu %xmm14, 48(%rcx)
vmovdqu %xmm13, 64(%rcx)
addq $96, %rdx
vmovdqu %xmm9, 80(%rcx)
addq $96, %rcx
addq $-96, %rbx
cmpq $95, %rbx
ja .LBB4_18
.LBB4_19:
vpshufb %xmm8, %xmm11, %xmm0
vpxor %xmm0, %xmm15, %xmm0
vpshufb %xmm8, %xmm3, %xmm1
vpshufb %xmm8, %xmm12, %xmm4
vpshufb %xmm8, %xmm14, %xmm5
vpshufb %xmm8, %xmm13, %xmm6
vpshufb %xmm8, %xmm9, %xmm7
vmovdqa 176(%rsi), %xmm8
vmovdqa 192(%rsi), %xmm9
vmovdqa 208(%rsi), %xmm10
vmovdqa 224(%rsi), %xmm11
vmovdqa 240(%rsi), %xmm3
vmovdqa 256(%rsi), %xmm2
vpclmulqdq $0, %xmm7, %xmm8, %xmm12
vpclmulqdq $1, %xmm7, %xmm8, %xmm13
vpclmulqdq $16, %xmm7, %xmm8, %xmm14
vpxor %xmm13, %xmm14, %xmm13
vpclmulqdq $17, %xmm7, %xmm8, %xmm7
vpclmulqdq $0, %xmm6, %xmm9, %xmm8
vpxor %xmm12, %xmm8, %xmm8
vpclmulqdq $1, %xmm6, %xmm9, %xmm12
vpclmulqdq $16, %xmm6, %xmm9, %xmm14
vpxor %xmm14, %xmm12, %xmm12
vpxor %xmm12, %xmm13, %xmm12
vpclmulqdq $17, %xmm6, %xmm9, %xmm6
vpxor %xmm7, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm10, %xmm7
vpclmulqdq $1, %xmm5, %xmm10, %xmm9
vpclmulqdq $16, %xmm5, %xmm10, %xmm13
vpxor %xmm13, %xmm9, %xmm9
vpclmulqdq $17, %xmm5, %xmm10, %xmm5
vpclmulqdq $0, %xmm4, %xmm11, %xmm10
vpxor %xmm7, %xmm10, %xmm7
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $1, %xmm4, %xmm11, %xmm8
vpxor %xmm8, %xmm9, %xmm8
vpxor %xmm8, %xmm12, %xmm8
vpclmulqdq $16, %xmm4, %xmm11, %xmm9
vpclmulqdq $17, %xmm4, %xmm11, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpxor %xmm4, %xmm6, %xmm4
vpclmulqdq $0, %xmm1, %xmm3, %xmm5
vpxor %xmm5, %xmm7, %xmm5
vpclmulqdq $1, %xmm1, %xmm3, %xmm6
vpxor %xmm6, %xmm9, %xmm6
vpclmulqdq $16, %xmm1, %xmm3, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpxor %xmm6, %xmm8, %xmm6
vpclmulqdq $17, %xmm1, %xmm3, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $0, %xmm0, %xmm2, %xmm3
vpxor %xmm3, %xmm5, %xmm3
vpclmulqdq $1, %xmm0, %xmm2, %xmm4
vpxor %xmm4, %xmm6, %xmm4
vpclmulqdq $16, %xmm0, %xmm2, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpclmulqdq $17, %xmm0, %xmm2, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm4, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpsrldq $8, %xmm4, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI4_8(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm2, %xmm0, %xmm0
vmovdqa %xmm0, (%rdi)
movq %rcx, %r8
cmpq $16, %rbx
jae .LBB4_20
.LBB4_15:
testq %rbx, %rbx
jne .LBB4_23
jmp .LBB4_25
.LBB4_12:
movl $16, %r14d
subq %rcx, %r14
leaq (%rdx,%r14), %rdi
movq %rdi, 32(%rsp)
leaq (%r8,%r14), %rdi
movq %rdi, 80(%rsp)
movq %rax, %rbx
subq %r14, %rbx
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, (%rsp)
leaq (%rsp,%rcx), %r15
movq %r15, %rdi
movq %rsi, 48(%rsp)
movq %rdx, %rsi
movq %r14, %rdx
movq %rax, %r13
movq %r8, %r12
callq *memcpy@GOTPCREL(%rip)
vmovaps (%rsp), %xmm0
vxorps 64(%rbp), %xmm0, %xmm0
vmovaps %xmm0, 64(%rsp)
vmovaps %xmm0, 64(%rbp)
vmovaps %xmm0, (%rsp)
movq %r12, %rdi
movq %r15, %rsi
movq %r14, %rdx
callq *memcpy@GOTPCREL(%rip)
movq 48(%rsp), %rsi
movq %rbp, %rdi
movq %r13, %rax
movq $0, 80(%rbp)
vmovdqa 176(%rsi), %xmm0
vmovdqa 64(%rsp), %xmm1
vpshufb .LCPI4_0(%rip), %xmm1, %xmm1
vpxor (%rbp), %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm0, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI4_8(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vmovdqa %xmm0, (%rbp)
movq 80(%rsp), %r8
movq 32(%rsp), %rdx
movq 16(%rsp), %r11
cmpq $96, %rbx
jae .LBB4_16
.LBB4_14:
cmpq $16, %rbx
jb .LBB4_15
.LBB4_20:
vmovdqa (%rdi), %xmm14
vmovdqa 32(%rdi), %xmm0
vmovaps (%rsi), %xmm1
vmovaps %xmm1, 16(%rsp)
vmovaps 16(%rsi), %xmm1
vmovaps %xmm1, 48(%rsp)
vmovdqa 32(%rsi), %xmm1
vmovdqa %xmm1, 32(%rsp)
vmovdqa 48(%rsi), %xmm4
vmovdqa 64(%rsi), %xmm5
vmovdqa 80(%rsi), %xmm6
vmovdqa 96(%rsi), %xmm7
vmovdqa 112(%rsi), %xmm8
vmovdqa 128(%rsi), %xmm9
vmovdqa 144(%rsi), %xmm10
vmovdqa 160(%rsi), %xmm11
vmovdqa 176(%rsi), %xmm12
vmovdqa .LCPI4_0(%rip), %xmm13
vpbroadcastq .LCPI4_8(%rip), %xmm15
.p2align 4, 0x90
.LBB4_21:
vpshufb %xmm13, %xmm0, %xmm1
vpxor 16(%rsp), %xmm1, %xmm1
vaesenc 48(%rsp), %xmm1, %xmm1
vaesenc 32(%rsp), %xmm1, %xmm1
vaesenc %xmm4, %xmm1, %xmm1
vaesenc %xmm5, %xmm1, %xmm1
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm8, %xmm1, %xmm1
vaesenc %xmm9, %xmm1, %xmm1
vaesenc %xmm10, %xmm1, %xmm1
vaesenclast %xmm11, %xmm1, %xmm1
vpxor (%rdx), %xmm1, %xmm1
vmovdqu %xmm1, (%r8)
vpshufb %xmm13, %xmm1, %xmm1
vpxor %xmm1, %xmm14, %xmm1
vpclmulqdq $0, %xmm1, %xmm12, %xmm14
vpclmulqdq $1, %xmm1, %xmm12, %xmm2
vpclmulqdq $16, %xmm1, %xmm12, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm14, %xmm3
vpclmulqdq $17, %xmm1, %xmm12, %xmm1
vpsrldq $8, %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $16, %xmm15, %xmm3, %xmm2
vpshufd $78, %xmm3, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vpshufd $78, %xmm2, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpclmulqdq $16, %xmm15, %xmm2, %xmm2
vpxor %xmm1, %xmm2, %xmm14
addq $16, %rdx
addq $16, %r8
addq $-16, %rbx
vpaddd .LCPI4_2(%rip), %xmm0, %xmm0
cmpq $15, %rbx
ja .LBB4_21
vmovdqa %xmm0, 32(%rdi)
vmovdqa %xmm14, (%rdi)
testq %rbx, %rbx
je .LBB4_25
.LBB4_23:
movq %r11, 16(%rsp)
movq %rax, %r12
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, (%rsp)
movq %rsp, %rax
movq memcpy@GOTPCREL(%rip), %r13
movq %rdi, %r15
movq %rax, %rdi
movq %rsi, %rbp
movq %rdx, %rsi
movq %rbx, %rdx
movq %r8, %r14
vzeroupper
callq *%r13
vmovdqa 32(%r15), %xmm0
vpshufb .LCPI4_0(%rip), %xmm0, %xmm1
vpaddd .LCPI4_2(%rip), %xmm0, %xmm0
vmovdqa %xmm0, 32(%r15)
vpxor (%rbp), %xmm1, %xmm0
vaesenc 16(%rbp), %xmm0, %xmm0
vaesenc 32(%rbp), %xmm0, %xmm0
vaesenc 48(%rbp), %xmm0, %xmm0
vaesenc 64(%rbp), %xmm0, %xmm0
vaesenc 80(%rbp), %xmm0, %xmm0
vaesenc 96(%rbp), %xmm0, %xmm0
vaesenc 112(%rbp), %xmm0, %xmm0
vaesenc 128(%rbp), %xmm0, %xmm0
vaesenc 144(%rbp), %xmm0, %xmm0
vmovdqa (%rsp), %xmm1
vaesenclast 160(%rbp), %xmm0, %xmm0
vmovdqa %xmm0, 48(%rsp)
vpxor %xmm1, %xmm0, %xmm0
vmovdqa %xmm0, 32(%rsp)
vmovdqa %xmm0, (%rsp)
movq %rsp, %rsi
movq %r14, %rdi
movq %rbx, %rdx
callq *%r13
movq %r15, %rdi
vmovaps 48(%rsp), %xmm0
vmovaps %xmm0, 48(%r15)
vmovdqa 32(%rsp), %xmm0
vmovdqa %xmm0, 64(%r15)
.LBB4_24:
movq %rbx, 80(%rdi)
movq %r12, %rax
movq 16(%rsp), %r11
.LBB4_25:
movq %r11, 104(%rdi)
addq $440, %rsp
.cfi_def_cfa_offset 56
popq %rbx
.cfi_def_cfa_offset 48
popq %r12
.cfi_def_cfa_offset 40
popq %r13
.cfi_def_cfa_offset 32
popq %r14
.cfi_def_cfa_offset 24
popq %r15
.cfi_def_cfa_offset 16
popq %rbp
.cfi_def_cfa_offset 8
.cfi_restore %rbx
.cfi_restore %r12
.cfi_restore %r13
.cfi_restore %r14
.cfi_restore %r15
.cfi_restore %rbp
vzeroupper
retq
.Lfunc_end4:
.size haberdashery_aes128gcm_streaming_skylake_encrypt_update, .Lfunc_end4-haberdashery_aes128gcm_streaming_skylake_encrypt_update
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI5_0:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI5_1:
.zero 8
.quad -4467570830351532032
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI5_2:
.quad -4467570830351532032
.section .text.haberdashery_aes128gcm_streaming_skylake_encrypt_finalize,"ax",@progbits
.globl haberdashery_aes128gcm_streaming_skylake_encrypt_finalize
.p2align 4, 0x90
.type haberdashery_aes128gcm_streaming_skylake_encrypt_finalize,@function
haberdashery_aes128gcm_streaming_skylake_encrypt_finalize:
.cfi_startproc
pushq %rbp
.cfi_def_cfa_offset 16
pushq %r15
.cfi_def_cfa_offset 24
pushq %r14
.cfi_def_cfa_offset 32
pushq %r13
.cfi_def_cfa_offset 40
pushq %r12
.cfi_def_cfa_offset 48
pushq %rbx
.cfi_def_cfa_offset 56
subq $56, %rsp
.cfi_def_cfa_offset 112
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
.cfi_offset %rbp, -16
movq %rcx, %rbx
movq %rsi, %r15
movq %rdi, %r12
movq 104(%rdi), %rbp
testq %rbp, %rbp
je .LBB5_1
movq %rdx, 8(%rsp)
leaq 48(%r12), %r14
vmovaps 64(%r12), %xmm0
movq 80(%r12), %r13
vmovaps %xmm0, 32(%rsp)
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, 16(%rsp)
leaq 16(%rsp), %rdi
leaq 32(%rsp), %rsi
movq %r13, %rdx
callq *memcpy@GOTPCREL(%rip)
vmovdqa (%r12), %xmm0
testq %r13, %r13
je .LBB5_4
vmovdqa 16(%rsp), %xmm1
vpshufb .LCPI5_0(%rip), %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm2
vmovdqa 176(%r15), %xmm3
vpclmulqdq $0, %xmm2, %xmm3, %xmm0
vpclmulqdq $1, %xmm2, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm3, %xmm4
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $17, %xmm2, %xmm3, %xmm2
movq 8(%rsp), %rdx
jmp .LBB5_6
.LBB5_1:
cmpq $0, 80(%r12)
vmovdqa (%r12), %xmm0
je .LBB5_8
vmovdqa 176(%r15), %xmm2
leaq 48(%r12), %r14
vmovdqa 64(%r12), %xmm1
vpshufb .LCPI5_0(%rip), %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm3
vpclmulqdq $0, %xmm3, %xmm2, %xmm0
vpclmulqdq $1, %xmm3, %xmm2, %xmm1
vpclmulqdq $16, %xmm3, %xmm2, %xmm4
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $17, %xmm3, %xmm2, %xmm2
.LBB5_6:
vpslldq $8, %xmm1, %xmm3
vpxor %xmm3, %xmm0, %xmm0
vpsrldq $8, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpbroadcastq .LCPI5_2(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm0, %xmm3
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm0
vpclmulqdq $16, %xmm2, %xmm0, %xmm2
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpxor %xmm0, %xmm2, %xmm0
jmp .LBB5_7
.LBB5_4:
movq 8(%rsp), %rdx
.LBB5_7:
vpxor %xmm1, %xmm1, %xmm1
vmovdqu %ymm1, (%r14)
movq $0, 32(%r14)
.LBB5_8:
vmovdqa 176(%r15), %xmm1
vmovq 96(%r12), %xmm2
vmovq %rbp, %xmm3
vpunpcklqdq %xmm2, %xmm3, %xmm2
vpsllq $3, %xmm2, %xmm2
vpxor %xmm0, %xmm2, %xmm0
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI5_2(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vmovdqa %xmm0, (%r12)
testq %rbx, %rbx
je .LBB5_9
vmovdqa (%r15), %xmm1
vpxor 16(%r12), %xmm1, %xmm1
vaesenc 16(%r15), %xmm1, %xmm1
vaesenc 32(%r15), %xmm1, %xmm1
vaesenc 48(%r15), %xmm1, %xmm1
vaesenc 64(%r15), %xmm1, %xmm1
vaesenc 80(%r15), %xmm1, %xmm1
vaesenc 96(%r15), %xmm1, %xmm1
vaesenc 112(%r15), %xmm1, %xmm1
vaesenc 128(%r15), %xmm1, %xmm1
vaesenc 144(%r15), %xmm1, %xmm1
vaesenclast 160(%r15), %xmm1, %xmm1
vpshufb .LCPI5_0(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
cmpq $16, %rbx
jae .LBB5_11
vmovdqa %xmm0, 16(%rsp)
leaq 16(%rsp), %rsi
movq %rdx, %rdi
movq %rbx, %rdx
vzeroupper
callq *memcpy@GOTPCREL(%rip)
jmp .LBB5_13
.LBB5_9:
xorl %ebx, %ebx
jmp .LBB5_13
.LBB5_11:
vmovdqu %xmm0, (%rdx)
movl $16, %ebx
.LBB5_13:
movq %rbx, %rax
addq $56, %rsp
.cfi_def_cfa_offset 56
popq %rbx
.cfi_def_cfa_offset 48
popq %r12
.cfi_def_cfa_offset 40
popq %r13
.cfi_def_cfa_offset 32
popq %r14
.cfi_def_cfa_offset 24
popq %r15
.cfi_def_cfa_offset 16
popq %rbp
.cfi_def_cfa_offset 8
vzeroupper
retq
.Lfunc_end5:
.size haberdashery_aes128gcm_streaming_skylake_encrypt_finalize, .Lfunc_end5-haberdashery_aes128gcm_streaming_skylake_encrypt_finalize
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI6_0:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI6_1:
.zero 8
.quad -4467570830351532032
.LCPI6_2:
.long 1
.long 0
.long 0
.long 0
.LCPI6_3:
.long 2
.long 0
.long 0
.long 0
.LCPI6_4:
.long 3
.long 0
.long 0
.long 0
.LCPI6_5:
.long 4
.long 0
.long 0
.long 0
.LCPI6_6:
.long 5
.long 0
.long 0
.long 0
.LCPI6_7:
.long 6
.long 0
.long 0
.long 0
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI6_8:
.quad -4467570830351532032
.section .text.haberdashery_aes128gcm_streaming_skylake_decrypt_update,"ax",@progbits
.globl haberdashery_aes128gcm_streaming_skylake_decrypt_update
.p2align 4, 0x90
.type haberdashery_aes128gcm_streaming_skylake_decrypt_update,@function
haberdashery_aes128gcm_streaming_skylake_decrypt_update:
.cfi_startproc
cmpq %r9, %rcx
jne .LBB6_2
movq %rcx, %rax
movabsq $-68719476704, %rcx
leaq (%rax,%rcx), %r9
incq %rcx
cmpq %rcx, %r9
jae .LBB6_3
.LBB6_2:
xorl %eax, %eax
retq
.LBB6_3:
pushq %rbp
.cfi_def_cfa_offset 16
pushq %r15
.cfi_def_cfa_offset 24
pushq %r14
.cfi_def_cfa_offset 32
pushq %r13
.cfi_def_cfa_offset 40
pushq %r12
.cfi_def_cfa_offset 48
pushq %rbx
.cfi_def_cfa_offset 56
subq $392, %rsp
.cfi_def_cfa_offset 448
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
.cfi_offset %rbp, -16
movq 104(%rdi), %rcx
leaq (%rcx,%rax), %r13
movq %r13, %r9
shrq $5, %r9
cmpq $2147483646, %r9
jbe .LBB6_5
xorl %eax, %eax
jmp .LBB6_24
.LBB6_5:
testq %rcx, %rcx
setne %r9b
movq 80(%rdi), %rcx
testq %rcx, %rcx
sete %r10b
orb %r9b, %r10b
je .LBB6_9
testq %rcx, %rcx
je .LBB6_10
movq %rdi, %rbp
leaq (%rcx,%rax), %rbx
cmpq $15, %rbx
movq %rax, 56(%rsp)
ja .LBB6_11
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, (%rsp)
leaq (%rsp,%rcx), %r14
movq %r14, %rdi
movq %rdx, %rsi
movq %rax, %rdx
movq %rax, %r15
movq %r8, %r12
callq *memcpy@GOTPCREL(%rip)
vmovdqa (%rsp), %xmm0
vpxor 64(%rbp), %xmm0, %xmm0
vmovdqa %xmm0, 64(%rbp)
vmovdqa %xmm0, (%rsp)
movq %r12, %rdi
movq %r14, %rsi
movq %r15, %rdx
callq *memcpy@GOTPCREL(%rip)
movq %rbp, %rdi
jmp .LBB6_22
.LBB6_9:
vmovdqa 64(%rdi), %xmm0
vpshufb .LCPI6_0(%rip), %xmm0, %xmm0
vpxor (%rdi), %xmm0, %xmm0
vmovdqa 176(%rsi), %xmm1
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI6_8(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vmovdqa %xmm0, (%rdi)
vpxor %xmm0, %xmm0, %xmm0
vmovdqu %ymm0, 48(%rdi)
movq $0, 80(%rdi)
.LBB6_10:
movq %rax, %rbx
cmpq $96, %rbx
jb .LBB6_13
.LBB6_15:
vmovdqa (%rdi), %xmm3
vmovaps (%rsi), %xmm0
vmovaps %xmm0, 96(%rsp)
vmovaps 16(%rsi), %xmm0
vmovaps %xmm0, 352(%rsp)
vmovaps 32(%rsi), %xmm0
vmovaps %xmm0, 336(%rsp)
vmovaps 48(%rsi), %xmm0
vmovaps %xmm0, 320(%rsp)
vmovaps 64(%rsi), %xmm0
vmovaps %xmm0, 304(%rsp)
vmovaps 80(%rsi), %xmm0
vmovaps %xmm0, 288(%rsp)
vmovaps 96(%rsi), %xmm0
vmovaps %xmm0, 272(%rsp)
vmovaps 112(%rsi), %xmm0
vmovaps %xmm0, 256(%rsp)
vmovaps 128(%rsi), %xmm0
vmovaps %xmm0, 240(%rsp)
vmovaps 144(%rsi), %xmm0
vmovaps %xmm0, 224(%rsp)
vmovaps 160(%rsi), %xmm0
vmovaps %xmm0, 208(%rsp)
vmovaps 176(%rsi), %xmm0
vmovaps %xmm0, 192(%rsp)
vmovaps 192(%rsi), %xmm0
vmovaps %xmm0, 176(%rsp)
vmovaps 208(%rsi), %xmm0
vmovaps %xmm0, 160(%rsp)
vmovaps 224(%rsi), %xmm0
vmovaps %xmm0, 144(%rsp)
vmovaps 240(%rsi), %xmm0
vmovaps %xmm0, 128(%rsp)
vmovdqa 256(%rsi), %xmm0
vmovdqa %xmm0, 112(%rsp)
.p2align 4, 0x90
.LBB6_16:
vmovdqu (%rdx), %xmm6
vmovdqa %xmm6, 80(%rsp)
vmovups 16(%rdx), %xmm0
vmovaps %xmm0, 32(%rsp)
vmovups 32(%rdx), %xmm0
vmovaps %xmm0, 16(%rsp)
vmovdqu 48(%rdx), %xmm10
vmovdqu 64(%rdx), %xmm7
vmovdqu 80(%rdx), %xmm8
vmovdqa %xmm8, 64(%rsp)
vmovdqa 32(%rdi), %xmm0
vmovdqa .LCPI6_0(%rip), %xmm2
vpshufb %xmm2, %xmm0, %xmm1
vpaddd .LCPI6_2(%rip), %xmm0, %xmm4
vpshufb %xmm2, %xmm4, %xmm4
vpaddd .LCPI6_3(%rip), %xmm0, %xmm5
vpshufb %xmm2, %xmm5, %xmm5
vpaddd .LCPI6_4(%rip), %xmm0, %xmm11
vpshufb %xmm2, %xmm11, %xmm14
vpaddd .LCPI6_5(%rip), %xmm0, %xmm11
vpshufb %xmm2, %xmm11, %xmm15
vpaddd .LCPI6_6(%rip), %xmm0, %xmm11
vpaddd .LCPI6_7(%rip), %xmm0, %xmm0
vmovdqa %xmm0, 32(%rdi)
vpshufb %xmm2, %xmm11, %xmm0
vpshufb %xmm2, %xmm6, %xmm11
vpxor %xmm3, %xmm11, %xmm3
vmovdqa %xmm3, 368(%rsp)
vpshufb %xmm2, %xmm8, %xmm6
vmovdqa 96(%rsp), %xmm3
vpxor %xmm1, %xmm3, %xmm11
vpxor %xmm4, %xmm3, %xmm12
vpxor %xmm5, %xmm3, %xmm13
vpxor %xmm3, %xmm14, %xmm14
vpxor %xmm3, %xmm15, %xmm15
vpxor %xmm0, %xmm3, %xmm1
vmovaps 352(%rsp), %xmm0
#APP
vaesenc %xmm0, %xmm11, %xmm11
vaesenc %xmm0, %xmm12, %xmm12
vaesenc %xmm0, %xmm13, %xmm13
vaesenc %xmm0, %xmm14, %xmm14
vaesenc %xmm0, %xmm15, %xmm15
vaesenc %xmm0, %xmm1, %xmm1
#NO_APP
vpxor %xmm4, %xmm4, %xmm4
vxorps %xmm0, %xmm0, %xmm0
vpxor %xmm5, %xmm5, %xmm5
vmovaps 336(%rsp), %xmm8
vmovaps 192(%rsp), %xmm9
#APP
vaesenc %xmm8, %xmm11, %xmm11
vaesenc %xmm8, %xmm12, %xmm12
vaesenc %xmm8, %xmm13, %xmm13
vaesenc %xmm8, %xmm14, %xmm14
vaesenc %xmm8, %xmm15, %xmm15
vaesenc %xmm8, %xmm1, %xmm1
vpclmulqdq $16, %xmm9, %xmm6, %xmm3
vpxor %xmm3, %xmm0, %xmm0
vpclmulqdq $0, %xmm9, %xmm6, %xmm3
vpxor %xmm3, %xmm4, %xmm4
vpclmulqdq $17, %xmm9, %xmm6, %xmm3
vpxor %xmm3, %xmm5, %xmm5
vpclmulqdq $1, %xmm9, %xmm6, %xmm3
vpxor %xmm3, %xmm0, %xmm0
#NO_APP
vpshufb %xmm2, %xmm7, %xmm3
vmovaps 320(%rsp), %xmm8
vmovaps 176(%rsp), %xmm9
#APP
vaesenc %xmm8, %xmm11, %xmm11
vaesenc %xmm8, %xmm12, %xmm12
vaesenc %xmm8, %xmm13, %xmm13
vaesenc %xmm8, %xmm14, %xmm14
vaesenc %xmm8, %xmm15, %xmm15
vaesenc %xmm8, %xmm1, %xmm1
vpclmulqdq $16, %xmm9, %xmm3, %xmm6
vpxor %xmm6, %xmm0, %xmm0
vpclmulqdq $0, %xmm9, %xmm3, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpclmulqdq $17, %xmm9, %xmm3, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vpclmulqdq $1, %xmm9, %xmm3, %xmm6
vpxor %xmm6, %xmm0, %xmm0
#NO_APP
vpshufb %xmm2, %xmm10, %xmm3
vmovaps 304(%rsp), %xmm8
vmovaps 160(%rsp), %xmm9
#APP
vaesenc %xmm8, %xmm11, %xmm11
vaesenc %xmm8, %xmm12, %xmm12
vaesenc %xmm8, %xmm13, %xmm13
vaesenc %xmm8, %xmm14, %xmm14
vaesenc %xmm8, %xmm15, %xmm15
vaesenc %xmm8, %xmm1, %xmm1
vpclmulqdq $16, %xmm9, %xmm3, %xmm6
vpxor %xmm6, %xmm0, %xmm0
vpclmulqdq $0, %xmm9, %xmm3, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpclmulqdq $17, %xmm9, %xmm3, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vpclmulqdq $1, %xmm9, %xmm3, %xmm6
vpxor %xmm6, %xmm0, %xmm0
#NO_APP
vmovdqa 16(%rsp), %xmm3
vpshufb %xmm2, %xmm3, %xmm3
vmovaps 288(%rsp), %xmm8
vmovaps 144(%rsp), %xmm9
#APP
vaesenc %xmm8, %xmm11, %xmm11
vaesenc %xmm8, %xmm12, %xmm12
vaesenc %xmm8, %xmm13, %xmm13
vaesenc %xmm8, %xmm14, %xmm14
vaesenc %xmm8, %xmm15, %xmm15
vaesenc %xmm8, %xmm1, %xmm1
vpclmulqdq $16, %xmm9, %xmm3, %xmm6
vpxor %xmm6, %xmm0, %xmm0
vpclmulqdq $0, %xmm9, %xmm3, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpclmulqdq $17, %xmm9, %xmm3, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vpclmulqdq $1, %xmm9, %xmm3, %xmm6
vpxor %xmm6, %xmm0, %xmm0
#NO_APP
vmovdqa 32(%rsp), %xmm3
vpshufb %xmm2, %xmm3, %xmm3
vmovaps 272(%rsp), %xmm8
vmovdqa 128(%rsp), %xmm9
#APP
vaesenc %xmm8, %xmm11, %xmm11
vaesenc %xmm8, %xmm12, %xmm12
vaesenc %xmm8, %xmm13, %xmm13
vaesenc %xmm8, %xmm14, %xmm14
vaesenc %xmm8, %xmm15, %xmm15
vaesenc %xmm8, %xmm1, %xmm1
vpclmulqdq $16, %xmm9, %xmm3, %xmm6
vpxor %xmm6, %xmm0, %xmm0
vpclmulqdq $0, %xmm9, %xmm3, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpclmulqdq $17, %xmm9, %xmm3, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vpclmulqdq $1, %xmm9, %xmm3, %xmm6
vpxor %xmm6, %xmm0, %xmm0
#NO_APP
vmovaps 256(%rsp), %xmm3
#APP
vaesenc %xmm3, %xmm11, %xmm11
vaesenc %xmm3, %xmm12, %xmm12
vaesenc %xmm3, %xmm13, %xmm13
vaesenc %xmm3, %xmm14, %xmm14
vaesenc %xmm3, %xmm15, %xmm15
vaesenc %xmm3, %xmm1, %xmm1
#NO_APP
vmovdqa 240(%rsp), %xmm6
vmovaps 112(%rsp), %xmm8
vmovdqa 368(%rsp), %xmm2
#APP
vaesenc %xmm6, %xmm11, %xmm11
vaesenc %xmm6, %xmm12, %xmm12
vaesenc %xmm6, %xmm13, %xmm13
vaesenc %xmm6, %xmm14, %xmm14
vaesenc %xmm6, %xmm15, %xmm15
vaesenc %xmm6, %xmm1, %xmm1
vpclmulqdq $16, %xmm8, %xmm2, %xmm3
vpxor %xmm3, %xmm0, %xmm0
vpclmulqdq $0, %xmm8, %xmm2, %xmm3
vpxor %xmm3, %xmm4, %xmm4
vpclmulqdq $17, %xmm8, %xmm2, %xmm3
vpxor %xmm3, %xmm5, %xmm5
vpclmulqdq $1, %xmm8, %xmm2, %xmm3
vpxor %xmm3, %xmm0, %xmm0
#NO_APP
vpxor %xmm6, %xmm6, %xmm6
vpunpcklqdq %xmm0, %xmm6, %xmm3
vpxor %xmm3, %xmm4, %xmm3
vpunpckhqdq %xmm6, %xmm0, %xmm0
vpxor %xmm0, %xmm5, %xmm0
vpbroadcastq .LCPI6_8(%rip), %xmm5
vpclmulqdq $16, %xmm5, %xmm3, %xmm4
vpshufd $78, %xmm3, %xmm3
vpxor %xmm3, %xmm4, %xmm3
vpshufd $78, %xmm3, %xmm4
vpxor %xmm4, %xmm0, %xmm0
vpclmulqdq $16, %xmm5, %xmm3, %xmm3
vpxor %xmm3, %xmm0, %xmm3
vmovaps 224(%rsp), %xmm0
#APP
vaesenc %xmm0, %xmm11, %xmm11
vaesenc %xmm0, %xmm12, %xmm12
vaesenc %xmm0, %xmm13, %xmm13
vaesenc %xmm0, %xmm14, %xmm14
vaesenc %xmm0, %xmm15, %xmm15
vaesenc %xmm0, %xmm1, %xmm1
#NO_APP
vmovaps 208(%rsp), %xmm0
#APP
vaesenclast %xmm0, %xmm11, %xmm11
vaesenclast %xmm0, %xmm12, %xmm12
vaesenclast %xmm0, %xmm13, %xmm13
vaesenclast %xmm0, %xmm14, %xmm14
vaesenclast %xmm0, %xmm15, %xmm15
vaesenclast %xmm0, %xmm1, %xmm1
#NO_APP
vpxor 80(%rsp), %xmm11, %xmm0
vpxor 32(%rsp), %xmm12, %xmm4
vpxor 16(%rsp), %xmm13, %xmm5
vpxor %xmm10, %xmm14, %xmm6
vpxor %xmm7, %xmm15, %xmm8
vpxor 64(%rsp), %xmm1, %xmm1
vmovdqu %xmm0, (%r8)
vmovdqu %xmm4, 16(%r8)
vmovdqu %xmm5, 32(%r8)
vmovdqu %xmm6, 48(%r8)
vmovdqu %xmm8, 64(%r8)
vmovdqu %xmm1, 80(%r8)
addq $96, %rdx
addq $96, %r8
addq $-96, %rbx
cmpq $95, %rbx
ja .LBB6_16
vmovdqa %xmm3, (%rdi)
cmpq $16, %rbx
jae .LBB6_18
.LBB6_14:
testq %rbx, %rbx
jne .LBB6_21
jmp .LBB6_23
.LBB6_11:
movl $16, %r14d
subq %rcx, %r14
leaq (%rdx,%r14), %rdi
movq %rdi, 16(%rsp)
leaq (%r8,%r14), %rdi
movq %rdi, 80(%rsp)
movq %rax, %rbx
subq %r14, %rbx
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, (%rsp)
leaq (%rsp,%rcx), %r15
movq %r15, %rdi
movq %rsi, 32(%rsp)
movq %rdx, %rsi
movq %r14, %rdx
movq %r8, %r12
callq *memcpy@GOTPCREL(%rip)
vmovaps (%rsp), %xmm0
vxorps 64(%rbp), %xmm0, %xmm0
vmovaps %xmm0, 64(%rsp)
vmovaps %xmm0, 64(%rbp)
vmovaps %xmm0, (%rsp)
movq %r12, %rdi
movq %r15, %rsi
movq %r14, %rdx
callq *memcpy@GOTPCREL(%rip)
movq 32(%rsp), %rsi
movq %rbp, %rdi
movq 56(%rsp), %rax
movq $0, 80(%rbp)
vmovdqa 64(%rsp), %xmm0
vpxor 48(%rbp), %xmm0, %xmm0
vpshufb .LCPI6_0(%rip), %xmm0, %xmm0
vmovdqa 176(%rsi), %xmm1
vpxor (%rbp), %xmm0, %xmm0
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI6_8(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vmovdqa %xmm0, (%rbp)
movq 80(%rsp), %r8
movq 16(%rsp), %rdx
cmpq $96, %rbx
jae .LBB6_15
.LBB6_13:
cmpq $16, %rbx
jb .LBB6_14
.LBB6_18:
vmovdqa (%rdi), %xmm15
vmovdqa 32(%rdi), %xmm0
vmovdqa 176(%rsi), %xmm1
vmovaps (%rsi), %xmm2
vmovaps %xmm2, 32(%rsp)
vmovaps 16(%rsi), %xmm2
vmovaps %xmm2, 16(%rsp)
vmovaps 32(%rsi), %xmm2
vmovaps %xmm2, 80(%rsp)
vmovdqa 48(%rsi), %xmm2
vmovdqa %xmm2, 64(%rsp)
vmovdqa 64(%rsi), %xmm6
vmovdqa 80(%rsi), %xmm7
vmovdqa 96(%rsi), %xmm8
vmovdqa 112(%rsi), %xmm9
vmovdqa 128(%rsi), %xmm10
vmovdqa 144(%rsi), %xmm11
vmovdqa 160(%rsi), %xmm12
vmovdqa .LCPI6_0(%rip), %xmm13
vpbroadcastq .LCPI6_8(%rip), %xmm14
.p2align 4, 0x90
.LBB6_19:
vmovdqu (%rdx), %xmm2
vpshufb %xmm13, %xmm2, %xmm3
vpxor %xmm3, %xmm15, %xmm3
vpclmulqdq $0, %xmm3, %xmm1, %xmm15
vpclmulqdq $1, %xmm3, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm1, %xmm5
vpxor %xmm4, %xmm5, %xmm4
vpslldq $8, %xmm4, %xmm5
vpxor %xmm5, %xmm15, %xmm5
vpclmulqdq $17, %xmm3, %xmm1, %xmm3
vpsrldq $8, %xmm4, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpclmulqdq $16, %xmm14, %xmm5, %xmm4
vpshufd $78, %xmm5, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpshufd $78, %xmm4, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpshufb %xmm13, %xmm0, %xmm5
vpxor 32(%rsp), %xmm5, %xmm5
vaesenc 16(%rsp), %xmm5, %xmm5
vaesenc 80(%rsp), %xmm5, %xmm5
vaesenc 64(%rsp), %xmm5, %xmm5
vaesenc %xmm6, %xmm5, %xmm5
vaesenc %xmm7, %xmm5, %xmm5
vaesenc %xmm8, %xmm5, %xmm5
vaesenc %xmm9, %xmm5, %xmm5
vaesenc %xmm10, %xmm5, %xmm5
vaesenc %xmm11, %xmm5, %xmm5
vaesenclast %xmm12, %xmm5, %xmm5
vpxor %xmm2, %xmm5, %xmm2
vmovdqu %xmm2, (%r8)
vpclmulqdq $16, %xmm14, %xmm4, %xmm2
vpxor %xmm3, %xmm2, %xmm15
addq $16, %r8
addq $-16, %rbx
addq $16, %rdx
vpaddd .LCPI6_2(%rip), %xmm0, %xmm0
cmpq $15, %rbx
ja .LBB6_19
vmovdqa %xmm0, 32(%rdi)
vmovdqa %xmm15, (%rdi)
testq %rbx, %rbx
je .LBB6_23
.LBB6_21:
movq %rax, 56(%rsp)
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, (%rsp)
movq %rsp, %rax
movq memcpy@GOTPCREL(%rip), %r12
movq %rdi, %r15
movq %rax, %rdi
movq %r13, %rbp
movq %rsi, %r13
movq %rdx, %rsi
movq %rbx, %rdx
movq %r8, %r14
vzeroupper
callq *%r12
vmovdqa 32(%r15), %xmm0
vpshufb .LCPI6_0(%rip), %xmm0, %xmm1
vpaddd .LCPI6_2(%rip), %xmm0, %xmm0
vmovdqa %xmm0, 32(%r15)
vpxor (%r13), %xmm1, %xmm0
vaesenc 16(%r13), %xmm0, %xmm0
vaesenc 32(%r13), %xmm0, %xmm0
vaesenc 48(%r13), %xmm0, %xmm0
vaesenc 64(%r13), %xmm0, %xmm0
vaesenc 80(%r13), %xmm0, %xmm0
vaesenc 96(%r13), %xmm0, %xmm0
vaesenc 112(%r13), %xmm0, %xmm0
vaesenc 128(%r13), %xmm0, %xmm0
vaesenc 144(%r13), %xmm0, %xmm0
vmovdqa (%rsp), %xmm1
vaesenclast 160(%r13), %xmm0, %xmm0
vmovdqa %xmm0, 32(%rsp)
movq %rbp, %r13
vpxor %xmm1, %xmm0, %xmm0
vmovdqa %xmm0, 16(%rsp)
vmovdqa %xmm0, (%rsp)
movq %rsp, %rsi
movq %r14, %rdi
movq %rbx, %rdx
callq *%r12
movq %r15, %rdi
vmovaps 32(%rsp), %xmm0
vmovaps %xmm0, 48(%r15)
vmovdqa 16(%rsp), %xmm0
vmovdqa %xmm0, 64(%r15)
.LBB6_22:
movq %rbx, 80(%rdi)
movq 56(%rsp), %rax
.LBB6_23:
movq %r13, 104(%rdi)
.LBB6_24:
addq $392, %rsp
.cfi_def_cfa_offset 56
popq %rbx
.cfi_def_cfa_offset 48
popq %r12
.cfi_def_cfa_offset 40
popq %r13
.cfi_def_cfa_offset 32
popq %r14
.cfi_def_cfa_offset 24
popq %r15
.cfi_def_cfa_offset 16
popq %rbp
.cfi_def_cfa_offset 8
.cfi_restore %rbx
.cfi_restore %r12
.cfi_restore %r13
.cfi_restore %r14
.cfi_restore %r15
.cfi_restore %rbp
vzeroupper
retq
.Lfunc_end6:
.size haberdashery_aes128gcm_streaming_skylake_decrypt_update, .Lfunc_end6-haberdashery_aes128gcm_streaming_skylake_decrypt_update
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI7_0:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI7_1:
.zero 8
.quad -4467570830351532032
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI7_2:
.quad -4467570830351532032
.section .text.haberdashery_aes128gcm_streaming_skylake_decrypt_finalize,"ax",@progbits
.globl haberdashery_aes128gcm_streaming_skylake_decrypt_finalize
.p2align 4, 0x90
.type haberdashery_aes128gcm_streaming_skylake_decrypt_finalize,@function
haberdashery_aes128gcm_streaming_skylake_decrypt_finalize:
.cfi_startproc
xorl %eax, %eax
cmpq $16, %rcx
jne .LBB7_10
pushq %r15
.cfi_def_cfa_offset 16
pushq %r14
.cfi_def_cfa_offset 24
pushq %r13
.cfi_def_cfa_offset 32
pushq %r12
.cfi_def_cfa_offset 40
pushq %rbx
.cfi_def_cfa_offset 48
subq $48, %rsp
.cfi_def_cfa_offset 96
.cfi_offset %rbx, -48
.cfi_offset %r12, -40
.cfi_offset %r13, -32
.cfi_offset %r14, -24
.cfi_offset %r15, -16
vmovdqu (%rdx), %xmm5
movq 104(%rdi), %r14
testq %r14, %r14
je .LBB7_2
vmovdqa %xmm5, (%rsp)
movq %rsi, %r12
leaq 48(%rdi), %r15
vmovaps 48(%rdi), %xmm0
vxorps 64(%rdi), %xmm0, %xmm0
movq 80(%rdi), %rbx
vmovaps %xmm0, 32(%rsp)
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, 16(%rsp)
leaq 16(%rsp), %rax
leaq 32(%rsp), %rsi
movq %rdi, %r13
movq %rax, %rdi
movq %rbx, %rdx
callq *memcpy@GOTPCREL(%rip)
movq %r13, %rdi
vmovdqa (%r13), %xmm0
testq %rbx, %rbx
je .LBB7_5
vmovdqa 16(%rsp), %xmm1
vpshufb .LCPI7_0(%rip), %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm2
movq %r12, %rsi
vmovdqa 176(%r12), %xmm3
vpclmulqdq $0, %xmm2, %xmm3, %xmm0
vpclmulqdq $1, %xmm2, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm3, %xmm4
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $17, %xmm2, %xmm3, %xmm2
vmovdqa (%rsp), %xmm5
jmp .LBB7_7
.LBB7_2:
cmpq $0, 80(%rdi)
vmovdqa (%rdi), %xmm0
je .LBB7_9
vmovdqa 176(%rsi), %xmm2
leaq 48(%rdi), %r15
vmovdqa 64(%rdi), %xmm1
vpshufb .LCPI7_0(%rip), %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm3
vpclmulqdq $0, %xmm3, %xmm2, %xmm0
vpclmulqdq $1, %xmm3, %xmm2, %xmm1
vpclmulqdq $16, %xmm3, %xmm2, %xmm4
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $17, %xmm3, %xmm2, %xmm2
.LBB7_7:
vpslldq $8, %xmm1, %xmm3
vpxor %xmm3, %xmm0, %xmm0
vpsrldq $8, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpbroadcastq .LCPI7_2(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm0, %xmm3
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm0
vpclmulqdq $16, %xmm2, %xmm0, %xmm2
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpxor %xmm2, %xmm0, %xmm0
jmp .LBB7_8
.LBB7_5:
movq %r12, %rsi
vmovdqa (%rsp), %xmm5
.LBB7_8:
vpxor %xmm1, %xmm1, %xmm1
vmovdqu %ymm1, (%r15)
movq $0, 32(%r15)
.LBB7_9:
vmovdqa 176(%rsi), %xmm1
vmovq 96(%rdi), %xmm2
vmovq %r14, %xmm3
vpunpcklqdq %xmm2, %xmm3, %xmm2
vpsllq $3, %xmm2, %xmm2
vpxor %xmm0, %xmm2, %xmm0
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI7_2(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vmovdqa %xmm0, (%rdi)
vmovdqa (%rsi), %xmm1
vpxor 16(%rdi), %xmm1, %xmm1
vaesenc 16(%rsi), %xmm1, %xmm1
vaesenc 32(%rsi), %xmm1, %xmm1
vaesenc 48(%rsi), %xmm1, %xmm1
vaesenc 64(%rsi), %xmm1, %xmm1
vaesenc 80(%rsi), %xmm1, %xmm1
vaesenc 96(%rsi), %xmm1, %xmm1
vaesenc 112(%rsi), %xmm1, %xmm1
vaesenc 128(%rsi), %xmm1, %xmm1
vaesenc 144(%rsi), %xmm1, %xmm1
vaesenclast 160(%rsi), %xmm1, %xmm1
vpshufb .LCPI7_0(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm5, %xmm0
vpxor %xmm1, %xmm0, %xmm0
xorl %eax, %eax
vptest %xmm0, %xmm0
sete %al
addq $48, %rsp
.cfi_def_cfa_offset 48
popq %rbx
.cfi_def_cfa_offset 40
popq %r12
.cfi_def_cfa_offset 32
popq %r13
.cfi_def_cfa_offset 24
popq %r14
.cfi_def_cfa_offset 16
popq %r15
.cfi_def_cfa_offset 8
.cfi_restore %rbx
.cfi_restore %r12
.cfi_restore %r13
.cfi_restore %r14
.cfi_restore %r15
.LBB7_10:
vzeroupper
retq
.Lfunc_end7:
.size haberdashery_aes128gcm_streaming_skylake_decrypt_finalize, .Lfunc_end7-haberdashery_aes128gcm_streaming_skylake_decrypt_finalize
.cfi_endproc
.ident "rustc version 1.86.0-nightly (9cd60bd2c 2025-02-15)"
.section ".note.GNU-stack","",@progbits
|
ts-phantomnk90/haberdashery
| 56,124
|
asm/aes256gcm_tigerlake.s
|
# @generated
# https://github.com/facebookincubator/haberdashery/
.text
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI0_0:
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.LCPI0_9:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI0_1:
.quad 4294967297
.LCPI0_8:
.quad 274877907008
.LCPI0_10:
.quad -4467570830351532032
.section .rodata.cst4,"aM",@progbits,4
.p2align 2, 0x0
.LCPI0_2:
.long 0x00000002
.LCPI0_3:
.long 0x0c0f0e0d
.LCPI0_4:
.long 0x00000004
.LCPI0_5:
.long 0x00000008
.LCPI0_6:
.long 0x00000010
.LCPI0_7:
.long 0x00000020
.section .text.haberdashery_aes256gcm_tigerlake_init,"ax",@progbits
.globl haberdashery_aes256gcm_tigerlake_init
.p2align 4, 0x90
.type haberdashery_aes256gcm_tigerlake_init,@function
haberdashery_aes256gcm_tigerlake_init:
.cfi_startproc
cmpq $32, %rdx
jne .LBB0_2
vmovupd (%rsi), %xmm16
vmovdqu 16(%rsi), %xmm1
vpslldq $4, %xmm16, %xmm0
vpslldq $8, %xmm16, %xmm2
vpslldq $12, %xmm16, %xmm3
vpternlogq $150, %xmm2, %xmm0, %xmm3
vpbroadcastd .LCPI0_3(%rip), %xmm17
vpshufb %xmm17, %xmm1, %xmm0
vpbroadcastq .LCPI0_1(%rip), %xmm2
vaesenclast %xmm2, %xmm0, %xmm2
vpternlogq $150, %xmm3, %xmm16, %xmm2
vaesenc %xmm1, %xmm16, %xmm0
vpslldq $4, %xmm1, %xmm3
vpslldq $8, %xmm1, %xmm4
vpslldq $12, %xmm1, %xmm5
vpternlogq $150, %xmm4, %xmm3, %xmm5
vpshufd $255, %xmm2, %xmm3
vpxor %xmm15, %xmm15, %xmm15
vaesenclast %xmm15, %xmm3, %xmm3
vbroadcastss .LCPI0_2(%rip), %xmm6
vpternlogq $150, %xmm5, %xmm1, %xmm3
vbroadcastss .LCPI0_3(%rip), %xmm13
#APP
vaesenc %xmm2, %xmm0, %xmm0
vpslldq $4, %xmm2, %xmm5
vpslldq $8, %xmm2, %xmm7
vpslldq $12, %xmm2, %xmm8
vpternlogq $150, %xmm5, %xmm7, %xmm8
vpshufb %xmm13, %xmm3, %xmm4
vaesenclast %xmm6, %xmm4, %xmm4
vpternlogq $150, %xmm2, %xmm8, %xmm4
#NO_APP
vbroadcastss .LCPI0_4(%rip), %xmm7
#APP
vaesenc %xmm3, %xmm0, %xmm0
vpslldq $4, %xmm3, %xmm6
vpslldq $8, %xmm3, %xmm8
vpslldq $12, %xmm3, %xmm9
vpternlogq $150, %xmm6, %xmm8, %xmm9
vpshufd $255, %xmm4, %xmm5
vaesenclast %xmm15, %xmm5, %xmm5
vpternlogq $150, %xmm3, %xmm9, %xmm5
#NO_APP
#APP
vaesenc %xmm4, %xmm0, %xmm0
vpslldq $4, %xmm4, %xmm8
vpslldq $8, %xmm4, %xmm9
vpslldq $12, %xmm4, %xmm10
vpternlogq $150, %xmm8, %xmm9, %xmm10
vpshufb %xmm13, %xmm5, %xmm6
vaesenclast %xmm7, %xmm6, %xmm6
vpternlogq $150, %xmm4, %xmm10, %xmm6
#NO_APP
vmovaps %xmm4, %xmm21
#APP
vaesenc %xmm5, %xmm0, %xmm0
vpslldq $4, %xmm5, %xmm8
vpslldq $8, %xmm5, %xmm9
vpslldq $12, %xmm5, %xmm10
vpternlogq $150, %xmm8, %xmm9, %xmm10
vpshufd $255, %xmm6, %xmm7
vaesenclast %xmm15, %xmm7, %xmm7
vpternlogq $150, %xmm5, %xmm10, %xmm7
#NO_APP
vmovaps %xmm5, %xmm22
vbroadcastss .LCPI0_5(%rip), %xmm9
#APP
vaesenc %xmm6, %xmm0, %xmm0
vpslldq $4, %xmm6, %xmm10
vpslldq $8, %xmm6, %xmm11
vpslldq $12, %xmm6, %xmm12
vpternlogq $150, %xmm10, %xmm11, %xmm12
vpshufb %xmm13, %xmm7, %xmm8
vaesenclast %xmm9, %xmm8, %xmm8
vpternlogq $150, %xmm6, %xmm12, %xmm8
#NO_APP
vmovaps %xmm6, %xmm23
#APP
vaesenc %xmm7, %xmm0, %xmm0
vpslldq $4, %xmm7, %xmm10
vpslldq $8, %xmm7, %xmm11
vpslldq $12, %xmm7, %xmm12
vpternlogq $150, %xmm10, %xmm11, %xmm12
vpshufd $255, %xmm8, %xmm9
vaesenclast %xmm15, %xmm9, %xmm9
vpternlogq $150, %xmm7, %xmm12, %xmm9
#NO_APP
vbroadcastss .LCPI0_6(%rip), %xmm11
#APP
vaesenc %xmm8, %xmm0, %xmm0
vpslldq $4, %xmm8, %xmm12
vpslldq $8, %xmm8, %xmm14
vpslldq $12, %xmm8, %xmm4
vpternlogq $150, %xmm12, %xmm14, %xmm4
vpshufb %xmm13, %xmm9, %xmm10
vaesenclast %xmm11, %xmm10, %xmm10
vpternlogq $150, %xmm8, %xmm4, %xmm10
#NO_APP
vbroadcastss .LCPI0_7(%rip), %xmm4
#APP
vaesenc %xmm9, %xmm0, %xmm0
vpslldq $4, %xmm9, %xmm12
vpslldq $8, %xmm9, %xmm14
vpslldq $12, %xmm9, %xmm5
vpternlogq $150, %xmm12, %xmm14, %xmm5
vpshufd $255, %xmm10, %xmm11
vaesenclast %xmm15, %xmm11, %xmm11
vpternlogq $150, %xmm9, %xmm5, %xmm11
#NO_APP
#APP
vaesenc %xmm10, %xmm0, %xmm0
vpslldq $4, %xmm10, %xmm5
vpslldq $8, %xmm10, %xmm14
vpslldq $12, %xmm10, %xmm6
vpternlogq $150, %xmm5, %xmm14, %xmm6
vpshufb %xmm13, %xmm11, %xmm12
vaesenclast %xmm4, %xmm12, %xmm12
vpternlogq $150, %xmm10, %xmm6, %xmm12
#NO_APP
vpslldq $4, %xmm11, %xmm4
vpunpcklqdq %xmm11, %xmm15, %xmm5
vinsertps $55, %xmm11, %xmm0, %xmm6
vpternlogq $150, %xmm5, %xmm4, %xmm6
vpshufd $255, %xmm12, %xmm4
vaesenclast %xmm15, %xmm4, %xmm13
vpternlogq $150, %xmm6, %xmm11, %xmm13
vpslldq $4, %xmm12, %xmm4
vpunpcklqdq %xmm12, %xmm15, %xmm5
vinsertps $55, %xmm12, %xmm0, %xmm6
vpternlogq $150, %xmm5, %xmm4, %xmm6
vpshufb %xmm17, %xmm13, %xmm4
vpbroadcastq .LCPI0_8(%rip), %xmm5
vaesenclast %xmm5, %xmm4, %xmm14
vpternlogq $150, %xmm6, %xmm12, %xmm14
vaesenc %xmm11, %xmm0, %xmm0
vaesenc %xmm12, %xmm0, %xmm0
vaesenc %xmm13, %xmm0, %xmm0
vaesenclast %xmm14, %xmm0, %xmm0
vpshufb .LCPI0_9(%rip), %xmm0, %xmm0
vpsrlq $63, %xmm0, %xmm4
vpaddq %xmm0, %xmm0, %xmm0
vpshufd $78, %xmm4, %xmm5
vpblendd $12, %xmm4, %xmm15, %xmm4
vpsllq $63, %xmm4, %xmm6
vpternlogq $30, %xmm5, %xmm0, %xmm6
vpsllq $62, %xmm4, %xmm5
vpsllq $57, %xmm4, %xmm0
vpternlogq $150, %xmm5, %xmm6, %xmm0
vpbroadcastq .LCPI0_10(%rip), %xmm4
vpclmulqdq $0, %xmm0, %xmm0, %xmm5
vpclmulqdq $16, %xmm4, %xmm5, %xmm6
vpshufd $78, %xmm5, %xmm5
vpxor %xmm5, %xmm6, %xmm5
vpclmulqdq $16, %xmm4, %xmm5, %xmm6
vpclmulqdq $17, %xmm0, %xmm0, %xmm17
vpshufd $78, %xmm5, %xmm15
vpternlogq $150, %xmm6, %xmm17, %xmm15
vpclmulqdq $0, %xmm0, %xmm15, %xmm5
vpclmulqdq $16, %xmm0, %xmm15, %xmm6
vpclmulqdq $1, %xmm0, %xmm15, %xmm17
vpxorq %xmm6, %xmm17, %xmm6
vpslldq $8, %xmm6, %xmm17
vpxorq %xmm17, %xmm5, %xmm5
vpclmulqdq $16, %xmm4, %xmm5, %xmm17
vpshufd $78, %xmm5, %xmm5
vpxorq %xmm5, %xmm17, %xmm5
vpclmulqdq $16, %xmm4, %xmm5, %xmm17
vpclmulqdq $17, %xmm0, %xmm15, %xmm18
vpxorq %xmm17, %xmm18, %xmm17
vpsrldq $8, %xmm6, %xmm6
vpshufd $78, %xmm5, %xmm5
vpternlogq $150, %xmm6, %xmm17, %xmm5
vpclmulqdq $0, %xmm5, %xmm5, %xmm6
vpclmulqdq $16, %xmm4, %xmm6, %xmm17
vpshufd $78, %xmm6, %xmm6
vpxorq %xmm6, %xmm17, %xmm6
vpclmulqdq $16, %xmm4, %xmm6, %xmm17
vpclmulqdq $17, %xmm5, %xmm5, %xmm18
vpshufd $78, %xmm6, %xmm6
vpternlogq $150, %xmm17, %xmm18, %xmm6
vpclmulqdq $0, %xmm15, %xmm15, %xmm17
vpclmulqdq $16, %xmm4, %xmm17, %xmm18
vpshufd $78, %xmm17, %xmm17
vpxorq %xmm17, %xmm18, %xmm17
vpclmulqdq $16, %xmm4, %xmm17, %xmm18
vpclmulqdq $17, %xmm15, %xmm15, %xmm19
vpshufd $78, %xmm17, %xmm17
vpternlogq $150, %xmm18, %xmm19, %xmm17
vpclmulqdq $0, %xmm0, %xmm17, %xmm18
vpclmulqdq $16, %xmm0, %xmm17, %xmm19
vpclmulqdq $1, %xmm0, %xmm17, %xmm20
vpxorq %xmm19, %xmm20, %xmm19
vpslldq $8, %xmm19, %xmm20
vpxorq %xmm20, %xmm18, %xmm18
vpclmulqdq $16, %xmm4, %xmm18, %xmm20
vpshufd $78, %xmm18, %xmm18
vpxorq %xmm18, %xmm20, %xmm18
vpclmulqdq $16, %xmm4, %xmm18, %xmm4
vpclmulqdq $17, %xmm0, %xmm17, %xmm20
vpxorq %xmm4, %xmm20, %xmm4
vpsrldq $8, %xmm19, %xmm19
vpshufd $78, %xmm18, %xmm18
vpternlogq $150, %xmm19, %xmm4, %xmm18
vmovdqa64 %xmm16, (%rdi)
vmovdqa %xmm1, 16(%rdi)
vmovdqa %xmm2, 32(%rdi)
vmovdqa %xmm3, 48(%rdi)
vmovaps %xmm21, 64(%rdi)
vmovaps %xmm22, 80(%rdi)
vmovaps %xmm23, 96(%rdi)
vmovaps %xmm7, 112(%rdi)
vmovaps %xmm8, 128(%rdi)
vmovaps %xmm9, 144(%rdi)
vmovaps %xmm10, 160(%rdi)
vmovaps %xmm11, 176(%rdi)
vmovaps %xmm12, 192(%rdi)
vmovdqa %xmm13, 208(%rdi)
vmovdqa %xmm14, 224(%rdi)
vmovdqa %xmm0, 240(%rdi)
vmovdqa %xmm15, 256(%rdi)
vmovdqa %xmm5, 272(%rdi)
vmovdqa64 %xmm17, 288(%rdi)
vmovdqa64 %xmm18, 304(%rdi)
vmovdqa %xmm6, 320(%rdi)
.LBB0_2:
xorl %eax, %eax
cmpq $32, %rdx
sete %al
retq
.Lfunc_end0:
.size haberdashery_aes256gcm_tigerlake_init, .Lfunc_end0-haberdashery_aes256gcm_tigerlake_init
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI1_0:
.byte 15
.byte 128
.byte 128
.byte 128
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI1_1:
.long 1
.long 0
.long 0
.long 0
.LCPI1_2:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI1_4:
.long 2
.long 0
.long 0
.long 0
.LCPI1_5:
.long 3
.long 0
.long 0
.long 0
.LCPI1_6:
.long 4
.long 0
.long 0
.long 0
.LCPI1_7:
.long 5
.long 0
.long 0
.long 0
.LCPI1_8:
.long 6
.long 0
.long 0
.long 0
.LCPI1_9:
.long 7
.long 0
.long 0
.long 0
.LCPI1_10:
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.LCPI1_11:
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI1_3:
.quad -4467570830351532032
.section .rodata,"a",@progbits
.LCPI1_12:
.byte 1
.byte 0
.section .text.haberdashery_aes256gcm_tigerlake_encrypt,"ax",@progbits
.globl haberdashery_aes256gcm_tigerlake_encrypt
.p2align 4, 0x90
.type haberdashery_aes256gcm_tigerlake_encrypt,@function
haberdashery_aes256gcm_tigerlake_encrypt:
.cfi_startproc
pushq %rbx
.cfi_def_cfa_offset 16
subq $96, %rsp
.cfi_def_cfa_offset 112
.cfi_offset %rbx, -16
movq 112(%rsp), %r10
xorl %eax, %eax
cmpq 128(%rsp), %r10
jne .LBB1_22
cmpq $16, 144(%rsp)
setne %r11b
movabsq $2305843009213693950, %rbx
cmpq %rbx, %r8
seta %bl
orb %r11b, %bl
jne .LBB1_22
movq %r10, %r11
shrq $5, %r11
cmpq $2147483647, %r11
setae %r11b
cmpq $12, %rdx
setne %dl
orb %r11b, %dl
jne .LBB1_22
vmovd (%rsi), %xmm0
vpinsrd $1, 4(%rsi), %xmm0, %xmm0
vpinsrd $2, 8(%rsi), %xmm0, %xmm0
movl $16777216, %edx
vpinsrd $3, %edx, %xmm0, %xmm25
vpxor %xmm1, %xmm1, %xmm1
testq %r8, %r8
je .LBB1_18
cmpq $96, %r8
jb .LBB1_5
vmovdqa 240(%rdi), %xmm0
vmovdqa 256(%rdi), %xmm2
vmovdqa 272(%rdi), %xmm3
vmovdqa 288(%rdi), %xmm4
vmovdqa 304(%rdi), %xmm5
vmovdqa 320(%rdi), %xmm6
vmovdqa .LCPI1_2(%rip), %xmm7
vpbroadcastq .LCPI1_3(%rip), %xmm8
movq %r8, %rdx
.p2align 4, 0x90
.LBB1_17:
vmovdqu (%rcx), %xmm9
vmovdqu 16(%rcx), %xmm10
vmovdqu 32(%rcx), %xmm11
vmovdqu 48(%rcx), %xmm12
vmovdqu 64(%rcx), %xmm13
vmovdqu 80(%rcx), %xmm14
addq $96, %rcx
addq $-96, %rdx
vpshufb %xmm7, %xmm9, %xmm9
vpxor %xmm1, %xmm9, %xmm1
vpshufb %xmm7, %xmm10, %xmm9
vpshufb %xmm7, %xmm11, %xmm10
vpshufb %xmm7, %xmm12, %xmm11
vpshufb %xmm7, %xmm13, %xmm12
vpshufb %xmm7, %xmm14, %xmm13
vpclmulqdq $0, %xmm13, %xmm0, %xmm14
vpclmulqdq $1, %xmm13, %xmm0, %xmm15
vpclmulqdq $16, %xmm13, %xmm0, %xmm17
vpxorq %xmm15, %xmm17, %xmm15
vpclmulqdq $17, %xmm13, %xmm0, %xmm13
vpclmulqdq $0, %xmm12, %xmm2, %xmm17
vpclmulqdq $1, %xmm12, %xmm2, %xmm18
vpclmulqdq $16, %xmm12, %xmm2, %xmm19
vpternlogq $150, %xmm18, %xmm15, %xmm19
vpclmulqdq $17, %xmm12, %xmm2, %xmm12
vpclmulqdq $0, %xmm11, %xmm3, %xmm15
vpternlogq $150, %xmm14, %xmm17, %xmm15
vpclmulqdq $1, %xmm11, %xmm3, %xmm14
vpclmulqdq $16, %xmm11, %xmm3, %xmm17
vpternlogq $150, %xmm14, %xmm19, %xmm17
vpclmulqdq $17, %xmm11, %xmm3, %xmm11
vpternlogq $150, %xmm13, %xmm12, %xmm11
vpclmulqdq $0, %xmm10, %xmm4, %xmm12
vpclmulqdq $1, %xmm10, %xmm4, %xmm13
vpclmulqdq $16, %xmm10, %xmm4, %xmm14
vpternlogq $150, %xmm13, %xmm17, %xmm14
vpclmulqdq $17, %xmm10, %xmm4, %xmm10
vpclmulqdq $0, %xmm9, %xmm5, %xmm13
vpternlogq $150, %xmm12, %xmm15, %xmm13
vpclmulqdq $1, %xmm9, %xmm5, %xmm12
vpclmulqdq $16, %xmm9, %xmm5, %xmm15
vpternlogq $150, %xmm12, %xmm14, %xmm15
vpclmulqdq $17, %xmm9, %xmm5, %xmm9
vpternlogq $150, %xmm10, %xmm11, %xmm9
vpclmulqdq $0, %xmm1, %xmm6, %xmm10
vpclmulqdq $1, %xmm1, %xmm6, %xmm11
vpclmulqdq $16, %xmm1, %xmm6, %xmm12
vpternlogq $150, %xmm11, %xmm15, %xmm12
vpclmulqdq $17, %xmm1, %xmm6, %xmm1
vpslldq $8, %xmm12, %xmm11
vpternlogq $150, %xmm10, %xmm13, %xmm11
vpsrldq $8, %xmm12, %xmm10
vpclmulqdq $16, %xmm8, %xmm11, %xmm12
vpshufd $78, %xmm11, %xmm11
vpxor %xmm11, %xmm12, %xmm11
vpclmulqdq $16, %xmm8, %xmm11, %xmm12
vpternlogq $150, %xmm1, %xmm9, %xmm12
vpshufd $78, %xmm11, %xmm1
vpternlogq $150, %xmm10, %xmm12, %xmm1
cmpq $95, %rdx
ja .LBB1_17
cmpq $16, %rdx
jae .LBB1_11
jmp .LBB1_7
.LBB1_18:
testq %r10, %r10
jne .LBB1_25
jmp .LBB1_19
.LBB1_5:
movq %r8, %rdx
cmpq $16, %rdx
jb .LBB1_7
.LBB1_11:
vmovdqa 240(%rdi), %xmm0
leaq -16(%rdx), %rsi
testb $16, %sil
je .LBB1_12
cmpq $16, %rsi
jae .LBB1_14
.LBB1_8:
testq %rsi, %rsi
je .LBB1_20
.LBB1_9:
movl $-1, %edx
bzhil %esi, %edx, %edx
kmovd %edx, %k1
vmovdqu8 (%rcx), %xmm0 {%k1} {z}
testq %r10, %r10
je .LBB1_10
movabsq $-68719476704, %rcx
leaq (%r10,%rcx), %rdx
incq %rcx
cmpq %rcx, %rdx
jb .LBB1_22
vmovdqa 240(%rdi), %xmm2
vpshufb .LCPI1_2(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpclmulqdq $0, %xmm0, %xmm2, %xmm1
vpclmulqdq $1, %xmm0, %xmm2, %xmm3
vpclmulqdq $16, %xmm0, %xmm2, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm2, %xmm0
vpslldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpbroadcastq .LCPI1_3(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm1, %xmm4
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm3
vpxor %xmm0, %xmm3, %xmm0
vpshufd $78, %xmm1, %xmm1
vpternlogq $150, %xmm2, %xmm0, %xmm1
jmp .LBB1_25
.LBB1_12:
vmovdqu (%rcx), %xmm2
addq $16, %rcx
vpshufb .LCPI1_2(%rip), %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
vpslldq $8, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpsrldq $8, %xmm3, %xmm3
vpbroadcastq .LCPI1_3(%rip), %xmm4
vpclmulqdq $16, %xmm4, %xmm2, %xmm5
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm5, %xmm2
vpclmulqdq $16, %xmm4, %xmm2, %xmm4
vpxor %xmm1, %xmm4, %xmm4
vpshufd $78, %xmm2, %xmm1
vpternlogq $150, %xmm3, %xmm4, %xmm1
movq %rsi, %rdx
cmpq $16, %rsi
jb .LBB1_8
.LBB1_14:
vmovdqa .LCPI1_2(%rip), %xmm2
vpbroadcastq .LCPI1_3(%rip), %xmm3
.p2align 4, 0x90
.LBB1_15:
vmovdqu (%rcx), %xmm4
vmovdqu 16(%rcx), %xmm5
vpshufb %xmm2, %xmm4, %xmm4
vpxor %xmm4, %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm4
vpclmulqdq $1, %xmm1, %xmm0, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm7
vpxor %xmm6, %xmm7, %xmm6
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
vpslldq $8, %xmm6, %xmm7
vpxor %xmm7, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm4, %xmm7
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm7, %xmm4
vpclmulqdq $16, %xmm3, %xmm4, %xmm7
vpternlogq $150, %xmm1, %xmm6, %xmm7
vpshufd $78, %xmm4, %xmm1
addq $32, %rcx
addq $-32, %rdx
vpshufb %xmm2, %xmm5, %xmm4
vpternlogq $150, %xmm1, %xmm7, %xmm4
vpclmulqdq $0, %xmm4, %xmm0, %xmm1
vpclmulqdq $1, %xmm4, %xmm0, %xmm5
vpclmulqdq $16, %xmm4, %xmm0, %xmm6
vpxor %xmm5, %xmm6, %xmm5
vpclmulqdq $17, %xmm4, %xmm0, %xmm4
vpslldq $8, %xmm5, %xmm6
vpxor %xmm6, %xmm1, %xmm1
vpsrldq $8, %xmm5, %xmm5
vpclmulqdq $16, %xmm3, %xmm1, %xmm6
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm6, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm6
vpxor %xmm4, %xmm6, %xmm4
vpshufd $78, %xmm1, %xmm1
vpternlogq $150, %xmm5, %xmm4, %xmm1
cmpq $15, %rdx
ja .LBB1_15
.LBB1_7:
movq %rdx, %rsi
testq %rsi, %rsi
jne .LBB1_9
.LBB1_20:
testq %r10, %r10
je .LBB1_19
movabsq $-68719476704, %rcx
leaq (%r10,%rcx), %rdx
incq %rcx
cmpq %rcx, %rdx
jb .LBB1_22
.LBB1_25:
movq 120(%rsp), %rdx
vpshufb .LCPI1_0(%rip), %xmm25, %xmm0
vpaddd .LCPI1_1(%rip), %xmm0, %xmm2
cmpq $96, %r10
jb .LBB1_26
vmovdqa64 .LCPI1_2(%rip), %xmm24
vpshufb %xmm24, %xmm2, %xmm2
vpaddd .LCPI1_4(%rip), %xmm0, %xmm4
vpshufb %xmm24, %xmm4, %xmm5
vpaddd .LCPI1_5(%rip), %xmm0, %xmm4
vpshufb %xmm24, %xmm4, %xmm6
vpaddd .LCPI1_6(%rip), %xmm0, %xmm4
vpshufb %xmm24, %xmm4, %xmm7
vpaddd .LCPI1_7(%rip), %xmm0, %xmm4
vpshufb %xmm24, %xmm4, %xmm8
vpaddd .LCPI1_8(%rip), %xmm0, %xmm4
vpshufb %xmm24, %xmm4, %xmm9
vmovdqa (%rdi), %xmm4
vmovaps 16(%rdi), %xmm11
vmovdqa 32(%rdi), %xmm3
vmovaps 48(%rdi), %xmm10
vpxor %xmm2, %xmm4, %xmm2
vpxor %xmm5, %xmm4, %xmm5
vpxor %xmm6, %xmm4, %xmm6
vpxor %xmm7, %xmm4, %xmm7
vpxor %xmm4, %xmm8, %xmm8
vpxor %xmm4, %xmm9, %xmm9
#APP
vaesenc %xmm11, %xmm2, %xmm2
vaesenc %xmm11, %xmm5, %xmm5
vaesenc %xmm11, %xmm6, %xmm6
vaesenc %xmm11, %xmm7, %xmm7
vaesenc %xmm11, %xmm8, %xmm8
vaesenc %xmm11, %xmm9, %xmm9
#NO_APP
#APP
vaesenc %xmm3, %xmm2, %xmm2
vaesenc %xmm3, %xmm5, %xmm5
vaesenc %xmm3, %xmm6, %xmm6
vaesenc %xmm3, %xmm7, %xmm7
vaesenc %xmm3, %xmm8, %xmm8
vaesenc %xmm3, %xmm9, %xmm9
#NO_APP
vmovaps %xmm10, %xmm16
#APP
vaesenc %xmm10, %xmm2, %xmm2
vaesenc %xmm10, %xmm5, %xmm5
vaesenc %xmm10, %xmm6, %xmm6
vaesenc %xmm10, %xmm7, %xmm7
vaesenc %xmm10, %xmm8, %xmm8
vaesenc %xmm10, %xmm9, %xmm9
#NO_APP
vmovdqa 64(%rdi), %xmm10
vmovdqa64 %xmm10, %xmm18
#APP
vaesenc %xmm10, %xmm2, %xmm2
vaesenc %xmm10, %xmm5, %xmm5
vaesenc %xmm10, %xmm6, %xmm6
vaesenc %xmm10, %xmm7, %xmm7
vaesenc %xmm10, %xmm8, %xmm8
vaesenc %xmm10, %xmm9, %xmm9
#NO_APP
vmovdqa 80(%rdi), %xmm10
vmovdqa64 %xmm10, %xmm22
#APP
vaesenc %xmm10, %xmm2, %xmm2
vaesenc %xmm10, %xmm5, %xmm5
vaesenc %xmm10, %xmm6, %xmm6
vaesenc %xmm10, %xmm7, %xmm7
vaesenc %xmm10, %xmm8, %xmm8
vaesenc %xmm10, %xmm9, %xmm9
#NO_APP
vmovdqa 96(%rdi), %xmm15
#APP
vaesenc %xmm15, %xmm2, %xmm2
vaesenc %xmm15, %xmm5, %xmm5
vaesenc %xmm15, %xmm6, %xmm6
vaesenc %xmm15, %xmm7, %xmm7
vaesenc %xmm15, %xmm8, %xmm8
vaesenc %xmm15, %xmm9, %xmm9
#NO_APP
vmovaps 112(%rdi), %xmm12
vmovaps %xmm12, -80(%rsp)
#APP
vaesenc %xmm12, %xmm2, %xmm2
vaesenc %xmm12, %xmm5, %xmm5
vaesenc %xmm12, %xmm6, %xmm6
vaesenc %xmm12, %xmm7, %xmm7
vaesenc %xmm12, %xmm8, %xmm8
vaesenc %xmm12, %xmm9, %xmm9
#NO_APP
vmovdqa 128(%rdi), %xmm12
#APP
vaesenc %xmm12, %xmm2, %xmm2
vaesenc %xmm12, %xmm5, %xmm5
vaesenc %xmm12, %xmm6, %xmm6
vaesenc %xmm12, %xmm7, %xmm7
vaesenc %xmm12, %xmm8, %xmm8
vaesenc %xmm12, %xmm9, %xmm9
#NO_APP
vmovaps 144(%rdi), %xmm10
vmovaps %xmm10, -96(%rsp)
#APP
vaesenc %xmm10, %xmm2, %xmm2
vaesenc %xmm10, %xmm5, %xmm5
vaesenc %xmm10, %xmm6, %xmm6
vaesenc %xmm10, %xmm7, %xmm7
vaesenc %xmm10, %xmm8, %xmm8
vaesenc %xmm10, %xmm9, %xmm9
#NO_APP
vmovdqa 160(%rdi), %xmm10
#APP
vaesenc %xmm10, %xmm2, %xmm2
vaesenc %xmm10, %xmm5, %xmm5
vaesenc %xmm10, %xmm6, %xmm6
vaesenc %xmm10, %xmm7, %xmm7
vaesenc %xmm10, %xmm8, %xmm8
vaesenc %xmm10, %xmm9, %xmm9
#NO_APP
vmovaps 176(%rdi), %xmm13
vmovaps %xmm13, -112(%rsp)
#APP
vaesenc %xmm13, %xmm2, %xmm2
vaesenc %xmm13, %xmm5, %xmm5
vaesenc %xmm13, %xmm6, %xmm6
vaesenc %xmm13, %xmm7, %xmm7
vaesenc %xmm13, %xmm8, %xmm8
vaesenc %xmm13, %xmm9, %xmm9
#NO_APP
vmovdqa 192(%rdi), %xmm13
#APP
vaesenc %xmm13, %xmm2, %xmm2
vaesenc %xmm13, %xmm5, %xmm5
vaesenc %xmm13, %xmm6, %xmm6
vaesenc %xmm13, %xmm7, %xmm7
vaesenc %xmm13, %xmm8, %xmm8
vaesenc %xmm13, %xmm9, %xmm9
#NO_APP
vmovapd 208(%rdi), %xmm14
vmovapd %xmm14, %xmm23
#APP
vaesenc %xmm14, %xmm2, %xmm2
vaesenc %xmm14, %xmm5, %xmm5
vaesenc %xmm14, %xmm6, %xmm6
vaesenc %xmm14, %xmm7, %xmm7
vaesenc %xmm14, %xmm8, %xmm8
vaesenc %xmm14, %xmm9, %xmm9
#NO_APP
vmovdqa 224(%rdi), %xmm14
#APP
vaesenclast %xmm14, %xmm2, %xmm2
vaesenclast %xmm14, %xmm5, %xmm5
vaesenclast %xmm14, %xmm6, %xmm6
vaesenclast %xmm14, %xmm7, %xmm7
vaesenclast %xmm14, %xmm8, %xmm8
vaesenclast %xmm14, %xmm9, %xmm9
#NO_APP
vpxorq (%r9), %xmm2, %xmm17
vpxorq 16(%r9), %xmm5, %xmm26
vpxorq 32(%r9), %xmm6, %xmm27
vpxorq 48(%r9), %xmm7, %xmm28
vpxorq 64(%r9), %xmm8, %xmm29
vpxor 80(%r9), %xmm9, %xmm5
leaq 96(%r9), %r9
leaq 96(%rdx), %rcx
vpaddd .LCPI1_9(%rip), %xmm0, %xmm2
vmovdqu64 %xmm17, (%rdx)
vmovdqu64 %xmm26, 16(%rdx)
vmovdqu64 %xmm27, 32(%rdx)
vmovdqu64 %xmm28, 48(%rdx)
leaq -96(%r10), %rax
vmovdqu64 %xmm29, 64(%rdx)
vmovdqu %xmm5, 80(%rdx)
cmpq $96, %rax
jb .LBB1_37
vmovdqa64 %xmm25, -128(%rsp)
vmovaps 240(%rdi), %xmm0
vmovaps %xmm0, 80(%rsp)
vmovaps 256(%rdi), %xmm0
vmovaps %xmm0, 64(%rsp)
vmovaps 272(%rdi), %xmm0
vmovaps %xmm0, 48(%rsp)
vmovaps 288(%rdi), %xmm0
vmovaps %xmm0, 32(%rsp)
vmovaps 304(%rdi), %xmm0
vmovaps %xmm0, 16(%rsp)
vmovdqa 320(%rdi), %xmm0
vmovdqa %xmm0, (%rsp)
vmovdqa %xmm3, -16(%rsp)
vmovaps %xmm16, -32(%rsp)
vmovdqa64 %xmm18, -48(%rsp)
vmovdqa %xmm12, -64(%rsp)
vmovdqa64 %xmm15, %xmm19
vmovaps -80(%rsp), %xmm16
vmovdqa64 -96(%rsp), %xmm18
vmovdqa64 %xmm10, %xmm20
vmovaps -112(%rsp), %xmm25
vmovdqa64 %xmm13, %xmm21
vmovdqa64 %xmm14, %xmm31
.p2align 4, 0x90
.LBB1_35:
vpshufb %xmm24, %xmm2, %xmm0
vpaddd .LCPI1_1(%rip), %xmm2, %xmm6
vpshufb %xmm24, %xmm6, %xmm6
vpaddd .LCPI1_4(%rip), %xmm2, %xmm7
vpshufb %xmm24, %xmm7, %xmm7
vpaddd .LCPI1_5(%rip), %xmm2, %xmm8
vpshufb %xmm24, %xmm8, %xmm8
vpaddd .LCPI1_6(%rip), %xmm2, %xmm9
vpshufb %xmm24, %xmm9, %xmm9
vpaddd .LCPI1_7(%rip), %xmm2, %xmm10
vpshufb %xmm24, %xmm10, %xmm30
vpshufb %xmm24, %xmm5, %xmm10
vpxor %xmm0, %xmm4, %xmm13
vpxor %xmm6, %xmm4, %xmm14
vpxor %xmm7, %xmm4, %xmm15
vpxor %xmm4, %xmm8, %xmm0
vpxor %xmm4, %xmm9, %xmm5
vpxorq %xmm30, %xmm4, %xmm6
#APP
vaesenc %xmm11, %xmm13, %xmm13
vaesenc %xmm11, %xmm14, %xmm14
vaesenc %xmm11, %xmm15, %xmm15
vaesenc %xmm11, %xmm0, %xmm0
vaesenc %xmm11, %xmm5, %xmm5
vaesenc %xmm11, %xmm6, %xmm6
#NO_APP
vpxor %xmm8, %xmm8, %xmm8
vpxor %xmm9, %xmm9, %xmm9
vpxor %xmm7, %xmm7, %xmm7
vmovaps %xmm11, %xmm30
vmovaps 80(%rsp), %xmm3
vmovaps -16(%rsp), %xmm12
#APP
vaesenc %xmm12, %xmm13, %xmm13
vaesenc %xmm12, %xmm14, %xmm14
vaesenc %xmm12, %xmm15, %xmm15
vaesenc %xmm12, %xmm0, %xmm0
vaesenc %xmm12, %xmm5, %xmm5
vaesenc %xmm12, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm10, %xmm11
vpxor %xmm11, %xmm9, %xmm9
vpclmulqdq $0, %xmm3, %xmm10, %xmm11
vpxor %xmm11, %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm10, %xmm11
vpxor %xmm7, %xmm11, %xmm7
vpclmulqdq $1, %xmm3, %xmm10, %xmm11
vpxor %xmm11, %xmm9, %xmm9
#NO_APP
vpshufb %xmm24, %xmm29, %xmm10
vmovaps -32(%rsp), %xmm3
#APP
vaesenc %xmm3, %xmm13, %xmm13
vaesenc %xmm3, %xmm14, %xmm14
vaesenc %xmm3, %xmm15, %xmm15
vaesenc %xmm3, %xmm0, %xmm0
vaesenc %xmm3, %xmm5, %xmm5
vaesenc %xmm3, %xmm6, %xmm6
#NO_APP
vmovaps 64(%rsp), %xmm3
vmovaps -48(%rsp), %xmm12
#APP
vaesenc %xmm12, %xmm13, %xmm13
vaesenc %xmm12, %xmm14, %xmm14
vaesenc %xmm12, %xmm15, %xmm15
vaesenc %xmm12, %xmm0, %xmm0
vaesenc %xmm12, %xmm5, %xmm5
vaesenc %xmm12, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm10, %xmm11
vpxor %xmm11, %xmm9, %xmm9
vpclmulqdq $0, %xmm3, %xmm10, %xmm11
vpxor %xmm11, %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm10, %xmm11
vpxor %xmm7, %xmm11, %xmm7
vpclmulqdq $1, %xmm3, %xmm10, %xmm11
vpxor %xmm11, %xmm9, %xmm9
#NO_APP
vpshufb %xmm24, %xmm28, %xmm10
vmovdqa64 %xmm22, %xmm11
#APP
vaesenc %xmm11, %xmm13, %xmm13
vaesenc %xmm11, %xmm14, %xmm14
vaesenc %xmm11, %xmm15, %xmm15
vaesenc %xmm11, %xmm0, %xmm0
vaesenc %xmm11, %xmm5, %xmm5
vaesenc %xmm11, %xmm6, %xmm6
#NO_APP
vmovaps 48(%rsp), %xmm3
vmovdqa64 %xmm19, %xmm12
#APP
vaesenc %xmm12, %xmm13, %xmm13
vaesenc %xmm12, %xmm14, %xmm14
vaesenc %xmm12, %xmm15, %xmm15
vaesenc %xmm12, %xmm0, %xmm0
vaesenc %xmm12, %xmm5, %xmm5
vaesenc %xmm12, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm10, %xmm11
vpxor %xmm11, %xmm9, %xmm9
vpclmulqdq $0, %xmm3, %xmm10, %xmm11
vpxor %xmm11, %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm10, %xmm11
vpxor %xmm7, %xmm11, %xmm7
vpclmulqdq $1, %xmm3, %xmm10, %xmm11
vpxor %xmm11, %xmm9, %xmm9
#NO_APP
vpshufb %xmm24, %xmm27, %xmm10
vmovaps %xmm16, %xmm3
#APP
vaesenc %xmm3, %xmm13, %xmm13
vaesenc %xmm3, %xmm14, %xmm14
vaesenc %xmm3, %xmm15, %xmm15
vaesenc %xmm3, %xmm0, %xmm0
vaesenc %xmm3, %xmm5, %xmm5
vaesenc %xmm3, %xmm6, %xmm6
#NO_APP
vmovaps 32(%rsp), %xmm12
vmovaps -64(%rsp), %xmm3
#APP
vaesenc %xmm3, %xmm13, %xmm13
vaesenc %xmm3, %xmm14, %xmm14
vaesenc %xmm3, %xmm15, %xmm15
vaesenc %xmm3, %xmm0, %xmm0
vaesenc %xmm3, %xmm5, %xmm5
vaesenc %xmm3, %xmm6, %xmm6
vpclmulqdq $16, %xmm12, %xmm10, %xmm11
vpxor %xmm11, %xmm9, %xmm9
vpclmulqdq $0, %xmm12, %xmm10, %xmm11
vpxor %xmm11, %xmm8, %xmm8
vpclmulqdq $17, %xmm12, %xmm10, %xmm11
vpxor %xmm7, %xmm11, %xmm7
vpclmulqdq $1, %xmm12, %xmm10, %xmm11
vpxor %xmm11, %xmm9, %xmm9
#NO_APP
vpshufb %xmm24, %xmm26, %xmm10
vmovdqa64 %xmm18, %xmm3
#APP
vaesenc %xmm3, %xmm13, %xmm13
vaesenc %xmm3, %xmm14, %xmm14
vaesenc %xmm3, %xmm15, %xmm15
vaesenc %xmm3, %xmm0, %xmm0
vaesenc %xmm3, %xmm5, %xmm5
vaesenc %xmm3, %xmm6, %xmm6
#NO_APP
vmovdqa64 %xmm20, %xmm12
vmovaps 16(%rsp), %xmm3
#APP
vaesenc %xmm12, %xmm13, %xmm13
vaesenc %xmm12, %xmm14, %xmm14
vaesenc %xmm12, %xmm15, %xmm15
vaesenc %xmm12, %xmm0, %xmm0
vaesenc %xmm12, %xmm5, %xmm5
vaesenc %xmm12, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm10, %xmm11
vpxor %xmm11, %xmm9, %xmm9
vpclmulqdq $0, %xmm3, %xmm10, %xmm11
vpxor %xmm11, %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm10, %xmm11
vpxor %xmm7, %xmm11, %xmm7
vpclmulqdq $1, %xmm3, %xmm10, %xmm11
vpxor %xmm11, %xmm9, %xmm9
#NO_APP
vmovaps %xmm30, %xmm11
vpshufb %xmm24, %xmm17, %xmm10
vpxor %xmm1, %xmm10, %xmm1
vmovaps %xmm25, %xmm3
#APP
vaesenc %xmm3, %xmm13, %xmm13
vaesenc %xmm3, %xmm14, %xmm14
vaesenc %xmm3, %xmm15, %xmm15
vaesenc %xmm3, %xmm0, %xmm0
vaesenc %xmm3, %xmm5, %xmm5
vaesenc %xmm3, %xmm6, %xmm6
#NO_APP
vmovdqa64 %xmm21, %xmm12
vmovdqa (%rsp), %xmm3
#APP
vaesenc %xmm12, %xmm13, %xmm13
vaesenc %xmm12, %xmm14, %xmm14
vaesenc %xmm12, %xmm15, %xmm15
vaesenc %xmm12, %xmm0, %xmm0
vaesenc %xmm12, %xmm5, %xmm5
vaesenc %xmm12, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm1, %xmm10
vpxor %xmm10, %xmm9, %xmm9
vpclmulqdq $0, %xmm3, %xmm1, %xmm10
vpxor %xmm10, %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm1, %xmm10
vpxor %xmm7, %xmm10, %xmm7
vpclmulqdq $1, %xmm3, %xmm1, %xmm10
vpxor %xmm10, %xmm9, %xmm9
#NO_APP
vpxor %xmm3, %xmm3, %xmm3
vpunpcklqdq %xmm9, %xmm3, %xmm1
vpxor %xmm1, %xmm8, %xmm8
vpunpckhqdq %xmm3, %xmm9, %xmm1
vmovapd %xmm23, %xmm3
#APP
vaesenc %xmm3, %xmm13, %xmm13
vaesenc %xmm3, %xmm14, %xmm14
vaesenc %xmm3, %xmm15, %xmm15
vaesenc %xmm3, %xmm0, %xmm0
vaesenc %xmm3, %xmm5, %xmm5
vaesenc %xmm3, %xmm6, %xmm6
#NO_APP
vmovdqa64 %xmm31, %xmm3
#APP
vaesenclast %xmm3, %xmm13, %xmm13
vaesenclast %xmm3, %xmm14, %xmm14
vaesenclast %xmm3, %xmm15, %xmm15
vaesenclast %xmm3, %xmm0, %xmm0
vaesenclast %xmm3, %xmm5, %xmm5
vaesenclast %xmm3, %xmm6, %xmm6
#NO_APP
vpxorq (%r9), %xmm13, %xmm17
vpxorq 16(%r9), %xmm14, %xmm26
vpxorq 32(%r9), %xmm15, %xmm27
vpxorq 48(%r9), %xmm0, %xmm28
vpxorq 64(%r9), %xmm5, %xmm29
vpxor 80(%r9), %xmm6, %xmm5
vpxor %xmm1, %xmm7, %xmm1
vpbroadcastq .LCPI1_3(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm8, %xmm0
vpshufd $78, %xmm8, %xmm6
vpxor %xmm6, %xmm0, %xmm0
vpclmulqdq $16, %xmm3, %xmm0, %xmm6
vpshufd $78, %xmm0, %xmm0
vpternlogq $150, %xmm6, %xmm0, %xmm1
addq $96, %r9
vmovdqu64 %xmm17, (%rcx)
vmovdqu64 %xmm26, 16(%rcx)
vmovdqu64 %xmm27, 32(%rcx)
vmovdqu64 %xmm28, 48(%rcx)
vmovdqu64 %xmm29, 64(%rcx)
vmovdqu %xmm5, 80(%rcx)
addq $96, %rcx
addq $-96, %rax
vpaddd .LCPI1_8(%rip), %xmm2, %xmm2
cmpq $95, %rax
ja .LBB1_35
vmovdqa64 -128(%rsp), %xmm25
.LBB1_37:
vpshufb %xmm24, %xmm17, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpshufb %xmm24, %xmm26, %xmm1
vpshufb %xmm24, %xmm27, %xmm4
vpshufb %xmm24, %xmm28, %xmm6
vpshufb %xmm24, %xmm29, %xmm7
vpshufb %xmm24, %xmm5, %xmm3
vmovdqa 240(%rdi), %xmm5
vmovdqa 256(%rdi), %xmm8
vmovdqa 272(%rdi), %xmm9
vmovdqa 288(%rdi), %xmm10
vmovdqa 304(%rdi), %xmm11
vmovdqa 320(%rdi), %xmm12
vpclmulqdq $0, %xmm3, %xmm5, %xmm13
vpclmulqdq $1, %xmm3, %xmm5, %xmm14
vpclmulqdq $16, %xmm3, %xmm5, %xmm15
vpxor %xmm14, %xmm15, %xmm14
vpclmulqdq $17, %xmm3, %xmm5, %xmm3
vpclmulqdq $0, %xmm7, %xmm8, %xmm5
vpclmulqdq $1, %xmm7, %xmm8, %xmm15
vpclmulqdq $16, %xmm7, %xmm8, %xmm17
vpternlogq $150, %xmm15, %xmm14, %xmm17
vpclmulqdq $17, %xmm7, %xmm8, %xmm7
vpclmulqdq $0, %xmm6, %xmm9, %xmm8
vpternlogq $150, %xmm13, %xmm5, %xmm8
vpclmulqdq $1, %xmm6, %xmm9, %xmm5
vpclmulqdq $16, %xmm6, %xmm9, %xmm13
vpternlogq $150, %xmm5, %xmm17, %xmm13
vpclmulqdq $17, %xmm6, %xmm9, %xmm5
vpternlogq $150, %xmm3, %xmm7, %xmm5
vpclmulqdq $0, %xmm4, %xmm10, %xmm3
vpclmulqdq $1, %xmm4, %xmm10, %xmm6
vpclmulqdq $16, %xmm4, %xmm10, %xmm7
vpternlogq $150, %xmm6, %xmm13, %xmm7
vpclmulqdq $17, %xmm4, %xmm10, %xmm4
vpclmulqdq $0, %xmm1, %xmm11, %xmm6
vpternlogq $150, %xmm3, %xmm8, %xmm6
vpclmulqdq $1, %xmm1, %xmm11, %xmm3
vpclmulqdq $16, %xmm1, %xmm11, %xmm8
vpternlogq $150, %xmm3, %xmm7, %xmm8
vpclmulqdq $17, %xmm1, %xmm11, %xmm1
vpternlogq $150, %xmm4, %xmm5, %xmm1
vpclmulqdq $0, %xmm0, %xmm12, %xmm3
vpclmulqdq $1, %xmm0, %xmm12, %xmm4
vpclmulqdq $16, %xmm0, %xmm12, %xmm5
vpternlogq $150, %xmm4, %xmm8, %xmm5
vpclmulqdq $17, %xmm0, %xmm12, %xmm0
vpslldq $8, %xmm5, %xmm4
vpternlogq $150, %xmm3, %xmm6, %xmm4
vpsrldq $8, %xmm5, %xmm3
vpbroadcastq .LCPI1_3(%rip), %xmm5
vpclmulqdq $16, %xmm5, %xmm4, %xmm6
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm6, %xmm4
vpclmulqdq $16, %xmm5, %xmm4, %xmm5
vpternlogq $150, %xmm0, %xmm1, %xmm5
vpshufd $78, %xmm4, %xmm1
vpternlogq $150, %xmm3, %xmm5, %xmm1
movq %rcx, %rdx
cmpq $16, %rax
jae .LBB1_38
.LBB1_28:
movq %rdx, %rcx
movq %r9, %rsi
jmp .LBB1_29
.LBB1_26:
movq %r10, %rax
cmpq $16, %rax
jb .LBB1_28
.LBB1_38:
vmovdqa (%rdi), %xmm0
vmovdqa 16(%rdi), %xmm3
vmovdqa 32(%rdi), %xmm4
vmovdqa 48(%rdi), %xmm5
vmovdqa 64(%rdi), %xmm6
vmovdqa 80(%rdi), %xmm7
vmovdqa 96(%rdi), %xmm8
vmovdqa 112(%rdi), %xmm9
vmovdqa 128(%rdi), %xmm10
vmovdqa 144(%rdi), %xmm11
vmovdqa 160(%rdi), %xmm12
vmovdqa 176(%rdi), %xmm13
vmovdqa 192(%rdi), %xmm14
vmovdqa 208(%rdi), %xmm15
vmovdqa64 224(%rdi), %xmm17
vmovdqa64 240(%rdi), %xmm18
vmovdqa64 .LCPI1_2(%rip), %xmm19
vpmovsxbq .LCPI1_12(%rip), %xmm20
vpbroadcastq .LCPI1_3(%rip), %xmm21
.p2align 4, 0x90
.LBB1_39:
leaq 16(%r9), %rsi
leaq 16(%rdx), %rcx
addq $-16, %rax
vpshufb %xmm19, %xmm2, %xmm22
vpxorq %xmm22, %xmm0, %xmm22
vaesenc %xmm3, %xmm22, %xmm22
vaesenc %xmm4, %xmm22, %xmm22
vaesenc %xmm5, %xmm22, %xmm22
vaesenc %xmm6, %xmm22, %xmm22
vaesenc %xmm7, %xmm22, %xmm22
vaesenc %xmm8, %xmm22, %xmm22
vaesenc %xmm9, %xmm22, %xmm22
vaesenc %xmm10, %xmm22, %xmm22
vaesenc %xmm11, %xmm22, %xmm22
vaesenc %xmm12, %xmm22, %xmm22
vaesenc %xmm13, %xmm22, %xmm22
vaesenc %xmm14, %xmm22, %xmm22
vaesenc %xmm15, %xmm22, %xmm22
vaesenclast %xmm17, %xmm22, %xmm22
vpaddd %xmm20, %xmm2, %xmm2
vpxorq (%r9), %xmm22, %xmm22
vmovdqu64 %xmm22, (%rdx)
vpshufb %xmm19, %xmm22, %xmm22
vpxorq %xmm22, %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm18, %xmm22
vpclmulqdq $1, %xmm1, %xmm18, %xmm23
vpclmulqdq $16, %xmm1, %xmm18, %xmm24
vpxorq %xmm23, %xmm24, %xmm23
vpclmulqdq $17, %xmm1, %xmm18, %xmm1
vpslldq $8, %xmm23, %xmm24
vpxorq %xmm24, %xmm22, %xmm22
vpsrldq $8, %xmm23, %xmm23
vpclmulqdq $16, %xmm21, %xmm22, %xmm24
vpshufd $78, %xmm22, %xmm22
vpxorq %xmm22, %xmm24, %xmm22
vpclmulqdq $16, %xmm21, %xmm22, %xmm24
vpxorq %xmm1, %xmm24, %xmm24
vpshufd $78, %xmm22, %xmm1
vpternlogq $150, %xmm23, %xmm24, %xmm1
movq %rcx, %rdx
movq %rsi, %r9
cmpq $15, %rax
ja .LBB1_39
.LBB1_29:
testq %rax, %rax
je .LBB1_19
movl $-1, %edx
bzhil %eax, %edx, %eax
kmovd %eax, %k1
vmovdqu8 (%rsi), %xmm0 {%k1} {z}
vpshufb .LCPI1_2(%rip), %xmm2, %xmm2
vpxor (%rdi), %xmm2, %xmm2
vaesenc 16(%rdi), %xmm2, %xmm2
vaesenc 32(%rdi), %xmm2, %xmm2
vaesenc 48(%rdi), %xmm2, %xmm2
vaesenc 64(%rdi), %xmm2, %xmm2
vaesenc 80(%rdi), %xmm2, %xmm2
vaesenc 96(%rdi), %xmm2, %xmm2
vaesenc 112(%rdi), %xmm2, %xmm2
vaesenc 128(%rdi), %xmm2, %xmm2
vaesenc 144(%rdi), %xmm2, %xmm2
vaesenc 160(%rdi), %xmm2, %xmm2
vaesenc 176(%rdi), %xmm2, %xmm2
vaesenc 192(%rdi), %xmm2, %xmm2
vaesenc 208(%rdi), %xmm2, %xmm2
vaesenclast 224(%rdi), %xmm2, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vmovdqu8 %xmm0, (%rcx) {%k1}
testq %r10, %r10
je .LBB1_10
vmovdqu8 %xmm0, %xmm0 {%k1} {z}
vpshufb .LCPI1_2(%rip), %xmm0, %xmm0
vmovdqa 240(%rdi), %xmm2
jmp .LBB1_32
.LBB1_10:
vmovdqa 240(%rdi), %xmm2
vpshufb .LCPI1_2(%rip), %xmm0, %xmm0
.LBB1_32:
vpxor %xmm0, %xmm1, %xmm3
vpclmulqdq $0, %xmm3, %xmm2, %xmm0
vpclmulqdq $1, %xmm3, %xmm2, %xmm1
vpclmulqdq $16, %xmm3, %xmm2, %xmm4
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $17, %xmm3, %xmm2, %xmm2
vpslldq $8, %xmm1, %xmm3
vpxor %xmm3, %xmm0, %xmm0
vpsrldq $8, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm2
vpbroadcastq .LCPI1_3(%rip), %xmm1
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm0
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vpshufd $78, %xmm0, %xmm1
vpternlogq $150, %xmm3, %xmm2, %xmm1
.LBB1_19:
movq 136(%rsp), %rax
vmovdqa 240(%rdi), %xmm0
vmovq %r8, %xmm2
vmovq %r10, %xmm3
vpunpcklqdq %xmm2, %xmm3, %xmm2
vpsllq $3, %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm0, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpbroadcastq .LCPI1_3(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm4
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpxorq (%rdi), %xmm25, %xmm4
vaesenc 16(%rdi), %xmm4, %xmm4
vaesenc 32(%rdi), %xmm4, %xmm4
vaesenc 48(%rdi), %xmm4, %xmm4
vaesenc 64(%rdi), %xmm4, %xmm4
vaesenc 80(%rdi), %xmm4, %xmm4
vaesenc 96(%rdi), %xmm4, %xmm4
vaesenc 112(%rdi), %xmm4, %xmm4
vaesenc 128(%rdi), %xmm4, %xmm4
vaesenc 144(%rdi), %xmm4, %xmm4
vaesenc 160(%rdi), %xmm4, %xmm4
vaesenc 176(%rdi), %xmm4, %xmm4
vaesenc 192(%rdi), %xmm4, %xmm4
vaesenc 208(%rdi), %xmm4, %xmm4
vaesenclast 224(%rdi), %xmm4, %xmm4
vpxor %xmm0, %xmm2, %xmm0
vpshufb .LCPI1_2(%rip), %xmm0, %xmm0
vpshufb .LCPI1_10(%rip), %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpshufb .LCPI1_11(%rip), %xmm1, %xmm1
vpternlogq $150, %xmm0, %xmm4, %xmm1
vmovdqu %xmm1, (%rax)
movl $1, %eax
.LBB1_22:
addq $96, %rsp
.cfi_def_cfa_offset 16
popq %rbx
.cfi_def_cfa_offset 8
retq
.Lfunc_end1:
.size haberdashery_aes256gcm_tigerlake_encrypt, .Lfunc_end1-haberdashery_aes256gcm_tigerlake_encrypt
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI2_0:
.byte 15
.byte 128
.byte 128
.byte 128
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI2_1:
.long 1
.long 0
.long 0
.long 0
.LCPI2_2:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI2_4:
.long 2
.long 0
.long 0
.long 0
.LCPI2_5:
.long 3
.long 0
.long 0
.long 0
.LCPI2_6:
.long 4
.long 0
.long 0
.long 0
.LCPI2_7:
.long 5
.long 0
.long 0
.long 0
.LCPI2_8:
.long 6
.long 0
.long 0
.long 0
.LCPI2_9:
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.LCPI2_10:
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI2_3:
.quad -4467570830351532032
.section .rodata,"a",@progbits
.LCPI2_11:
.byte 1
.byte 0
.section .text.haberdashery_aes256gcm_tigerlake_decrypt,"ax",@progbits
.globl haberdashery_aes256gcm_tigerlake_decrypt
.p2align 4, 0x90
.type haberdashery_aes256gcm_tigerlake_decrypt,@function
haberdashery_aes256gcm_tigerlake_decrypt:
.cfi_startproc
pushq %rbp
.cfi_def_cfa_offset 16
pushq %r14
.cfi_def_cfa_offset 24
pushq %rbx
.cfi_def_cfa_offset 32
subq $112, %rsp
.cfi_def_cfa_offset 144
.cfi_offset %rbx, -32
.cfi_offset %r14, -24
.cfi_offset %rbp, -16
movq 144(%rsp), %r10
xorl %eax, %eax
cmpq 176(%rsp), %r10
jne .LBB2_5
cmpq $16, 160(%rsp)
setne %r11b
movabsq $2305843009213693950, %rbx
cmpq %rbx, %r8
seta %bl
movq %r10, %r14
shrq $5, %r14
cmpq $2147483647, %r14
setae %bpl
orb %r11b, %bl
orb %bpl, %bl
cmpq $12, %rdx
setne %dl
orb %bl, %dl
jne .LBB2_5
vmovd (%rsi), %xmm0
vpinsrd $1, 4(%rsi), %xmm0, %xmm0
vpinsrd $2, 8(%rsi), %xmm0, %xmm0
movl $16777216, %edx
vpinsrd $3, %edx, %xmm0, %xmm25
vpxor %xmm1, %xmm1, %xmm1
testq %r8, %r8
je .LBB2_3
cmpq $96, %r8
jb .LBB2_7
vmovdqa 240(%rdi), %xmm0
vmovdqa 256(%rdi), %xmm2
vmovdqa 272(%rdi), %xmm3
vmovdqa 288(%rdi), %xmm4
vmovdqa 304(%rdi), %xmm5
vmovdqa 320(%rdi), %xmm6
vmovdqa .LCPI2_2(%rip), %xmm7
vpbroadcastq .LCPI2_3(%rip), %xmm8
movq %r8, %rdx
.p2align 4, 0x90
.LBB2_19:
vmovdqu (%rcx), %xmm9
vmovdqu 16(%rcx), %xmm10
vmovdqu 32(%rcx), %xmm11
vmovdqu 48(%rcx), %xmm12
vmovdqu 64(%rcx), %xmm13
vmovdqu 80(%rcx), %xmm14
addq $96, %rcx
addq $-96, %rdx
vpshufb %xmm7, %xmm9, %xmm9
vpxor %xmm1, %xmm9, %xmm1
vpshufb %xmm7, %xmm10, %xmm9
vpshufb %xmm7, %xmm11, %xmm10
vpshufb %xmm7, %xmm12, %xmm11
vpshufb %xmm7, %xmm13, %xmm12
vpshufb %xmm7, %xmm14, %xmm13
vpclmulqdq $0, %xmm13, %xmm0, %xmm14
vpclmulqdq $1, %xmm13, %xmm0, %xmm15
vpclmulqdq $16, %xmm13, %xmm0, %xmm17
vpxorq %xmm15, %xmm17, %xmm15
vpclmulqdq $17, %xmm13, %xmm0, %xmm13
vpclmulqdq $0, %xmm12, %xmm2, %xmm17
vpclmulqdq $1, %xmm12, %xmm2, %xmm18
vpclmulqdq $16, %xmm12, %xmm2, %xmm19
vpternlogq $150, %xmm18, %xmm15, %xmm19
vpclmulqdq $17, %xmm12, %xmm2, %xmm12
vpclmulqdq $0, %xmm11, %xmm3, %xmm15
vpternlogq $150, %xmm14, %xmm17, %xmm15
vpclmulqdq $1, %xmm11, %xmm3, %xmm14
vpclmulqdq $16, %xmm11, %xmm3, %xmm17
vpternlogq $150, %xmm14, %xmm19, %xmm17
vpclmulqdq $17, %xmm11, %xmm3, %xmm11
vpternlogq $150, %xmm13, %xmm12, %xmm11
vpclmulqdq $0, %xmm10, %xmm4, %xmm12
vpclmulqdq $1, %xmm10, %xmm4, %xmm13
vpclmulqdq $16, %xmm10, %xmm4, %xmm14
vpternlogq $150, %xmm13, %xmm17, %xmm14
vpclmulqdq $17, %xmm10, %xmm4, %xmm10
vpclmulqdq $0, %xmm9, %xmm5, %xmm13
vpternlogq $150, %xmm12, %xmm15, %xmm13
vpclmulqdq $1, %xmm9, %xmm5, %xmm12
vpclmulqdq $16, %xmm9, %xmm5, %xmm15
vpternlogq $150, %xmm12, %xmm14, %xmm15
vpclmulqdq $17, %xmm9, %xmm5, %xmm9
vpternlogq $150, %xmm10, %xmm11, %xmm9
vpclmulqdq $0, %xmm1, %xmm6, %xmm10
vpclmulqdq $1, %xmm1, %xmm6, %xmm11
vpclmulqdq $16, %xmm1, %xmm6, %xmm12
vpternlogq $150, %xmm11, %xmm15, %xmm12
vpclmulqdq $17, %xmm1, %xmm6, %xmm1
vpslldq $8, %xmm12, %xmm11
vpternlogq $150, %xmm10, %xmm13, %xmm11
vpsrldq $8, %xmm12, %xmm10
vpclmulqdq $16, %xmm8, %xmm11, %xmm12
vpshufd $78, %xmm11, %xmm11
vpxor %xmm11, %xmm12, %xmm11
vpclmulqdq $16, %xmm8, %xmm11, %xmm12
vpternlogq $150, %xmm1, %xmm9, %xmm12
vpshufd $78, %xmm11, %xmm1
vpternlogq $150, %xmm10, %xmm12, %xmm1
cmpq $95, %rdx
ja .LBB2_19
cmpq $16, %rdx
jae .LBB2_13
jmp .LBB2_9
.LBB2_7:
movq %r8, %rdx
cmpq $16, %rdx
jb .LBB2_9
.LBB2_13:
vmovdqa 240(%rdi), %xmm0
leaq -16(%rdx), %rsi
testb $16, %sil
je .LBB2_14
cmpq $16, %rsi
jae .LBB2_16
.LBB2_10:
testq %rsi, %rsi
je .LBB2_3
.LBB2_11:
movl $-1, %edx
bzhil %esi, %edx, %edx
kmovd %edx, %k1
vmovdqu8 (%rcx), %xmm0 {%k1} {z}
testq %r10, %r10
je .LBB2_12
movabsq $-68719476704, %rcx
leaq (%r10,%rcx), %rdx
incq %rcx
cmpq %rcx, %rdx
jb .LBB2_5
vmovdqa 240(%rdi), %xmm2
vpshufb .LCPI2_2(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpclmulqdq $0, %xmm0, %xmm2, %xmm1
vpclmulqdq $1, %xmm0, %xmm2, %xmm3
vpclmulqdq $16, %xmm0, %xmm2, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm2, %xmm0
vpslldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpbroadcastq .LCPI2_3(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm1, %xmm4
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm3
vpxor %xmm0, %xmm3, %xmm0
vpshufd $78, %xmm1, %xmm1
vpternlogq $150, %xmm2, %xmm0, %xmm1
jmp .LBB2_22
.LBB2_14:
vmovdqu (%rcx), %xmm2
addq $16, %rcx
vpshufb .LCPI2_2(%rip), %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
vpslldq $8, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpsrldq $8, %xmm3, %xmm3
vpbroadcastq .LCPI2_3(%rip), %xmm4
vpclmulqdq $16, %xmm4, %xmm2, %xmm5
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm5, %xmm2
vpclmulqdq $16, %xmm4, %xmm2, %xmm4
vpxor %xmm1, %xmm4, %xmm4
vpshufd $78, %xmm2, %xmm1
vpternlogq $150, %xmm3, %xmm4, %xmm1
movq %rsi, %rdx
cmpq $16, %rsi
jb .LBB2_10
.LBB2_16:
vmovdqa .LCPI2_2(%rip), %xmm2
vpbroadcastq .LCPI2_3(%rip), %xmm3
.p2align 4, 0x90
.LBB2_17:
vmovdqu (%rcx), %xmm4
vmovdqu 16(%rcx), %xmm5
vpshufb %xmm2, %xmm4, %xmm4
vpxor %xmm4, %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm4
vpclmulqdq $1, %xmm1, %xmm0, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm7
vpxor %xmm6, %xmm7, %xmm6
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
vpslldq $8, %xmm6, %xmm7
vpxor %xmm7, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm4, %xmm7
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm7, %xmm4
vpclmulqdq $16, %xmm3, %xmm4, %xmm7
vpternlogq $150, %xmm1, %xmm6, %xmm7
vpshufd $78, %xmm4, %xmm1
addq $32, %rcx
addq $-32, %rdx
vpshufb %xmm2, %xmm5, %xmm4
vpternlogq $150, %xmm1, %xmm7, %xmm4
vpclmulqdq $0, %xmm4, %xmm0, %xmm1
vpclmulqdq $1, %xmm4, %xmm0, %xmm5
vpclmulqdq $16, %xmm4, %xmm0, %xmm6
vpxor %xmm5, %xmm6, %xmm5
vpclmulqdq $17, %xmm4, %xmm0, %xmm4
vpslldq $8, %xmm5, %xmm6
vpxor %xmm6, %xmm1, %xmm1
vpsrldq $8, %xmm5, %xmm5
vpclmulqdq $16, %xmm3, %xmm1, %xmm6
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm6, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm6
vpxor %xmm4, %xmm6, %xmm4
vpshufd $78, %xmm1, %xmm1
vpternlogq $150, %xmm5, %xmm4, %xmm1
cmpq $15, %rdx
ja .LBB2_17
.LBB2_9:
movq %rdx, %rsi
testq %rsi, %rsi
jne .LBB2_11
.LBB2_3:
testq %r10, %r10
je .LBB2_29
movabsq $-68719476704, %rcx
leaq (%r10,%rcx), %rdx
incq %rcx
cmpq %rcx, %rdx
jb .LBB2_5
.LBB2_22:
movq 168(%rsp), %rax
vpshufb .LCPI2_0(%rip), %xmm25, %xmm0
vpaddd .LCPI2_1(%rip), %xmm0, %xmm2
cmpq $96, %r10
jb .LBB2_23
vmovdqa64 %xmm25, -128(%rsp)
vmovdqa (%rdi), %xmm3
vmovaps 16(%rdi), %xmm0
vmovaps %xmm0, 96(%rsp)
vmovaps 32(%rdi), %xmm0
vmovaps %xmm0, 80(%rsp)
vmovaps 48(%rdi), %xmm0
vmovaps %xmm0, 64(%rsp)
vmovaps 64(%rdi), %xmm0
vmovaps %xmm0, 48(%rsp)
vmovaps 80(%rdi), %xmm0
vmovaps %xmm0, 32(%rsp)
vmovaps 96(%rdi), %xmm0
vmovaps %xmm0, 16(%rsp)
vmovaps 112(%rdi), %xmm0
vmovaps %xmm0, (%rsp)
vmovaps 128(%rdi), %xmm0
vmovaps %xmm0, -16(%rsp)
vmovaps 144(%rdi), %xmm0
vmovaps %xmm0, -32(%rsp)
vmovaps 160(%rdi), %xmm0
vmovaps %xmm0, -48(%rsp)
vmovaps 176(%rdi), %xmm0
vmovaps %xmm0, -64(%rsp)
vmovaps 192(%rdi), %xmm0
vmovaps %xmm0, -80(%rsp)
vmovaps 208(%rdi), %xmm0
vmovaps %xmm0, -96(%rsp)
vmovdqa 224(%rdi), %xmm0
vmovdqa %xmm0, -112(%rsp)
vmovdqa64 240(%rdi), %xmm20
vmovdqa64 256(%rdi), %xmm21
vmovdqa64 .LCPI2_2(%rip), %xmm17
vpxord %xmm24, %xmm24, %xmm24
vpbroadcastq .LCPI2_3(%rip), %xmm25
movq %r10, %rcx
vmovdqa64 272(%rdi), %xmm22
vmovapd 288(%rdi), %xmm23
vmovapd 304(%rdi), %xmm18
vmovdqa64 320(%rdi), %xmm19
.p2align 4, 0x90
.LBB2_31:
vmovdqu64 (%r9), %xmm26
vmovdqu64 16(%r9), %xmm27
vmovdqu64 32(%r9), %xmm28
vmovdqu64 48(%r9), %xmm29
vmovdqu64 64(%r9), %xmm30
vmovdqu64 80(%r9), %xmm31
vpshufb %xmm17, %xmm2, %xmm0
vpaddd .LCPI2_1(%rip), %xmm2, %xmm4
vpshufb %xmm17, %xmm4, %xmm4
vpaddd .LCPI2_4(%rip), %xmm2, %xmm5
vpshufb %xmm17, %xmm5, %xmm5
vpaddd .LCPI2_5(%rip), %xmm2, %xmm6
vpshufb %xmm17, %xmm6, %xmm6
vpaddd .LCPI2_6(%rip), %xmm2, %xmm11
vpshufb %xmm17, %xmm11, %xmm15
vpaddd .LCPI2_7(%rip), %xmm2, %xmm11
vpshufb %xmm17, %xmm11, %xmm16
vpshufb %xmm17, %xmm31, %xmm7
vpxor %xmm0, %xmm3, %xmm11
vpxor %xmm4, %xmm3, %xmm12
vpxor %xmm5, %xmm3, %xmm13
vpxor %xmm6, %xmm3, %xmm14
vpxor %xmm3, %xmm15, %xmm15
vpxorq %xmm16, %xmm3, %xmm0
vmovaps 96(%rsp), %xmm4
#APP
vaesenc %xmm4, %xmm11, %xmm11
vaesenc %xmm4, %xmm12, %xmm12
vaesenc %xmm4, %xmm13, %xmm13
vaesenc %xmm4, %xmm14, %xmm14
vaesenc %xmm4, %xmm15, %xmm15
vaesenc %xmm4, %xmm0, %xmm0
#NO_APP
vpxor %xmm5, %xmm5, %xmm5
vpxor %xmm6, %xmm6, %xmm6
vxorps %xmm4, %xmm4, %xmm4
vmovaps 80(%rsp), %xmm9
vmovdqa64 %xmm20, %xmm10
#APP
vaesenc %xmm9, %xmm11, %xmm11
vaesenc %xmm9, %xmm12, %xmm12
vaesenc %xmm9, %xmm13, %xmm13
vaesenc %xmm9, %xmm14, %xmm14
vaesenc %xmm9, %xmm15, %xmm15
vaesenc %xmm9, %xmm0, %xmm0
vpclmulqdq $16, %xmm10, %xmm7, %xmm8
vpxor %xmm6, %xmm8, %xmm6
vpclmulqdq $0, %xmm10, %xmm7, %xmm8
vpxor %xmm5, %xmm8, %xmm5
vpclmulqdq $17, %xmm10, %xmm7, %xmm8
vpxor %xmm4, %xmm8, %xmm4
vpclmulqdq $1, %xmm10, %xmm7, %xmm8
vpxor %xmm6, %xmm8, %xmm6
#NO_APP
vpshufb %xmm17, %xmm30, %xmm7
vmovaps 64(%rsp), %xmm8
#APP
vaesenc %xmm8, %xmm11, %xmm11
vaesenc %xmm8, %xmm12, %xmm12
vaesenc %xmm8, %xmm13, %xmm13
vaesenc %xmm8, %xmm14, %xmm14
vaesenc %xmm8, %xmm15, %xmm15
vaesenc %xmm8, %xmm0, %xmm0
#NO_APP
vmovaps 48(%rsp), %xmm9
vmovdqa64 %xmm21, %xmm10
#APP
vaesenc %xmm9, %xmm11, %xmm11
vaesenc %xmm9, %xmm12, %xmm12
vaesenc %xmm9, %xmm13, %xmm13
vaesenc %xmm9, %xmm14, %xmm14
vaesenc %xmm9, %xmm15, %xmm15
vaesenc %xmm9, %xmm0, %xmm0
vpclmulqdq $16, %xmm10, %xmm7, %xmm8
vpxor %xmm6, %xmm8, %xmm6
vpclmulqdq $0, %xmm10, %xmm7, %xmm8
vpxor %xmm5, %xmm8, %xmm5
vpclmulqdq $17, %xmm10, %xmm7, %xmm8
vpxor %xmm4, %xmm8, %xmm4
vpclmulqdq $1, %xmm10, %xmm7, %xmm8
vpxor %xmm6, %xmm8, %xmm6
#NO_APP
vpshufb %xmm17, %xmm29, %xmm7
vmovaps 32(%rsp), %xmm8
#APP
vaesenc %xmm8, %xmm11, %xmm11
vaesenc %xmm8, %xmm12, %xmm12
vaesenc %xmm8, %xmm13, %xmm13
vaesenc %xmm8, %xmm14, %xmm14
vaesenc %xmm8, %xmm15, %xmm15
vaesenc %xmm8, %xmm0, %xmm0
#NO_APP
vmovaps 16(%rsp), %xmm9
vmovdqa64 %xmm22, %xmm10
#APP
vaesenc %xmm9, %xmm11, %xmm11
vaesenc %xmm9, %xmm12, %xmm12
vaesenc %xmm9, %xmm13, %xmm13
vaesenc %xmm9, %xmm14, %xmm14
vaesenc %xmm9, %xmm15, %xmm15
vaesenc %xmm9, %xmm0, %xmm0
vpclmulqdq $16, %xmm10, %xmm7, %xmm8
vpxor %xmm6, %xmm8, %xmm6
vpclmulqdq $0, %xmm10, %xmm7, %xmm8
vpxor %xmm5, %xmm8, %xmm5
vpclmulqdq $17, %xmm10, %xmm7, %xmm8
vpxor %xmm4, %xmm8, %xmm4
vpclmulqdq $1, %xmm10, %xmm7, %xmm8
vpxor %xmm6, %xmm8, %xmm6
#NO_APP
vpshufb %xmm17, %xmm28, %xmm7
vmovaps (%rsp), %xmm8
#APP
vaesenc %xmm8, %xmm11, %xmm11
vaesenc %xmm8, %xmm12, %xmm12
vaesenc %xmm8, %xmm13, %xmm13
vaesenc %xmm8, %xmm14, %xmm14
vaesenc %xmm8, %xmm15, %xmm15
vaesenc %xmm8, %xmm0, %xmm0
#NO_APP
vmovaps -16(%rsp), %xmm9
vmovapd %xmm23, %xmm10
#APP
vaesenc %xmm9, %xmm11, %xmm11
vaesenc %xmm9, %xmm12, %xmm12
vaesenc %xmm9, %xmm13, %xmm13
vaesenc %xmm9, %xmm14, %xmm14
vaesenc %xmm9, %xmm15, %xmm15
vaesenc %xmm9, %xmm0, %xmm0
vpclmulqdq $16, %xmm10, %xmm7, %xmm8
vpxor %xmm6, %xmm8, %xmm6
vpclmulqdq $0, %xmm10, %xmm7, %xmm8
vpxor %xmm5, %xmm8, %xmm5
vpclmulqdq $17, %xmm10, %xmm7, %xmm8
vpxor %xmm4, %xmm8, %xmm4
vpclmulqdq $1, %xmm10, %xmm7, %xmm8
vpxor %xmm6, %xmm8, %xmm6
#NO_APP
vpshufb %xmm17, %xmm27, %xmm7
vmovaps -32(%rsp), %xmm8
#APP
vaesenc %xmm8, %xmm11, %xmm11
vaesenc %xmm8, %xmm12, %xmm12
vaesenc %xmm8, %xmm13, %xmm13
vaesenc %xmm8, %xmm14, %xmm14
vaesenc %xmm8, %xmm15, %xmm15
vaesenc %xmm8, %xmm0, %xmm0
#NO_APP
vmovaps -48(%rsp), %xmm9
vmovapd %xmm18, %xmm10
#APP
vaesenc %xmm9, %xmm11, %xmm11
vaesenc %xmm9, %xmm12, %xmm12
vaesenc %xmm9, %xmm13, %xmm13
vaesenc %xmm9, %xmm14, %xmm14
vaesenc %xmm9, %xmm15, %xmm15
vaesenc %xmm9, %xmm0, %xmm0
vpclmulqdq $16, %xmm10, %xmm7, %xmm8
vpxor %xmm6, %xmm8, %xmm6
vpclmulqdq $0, %xmm10, %xmm7, %xmm8
vpxor %xmm5, %xmm8, %xmm5
vpclmulqdq $17, %xmm10, %xmm7, %xmm8
vpxor %xmm4, %xmm8, %xmm4
vpclmulqdq $1, %xmm10, %xmm7, %xmm8
vpxor %xmm6, %xmm8, %xmm6
#NO_APP
vpshufb %xmm17, %xmm26, %xmm7
vpxor %xmm7, %xmm1, %xmm1
vmovaps -64(%rsp), %xmm7
#APP
vaesenc %xmm7, %xmm11, %xmm11
vaesenc %xmm7, %xmm12, %xmm12
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm14, %xmm14
vaesenc %xmm7, %xmm15, %xmm15
vaesenc %xmm7, %xmm0, %xmm0
#NO_APP
vmovaps -80(%rsp), %xmm8
vmovdqa64 %xmm19, %xmm9
#APP
vaesenc %xmm8, %xmm11, %xmm11
vaesenc %xmm8, %xmm12, %xmm12
vaesenc %xmm8, %xmm13, %xmm13
vaesenc %xmm8, %xmm14, %xmm14
vaesenc %xmm8, %xmm15, %xmm15
vaesenc %xmm8, %xmm0, %xmm0
vpclmulqdq $16, %xmm9, %xmm1, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpclmulqdq $0, %xmm9, %xmm1, %xmm7
vpxor %xmm7, %xmm5, %xmm5
vpclmulqdq $17, %xmm9, %xmm1, %xmm7
vpxor %xmm7, %xmm4, %xmm4
vpclmulqdq $1, %xmm9, %xmm1, %xmm7
vpxor %xmm7, %xmm6, %xmm6
#NO_APP
vpunpcklqdq %xmm6, %xmm24, %xmm1
vpxor %xmm1, %xmm5, %xmm5
vpunpckhqdq %xmm24, %xmm6, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vmovaps -96(%rsp), %xmm4
#APP
vaesenc %xmm4, %xmm11, %xmm11
vaesenc %xmm4, %xmm12, %xmm12
vaesenc %xmm4, %xmm13, %xmm13
vaesenc %xmm4, %xmm14, %xmm14
vaesenc %xmm4, %xmm15, %xmm15
vaesenc %xmm4, %xmm0, %xmm0
#NO_APP
vmovaps -112(%rsp), %xmm4
#APP
vaesenclast %xmm4, %xmm11, %xmm11
vaesenclast %xmm4, %xmm12, %xmm12
vaesenclast %xmm4, %xmm13, %xmm13
vaesenclast %xmm4, %xmm14, %xmm14
vaesenclast %xmm4, %xmm15, %xmm15
vaesenclast %xmm4, %xmm0, %xmm0
#NO_APP
vpxorq %xmm26, %xmm11, %xmm4
vpxorq %xmm27, %xmm12, %xmm6
vpxorq %xmm28, %xmm13, %xmm7
vpxorq %xmm29, %xmm14, %xmm8
vpxorq %xmm30, %xmm15, %xmm11
vpxorq %xmm31, %xmm0, %xmm0
vpclmulqdq $16, %xmm25, %xmm5, %xmm12
vpshufd $78, %xmm5, %xmm5
vpxor %xmm5, %xmm12, %xmm5
vmovdqu %xmm4, (%rax)
vmovdqu %xmm6, 16(%rax)
vmovdqu %xmm7, 32(%rax)
vmovdqu %xmm8, 48(%rax)
vmovdqu %xmm11, 64(%rax)
vmovdqu %xmm0, 80(%rax)
vpclmulqdq $16, %xmm25, %xmm5, %xmm0
vpshufd $78, %xmm5, %xmm4
vpternlogq $150, %xmm0, %xmm4, %xmm1
addq $96, %r9
addq $96, %rax
addq $-96, %rcx
vpaddd .LCPI2_8(%rip), %xmm2, %xmm2
cmpq $95, %rcx
ja .LBB2_31
vmovdqa64 -128(%rsp), %xmm25
cmpq $16, %rcx
jae .LBB2_33
.LBB2_25:
movq %rax, %rdx
jmp .LBB2_26
.LBB2_23:
movq %r10, %rcx
cmpq $16, %rcx
jb .LBB2_25
.LBB2_33:
vmovdqa 240(%rdi), %xmm0
vmovdqa (%rdi), %xmm3
vmovdqa 16(%rdi), %xmm4
vmovdqa 32(%rdi), %xmm5
vmovdqa 48(%rdi), %xmm6
vmovdqa 64(%rdi), %xmm7
vmovdqa 80(%rdi), %xmm8
vmovdqa 96(%rdi), %xmm9
vmovdqa 112(%rdi), %xmm10
vmovdqa 128(%rdi), %xmm11
vmovdqa 144(%rdi), %xmm12
vmovdqa 160(%rdi), %xmm13
vmovdqa 176(%rdi), %xmm14
vmovdqa 192(%rdi), %xmm15
vmovdqa64 208(%rdi), %xmm17
vmovdqa64 224(%rdi), %xmm18
vmovdqa64 .LCPI2_2(%rip), %xmm19
vpbroadcastq .LCPI2_3(%rip), %xmm20
vpmovsxbq .LCPI2_11(%rip), %xmm21
.p2align 4, 0x90
.LBB2_34:
leaq 16(%rax), %rdx
addq $-16, %rcx
vmovdqu64 (%r9), %xmm16
addq $16, %r9
vpshufb %xmm19, %xmm16, %xmm22
vpxorq %xmm22, %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm22
vpclmulqdq $1, %xmm1, %xmm0, %xmm23
vpclmulqdq $16, %xmm1, %xmm0, %xmm24
vpxorq %xmm23, %xmm24, %xmm23
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
vpslldq $8, %xmm23, %xmm24
vpxorq %xmm24, %xmm22, %xmm22
vpsrldq $8, %xmm23, %xmm23
vpclmulqdq $16, %xmm20, %xmm22, %xmm24
vpshufd $78, %xmm22, %xmm22
vpxorq %xmm22, %xmm24, %xmm22
vpclmulqdq $16, %xmm20, %xmm22, %xmm24
vpxorq %xmm1, %xmm24, %xmm24
vpshufd $78, %xmm22, %xmm1
vpternlogq $150, %xmm23, %xmm24, %xmm1
vpshufb %xmm19, %xmm2, %xmm22
vpxorq %xmm22, %xmm3, %xmm22
vaesenc %xmm4, %xmm22, %xmm22
vaesenc %xmm5, %xmm22, %xmm22
vaesenc %xmm6, %xmm22, %xmm22
vaesenc %xmm7, %xmm22, %xmm22
vaesenc %xmm8, %xmm22, %xmm22
vaesenc %xmm9, %xmm22, %xmm22
vaesenc %xmm10, %xmm22, %xmm22
vaesenc %xmm11, %xmm22, %xmm22
vaesenc %xmm12, %xmm22, %xmm22
vaesenc %xmm13, %xmm22, %xmm22
vaesenc %xmm14, %xmm22, %xmm22
vaesenc %xmm15, %xmm22, %xmm22
vaesenc %xmm17, %xmm22, %xmm22
vaesenclast %xmm18, %xmm22, %xmm22
vpaddd %xmm21, %xmm2, %xmm2
vpxorq %xmm16, %xmm22, %xmm16
vmovdqu64 %xmm16, (%rax)
movq %rdx, %rax
cmpq $15, %rcx
ja .LBB2_34
.LBB2_26:
testq %rcx, %rcx
je .LBB2_29
movl $-1, %eax
bzhil %ecx, %eax, %eax
kmovd %eax, %k1
vmovdqu8 (%r9), %xmm0 {%k1} {z}
vmovdqa .LCPI2_2(%rip), %xmm3
vpshufb %xmm3, %xmm2, %xmm2
vpxor (%rdi), %xmm2, %xmm2
vaesenc 16(%rdi), %xmm2, %xmm2
vaesenc 32(%rdi), %xmm2, %xmm2
vaesenc 48(%rdi), %xmm2, %xmm2
vaesenc 64(%rdi), %xmm2, %xmm2
vaesenc 80(%rdi), %xmm2, %xmm2
vaesenc 96(%rdi), %xmm2, %xmm2
vaesenc 112(%rdi), %xmm2, %xmm2
vaesenc 128(%rdi), %xmm2, %xmm2
vaesenc 144(%rdi), %xmm2, %xmm2
vaesenc 160(%rdi), %xmm2, %xmm2
vaesenc 176(%rdi), %xmm2, %xmm2
vaesenc 192(%rdi), %xmm2, %xmm2
vaesenc 208(%rdi), %xmm2, %xmm2
vaesenclast 224(%rdi), %xmm2, %xmm2
vpxor %xmm2, %xmm0, %xmm2
vmovdqu8 %xmm2, (%rdx) {%k1}
vpshufb %xmm3, %xmm0, %xmm0
vmovdqa 240(%rdi), %xmm3
jmp .LBB2_28
.LBB2_12:
vmovdqa 240(%rdi), %xmm3
vpshufb .LCPI2_2(%rip), %xmm0, %xmm0
.LBB2_28:
vpxor %xmm0, %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm3, %xmm0
vpclmulqdq $1, %xmm1, %xmm3, %xmm2
vpclmulqdq $16, %xmm1, %xmm3, %xmm4
vpxor %xmm2, %xmm4, %xmm2
vpclmulqdq $17, %xmm1, %xmm3, %xmm1
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm0, %xmm0
vpsrldq $8, %xmm2, %xmm2
vpbroadcastq .LCPI2_3(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm0, %xmm4
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm0, %xmm3
vpxor %xmm1, %xmm3, %xmm3
vpshufd $78, %xmm0, %xmm1
vpternlogq $150, %xmm2, %xmm3, %xmm1
.LBB2_29:
movq 152(%rsp), %rax
vmovdqa 240(%rdi), %xmm0
vmovq %r8, %xmm2
vmovq %r10, %xmm3
vpunpcklqdq %xmm2, %xmm3, %xmm2
vpsllq $3, %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm0, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpbroadcastq .LCPI2_3(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm4
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpxorq (%rdi), %xmm25, %xmm4
vaesenc 16(%rdi), %xmm4, %xmm4
vaesenc 32(%rdi), %xmm4, %xmm4
vaesenc 48(%rdi), %xmm4, %xmm4
vaesenc 64(%rdi), %xmm4, %xmm4
vaesenc 80(%rdi), %xmm4, %xmm4
vaesenc 96(%rdi), %xmm4, %xmm4
vaesenc 112(%rdi), %xmm4, %xmm4
vaesenc 128(%rdi), %xmm4, %xmm4
vaesenc 144(%rdi), %xmm4, %xmm4
vaesenc 160(%rdi), %xmm4, %xmm4
vaesenc 176(%rdi), %xmm4, %xmm4
vaesenc 192(%rdi), %xmm4, %xmm4
vaesenc 208(%rdi), %xmm4, %xmm4
vaesenclast 224(%rdi), %xmm4, %xmm4
vpshufb .LCPI2_9(%rip), %xmm1, %xmm1
vpxor %xmm0, %xmm2, %xmm0
vpshufb .LCPI2_2(%rip), %xmm0, %xmm0
vpshufb .LCPI2_10(%rip), %xmm3, %xmm2
vpternlogq $150, %xmm0, %xmm1, %xmm2
vpternlogq $150, (%rax), %xmm4, %xmm2
xorl %eax, %eax
vptest %xmm2, %xmm2
sete %al
.LBB2_5:
addq $112, %rsp
.cfi_def_cfa_offset 32
popq %rbx
.cfi_def_cfa_offset 24
popq %r14
.cfi_def_cfa_offset 16
popq %rbp
.cfi_def_cfa_offset 8
retq
.Lfunc_end2:
.size haberdashery_aes256gcm_tigerlake_decrypt, .Lfunc_end2-haberdashery_aes256gcm_tigerlake_decrypt
.cfi_endproc
.section .text.haberdashery_aes256gcm_tigerlake_is_supported,"ax",@progbits
.globl haberdashery_aes256gcm_tigerlake_is_supported
.p2align 4, 0x90
.type haberdashery_aes256gcm_tigerlake_is_supported,@function
haberdashery_aes256gcm_tigerlake_is_supported:
.cfi_startproc
xorl %esi, %esi
movl $1, %eax
xorl %ecx, %ecx
#APP
movq %rbx, %rdi
cpuid
xchgq %rbx, %rdi
#NO_APP
movl %ecx, %edi
movl %edx, %r8d
notl %r8d
notl %edi
xorl %ecx, %ecx
movl $7, %eax
#APP
movq %rbx, %r9
cpuid
xchgq %rbx, %r9
#NO_APP
andl $1993871875, %edi
andl $125829120, %r8d
orl %edi, %r8d
jne .LBB3_3
notl %r9d
andl $-240189143, %r9d
notl %ecx
andl $415260490, %ecx
orl %r9d, %ecx
jne .LBB3_3
shrl $8, %edx
andl $1, %edx
movl %edx, %esi
.LBB3_3:
movl %esi, %eax
retq
.Lfunc_end3:
.size haberdashery_aes256gcm_tigerlake_is_supported, .Lfunc_end3-haberdashery_aes256gcm_tigerlake_is_supported
.cfi_endproc
.ident "rustc version 1.86.0-nightly (9cd60bd2c 2025-02-15)"
.section ".note.GNU-stack","",@progbits
|
ts-phantomnk90/haberdashery
| 45,895
|
asm/sivmac_skylake.s
|
# @generated
# https://github.com/facebookincubator/haberdashery/
.text
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI0_0:
.long 1
.long 0
.long 0
.long 0
.LCPI0_1:
.long 2
.long 0
.long 0
.long 0
.LCPI0_2:
.long 3
.long 0
.long 0
.long 0
.LCPI0_3:
.long 4
.long 0
.long 0
.long 0
.LCPI0_4:
.long 5
.long 0
.long 0
.long 0
.LCPI0_5:
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.LCPI0_6:
.quad 4294967297
.quad 4294967297
.LCPI0_7:
.quad 8589934594
.quad 8589934594
.LCPI0_9:
.quad 17179869188
.quad 17179869188
.LCPI0_10:
.quad 34359738376
.quad 34359738376
.LCPI0_11:
.quad 68719476752
.quad 68719476752
.LCPI0_12:
.quad 137438953504
.quad 137438953504
.LCPI0_13:
.quad 274877907008
.quad 274877907008
.LCPI0_14:
.zero 8
.quad -4467570830351532032
.section .rodata.cst4,"aM",@progbits,4
.p2align 2, 0x0
.LCPI0_8:
.long 0x0c0f0e0d
.LCPI0_15:
.long 2
.LCPI0_16:
.long 4
.LCPI0_17:
.long 8
.LCPI0_18:
.long 16
.LCPI0_19:
.long 32
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI0_20:
.quad -4467570830351532032
.section .text.haberdashery_sivmac_skylake_init,"ax",@progbits
.globl haberdashery_sivmac_skylake_init
.p2align 4, 0x90
.type haberdashery_sivmac_skylake_init,@function
haberdashery_sivmac_skylake_init:
.cfi_startproc
cmpq $32, %rdx
jne .LBB0_2
vmovdqu (%rsi), %xmm2
vpxor .LCPI0_0(%rip), %xmm2, %xmm8
vpxor .LCPI0_1(%rip), %xmm2, %xmm5
vpxor .LCPI0_2(%rip), %xmm2, %xmm6
vpxor .LCPI0_3(%rip), %xmm2, %xmm4
vpxor .LCPI0_4(%rip), %xmm2, %xmm7
vmovdqu 16(%rsi), %xmm1
vpslldq $4, %xmm2, %xmm0
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm0, %xmm0
vpslldq $12, %xmm2, %xmm3
vpxor %xmm3, %xmm0, %xmm0
vpshufb .LCPI0_5(%rip), %xmm1, %xmm3
vaesenclast .LCPI0_6(%rip), %xmm3, %xmm3
vpxor %xmm2, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm0
#APP
vaesenc %xmm1, %xmm2, %xmm2
vaesenc %xmm1, %xmm8, %xmm8
vaesenc %xmm1, %xmm5, %xmm5
vaesenc %xmm1, %xmm6, %xmm6
vaesenc %xmm1, %xmm4, %xmm4
vaesenc %xmm1, %xmm7, %xmm7
#NO_APP
vpslldq $4, %xmm1, %xmm3
vpslldq $8, %xmm1, %xmm9
vpxor %xmm3, %xmm9, %xmm3
vpslldq $12, %xmm1, %xmm9
vpxor %xmm3, %xmm9, %xmm3
vpshufd $255, %xmm0, %xmm9
vpxor %xmm13, %xmm13, %xmm13
vaesenclast %xmm13, %xmm9, %xmm9
vpxor %xmm1, %xmm3, %xmm1
vpxor %xmm1, %xmm9, %xmm1
vbroadcastss .LCPI0_15(%rip), %xmm9
vbroadcastss .LCPI0_8(%rip), %xmm14
#APP
vaesenc %xmm0, %xmm2, %xmm2
vaesenc %xmm0, %xmm8, %xmm8
vaesenc %xmm0, %xmm5, %xmm5
vaesenc %xmm0, %xmm6, %xmm6
vaesenc %xmm0, %xmm4, %xmm4
vaesenc %xmm0, %xmm7, %xmm7
vpslldq $4, %xmm0, %xmm3
vpslldq $8, %xmm0, %xmm10
vpxor %xmm3, %xmm10, %xmm3
vpslldq $12, %xmm0, %xmm10
vpxor %xmm3, %xmm10, %xmm3
vpxor %xmm0, %xmm3, %xmm3
vpshufb %xmm14, %xmm1, %xmm11
vaesenclast %xmm9, %xmm11, %xmm11
vpxor %xmm3, %xmm11, %xmm11
#NO_APP
#APP
vaesenc %xmm1, %xmm2, %xmm2
vaesenc %xmm1, %xmm8, %xmm8
vaesenc %xmm1, %xmm5, %xmm5
vaesenc %xmm1, %xmm6, %xmm6
vaesenc %xmm1, %xmm4, %xmm4
vaesenc %xmm1, %xmm7, %xmm7
vpslldq $4, %xmm1, %xmm0
vpslldq $8, %xmm1, %xmm3
vpxor %xmm3, %xmm0, %xmm0
vpslldq $12, %xmm1, %xmm3
vpxor %xmm3, %xmm0, %xmm0
vpxor %xmm1, %xmm0, %xmm0
vpshufd $255, %xmm11, %xmm12
vaesenclast %xmm13, %xmm12, %xmm12
vpxor %xmm0, %xmm12, %xmm12
#NO_APP
vpbroadcastd .LCPI0_16(%rip), %xmm10
#APP
vaesenc %xmm11, %xmm2, %xmm2
vaesenc %xmm11, %xmm8, %xmm8
vaesenc %xmm11, %xmm5, %xmm5
vaesenc %xmm11, %xmm6, %xmm6
vaesenc %xmm11, %xmm4, %xmm4
vaesenc %xmm11, %xmm7, %xmm7
vpslldq $4, %xmm11, %xmm0
vpslldq $8, %xmm11, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpslldq $12, %xmm11, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm11, %xmm0
vpshufb %xmm14, %xmm12, %xmm3
vaesenclast %xmm10, %xmm3, %xmm3
vpxor %xmm0, %xmm3, %xmm3
#NO_APP
#APP
vaesenc %xmm12, %xmm2, %xmm2
vaesenc %xmm12, %xmm8, %xmm8
vaesenc %xmm12, %xmm5, %xmm5
vaesenc %xmm12, %xmm6, %xmm6
vaesenc %xmm12, %xmm4, %xmm4
vaesenc %xmm12, %xmm7, %xmm7
vpslldq $4, %xmm12, %xmm0
vpslldq $8, %xmm12, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpslldq $12, %xmm12, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm12, %xmm0
vpshufd $255, %xmm3, %xmm15
vaesenclast %xmm13, %xmm15, %xmm15
vpxor %xmm0, %xmm15, %xmm15
#NO_APP
vpbroadcastd .LCPI0_17(%rip), %xmm11
#APP
vaesenc %xmm3, %xmm2, %xmm2
vaesenc %xmm3, %xmm8, %xmm8
vaesenc %xmm3, %xmm5, %xmm5
vaesenc %xmm3, %xmm6, %xmm6
vaesenc %xmm3, %xmm4, %xmm4
vaesenc %xmm3, %xmm7, %xmm7
vpslldq $4, %xmm3, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpslldq $12, %xmm3, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm3, %xmm0, %xmm0
vpshufb %xmm14, %xmm15, %xmm12
vaesenclast %xmm11, %xmm12, %xmm12
vpxor %xmm0, %xmm12, %xmm12
#NO_APP
#APP
vaesenc %xmm15, %xmm2, %xmm2
vaesenc %xmm15, %xmm8, %xmm8
vaesenc %xmm15, %xmm5, %xmm5
vaesenc %xmm15, %xmm6, %xmm6
vaesenc %xmm15, %xmm4, %xmm4
vaesenc %xmm15, %xmm7, %xmm7
vpslldq $4, %xmm15, %xmm0
vpslldq $8, %xmm15, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpslldq $12, %xmm15, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm15, %xmm0
vpshufd $255, %xmm12, %xmm3
vaesenclast %xmm13, %xmm3, %xmm3
vpxor %xmm0, %xmm3, %xmm3
#NO_APP
vbroadcastss .LCPI0_18(%rip), %xmm9
#APP
vaesenc %xmm12, %xmm2, %xmm2
vaesenc %xmm12, %xmm8, %xmm8
vaesenc %xmm12, %xmm5, %xmm5
vaesenc %xmm12, %xmm6, %xmm6
vaesenc %xmm12, %xmm4, %xmm4
vaesenc %xmm12, %xmm7, %xmm7
vpslldq $4, %xmm12, %xmm0
vpslldq $8, %xmm12, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpslldq $12, %xmm12, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm12, %xmm0
vpshufb %xmm14, %xmm3, %xmm15
vaesenclast %xmm9, %xmm15, %xmm15
vpxor %xmm0, %xmm15, %xmm15
#NO_APP
#APP
vaesenc %xmm3, %xmm2, %xmm2
vaesenc %xmm3, %xmm8, %xmm8
vaesenc %xmm3, %xmm5, %xmm5
vaesenc %xmm3, %xmm6, %xmm6
vaesenc %xmm3, %xmm4, %xmm4
vaesenc %xmm3, %xmm7, %xmm7
vpslldq $4, %xmm3, %xmm0
vpslldq $8, %xmm3, %xmm12
vpxor %xmm0, %xmm12, %xmm0
vpslldq $12, %xmm3, %xmm12
vpxor %xmm0, %xmm12, %xmm0
vpxor %xmm3, %xmm0, %xmm0
vpshufd $255, %xmm15, %xmm1
vaesenclast %xmm13, %xmm1, %xmm1
vpxor %xmm0, %xmm1, %xmm1
#NO_APP
vbroadcastss .LCPI0_19(%rip), %xmm9
#APP
vaesenc %xmm15, %xmm2, %xmm2
vaesenc %xmm15, %xmm8, %xmm8
vaesenc %xmm15, %xmm5, %xmm5
vaesenc %xmm15, %xmm6, %xmm6
vaesenc %xmm15, %xmm4, %xmm4
vaesenc %xmm15, %xmm7, %xmm7
vpslldq $4, %xmm15, %xmm3
vpslldq $8, %xmm15, %xmm12
vpxor %xmm3, %xmm12, %xmm3
vpslldq $12, %xmm15, %xmm12
vpxor %xmm3, %xmm12, %xmm3
vpxor %xmm3, %xmm15, %xmm3
vpshufb %xmm14, %xmm1, %xmm0
vaesenclast %xmm9, %xmm0, %xmm0
vpxor %xmm3, %xmm0, %xmm0
#NO_APP
vpslldq $4, %xmm1, %xmm3
vpunpcklqdq %xmm1, %xmm13, %xmm12
vpxor %xmm3, %xmm12, %xmm3
vinsertps $55, %xmm1, %xmm0, %xmm12
vpxor %xmm3, %xmm12, %xmm3
vshufps $255, %xmm0, %xmm0, %xmm12
vaesenclast %xmm13, %xmm12, %xmm12
vpxor %xmm1, %xmm3, %xmm3
vpxor %xmm3, %xmm12, %xmm15
vpslldq $4, %xmm0, %xmm3
vpunpcklqdq %xmm0, %xmm13, %xmm12
vpxor %xmm3, %xmm12, %xmm3
vinsertps $55, %xmm0, %xmm0, %xmm12
vpxor %xmm3, %xmm12, %xmm3
vpbroadcastd .LCPI0_8(%rip), %xmm14
vpshufb %xmm14, %xmm15, %xmm12
vaesenclast .LCPI0_13(%rip), %xmm12, %xmm12
vpxor %xmm0, %xmm3, %xmm3
vpxor %xmm3, %xmm12, %xmm3
#APP
vaesenc %xmm1, %xmm2, %xmm2
vaesenc %xmm1, %xmm8, %xmm8
vaesenc %xmm1, %xmm5, %xmm5
vaesenc %xmm1, %xmm6, %xmm6
vaesenc %xmm1, %xmm4, %xmm4
vaesenc %xmm1, %xmm7, %xmm7
#NO_APP
#APP
vaesenc %xmm0, %xmm2, %xmm2
vaesenc %xmm0, %xmm8, %xmm8
vaesenc %xmm0, %xmm5, %xmm5
vaesenc %xmm0, %xmm6, %xmm6
vaesenc %xmm0, %xmm4, %xmm4
vaesenc %xmm0, %xmm7, %xmm7
#NO_APP
#APP
vaesenc %xmm15, %xmm2, %xmm2
vaesenc %xmm15, %xmm8, %xmm8
vaesenc %xmm15, %xmm5, %xmm5
vaesenc %xmm15, %xmm6, %xmm6
vaesenc %xmm15, %xmm4, %xmm4
vaesenc %xmm15, %xmm7, %xmm7
#NO_APP
#APP
vaesenclast %xmm3, %xmm2, %xmm2
vaesenclast %xmm3, %xmm8, %xmm8
vaesenclast %xmm3, %xmm5, %xmm5
vaesenclast %xmm3, %xmm6, %xmm6
vaesenclast %xmm3, %xmm4, %xmm4
vaesenclast %xmm3, %xmm7, %xmm7
#NO_APP
vpunpcklqdq %xmm6, %xmm5, %xmm3
vpunpcklqdq %xmm7, %xmm4, %xmm6
vpunpcklqdq %xmm5, %xmm13, %xmm0
vinsertps $55, %xmm5, %xmm0, %xmm1
vxorps %xmm1, %xmm0, %xmm0
vmovdqa %xmm3, -24(%rsp)
vpslldq $4, %xmm3, %xmm1
vpxor %xmm0, %xmm1, %xmm0
vmovdqa %xmm6, %xmm5
vpshufb %xmm14, %xmm6, %xmm1
vaesenclast .LCPI0_6(%rip), %xmm1, %xmm1
vpxor %xmm3, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm6
vpslldq $4, %xmm5, %xmm0
vmovdqa %xmm5, %xmm9
vmovdqa %xmm5, -40(%rsp)
vpxor %xmm5, %xmm5, %xmm5
vpunpcklqdq %xmm4, %xmm5, %xmm1
vinsertps $55, %xmm4, %xmm0, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpshufd $255, %xmm6, %xmm1
vaesenclast %xmm5, %xmm1, %xmm1
vpxor %xmm7, %xmm7, %xmm7
vpxor %xmm0, %xmm9, %xmm0
vpxor %xmm0, %xmm1, %xmm5
vpslldq $4, %xmm6, %xmm0
vpslldq $8, %xmm6, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpslldq $12, %xmm6, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpshufb %xmm14, %xmm5, %xmm1
vaesenclast .LCPI0_7(%rip), %xmm1, %xmm1
vpxor %xmm6, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm4
vpslldq $4, %xmm5, %xmm0
vpslldq $8, %xmm5, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpslldq $12, %xmm5, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpshufd $255, %xmm4, %xmm1
vaesenclast %xmm7, %xmm1, %xmm1
vpxor %xmm5, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm9
vpslldq $4, %xmm4, %xmm0
vpslldq $8, %xmm4, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpslldq $12, %xmm4, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpshufb %xmm14, %xmm9, %xmm1
vaesenclast %xmm10, %xmm1, %xmm1
vpxor %xmm4, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm10
vpslldq $4, %xmm9, %xmm0
vpslldq $8, %xmm9, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpslldq $12, %xmm9, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpshufd $255, %xmm10, %xmm1
vaesenclast %xmm7, %xmm1, %xmm1
vpxor %xmm0, %xmm9, %xmm0
vpxor %xmm0, %xmm1, %xmm15
vpslldq $4, %xmm10, %xmm0
vpslldq $8, %xmm10, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpslldq $12, %xmm10, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpshufb %xmm14, %xmm15, %xmm1
vaesenclast %xmm11, %xmm1, %xmm1
vpxor %xmm0, %xmm10, %xmm0
vpxor %xmm0, %xmm1, %xmm11
vpslldq $4, %xmm15, %xmm0
vpslldq $8, %xmm15, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpslldq $12, %xmm15, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpshufd $255, %xmm11, %xmm1
vaesenclast %xmm7, %xmm1, %xmm1
vpxor %xmm0, %xmm15, %xmm0
vpxor %xmm0, %xmm1, %xmm1
vpslldq $4, %xmm11, %xmm0
vpslldq $8, %xmm11, %xmm3
vpxor %xmm3, %xmm0, %xmm0
vpslldq $12, %xmm11, %xmm3
vpxor %xmm3, %xmm0, %xmm0
vpshufb %xmm14, %xmm1, %xmm3
vmovdqa %xmm14, %xmm12
vaesenclast .LCPI0_11(%rip), %xmm3, %xmm3
vpxor %xmm0, %xmm11, %xmm0
vpxor %xmm0, %xmm3, %xmm3
vpslldq $4, %xmm1, %xmm0
vpslldq $8, %xmm1, %xmm14
vpxor %xmm0, %xmm14, %xmm0
vpslldq $12, %xmm1, %xmm14
vpxor %xmm0, %xmm14, %xmm0
vpshufd $255, %xmm3, %xmm14
vaesenclast %xmm7, %xmm14, %xmm14
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm14, %xmm0
vpslldq $4, %xmm3, %xmm14
vpslldq $8, %xmm3, %xmm13
vpxor %xmm13, %xmm14, %xmm13
vpslldq $12, %xmm3, %xmm14
vpxor %xmm14, %xmm13, %xmm13
vpshufb %xmm12, %xmm0, %xmm14
vaesenclast .LCPI0_12(%rip), %xmm14, %xmm14
vpxor %xmm3, %xmm13, %xmm13
vpxor %xmm13, %xmm14, %xmm13
vpslldq $4, %xmm0, %xmm14
vpslldq $8, %xmm0, %xmm12
vpxor %xmm12, %xmm14, %xmm12
vpslldq $12, %xmm0, %xmm14
vpxor %xmm14, %xmm12, %xmm12
vpshufd $255, %xmm13, %xmm14
vaesenclast %xmm7, %xmm14, %xmm14
vpxor %xmm0, %xmm12, %xmm12
vpxor %xmm12, %xmm14, %xmm12
vpslldq $4, %xmm13, %xmm14
vpslldq $8, %xmm13, %xmm7
vpxor %xmm7, %xmm14, %xmm7
vpslldq $12, %xmm13, %xmm14
vpxor %xmm7, %xmm14, %xmm7
vpshufb .LCPI0_5(%rip), %xmm12, %xmm14
vaesenclast .LCPI0_13(%rip), %xmm14, %xmm14
vpxor %xmm7, %xmm13, %xmm7
vpxor %xmm7, %xmm14, %xmm7
vmovaps -24(%rsp), %xmm14
vmovaps %xmm14, 128(%rdi)
vmovaps -40(%rsp), %xmm14
vmovaps %xmm14, 144(%rdi)
vmovdqa %xmm6, 160(%rdi)
vmovdqa %xmm5, 176(%rdi)
vmovdqa %xmm4, 192(%rdi)
vmovdqa %xmm9, 208(%rdi)
vmovdqa %xmm10, 224(%rdi)
vmovdqa %xmm15, 240(%rdi)
vmovdqa %xmm11, 256(%rdi)
vmovdqa %xmm1, 272(%rdi)
vmovdqa %xmm3, 288(%rdi)
vmovdqa %xmm0, 304(%rdi)
vmovdqa %xmm13, 320(%rdi)
vmovdqa %xmm12, 336(%rdi)
vmovdqa %xmm7, 352(%rdi)
vpunpcklqdq %xmm8, %xmm2, %xmm0
vpclmulqdq $0, %xmm0, %xmm0, %xmm2
vpbroadcastq .LCPI0_20(%rip), %xmm1
vpclmulqdq $16, %xmm1, %xmm2, %xmm3
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $16, %xmm1, %xmm2, %xmm3
vpclmulqdq $17, %xmm0, %xmm0, %xmm4
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm4, %xmm2
vpxor %xmm3, %xmm2, %xmm2
vpclmulqdq $0, %xmm2, %xmm2, %xmm3
vpclmulqdq $16, %xmm1, %xmm3, %xmm4
vpshufd $78, %xmm3, %xmm3
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $16, %xmm1, %xmm3, %xmm4
vpclmulqdq $17, %xmm2, %xmm2, %xmm5
vpshufd $78, %xmm3, %xmm3
vpxor %xmm3, %xmm5, %xmm3
vpxor %xmm4, %xmm3, %xmm3
vpclmulqdq $0, %xmm3, %xmm3, %xmm4
vpclmulqdq $16, %xmm1, %xmm4, %xmm5
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $16, %xmm1, %xmm4, %xmm5
vpclmulqdq $17, %xmm3, %xmm3, %xmm6
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm6, %xmm4
vpxor %xmm5, %xmm4, %xmm4
vpclmulqdq $0, %xmm0, %xmm2, %xmm5
vpclmulqdq $16, %xmm0, %xmm2, %xmm6
vpclmulqdq $1, %xmm0, %xmm2, %xmm7
vpxor %xmm6, %xmm7, %xmm6
vpslldq $8, %xmm6, %xmm7
vpxor %xmm7, %xmm5, %xmm5
vpclmulqdq $16, %xmm1, %xmm5, %xmm7
vpshufd $78, %xmm5, %xmm5
vpxor %xmm5, %xmm7, %xmm5
vpclmulqdq $16, %xmm1, %xmm5, %xmm7
vpclmulqdq $17, %xmm0, %xmm2, %xmm8
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm8, %xmm6
vpshufd $78, %xmm5, %xmm5
vpxor %xmm5, %xmm6, %xmm5
vpxor %xmm7, %xmm5, %xmm5
vpclmulqdq $0, %xmm5, %xmm5, %xmm6
vpclmulqdq $16, %xmm1, %xmm6, %xmm7
vpshufd $78, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm6
vpclmulqdq $16, %xmm1, %xmm6, %xmm7
vpclmulqdq $17, %xmm5, %xmm5, %xmm8
vpshufd $78, %xmm6, %xmm6
vpxor %xmm6, %xmm8, %xmm6
vpxor %xmm7, %xmm6, %xmm6
vpclmulqdq $0, %xmm0, %xmm6, %xmm7
vpclmulqdq $16, %xmm0, %xmm6, %xmm8
vpclmulqdq $1, %xmm0, %xmm6, %xmm9
vpxor %xmm8, %xmm9, %xmm8
vpslldq $8, %xmm8, %xmm9
vpxor %xmm7, %xmm9, %xmm7
vpclmulqdq $16, %xmm1, %xmm7, %xmm9
vpshufd $78, %xmm7, %xmm7
vpxor %xmm7, %xmm9, %xmm7
vpclmulqdq $16, %xmm1, %xmm7, %xmm9
vpclmulqdq $17, %xmm0, %xmm6, %xmm10
vpsrldq $8, %xmm8, %xmm8
vpxor %xmm8, %xmm10, %xmm8
vpshufd $78, %xmm7, %xmm7
vpxor %xmm7, %xmm8, %xmm7
vpxor %xmm7, %xmm9, %xmm7
vpclmulqdq $0, %xmm0, %xmm3, %xmm8
vpclmulqdq $16, %xmm0, %xmm3, %xmm9
vpclmulqdq $1, %xmm0, %xmm3, %xmm10
vpxor %xmm9, %xmm10, %xmm9
vpslldq $8, %xmm9, %xmm10
vpxor %xmm10, %xmm8, %xmm8
vpclmulqdq $16, %xmm1, %xmm8, %xmm10
vpshufd $78, %xmm8, %xmm8
vpxor %xmm8, %xmm10, %xmm8
vpclmulqdq $17, %xmm0, %xmm3, %xmm10
vpsrldq $8, %xmm9, %xmm9
vpxor %xmm9, %xmm10, %xmm9
vpclmulqdq $16, %xmm1, %xmm8, %xmm1
vpshufd $78, %xmm8, %xmm8
vpxor %xmm8, %xmm9, %xmm8
vpxor %xmm1, %xmm8, %xmm1
vmovdqa %xmm0, (%rdi)
vmovdqa %xmm2, 16(%rdi)
vmovdqa %xmm5, 32(%rdi)
vmovdqa %xmm3, 48(%rdi)
vmovdqa %xmm1, 64(%rdi)
vmovdqa %xmm6, 80(%rdi)
vmovdqa %xmm7, 96(%rdi)
vmovdqa %xmm4, 112(%rdi)
.LBB0_2:
xorl %eax, %eax
cmpq $32, %rdx
sete %al
retq
.Lfunc_end0:
.size haberdashery_sivmac_skylake_init, .Lfunc_end0-haberdashery_sivmac_skylake_init
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI1_0:
.zero 8
.quad -4467570830351532032
.LCPI1_1:
.quad -1
.quad 9223372036854775807
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI1_2:
.quad -4467570830351532032
.section .text.haberdashery_sivmac_skylake_sign,"ax",@progbits
.globl haberdashery_sivmac_skylake_sign
.p2align 4, 0x90
.type haberdashery_sivmac_skylake_sign,@function
haberdashery_sivmac_skylake_sign:
.cfi_startproc
cmpq $16, %r8
setne %r8b
movabsq $68719476736, %rax
cmpq %rax, %rdx
seta %r9b
xorl %eax, %eax
orb %r8b, %r9b
jne .LBB1_32
pushq %rbp
.cfi_def_cfa_offset 16
pushq %r15
.cfi_def_cfa_offset 24
pushq %r14
.cfi_def_cfa_offset 32
pushq %r13
.cfi_def_cfa_offset 40
pushq %r12
.cfi_def_cfa_offset 48
pushq %rbx
.cfi_def_cfa_offset 56
subq $56, %rsp
.cfi_def_cfa_offset 112
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
.cfi_offset %rbp, -16
vpxor %xmm2, %xmm2, %xmm2
cmpq $128, %rdx
jb .LBB1_2
vmovdqu 16(%rsi), %xmm7
vmovdqu 32(%rsi), %xmm8
vmovdqu 48(%rsi), %xmm9
vmovdqu 64(%rsi), %xmm6
vmovdqu 80(%rsi), %xmm10
vmovdqu 96(%rsi), %xmm4
vmovdqu 112(%rsi), %xmm5
vmovdqa (%rdi), %xmm0
vmovdqa 16(%rdi), %xmm2
vmovdqa 32(%rdi), %xmm3
vmovdqa 48(%rdi), %xmm15
vpclmulqdq $0, %xmm5, %xmm0, %xmm11
vpclmulqdq $1, %xmm5, %xmm0, %xmm12
vpclmulqdq $16, %xmm5, %xmm0, %xmm13
vpxor %xmm12, %xmm13, %xmm12
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpclmulqdq $0, %xmm4, %xmm2, %xmm13
vpxor %xmm11, %xmm13, %xmm11
vpclmulqdq $1, %xmm4, %xmm2, %xmm13
vpclmulqdq $16, %xmm4, %xmm2, %xmm14
vpxor %xmm14, %xmm13, %xmm13
vpxor %xmm13, %xmm12, %xmm12
vpclmulqdq $17, %xmm4, %xmm2, %xmm4
vpxor %xmm5, %xmm4, %xmm13
vpclmulqdq $0, %xmm10, %xmm3, %xmm4
vpclmulqdq $1, %xmm10, %xmm3, %xmm5
vpclmulqdq $16, %xmm10, %xmm3, %xmm14
vpxor %xmm5, %xmm14, %xmm5
vpclmulqdq $0, %xmm6, %xmm15, %xmm14
vpxor %xmm4, %xmm14, %xmm14
vmovdqa 64(%rdi), %xmm4
vpxor %xmm14, %xmm11, %xmm11
vpclmulqdq $1, %xmm6, %xmm15, %xmm14
vpxor %xmm5, %xmm14, %xmm14
vmovdqa 80(%rdi), %xmm1
vpclmulqdq $17, %xmm10, %xmm3, %xmm10
vpxor %xmm14, %xmm12, %xmm12
vpclmulqdq $16, %xmm6, %xmm15, %xmm14
vpclmulqdq $17, %xmm6, %xmm15, %xmm6
vpxor %xmm6, %xmm10, %xmm6
vpxor %xmm6, %xmm13, %xmm10
vpclmulqdq $0, %xmm9, %xmm4, %xmm6
vpclmulqdq $1, %xmm9, %xmm4, %xmm13
vpxor %xmm13, %xmm14, %xmm13
vpclmulqdq $16, %xmm9, %xmm4, %xmm14
vpxor %xmm14, %xmm13, %xmm13
vpclmulqdq $0, %xmm8, %xmm1, %xmm14
vpxor %xmm6, %xmm14, %xmm14
vpclmulqdq $1, %xmm8, %xmm1, %xmm6
vpxor %xmm6, %xmm13, %xmm13
vmovdqa 96(%rdi), %xmm6
vpclmulqdq $17, %xmm9, %xmm4, %xmm9
vpxor %xmm13, %xmm12, %xmm12
vpclmulqdq $17, %xmm8, %xmm1, %xmm13
vpxor %xmm13, %xmm9, %xmm9
vpclmulqdq $0, %xmm7, %xmm6, %xmm13
vpxor %xmm13, %xmm14, %xmm13
vpclmulqdq $16, %xmm8, %xmm1, %xmm8
vpxor %xmm13, %xmm11, %xmm11
vpclmulqdq $1, %xmm7, %xmm6, %xmm13
vpxor %xmm13, %xmm8, %xmm8
vpclmulqdq $16, %xmm7, %xmm6, %xmm13
vpxor %xmm13, %xmm8, %xmm8
vmovdqu (%rsi), %xmm13
vpclmulqdq $17, %xmm7, %xmm6, %xmm7
vpxor %xmm7, %xmm9, %xmm9
vmovdqa 112(%rdi), %xmm7
vpxor %xmm9, %xmm10, %xmm10
vpclmulqdq $0, %xmm13, %xmm7, %xmm9
vpxor %xmm9, %xmm11, %xmm9
vpclmulqdq $1, %xmm13, %xmm7, %xmm11
vpxor %xmm11, %xmm8, %xmm8
vpclmulqdq $16, %xmm13, %xmm7, %xmm11
vpxor %xmm11, %xmm8, %xmm8
vpxor %xmm8, %xmm12, %xmm11
vpclmulqdq $17, %xmm13, %xmm7, %xmm8
vpxor %xmm8, %xmm10, %xmm10
subq $-128, %rsi
leaq -128(%rdx), %rbx
cmpq $128, %rbx
jb .LBB1_6
vmovdqa %xmm1, 32(%rsp)
vmovdqa %xmm4, %xmm1
vmovdqa %xmm15, %xmm4
vmovdqa %xmm0, (%rsp)
.p2align 4, 0x90
.LBB1_5:
vmovdqu 64(%rsi), %xmm12
vmovdqu 80(%rsi), %xmm13
vmovdqu 96(%rsi), %xmm14
vmovdqu 112(%rsi), %xmm15
vpslldq $8, %xmm11, %xmm8
vpxor %xmm8, %xmm9, %xmm8
vpsrldq $8, %xmm11, %xmm9
vpbroadcastq .LCPI1_2(%rip), %xmm5
vpclmulqdq $16, %xmm5, %xmm8, %xmm11
vpshufd $78, %xmm8, %xmm8
vpxor %xmm8, %xmm11, %xmm8
vpclmulqdq $16, %xmm5, %xmm8, %xmm11
vpshufd $78, %xmm8, %xmm8
vpxor (%rsi), %xmm10, %xmm10
vpxor %xmm9, %xmm10, %xmm9
vpxor %xmm8, %xmm9, %xmm8
vpxor %xmm11, %xmm8, %xmm10
vpclmulqdq $0, %xmm15, %xmm0, %xmm8
vpclmulqdq $1, %xmm15, %xmm0, %xmm9
vpclmulqdq $16, %xmm15, %xmm0, %xmm11
vpxor %xmm9, %xmm11, %xmm9
vpclmulqdq $17, %xmm15, %xmm0, %xmm11
vpclmulqdq $0, %xmm14, %xmm2, %xmm15
vpxor %xmm8, %xmm15, %xmm8
vpclmulqdq $1, %xmm14, %xmm2, %xmm15
vpclmulqdq $16, %xmm14, %xmm2, %xmm0
vpxor %xmm0, %xmm15, %xmm0
vpxor %xmm0, %xmm9, %xmm0
vpclmulqdq $17, %xmm14, %xmm2, %xmm9
vpxor %xmm11, %xmm9, %xmm9
vpclmulqdq $0, %xmm13, %xmm3, %xmm11
vpclmulqdq $1, %xmm13, %xmm3, %xmm14
vpclmulqdq $16, %xmm13, %xmm3, %xmm15
vpxor %xmm15, %xmm14, %xmm14
vpclmulqdq $0, %xmm12, %xmm4, %xmm15
vpxor %xmm15, %xmm11, %xmm11
vmovdqu 32(%rsi), %xmm15
vpxor %xmm11, %xmm8, %xmm8
vpclmulqdq $1, %xmm12, %xmm4, %xmm11
vpxor %xmm11, %xmm14, %xmm11
vmovdqu 48(%rsi), %xmm14
vpclmulqdq $17, %xmm13, %xmm3, %xmm13
vpxor %xmm0, %xmm11, %xmm0
vpclmulqdq $16, %xmm12, %xmm4, %xmm11
vpclmulqdq $17, %xmm12, %xmm4, %xmm12
vpxor %xmm12, %xmm13, %xmm12
vpxor %xmm12, %xmm9, %xmm9
vpclmulqdq $0, %xmm14, %xmm1, %xmm12
vpclmulqdq $1, %xmm14, %xmm1, %xmm13
vpxor %xmm13, %xmm11, %xmm11
vpclmulqdq $16, %xmm14, %xmm1, %xmm13
vpxor %xmm13, %xmm11, %xmm11
vmovdqa 32(%rsp), %xmm5
vpclmulqdq $0, %xmm15, %xmm5, %xmm13
vpxor %xmm13, %xmm12, %xmm12
vpclmulqdq $1, %xmm15, %xmm5, %xmm13
vpxor %xmm13, %xmm11, %xmm11
vmovdqu 16(%rsi), %xmm13
vpclmulqdq $17, %xmm14, %xmm1, %xmm14
vpxor %xmm0, %xmm11, %xmm0
vpclmulqdq $17, %xmm15, %xmm5, %xmm11
vpxor %xmm11, %xmm14, %xmm11
vpclmulqdq $0, %xmm13, %xmm6, %xmm14
vpxor %xmm14, %xmm12, %xmm12
vpclmulqdq $16, %xmm15, %xmm5, %xmm14
vpxor %xmm12, %xmm8, %xmm8
vpclmulqdq $1, %xmm13, %xmm6, %xmm12
vpxor %xmm12, %xmm14, %xmm12
vpclmulqdq $16, %xmm13, %xmm6, %xmm14
vpxor %xmm14, %xmm12, %xmm12
vpxor %xmm0, %xmm12, %xmm0
vpclmulqdq $17, %xmm13, %xmm6, %xmm12
vpxor %xmm12, %xmm11, %xmm11
vpxor %xmm11, %xmm9, %xmm12
vpclmulqdq $0, %xmm10, %xmm7, %xmm9
vpxor %xmm9, %xmm8, %xmm9
vpclmulqdq $1, %xmm10, %xmm7, %xmm8
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $16, %xmm10, %xmm7, %xmm8
vpxor %xmm0, %xmm8, %xmm11
vpclmulqdq $17, %xmm10, %xmm7, %xmm0
vpxor %xmm0, %xmm12, %xmm10
vmovdqa (%rsp), %xmm0
subq $-128, %rsi
addq $-128, %rbx
cmpq $127, %rbx
ja .LBB1_5
.LBB1_6:
vpslldq $8, %xmm11, %xmm0
vpxor %xmm0, %xmm9, %xmm0
vpsrldq $8, %xmm11, %xmm1
vpxor %xmm1, %xmm10, %xmm1
vpbroadcastq .LCPI1_2(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm0, %xmm3
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm0
vpclmulqdq $16, %xmm2, %xmm0, %xmm2
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpxor %xmm2, %xmm0, %xmm2
shlq $3, %rdx
movq %rbx, %rax
andq $15, %rax
je .LBB1_28
.LBB1_8:
vmovdqa %xmm2, (%rsp)
movq %rdx, %r15
movq %rdi, %r13
movq %rcx, %r12
movl %ebx, %r14d
andl $112, %r14d
movq %rsi, %rbp
addq %r14, %rsi
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, 16(%rsp)
leaq 16(%rsp), %rdi
movq %rax, %rdx
callq *memcpy@GOTPCREL(%rip)
vmovdqa 16(%rsp), %xmm0
testq %r14, %r14
je .LBB1_9
leaq -16(%r14), %rsi
movq %rsi, %rax
shrq $4, %rax
leaq 2(%rax), %rdx
cmpq $96, %rsi
cmovaeq %rax, %rdx
movq %rdx, %rax
shlq $4, %rax
movq %r13, %rdi
vmovdqa (%r13,%rax), %xmm1
vmovdqa (%rsp), %xmm2
vpxor (%rbp), %xmm2, %xmm4
vpclmulqdq $0, %xmm4, %xmm1, %xmm2
vpclmulqdq $1, %xmm4, %xmm1, %xmm3
vpclmulqdq $16, %xmm4, %xmm1, %xmm5
vpxor %xmm3, %xmm5, %xmm3
vpclmulqdq $17, %xmm4, %xmm1, %xmm1
testq %rsi, %rsi
movq %r12, %rcx
je .LBB1_11
movq %rbp, %r8
testb $16, %bl
movq %r15, %rax
jne .LBB1_14
leaq -32(%r14), %rsi
vmovdqu 16(%r8), %xmm4
addq $16, %r8
decq %rdx
movq %rdx, %r9
shlq $4, %r9
vmovdqa (%rdi,%r9), %xmm5
vpclmulqdq $0, %xmm4, %xmm5, %xmm6
vpclmulqdq $1, %xmm4, %xmm5, %xmm7
vpclmulqdq $16, %xmm4, %xmm5, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $17, %xmm4, %xmm5, %xmm4
vpxor %xmm2, %xmm6, %xmm2
vpxor %xmm3, %xmm7, %xmm3
vpxor %xmm1, %xmm4, %xmm1
.LBB1_14:
cmpl $32, %r14d
je .LBB1_17
movq %rdx, %r9
shlq $4, %r9
addq %rdi, %r9
addq $-16, %r9
xorl %r10d, %r10d
.p2align 4, 0x90
.LBB1_16:
vmovdqa -16(%r9), %xmm4
vmovdqa (%r9), %xmm5
vmovdqu 16(%r8,%r10), %xmm6
vmovdqu 32(%r8,%r10), %xmm7
vpclmulqdq $0, %xmm6, %xmm5, %xmm8
vpxor %xmm2, %xmm8, %xmm2
vpclmulqdq $1, %xmm6, %xmm5, %xmm8
vpxor %xmm3, %xmm8, %xmm3
vpclmulqdq $16, %xmm6, %xmm5, %xmm8
vpclmulqdq $17, %xmm6, %xmm5, %xmm5
vpxor %xmm1, %xmm5, %xmm1
addq $-2, %rdx
vpclmulqdq $0, %xmm7, %xmm4, %xmm5
vpxor %xmm2, %xmm5, %xmm2
vpclmulqdq $1, %xmm7, %xmm4, %xmm5
vpxor %xmm5, %xmm8, %xmm5
vpxor %xmm3, %xmm5, %xmm3
vpclmulqdq $16, %xmm7, %xmm4, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpclmulqdq $17, %xmm7, %xmm4, %xmm4
vpxor %xmm1, %xmm4, %xmm1
addq $-32, %r9
addq $32, %r10
cmpq %r10, %rsi
jne .LBB1_16
.LBB1_17:
testq %rdx, %rdx
je .LBB1_19
.LBB1_18:
vmovdqa (%rdi), %xmm4
vmovdqa 16(%rdi), %xmm5
vpclmulqdq $0, %xmm0, %xmm5, %xmm6
vpclmulqdq $1, %xmm0, %xmm5, %xmm7
vpclmulqdq $16, %xmm0, %xmm5, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $17, %xmm0, %xmm5, %xmm0
vmovq %rax, %xmm5
vpclmulqdq $0, %xmm5, %xmm4, %xmm8
vpxor %xmm6, %xmm8, %xmm6
vpclmulqdq $1, %xmm5, %xmm4, %xmm4
vpxor %xmm4, %xmm7, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpslldq $8, %xmm3, %xmm4
vpxor %xmm2, %xmm6, %xmm2
vpxor %xmm4, %xmm2, %xmm2
vpsrldq $8, %xmm3, %xmm3
vpxor %xmm3, %xmm0, %xmm0
vpbroadcastq .LCPI1_2(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm2, %xmm4
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm4, %xmm2
vpclmulqdq $16, %xmm3, %xmm2, %xmm3
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm3, %xmm0, %xmm0
jmp .LBB1_31
.LBB1_2:
movq %rdx, %rbx
shlq $3, %rdx
movq %rbx, %rax
andq $15, %rax
jne .LBB1_8
.LBB1_28:
cmpq $15, %rbx
jbe .LBB1_29
vmovdqa (%rdi,%rbx), %xmm1
vpxor (%rsi), %xmm2, %xmm3
vpclmulqdq $0, %xmm3, %xmm1, %xmm0
vpclmulqdq $1, %xmm3, %xmm1, %xmm2
vpclmulqdq $16, %xmm3, %xmm1, %xmm4
vpxor %xmm2, %xmm4, %xmm2
vpclmulqdq $17, %xmm3, %xmm1, %xmm1
leaq -16(%rbx), %rax
cmpq $16, %rax
jb .LBB1_27
movq %rbx, %r8
shrq $4, %r8
testb $16, %bl
jne .LBB1_24
vmovdqu 16(%rsi), %xmm3
addq $16, %rsi
decq %r8
movq %r8, %rax
shlq $4, %rax
vmovdqa (%rdi,%rax), %xmm4
vpclmulqdq $0, %xmm3, %xmm4, %xmm5
vpclmulqdq $1, %xmm3, %xmm4, %xmm6
vpclmulqdq $16, %xmm3, %xmm4, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpclmulqdq $17, %xmm3, %xmm4, %xmm3
vpxor %xmm0, %xmm5, %xmm0
vpxor %xmm2, %xmm6, %xmm2
vpxor %xmm1, %xmm3, %xmm1
leaq -32(%rbx), %rax
.LBB1_24:
cmpq $32, %rbx
je .LBB1_27
shlq $4, %r8
addq %rdi, %r8
addq $-16, %r8
addq $32, %rsi
.p2align 4, 0x90
.LBB1_26:
vmovdqa -16(%r8), %xmm3
vmovdqa (%r8), %xmm4
vmovdqu -16(%rsi), %xmm5
vmovdqu (%rsi), %xmm6
vpclmulqdq $0, %xmm5, %xmm4, %xmm7
vpxor %xmm0, %xmm7, %xmm0
vpclmulqdq $1, %xmm5, %xmm4, %xmm7
vpxor %xmm2, %xmm7, %xmm2
vpclmulqdq $16, %xmm5, %xmm4, %xmm7
vpclmulqdq $17, %xmm5, %xmm4, %xmm4
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $0, %xmm6, %xmm3, %xmm4
vpxor %xmm0, %xmm4, %xmm0
vpclmulqdq $1, %xmm6, %xmm3, %xmm4
vpxor %xmm7, %xmm4, %xmm4
vpxor %xmm2, %xmm4, %xmm2
vpclmulqdq $16, %xmm6, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpclmulqdq $17, %xmm6, %xmm3, %xmm3
vpxor %xmm1, %xmm3, %xmm1
addq $-32, %rax
addq $-32, %r8
addq $32, %rsi
cmpq $15, %rax
ja .LBB1_26
.LBB1_27:
vmovdqa (%rdi), %xmm3
vmovq %rdx, %xmm4
vpclmulqdq $0, %xmm4, %xmm3, %xmm5
vpxor %xmm0, %xmm5, %xmm0
vpclmulqdq $1, %xmm4, %xmm3, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm0, %xmm0
vpsrldq $8, %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpbroadcastq .LCPI1_2(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm0, %xmm3
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm0
vpclmulqdq $16, %xmm2, %xmm0, %xmm2
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
jmp .LBB1_30
.LBB1_9:
movq %r12, %rcx
movq %r13, %rdi
movq %r15, %rax
vmovdqa (%rsp), %xmm3
jmp .LBB1_20
.LBB1_29:
vmovdqa (%rdi), %xmm0
vmovq %rdx, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm0, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI1_2(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
.LBB1_30:
vpxor %xmm0, %xmm2, %xmm0
jmp .LBB1_31
.LBB1_11:
movq %r15, %rax
testq %rdx, %rdx
jne .LBB1_18
.LBB1_19:
vpslldq $8, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpsrldq $8, %xmm3, %xmm3
vpbroadcastq .LCPI1_2(%rip), %xmm4
vpclmulqdq $16, %xmm4, %xmm2, %xmm5
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm5, %xmm2
vpclmulqdq $16, %xmm4, %xmm2, %xmm4
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpxor %xmm1, %xmm2, %xmm1
vpxor %xmm1, %xmm4, %xmm3
.LBB1_20:
vmovdqa (%rdi), %xmm1
vmovdqa 16(%rdi), %xmm2
vpxor %xmm0, %xmm3, %xmm0
vpclmulqdq $0, %xmm0, %xmm2, %xmm3
vpclmulqdq $1, %xmm0, %xmm2, %xmm4
vpclmulqdq $16, %xmm0, %xmm2, %xmm5
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $17, %xmm0, %xmm2, %xmm0
vmovq %rax, %xmm2
vpclmulqdq $0, %xmm2, %xmm1, %xmm5
vpxor %xmm3, %xmm5, %xmm3
vpclmulqdq $1, %xmm2, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpslldq $8, %xmm1, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpsrldq $8, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpbroadcastq .LCPI1_2(%rip), %xmm1
vpclmulqdq $16, %xmm1, %xmm2, %xmm3
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $16, %xmm1, %xmm2, %xmm1
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
.LBB1_31:
vpand .LCPI1_1(%rip), %xmm0, %xmm0
vpxor 128(%rdi), %xmm0, %xmm0
vaesenc 144(%rdi), %xmm0, %xmm0
vaesenc 160(%rdi), %xmm0, %xmm0
vaesenc 176(%rdi), %xmm0, %xmm0
vaesenc 192(%rdi), %xmm0, %xmm0
vaesenc 208(%rdi), %xmm0, %xmm0
vaesenc 224(%rdi), %xmm0, %xmm0
vaesenc 240(%rdi), %xmm0, %xmm0
vaesenc 256(%rdi), %xmm0, %xmm0
vaesenc 272(%rdi), %xmm0, %xmm0
vaesenc 288(%rdi), %xmm0, %xmm0
vaesenc 304(%rdi), %xmm0, %xmm0
vaesenc 320(%rdi), %xmm0, %xmm0
vaesenc 336(%rdi), %xmm0, %xmm0
vaesenclast 352(%rdi), %xmm0, %xmm0
vmovdqu %xmm0, (%rcx)
movl $1, %eax
addq $56, %rsp
.cfi_def_cfa_offset 56
popq %rbx
.cfi_def_cfa_offset 48
popq %r12
.cfi_def_cfa_offset 40
popq %r13
.cfi_def_cfa_offset 32
popq %r14
.cfi_def_cfa_offset 24
popq %r15
.cfi_def_cfa_offset 16
popq %rbp
.cfi_def_cfa_offset 8
.cfi_restore %rbx
.cfi_restore %r12
.cfi_restore %r13
.cfi_restore %r14
.cfi_restore %r15
.cfi_restore %rbp
.LBB1_32:
retq
.Lfunc_end1:
.size haberdashery_sivmac_skylake_sign, .Lfunc_end1-haberdashery_sivmac_skylake_sign
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI2_0:
.zero 8
.quad -4467570830351532032
.LCPI2_1:
.quad -1
.quad 9223372036854775807
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI2_2:
.quad -4467570830351532032
.section .text.haberdashery_sivmac_skylake_verify,"ax",@progbits
.globl haberdashery_sivmac_skylake_verify
.p2align 4, 0x90
.type haberdashery_sivmac_skylake_verify,@function
haberdashery_sivmac_skylake_verify:
.cfi_startproc
movabsq $68719476736, %rax
cmpq %rax, %rdx
seta %r9b
cmpq $16, %r8
setb %r8b
xorl %eax, %eax
orb %r9b, %r8b
jne .LBB2_33
pushq %r15
.cfi_def_cfa_offset 16
pushq %r14
.cfi_def_cfa_offset 24
pushq %r13
.cfi_def_cfa_offset 32
pushq %r12
.cfi_def_cfa_offset 40
pushq %rbx
.cfi_def_cfa_offset 48
subq $48, %rsp
.cfi_def_cfa_offset 96
.cfi_offset %rbx, -48
.cfi_offset %r12, -40
.cfi_offset %r13, -32
.cfi_offset %r14, -24
.cfi_offset %r15, -16
vpxor %xmm2, %xmm2, %xmm2
cmpq $128, %rdx
jb .LBB2_6
vmovdqu 16(%rsi), %xmm7
vmovdqu 32(%rsi), %xmm8
vmovdqu 48(%rsi), %xmm9
vmovdqu 64(%rsi), %xmm6
vmovdqu 80(%rsi), %xmm10
vmovdqu 96(%rsi), %xmm4
vmovdqu 112(%rsi), %xmm5
vmovdqa (%rdi), %xmm0
vmovdqa 16(%rdi), %xmm2
vmovdqa 32(%rdi), %xmm3
vmovdqa 48(%rdi), %xmm15
vpclmulqdq $0, %xmm5, %xmm0, %xmm11
vpclmulqdq $1, %xmm5, %xmm0, %xmm12
vpclmulqdq $16, %xmm5, %xmm0, %xmm13
vpxor %xmm12, %xmm13, %xmm12
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpclmulqdq $0, %xmm4, %xmm2, %xmm13
vpxor %xmm11, %xmm13, %xmm11
vpclmulqdq $1, %xmm4, %xmm2, %xmm13
vpclmulqdq $16, %xmm4, %xmm2, %xmm14
vpxor %xmm14, %xmm13, %xmm13
vpxor %xmm13, %xmm12, %xmm12
vpclmulqdq $17, %xmm4, %xmm2, %xmm4
vpxor %xmm5, %xmm4, %xmm13
vpclmulqdq $0, %xmm10, %xmm3, %xmm4
vpclmulqdq $1, %xmm10, %xmm3, %xmm5
vpclmulqdq $16, %xmm10, %xmm3, %xmm14
vpxor %xmm5, %xmm14, %xmm5
vpclmulqdq $0, %xmm6, %xmm15, %xmm14
vpxor %xmm4, %xmm14, %xmm14
vmovdqa 64(%rdi), %xmm4
vpxor %xmm14, %xmm11, %xmm11
vpclmulqdq $1, %xmm6, %xmm15, %xmm14
vpxor %xmm5, %xmm14, %xmm14
vmovdqa 80(%rdi), %xmm1
vpclmulqdq $17, %xmm10, %xmm3, %xmm10
vpxor %xmm14, %xmm12, %xmm12
vpclmulqdq $16, %xmm6, %xmm15, %xmm14
vpclmulqdq $17, %xmm6, %xmm15, %xmm6
vpxor %xmm6, %xmm10, %xmm6
vpxor %xmm6, %xmm13, %xmm10
vpclmulqdq $0, %xmm9, %xmm4, %xmm6
vpclmulqdq $1, %xmm9, %xmm4, %xmm13
vpxor %xmm13, %xmm14, %xmm13
vpclmulqdq $16, %xmm9, %xmm4, %xmm14
vpxor %xmm14, %xmm13, %xmm13
vpclmulqdq $0, %xmm8, %xmm1, %xmm14
vpxor %xmm6, %xmm14, %xmm14
vpclmulqdq $1, %xmm8, %xmm1, %xmm6
vpxor %xmm6, %xmm13, %xmm13
vmovdqa 96(%rdi), %xmm6
vpclmulqdq $17, %xmm9, %xmm4, %xmm9
vpxor %xmm13, %xmm12, %xmm12
vpclmulqdq $17, %xmm8, %xmm1, %xmm13
vpxor %xmm13, %xmm9, %xmm9
vpclmulqdq $0, %xmm7, %xmm6, %xmm13
vpxor %xmm13, %xmm14, %xmm13
vpclmulqdq $16, %xmm8, %xmm1, %xmm8
vpxor %xmm13, %xmm11, %xmm11
vpclmulqdq $1, %xmm7, %xmm6, %xmm13
vpxor %xmm13, %xmm8, %xmm8
vpclmulqdq $16, %xmm7, %xmm6, %xmm13
vpxor %xmm13, %xmm8, %xmm8
vmovdqu (%rsi), %xmm13
vpclmulqdq $17, %xmm7, %xmm6, %xmm7
vpxor %xmm7, %xmm9, %xmm9
vmovdqa 112(%rdi), %xmm7
vpxor %xmm9, %xmm10, %xmm10
vpclmulqdq $0, %xmm13, %xmm7, %xmm9
vpxor %xmm9, %xmm11, %xmm9
vpclmulqdq $1, %xmm13, %xmm7, %xmm11
vpxor %xmm11, %xmm8, %xmm8
vpclmulqdq $16, %xmm13, %xmm7, %xmm11
vpxor %xmm11, %xmm8, %xmm8
vpxor %xmm8, %xmm12, %xmm11
vpclmulqdq $17, %xmm13, %xmm7, %xmm8
vpxor %xmm8, %xmm10, %xmm10
subq $-128, %rsi
leaq -128(%rdx), %rbx
cmpq $128, %rbx
jb .LBB2_5
vmovdqa %xmm1, (%rsp)
vmovdqa %xmm4, %xmm1
vmovdqa %xmm15, %xmm4
vmovdqa %xmm0, 16(%rsp)
.p2align 4, 0x90
.LBB2_4:
vmovdqu 64(%rsi), %xmm12
vmovdqu 80(%rsi), %xmm13
vmovdqu 96(%rsi), %xmm14
vmovdqu 112(%rsi), %xmm15
vpslldq $8, %xmm11, %xmm8
vpxor %xmm8, %xmm9, %xmm8
vpsrldq $8, %xmm11, %xmm9
vpbroadcastq .LCPI2_2(%rip), %xmm5
vpclmulqdq $16, %xmm5, %xmm8, %xmm11
vpshufd $78, %xmm8, %xmm8
vpxor %xmm8, %xmm11, %xmm8
vpclmulqdq $16, %xmm5, %xmm8, %xmm11
vpshufd $78, %xmm8, %xmm8
vpxor (%rsi), %xmm10, %xmm10
vpxor %xmm9, %xmm10, %xmm9
vpxor %xmm8, %xmm9, %xmm8
vpxor %xmm11, %xmm8, %xmm10
vpclmulqdq $0, %xmm15, %xmm0, %xmm8
vpclmulqdq $1, %xmm15, %xmm0, %xmm9
vpclmulqdq $16, %xmm15, %xmm0, %xmm11
vpxor %xmm9, %xmm11, %xmm9
vpclmulqdq $17, %xmm15, %xmm0, %xmm11
vpclmulqdq $0, %xmm14, %xmm2, %xmm15
vpxor %xmm8, %xmm15, %xmm8
vpclmulqdq $1, %xmm14, %xmm2, %xmm15
vpclmulqdq $16, %xmm14, %xmm2, %xmm0
vpxor %xmm0, %xmm15, %xmm0
vpxor %xmm0, %xmm9, %xmm0
vpclmulqdq $17, %xmm14, %xmm2, %xmm9
vpxor %xmm11, %xmm9, %xmm9
vpclmulqdq $0, %xmm13, %xmm3, %xmm11
vpclmulqdq $1, %xmm13, %xmm3, %xmm14
vpclmulqdq $16, %xmm13, %xmm3, %xmm15
vpxor %xmm15, %xmm14, %xmm14
vpclmulqdq $0, %xmm12, %xmm4, %xmm15
vpxor %xmm15, %xmm11, %xmm11
vmovdqu 32(%rsi), %xmm15
vpxor %xmm11, %xmm8, %xmm8
vpclmulqdq $1, %xmm12, %xmm4, %xmm11
vpxor %xmm11, %xmm14, %xmm11
vmovdqu 48(%rsi), %xmm14
vpclmulqdq $17, %xmm13, %xmm3, %xmm13
vpxor %xmm0, %xmm11, %xmm0
vpclmulqdq $16, %xmm12, %xmm4, %xmm11
vpclmulqdq $17, %xmm12, %xmm4, %xmm12
vpxor %xmm12, %xmm13, %xmm12
vpxor %xmm12, %xmm9, %xmm9
vpclmulqdq $0, %xmm14, %xmm1, %xmm12
vpclmulqdq $1, %xmm14, %xmm1, %xmm13
vpxor %xmm13, %xmm11, %xmm11
vpclmulqdq $16, %xmm14, %xmm1, %xmm13
vpxor %xmm13, %xmm11, %xmm11
vmovdqa (%rsp), %xmm5
vpclmulqdq $0, %xmm15, %xmm5, %xmm13
vpxor %xmm13, %xmm12, %xmm12
vpclmulqdq $1, %xmm15, %xmm5, %xmm13
vpxor %xmm13, %xmm11, %xmm11
vmovdqu 16(%rsi), %xmm13
vpclmulqdq $17, %xmm14, %xmm1, %xmm14
vpxor %xmm0, %xmm11, %xmm0
vpclmulqdq $17, %xmm15, %xmm5, %xmm11
vpxor %xmm11, %xmm14, %xmm11
vpclmulqdq $0, %xmm13, %xmm6, %xmm14
vpxor %xmm14, %xmm12, %xmm12
vpclmulqdq $16, %xmm15, %xmm5, %xmm14
vpxor %xmm12, %xmm8, %xmm8
vpclmulqdq $1, %xmm13, %xmm6, %xmm12
vpxor %xmm12, %xmm14, %xmm12
vpclmulqdq $16, %xmm13, %xmm6, %xmm14
vpxor %xmm14, %xmm12, %xmm12
vpxor %xmm0, %xmm12, %xmm0
vpclmulqdq $17, %xmm13, %xmm6, %xmm12
vpxor %xmm12, %xmm11, %xmm11
vpxor %xmm11, %xmm9, %xmm12
vpclmulqdq $0, %xmm10, %xmm7, %xmm9
vpxor %xmm9, %xmm8, %xmm9
vpclmulqdq $1, %xmm10, %xmm7, %xmm8
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $16, %xmm10, %xmm7, %xmm8
vpxor %xmm0, %xmm8, %xmm11
vpclmulqdq $17, %xmm10, %xmm7, %xmm0
vpxor %xmm0, %xmm12, %xmm10
vmovdqa 16(%rsp), %xmm0
subq $-128, %rsi
addq $-128, %rbx
cmpq $127, %rbx
ja .LBB2_4
.LBB2_5:
vpslldq $8, %xmm11, %xmm0
vpxor %xmm0, %xmm9, %xmm0
vpsrldq $8, %xmm11, %xmm1
vpxor %xmm1, %xmm10, %xmm1
vpbroadcastq .LCPI2_2(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm0, %xmm3
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm0
vpclmulqdq $16, %xmm2, %xmm0, %xmm2
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpxor %xmm2, %xmm0, %xmm2
jmp .LBB2_7
.LBB2_6:
movq %rdx, %rbx
.LBB2_7:
vmovdqu (%rcx), %xmm8
shlq $3, %rdx
movq %rbx, %rax
andq $15, %rax
je .LBB2_17
vmovdqa %xmm2, (%rsp)
vmovdqa %xmm8, 16(%rsp)
movq %rdx, %r15
movq %rdi, %r12
movl %ebx, %r14d
andl $112, %r14d
movq %rsi, %r13
addq %r14, %rsi
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, 32(%rsp)
leaq 32(%rsp), %rdi
movq %rax, %rdx
callq *memcpy@GOTPCREL(%rip)
vmovdqa 32(%rsp), %xmm0
testq %r14, %r14
je .LBB2_25
leaq -16(%r14), %rdx
movq %rdx, %rax
shrq $4, %rax
leaq 2(%rax), %rcx
cmpq $96, %rdx
cmovaeq %rax, %rcx
movq %rcx, %rax
shlq $4, %rax
movq %r12, %rdi
vmovdqa (%r12,%rax), %xmm1
vmovdqa (%rsp), %xmm2
vpxor (%r13), %xmm2, %xmm4
vpclmulqdq $0, %xmm4, %xmm1, %xmm2
vpclmulqdq $1, %xmm4, %xmm1, %xmm3
vpclmulqdq $16, %xmm4, %xmm1, %xmm5
vpxor %xmm3, %xmm5, %xmm3
vpclmulqdq $17, %xmm4, %xmm1, %xmm1
testq %rdx, %rdx
je .LBB2_28
movq %r13, %rsi
testb $16, %bl
movq %r15, %rax
jne .LBB2_12
leaq -32(%r14), %rdx
vmovdqu 16(%rsi), %xmm4
addq $16, %rsi
decq %rcx
movq %rcx, %r8
shlq $4, %r8
vmovdqa (%rdi,%r8), %xmm5
vpclmulqdq $0, %xmm4, %xmm5, %xmm6
vpclmulqdq $1, %xmm4, %xmm5, %xmm7
vpclmulqdq $16, %xmm4, %xmm5, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $17, %xmm4, %xmm5, %xmm4
vpxor %xmm2, %xmm6, %xmm2
vpxor %xmm3, %xmm7, %xmm3
vpxor %xmm1, %xmm4, %xmm1
.LBB2_12:
cmpl $32, %r14d
je .LBB2_15
movq %rcx, %r8
shlq $4, %r8
addq %rdi, %r8
addq $-16, %r8
xorl %r9d, %r9d
.p2align 4, 0x90
.LBB2_14:
vmovdqa -16(%r8), %xmm4
vmovdqa (%r8), %xmm5
vmovdqu 16(%rsi,%r9), %xmm6
vmovdqu 32(%rsi,%r9), %xmm7
vpclmulqdq $0, %xmm6, %xmm5, %xmm8
vpxor %xmm2, %xmm8, %xmm2
vpclmulqdq $1, %xmm6, %xmm5, %xmm8
vpxor %xmm3, %xmm8, %xmm3
vpclmulqdq $16, %xmm6, %xmm5, %xmm8
vpclmulqdq $17, %xmm6, %xmm5, %xmm5
vpxor %xmm1, %xmm5, %xmm1
addq $-2, %rcx
vpclmulqdq $0, %xmm7, %xmm4, %xmm5
vpxor %xmm2, %xmm5, %xmm2
vpclmulqdq $1, %xmm7, %xmm4, %xmm5
vpxor %xmm5, %xmm8, %xmm5
vpxor %xmm3, %xmm5, %xmm3
vpclmulqdq $16, %xmm7, %xmm4, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpclmulqdq $17, %xmm7, %xmm4, %xmm4
vpxor %xmm1, %xmm4, %xmm1
addq $-32, %r8
addq $32, %r9
cmpq %r9, %rdx
jne .LBB2_14
.LBB2_15:
testq %rcx, %rcx
je .LBB2_29
.LBB2_16:
vmovdqa (%rdi), %xmm4
vmovdqa 16(%rdi), %xmm5
vpclmulqdq $0, %xmm0, %xmm5, %xmm6
vpclmulqdq $1, %xmm0, %xmm5, %xmm7
vpclmulqdq $16, %xmm0, %xmm5, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $17, %xmm0, %xmm5, %xmm0
vmovq %rax, %xmm5
vpclmulqdq $0, %xmm5, %xmm4, %xmm8
vpxor %xmm6, %xmm8, %xmm6
vpclmulqdq $1, %xmm5, %xmm4, %xmm4
vpxor %xmm4, %xmm7, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpslldq $8, %xmm3, %xmm4
vpxor %xmm2, %xmm6, %xmm2
vpxor %xmm4, %xmm2, %xmm2
vpsrldq $8, %xmm3, %xmm3
vpxor %xmm3, %xmm0, %xmm0
vpbroadcastq .LCPI2_2(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm2, %xmm4
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm4, %xmm2
vpclmulqdq $16, %xmm3, %xmm2, %xmm3
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm3, %xmm0, %xmm0
jmp .LBB2_31
.LBB2_17:
cmpq $15, %rbx
jbe .LBB2_26
vmovdqa (%rdi,%rbx), %xmm1
vpxor (%rsi), %xmm2, %xmm3
vpclmulqdq $0, %xmm3, %xmm1, %xmm0
vpclmulqdq $1, %xmm3, %xmm1, %xmm2
vpclmulqdq $16, %xmm3, %xmm1, %xmm4
vpxor %xmm2, %xmm4, %xmm2
vpclmulqdq $17, %xmm3, %xmm1, %xmm1
leaq -16(%rbx), %rax
cmpq $16, %rax
jb .LBB2_24
movq %rbx, %rcx
shrq $4, %rcx
testb $16, %bl
jne .LBB2_21
vmovdqu 16(%rsi), %xmm3
addq $16, %rsi
decq %rcx
movq %rcx, %rax
shlq $4, %rax
vmovdqa (%rdi,%rax), %xmm4
vpclmulqdq $0, %xmm3, %xmm4, %xmm5
vpclmulqdq $1, %xmm3, %xmm4, %xmm6
vpclmulqdq $16, %xmm3, %xmm4, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpclmulqdq $17, %xmm3, %xmm4, %xmm3
vpxor %xmm0, %xmm5, %xmm0
vpxor %xmm2, %xmm6, %xmm2
vpxor %xmm1, %xmm3, %xmm1
leaq -32(%rbx), %rax
.LBB2_21:
cmpq $32, %rbx
je .LBB2_24
shlq $4, %rcx
addq %rdi, %rcx
addq $-16, %rcx
addq $32, %rsi
.p2align 4, 0x90
.LBB2_23:
vmovdqa -16(%rcx), %xmm3
vmovdqa (%rcx), %xmm4
vmovdqu -16(%rsi), %xmm5
vmovdqu (%rsi), %xmm6
vpclmulqdq $0, %xmm5, %xmm4, %xmm7
vpxor %xmm0, %xmm7, %xmm0
vpclmulqdq $1, %xmm5, %xmm4, %xmm7
vpxor %xmm2, %xmm7, %xmm2
vpclmulqdq $16, %xmm5, %xmm4, %xmm7
vpclmulqdq $17, %xmm5, %xmm4, %xmm4
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $0, %xmm6, %xmm3, %xmm4
vpxor %xmm0, %xmm4, %xmm0
vpclmulqdq $1, %xmm6, %xmm3, %xmm4
vpxor %xmm7, %xmm4, %xmm4
vpxor %xmm2, %xmm4, %xmm2
vpclmulqdq $16, %xmm6, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpclmulqdq $17, %xmm6, %xmm3, %xmm3
vpxor %xmm1, %xmm3, %xmm1
addq $-32, %rax
addq $-32, %rcx
addq $32, %rsi
cmpq $15, %rax
ja .LBB2_23
.LBB2_24:
vmovdqa (%rdi), %xmm3
vmovq %rdx, %xmm4
vpclmulqdq $0, %xmm4, %xmm3, %xmm5
vpxor %xmm0, %xmm5, %xmm0
vpclmulqdq $1, %xmm4, %xmm3, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm0, %xmm0
vpsrldq $8, %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpbroadcastq .LCPI2_2(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm0, %xmm3
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm0
vpclmulqdq $16, %xmm2, %xmm0, %xmm2
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
jmp .LBB2_27
.LBB2_25:
movq %r12, %rdi
movq %r15, %rax
vmovdqa (%rsp), %xmm3
jmp .LBB2_30
.LBB2_26:
vmovdqa (%rdi), %xmm0
vmovq %rdx, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm0, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI2_2(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
.LBB2_27:
vpxor %xmm0, %xmm2, %xmm0
jmp .LBB2_32
.LBB2_28:
movq %r15, %rax
testq %rcx, %rcx
jne .LBB2_16
.LBB2_29:
vpslldq $8, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpsrldq $8, %xmm3, %xmm3
vpbroadcastq .LCPI2_2(%rip), %xmm4
vpclmulqdq $16, %xmm4, %xmm2, %xmm5
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm5, %xmm2
vpclmulqdq $16, %xmm4, %xmm2, %xmm4
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpxor %xmm1, %xmm2, %xmm1
vpxor %xmm1, %xmm4, %xmm3
.LBB2_30:
vmovdqa (%rdi), %xmm1
vmovdqa 16(%rdi), %xmm2
vpxor %xmm0, %xmm3, %xmm0
vpclmulqdq $0, %xmm0, %xmm2, %xmm3
vpclmulqdq $1, %xmm0, %xmm2, %xmm4
vpclmulqdq $16, %xmm0, %xmm2, %xmm5
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $17, %xmm0, %xmm2, %xmm0
vmovq %rax, %xmm2
vpclmulqdq $0, %xmm2, %xmm1, %xmm5
vpxor %xmm3, %xmm5, %xmm3
vpclmulqdq $1, %xmm2, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpslldq $8, %xmm1, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpsrldq $8, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpbroadcastq .LCPI2_2(%rip), %xmm1
vpclmulqdq $16, %xmm1, %xmm2, %xmm3
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $16, %xmm1, %xmm2, %xmm1
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
.LBB2_31:
vmovdqa 16(%rsp), %xmm8
.LBB2_32:
vpand .LCPI2_1(%rip), %xmm0, %xmm0
vpxor 128(%rdi), %xmm0, %xmm0
vaesenc 144(%rdi), %xmm0, %xmm0
vaesenc 160(%rdi), %xmm0, %xmm0
vaesenc 176(%rdi), %xmm0, %xmm0
vaesenc 192(%rdi), %xmm0, %xmm0
vaesenc 208(%rdi), %xmm0, %xmm0
vaesenc 224(%rdi), %xmm0, %xmm0
vaesenc 240(%rdi), %xmm0, %xmm0
vaesenc 256(%rdi), %xmm0, %xmm0
vaesenc 272(%rdi), %xmm0, %xmm0
vaesenc 288(%rdi), %xmm0, %xmm0
vaesenc 304(%rdi), %xmm0, %xmm0
vaesenc 320(%rdi), %xmm0, %xmm0
vaesenc 336(%rdi), %xmm0, %xmm0
vaesenclast 352(%rdi), %xmm0, %xmm0
vpxor %xmm0, %xmm8, %xmm0
xorl %eax, %eax
vptest %xmm0, %xmm0
sete %al
addq $48, %rsp
.cfi_def_cfa_offset 48
popq %rbx
.cfi_def_cfa_offset 40
popq %r12
.cfi_def_cfa_offset 32
popq %r13
.cfi_def_cfa_offset 24
popq %r14
.cfi_def_cfa_offset 16
popq %r15
.cfi_def_cfa_offset 8
.cfi_restore %rbx
.cfi_restore %r12
.cfi_restore %r13
.cfi_restore %r14
.cfi_restore %r15
.LBB2_33:
retq
.Lfunc_end2:
.size haberdashery_sivmac_skylake_verify, .Lfunc_end2-haberdashery_sivmac_skylake_verify
.cfi_endproc
.section .text.haberdashery_sivmac_skylake_is_supported,"ax",@progbits
.globl haberdashery_sivmac_skylake_is_supported
.p2align 4, 0x90
.type haberdashery_sivmac_skylake_is_supported,@function
haberdashery_sivmac_skylake_is_supported:
.cfi_startproc
movl $1, %eax
xorl %ecx, %ecx
#APP
movq %rbx, %rsi
cpuid
xchgq %rbx, %rsi
#NO_APP
movl %ecx, %esi
movl %edx, %edi
notl %edi
notl %esi
movl $7, %eax
xorl %ecx, %ecx
#APP
movq %rbx, %r8
cpuid
xchgq %rbx, %r8
#NO_APP
andl $1993871875, %esi
andl $125829120, %edi
orl %esi, %edi
notl %r8d
andl $9175337, %r8d
xorl %eax, %eax
orl %edi, %r8d
sete %al
retq
.Lfunc_end3:
.size haberdashery_sivmac_skylake_is_supported, .Lfunc_end3-haberdashery_sivmac_skylake_is_supported
.cfi_endproc
.ident "rustc version 1.86.0-nightly (9cd60bd2c 2025-02-15)"
.section ".note.GNU-stack","",@progbits
|
ts-phantomnk90/haberdashery
| 52,840
|
asm/aes192gcm_tigerlake.s
|
# @generated
# https://github.com/facebookincubator/haberdashery/
.text
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI0_0:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI0_1:
.quad -4467570830351532032
.section .text.haberdashery_aes192gcm_tigerlake_init,"ax",@progbits
.globl haberdashery_aes192gcm_tigerlake_init
.p2align 4, 0x90
.type haberdashery_aes192gcm_tigerlake_init,@function
haberdashery_aes192gcm_tigerlake_init:
.cfi_startproc
cmpq $24, %rdx
jne .LBB0_2
vmovupd (%rsi), %xmm0
vmovq 16(%rsi), %xmm1
vpslldq $4, %xmm0, %xmm2
vpslldq $8, %xmm0, %xmm3
vaeskeygenassist $1, %xmm1, %xmm4
vpslldq $12, %xmm0, %xmm5
vpternlogq $150, %xmm3, %xmm2, %xmm5
vpshufd $85, %xmm4, %xmm4
vpternlogq $150, %xmm5, %xmm0, %xmm4
vpshufd $255, %xmm4, %xmm2
vpslldq $4, %xmm1, %xmm5
vpternlogq $150, %xmm2, %xmm1, %xmm5
vpunpcklqdq %xmm4, %xmm1, %xmm17
vpalignr $8, %xmm4, %xmm5, %xmm2
vpslldq $4, %xmm4, %xmm3
vpslldq $8, %xmm4, %xmm6
vpslldq $12, %xmm4, %xmm7
vpternlogq $150, %xmm6, %xmm3, %xmm7
vaeskeygenassist $2, %xmm5, %xmm3
vpshufd $85, %xmm3, %xmm3
vpternlogq $150, %xmm7, %xmm4, %xmm3
vpshufd $255, %xmm3, %xmm4
vpslldq $4, %xmm5, %xmm6
vpternlogq $150, %xmm4, %xmm5, %xmm6
vpslldq $4, %xmm3, %xmm4
vpslldq $8, %xmm3, %xmm5
vaeskeygenassist $4, %xmm6, %xmm7
vpslldq $12, %xmm3, %xmm8
vpternlogq $150, %xmm5, %xmm4, %xmm8
vpshufd $85, %xmm7, %xmm7
vpternlogq $150, %xmm8, %xmm3, %xmm7
vpshufd $255, %xmm7, %xmm4
vpslldq $4, %xmm6, %xmm8
vpternlogq $150, %xmm4, %xmm6, %xmm8
vpunpcklqdq %xmm7, %xmm6, %xmm4
vpalignr $8, %xmm7, %xmm8, %xmm5
vpslldq $4, %xmm7, %xmm6
vpslldq $8, %xmm7, %xmm9
vpslldq $12, %xmm7, %xmm10
vpternlogq $150, %xmm9, %xmm6, %xmm10
vaeskeygenassist $8, %xmm8, %xmm6
vpshufd $85, %xmm6, %xmm6
vpternlogq $150, %xmm10, %xmm7, %xmm6
vpshufd $255, %xmm6, %xmm7
vpslldq $4, %xmm8, %xmm9
vpternlogq $150, %xmm7, %xmm8, %xmm9
vpslldq $4, %xmm6, %xmm7
vpslldq $8, %xmm6, %xmm8
vaeskeygenassist $16, %xmm9, %xmm10
vpslldq $12, %xmm6, %xmm11
vpternlogq $150, %xmm8, %xmm7, %xmm11
vpshufd $85, %xmm10, %xmm10
vpternlogq $150, %xmm11, %xmm6, %xmm10
vpshufd $255, %xmm10, %xmm7
vpslldq $4, %xmm9, %xmm11
vpternlogq $150, %xmm7, %xmm9, %xmm11
vpunpcklqdq %xmm10, %xmm9, %xmm7
vpalignr $8, %xmm10, %xmm11, %xmm8
vpslldq $4, %xmm10, %xmm9
vpslldq $8, %xmm10, %xmm12
vpslldq $12, %xmm10, %xmm13
vpternlogq $150, %xmm12, %xmm9, %xmm13
vaeskeygenassist $32, %xmm11, %xmm9
vpshufd $85, %xmm9, %xmm9
vpternlogq $150, %xmm13, %xmm10, %xmm9
vpshufd $255, %xmm9, %xmm10
vpslldq $4, %xmm11, %xmm12
vpternlogq $150, %xmm10, %xmm11, %xmm12
vpslldq $4, %xmm9, %xmm10
vpslldq $8, %xmm9, %xmm11
vaeskeygenassist $64, %xmm12, %xmm13
vpslldq $12, %xmm9, %xmm14
vpternlogq $150, %xmm11, %xmm10, %xmm14
vpshufd $85, %xmm13, %xmm13
vpternlogq $150, %xmm14, %xmm9, %xmm13
vpshufd $255, %xmm13, %xmm10
vpslldq $4, %xmm12, %xmm14
vpternlogq $150, %xmm10, %xmm12, %xmm14
vpunpcklqdq %xmm13, %xmm12, %xmm10
vpalignr $8, %xmm13, %xmm14, %xmm11
vpslldq $4, %xmm13, %xmm12
vpslldq $8, %xmm13, %xmm15
vpslldq $12, %xmm13, %xmm16
vpternlogq $150, %xmm15, %xmm12, %xmm16
vaeskeygenassist $128, %xmm14, %xmm12
vpshufd $85, %xmm12, %xmm12
vpternlogq $150, %xmm16, %xmm13, %xmm12
vaesenc %xmm17, %xmm0, %xmm13
vaesenc %xmm2, %xmm13, %xmm13
vaesenc %xmm3, %xmm13, %xmm13
vaesenc %xmm4, %xmm13, %xmm13
vaesenc %xmm5, %xmm13, %xmm13
vaesenc %xmm6, %xmm13, %xmm13
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm8, %xmm13, %xmm13
vaesenc %xmm9, %xmm13, %xmm13
vaesenc %xmm10, %xmm13, %xmm13
vaesenc %xmm11, %xmm13, %xmm13
vaesenclast %xmm12, %xmm13, %xmm13
vpshufb .LCPI0_0(%rip), %xmm13, %xmm13
vpsrlq $63, %xmm13, %xmm14
vpaddq %xmm13, %xmm13, %xmm13
vpshufd $78, %xmm14, %xmm15
vpxor %xmm1, %xmm1, %xmm1
vpblendd $12, %xmm14, %xmm1, %xmm1
vpsllq $63, %xmm1, %xmm14
vpternlogq $30, %xmm15, %xmm13, %xmm14
vpsllq $62, %xmm1, %xmm15
vpsllq $57, %xmm1, %xmm13
vpternlogq $150, %xmm15, %xmm14, %xmm13
vpclmulqdq $0, %xmm13, %xmm13, %xmm1
vpbroadcastq .LCPI0_1(%rip), %xmm15
vpclmulqdq $16, %xmm15, %xmm1, %xmm14
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm14, %xmm1
vpclmulqdq $16, %xmm15, %xmm1, %xmm16
vpclmulqdq $17, %xmm13, %xmm13, %xmm18
vpshufd $78, %xmm1, %xmm14
vpternlogq $150, %xmm16, %xmm18, %xmm14
vpclmulqdq $0, %xmm13, %xmm14, %xmm1
vpclmulqdq $16, %xmm13, %xmm14, %xmm16
vpclmulqdq $1, %xmm13, %xmm14, %xmm18
vpxorq %xmm16, %xmm18, %xmm16
vpslldq $8, %xmm16, %xmm18
vpxorq %xmm18, %xmm1, %xmm1
vpclmulqdq $16, %xmm15, %xmm1, %xmm18
vpshufd $78, %xmm1, %xmm1
vpxorq %xmm1, %xmm18, %xmm1
vpclmulqdq $16, %xmm15, %xmm1, %xmm18
vpclmulqdq $17, %xmm13, %xmm14, %xmm19
vpxorq %xmm18, %xmm19, %xmm18
vpsrldq $8, %xmm16, %xmm16
vpshufd $78, %xmm1, %xmm1
vpternlogq $150, %xmm16, %xmm18, %xmm1
vpclmulqdq $0, %xmm1, %xmm1, %xmm16
vpclmulqdq $16, %xmm15, %xmm16, %xmm18
vpshufd $78, %xmm16, %xmm16
vpxorq %xmm16, %xmm18, %xmm16
vpclmulqdq $16, %xmm15, %xmm16, %xmm18
vpclmulqdq $17, %xmm1, %xmm1, %xmm19
vpshufd $78, %xmm16, %xmm16
vpternlogq $150, %xmm18, %xmm19, %xmm16
vpclmulqdq $0, %xmm14, %xmm14, %xmm18
vpclmulqdq $16, %xmm15, %xmm18, %xmm19
vpshufd $78, %xmm18, %xmm18
vpxorq %xmm18, %xmm19, %xmm18
vpclmulqdq $16, %xmm15, %xmm18, %xmm19
vpclmulqdq $17, %xmm14, %xmm14, %xmm20
vpshufd $78, %xmm18, %xmm18
vpternlogq $150, %xmm19, %xmm20, %xmm18
vpclmulqdq $0, %xmm13, %xmm18, %xmm19
vpclmulqdq $16, %xmm13, %xmm18, %xmm20
vpclmulqdq $1, %xmm13, %xmm18, %xmm21
vpxorq %xmm20, %xmm21, %xmm20
vpslldq $8, %xmm20, %xmm21
vpxorq %xmm21, %xmm19, %xmm19
vpclmulqdq $16, %xmm15, %xmm19, %xmm21
vpshufd $78, %xmm19, %xmm19
vpxorq %xmm19, %xmm21, %xmm19
vpclmulqdq $16, %xmm15, %xmm19, %xmm15
vpclmulqdq $17, %xmm13, %xmm18, %xmm21
vpxorq %xmm15, %xmm21, %xmm15
vpsrldq $8, %xmm20, %xmm20
vpshufd $78, %xmm19, %xmm19
vpternlogq $150, %xmm20, %xmm15, %xmm19
vmovdqa %xmm0, (%rdi)
vmovdqa64 %xmm17, 16(%rdi)
vmovdqa %xmm2, 32(%rdi)
vmovdqa %xmm3, 48(%rdi)
vmovdqa %xmm4, 64(%rdi)
vmovdqa %xmm5, 80(%rdi)
vmovdqa %xmm6, 96(%rdi)
vmovdqa %xmm7, 112(%rdi)
vmovdqa %xmm8, 128(%rdi)
vmovdqa %xmm9, 144(%rdi)
vmovdqa %xmm10, 160(%rdi)
vmovdqa %xmm11, 176(%rdi)
vmovdqa %xmm12, 192(%rdi)
vmovdqa %xmm13, 208(%rdi)
vmovdqa %xmm14, 224(%rdi)
vmovdqa %xmm1, 240(%rdi)
vmovdqa64 %xmm18, 256(%rdi)
vmovdqa64 %xmm19, 272(%rdi)
vmovdqa64 %xmm16, 288(%rdi)
.LBB0_2:
xorl %eax, %eax
cmpq $24, %rdx
sete %al
retq
.Lfunc_end0:
.size haberdashery_aes192gcm_tigerlake_init, .Lfunc_end0-haberdashery_aes192gcm_tigerlake_init
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI1_0:
.byte 15
.byte 128
.byte 128
.byte 128
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI1_1:
.long 1
.long 0
.long 0
.long 0
.LCPI1_2:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI1_4:
.long 2
.long 0
.long 0
.long 0
.LCPI1_5:
.long 3
.long 0
.long 0
.long 0
.LCPI1_6:
.long 4
.long 0
.long 0
.long 0
.LCPI1_7:
.long 5
.long 0
.long 0
.long 0
.LCPI1_8:
.long 6
.long 0
.long 0
.long 0
.LCPI1_9:
.long 7
.long 0
.long 0
.long 0
.LCPI1_10:
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.LCPI1_11:
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI1_3:
.quad -4467570830351532032
.section .rodata,"a",@progbits
.LCPI1_12:
.byte 1
.byte 0
.section .text.haberdashery_aes192gcm_tigerlake_encrypt,"ax",@progbits
.globl haberdashery_aes192gcm_tigerlake_encrypt
.p2align 4, 0x90
.type haberdashery_aes192gcm_tigerlake_encrypt,@function
haberdashery_aes192gcm_tigerlake_encrypt:
.cfi_startproc
pushq %rbx
.cfi_def_cfa_offset 16
subq $64, %rsp
.cfi_def_cfa_offset 80
.cfi_offset %rbx, -16
movq 80(%rsp), %r10
xorl %eax, %eax
cmpq 96(%rsp), %r10
jne .LBB1_22
cmpq $16, 112(%rsp)
setne %r11b
movabsq $2305843009213693950, %rbx
cmpq %rbx, %r8
seta %bl
orb %r11b, %bl
jne .LBB1_22
movq %r10, %r11
shrq $5, %r11
cmpq $2147483647, %r11
setae %r11b
cmpq $12, %rdx
setne %dl
orb %r11b, %dl
jne .LBB1_22
vmovd (%rsi), %xmm0
vpinsrd $1, 4(%rsi), %xmm0, %xmm0
vpinsrd $2, 8(%rsi), %xmm0, %xmm0
movl $16777216, %edx
vpinsrd $3, %edx, %xmm0, %xmm23
vpxor %xmm1, %xmm1, %xmm1
testq %r8, %r8
je .LBB1_18
cmpq $96, %r8
jb .LBB1_5
vmovdqa 208(%rdi), %xmm0
vmovdqa 224(%rdi), %xmm2
vmovdqa 240(%rdi), %xmm3
vmovdqa 256(%rdi), %xmm4
vmovdqa 272(%rdi), %xmm5
vmovdqa 288(%rdi), %xmm6
vmovdqa .LCPI1_2(%rip), %xmm7
vpbroadcastq .LCPI1_3(%rip), %xmm8
movq %r8, %rdx
.p2align 4, 0x90
.LBB1_17:
vmovdqu (%rcx), %xmm9
vmovdqu 16(%rcx), %xmm10
vmovdqu 32(%rcx), %xmm11
vmovdqu 48(%rcx), %xmm12
vmovdqu 64(%rcx), %xmm13
vmovdqu 80(%rcx), %xmm14
addq $96, %rcx
addq $-96, %rdx
vpshufb %xmm7, %xmm9, %xmm9
vpxor %xmm1, %xmm9, %xmm1
vpshufb %xmm7, %xmm10, %xmm9
vpshufb %xmm7, %xmm11, %xmm10
vpshufb %xmm7, %xmm12, %xmm11
vpshufb %xmm7, %xmm13, %xmm12
vpshufb %xmm7, %xmm14, %xmm13
vpclmulqdq $0, %xmm13, %xmm0, %xmm14
vpclmulqdq $1, %xmm13, %xmm0, %xmm15
vpclmulqdq $16, %xmm13, %xmm0, %xmm17
vpxorq %xmm15, %xmm17, %xmm15
vpclmulqdq $17, %xmm13, %xmm0, %xmm13
vpclmulqdq $0, %xmm12, %xmm2, %xmm17
vpclmulqdq $1, %xmm12, %xmm2, %xmm18
vpclmulqdq $16, %xmm12, %xmm2, %xmm19
vpternlogq $150, %xmm18, %xmm15, %xmm19
vpclmulqdq $17, %xmm12, %xmm2, %xmm12
vpclmulqdq $0, %xmm11, %xmm3, %xmm15
vpternlogq $150, %xmm14, %xmm17, %xmm15
vpclmulqdq $1, %xmm11, %xmm3, %xmm14
vpclmulqdq $16, %xmm11, %xmm3, %xmm17
vpternlogq $150, %xmm14, %xmm19, %xmm17
vpclmulqdq $17, %xmm11, %xmm3, %xmm11
vpternlogq $150, %xmm13, %xmm12, %xmm11
vpclmulqdq $0, %xmm10, %xmm4, %xmm12
vpclmulqdq $1, %xmm10, %xmm4, %xmm13
vpclmulqdq $16, %xmm10, %xmm4, %xmm14
vpternlogq $150, %xmm13, %xmm17, %xmm14
vpclmulqdq $17, %xmm10, %xmm4, %xmm10
vpclmulqdq $0, %xmm9, %xmm5, %xmm13
vpternlogq $150, %xmm12, %xmm15, %xmm13
vpclmulqdq $1, %xmm9, %xmm5, %xmm12
vpclmulqdq $16, %xmm9, %xmm5, %xmm15
vpternlogq $150, %xmm12, %xmm14, %xmm15
vpclmulqdq $17, %xmm9, %xmm5, %xmm9
vpternlogq $150, %xmm10, %xmm11, %xmm9
vpclmulqdq $0, %xmm1, %xmm6, %xmm10
vpclmulqdq $1, %xmm1, %xmm6, %xmm11
vpclmulqdq $16, %xmm1, %xmm6, %xmm12
vpternlogq $150, %xmm11, %xmm15, %xmm12
vpclmulqdq $17, %xmm1, %xmm6, %xmm1
vpslldq $8, %xmm12, %xmm11
vpternlogq $150, %xmm10, %xmm13, %xmm11
vpsrldq $8, %xmm12, %xmm10
vpclmulqdq $16, %xmm8, %xmm11, %xmm12
vpshufd $78, %xmm11, %xmm11
vpxor %xmm11, %xmm12, %xmm11
vpclmulqdq $16, %xmm8, %xmm11, %xmm12
vpternlogq $150, %xmm1, %xmm9, %xmm12
vpshufd $78, %xmm11, %xmm1
vpternlogq $150, %xmm10, %xmm12, %xmm1
cmpq $95, %rdx
ja .LBB1_17
cmpq $16, %rdx
jae .LBB1_11
jmp .LBB1_7
.LBB1_18:
testq %r10, %r10
jne .LBB1_25
jmp .LBB1_19
.LBB1_5:
movq %r8, %rdx
cmpq $16, %rdx
jb .LBB1_7
.LBB1_11:
vmovdqa 208(%rdi), %xmm0
leaq -16(%rdx), %rsi
testb $16, %sil
je .LBB1_12
cmpq $16, %rsi
jae .LBB1_14
.LBB1_8:
testq %rsi, %rsi
je .LBB1_20
.LBB1_9:
movl $-1, %edx
bzhil %esi, %edx, %edx
kmovd %edx, %k1
vmovdqu8 (%rcx), %xmm0 {%k1} {z}
testq %r10, %r10
je .LBB1_10
movabsq $-68719476704, %rcx
leaq (%r10,%rcx), %rdx
incq %rcx
cmpq %rcx, %rdx
jb .LBB1_22
vmovdqa 208(%rdi), %xmm2
vpshufb .LCPI1_2(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpclmulqdq $0, %xmm0, %xmm2, %xmm1
vpclmulqdq $1, %xmm0, %xmm2, %xmm3
vpclmulqdq $16, %xmm0, %xmm2, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm2, %xmm0
vpslldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpbroadcastq .LCPI1_3(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm1, %xmm4
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm3
vpxor %xmm0, %xmm3, %xmm0
vpshufd $78, %xmm1, %xmm1
vpternlogq $150, %xmm2, %xmm0, %xmm1
jmp .LBB1_25
.LBB1_12:
vmovdqu (%rcx), %xmm2
addq $16, %rcx
vpshufb .LCPI1_2(%rip), %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
vpslldq $8, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpsrldq $8, %xmm3, %xmm3
vpbroadcastq .LCPI1_3(%rip), %xmm4
vpclmulqdq $16, %xmm4, %xmm2, %xmm5
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm5, %xmm2
vpclmulqdq $16, %xmm4, %xmm2, %xmm4
vpxor %xmm1, %xmm4, %xmm4
vpshufd $78, %xmm2, %xmm1
vpternlogq $150, %xmm3, %xmm4, %xmm1
movq %rsi, %rdx
cmpq $16, %rsi
jb .LBB1_8
.LBB1_14:
vmovdqa .LCPI1_2(%rip), %xmm2
vpbroadcastq .LCPI1_3(%rip), %xmm3
.p2align 4, 0x90
.LBB1_15:
vmovdqu (%rcx), %xmm4
vmovdqu 16(%rcx), %xmm5
vpshufb %xmm2, %xmm4, %xmm4
vpxor %xmm4, %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm4
vpclmulqdq $1, %xmm1, %xmm0, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm7
vpxor %xmm6, %xmm7, %xmm6
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
vpslldq $8, %xmm6, %xmm7
vpxor %xmm7, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm4, %xmm7
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm7, %xmm4
vpclmulqdq $16, %xmm3, %xmm4, %xmm7
vpternlogq $150, %xmm1, %xmm6, %xmm7
vpshufd $78, %xmm4, %xmm1
addq $32, %rcx
addq $-32, %rdx
vpshufb %xmm2, %xmm5, %xmm4
vpternlogq $150, %xmm1, %xmm7, %xmm4
vpclmulqdq $0, %xmm4, %xmm0, %xmm1
vpclmulqdq $1, %xmm4, %xmm0, %xmm5
vpclmulqdq $16, %xmm4, %xmm0, %xmm6
vpxor %xmm5, %xmm6, %xmm5
vpclmulqdq $17, %xmm4, %xmm0, %xmm4
vpslldq $8, %xmm5, %xmm6
vpxor %xmm6, %xmm1, %xmm1
vpsrldq $8, %xmm5, %xmm5
vpclmulqdq $16, %xmm3, %xmm1, %xmm6
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm6, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm6
vpxor %xmm4, %xmm6, %xmm4
vpshufd $78, %xmm1, %xmm1
vpternlogq $150, %xmm5, %xmm4, %xmm1
cmpq $15, %rdx
ja .LBB1_15
.LBB1_7:
movq %rdx, %rsi
testq %rsi, %rsi
jne .LBB1_9
.LBB1_20:
testq %r10, %r10
je .LBB1_19
movabsq $-68719476704, %rcx
leaq (%r10,%rcx), %rdx
incq %rcx
cmpq %rcx, %rdx
jb .LBB1_22
.LBB1_25:
movq 88(%rsp), %rdx
vpshufb .LCPI1_0(%rip), %xmm23, %xmm5
vpaddd .LCPI1_1(%rip), %xmm5, %xmm2
cmpq $96, %r10
jb .LBB1_26
vmovdqa64 .LCPI1_2(%rip), %xmm22
vpshufb %xmm22, %xmm2, %xmm0
vpaddd .LCPI1_4(%rip), %xmm5, %xmm2
vpshufb %xmm22, %xmm2, %xmm2
vpaddd .LCPI1_5(%rip), %xmm5, %xmm4
vpshufb %xmm22, %xmm4, %xmm6
vpaddd .LCPI1_6(%rip), %xmm5, %xmm4
vpshufb %xmm22, %xmm4, %xmm7
vpaddd .LCPI1_7(%rip), %xmm5, %xmm4
vpshufb %xmm22, %xmm4, %xmm8
vpaddd .LCPI1_8(%rip), %xmm5, %xmm4
vpshufb %xmm22, %xmm4, %xmm9
vmovdqa (%rdi), %xmm4
vmovdqa 16(%rdi), %xmm11
vmovdqa 32(%rdi), %xmm3
vmovdqa 48(%rdi), %xmm10
vpxor %xmm0, %xmm4, %xmm0
vpxor %xmm2, %xmm4, %xmm2
vpxor %xmm6, %xmm4, %xmm6
vpxor %xmm7, %xmm4, %xmm7
vpxor %xmm4, %xmm8, %xmm8
vpxor %xmm4, %xmm9, %xmm9
vmovdqa64 %xmm11, %xmm18
#APP
vaesenc %xmm11, %xmm0, %xmm0
vaesenc %xmm11, %xmm2, %xmm2
vaesenc %xmm11, %xmm6, %xmm6
vaesenc %xmm11, %xmm7, %xmm7
vaesenc %xmm11, %xmm8, %xmm8
vaesenc %xmm11, %xmm9, %xmm9
#NO_APP
#APP
vaesenc %xmm3, %xmm0, %xmm0
vaesenc %xmm3, %xmm2, %xmm2
vaesenc %xmm3, %xmm6, %xmm6
vaesenc %xmm3, %xmm7, %xmm7
vaesenc %xmm3, %xmm8, %xmm8
vaesenc %xmm3, %xmm9, %xmm9
#NO_APP
vmovdqa64 %xmm10, %xmm16
#APP
vaesenc %xmm10, %xmm0, %xmm0
vaesenc %xmm10, %xmm2, %xmm2
vaesenc %xmm10, %xmm6, %xmm6
vaesenc %xmm10, %xmm7, %xmm7
vaesenc %xmm10, %xmm8, %xmm8
vaesenc %xmm10, %xmm9, %xmm9
#NO_APP
vmovdqa 64(%rdi), %xmm13
#APP
vaesenc %xmm13, %xmm0, %xmm0
vaesenc %xmm13, %xmm2, %xmm2
vaesenc %xmm13, %xmm6, %xmm6
vaesenc %xmm13, %xmm7, %xmm7
vaesenc %xmm13, %xmm8, %xmm8
vaesenc %xmm13, %xmm9, %xmm9
#NO_APP
vmovdqa 80(%rdi), %xmm14
#APP
vaesenc %xmm14, %xmm0, %xmm0
vaesenc %xmm14, %xmm2, %xmm2
vaesenc %xmm14, %xmm6, %xmm6
vaesenc %xmm14, %xmm7, %xmm7
vaesenc %xmm14, %xmm8, %xmm8
vaesenc %xmm14, %xmm9, %xmm9
#NO_APP
vmovdqa 96(%rdi), %xmm15
#APP
vaesenc %xmm15, %xmm0, %xmm0
vaesenc %xmm15, %xmm2, %xmm2
vaesenc %xmm15, %xmm6, %xmm6
vaesenc %xmm15, %xmm7, %xmm7
vaesenc %xmm15, %xmm8, %xmm8
vaesenc %xmm15, %xmm9, %xmm9
#NO_APP
vmovaps 112(%rdi), %xmm11
vmovaps %xmm11, -96(%rsp)
#APP
vaesenc %xmm11, %xmm0, %xmm0
vaesenc %xmm11, %xmm2, %xmm2
vaesenc %xmm11, %xmm6, %xmm6
vaesenc %xmm11, %xmm7, %xmm7
vaesenc %xmm11, %xmm8, %xmm8
vaesenc %xmm11, %xmm9, %xmm9
#NO_APP
vmovdqa 128(%rdi), %xmm11
#APP
vaesenc %xmm11, %xmm0, %xmm0
vaesenc %xmm11, %xmm2, %xmm2
vaesenc %xmm11, %xmm6, %xmm6
vaesenc %xmm11, %xmm7, %xmm7
vaesenc %xmm11, %xmm8, %xmm8
vaesenc %xmm11, %xmm9, %xmm9
#NO_APP
vmovaps 144(%rdi), %xmm12
vmovaps %xmm12, -112(%rsp)
#APP
vaesenc %xmm12, %xmm0, %xmm0
vaesenc %xmm12, %xmm2, %xmm2
vaesenc %xmm12, %xmm6, %xmm6
vaesenc %xmm12, %xmm7, %xmm7
vaesenc %xmm12, %xmm8, %xmm8
vaesenc %xmm12, %xmm9, %xmm9
#NO_APP
vmovdqa 160(%rdi), %xmm12
#APP
vaesenc %xmm12, %xmm0, %xmm0
vaesenc %xmm12, %xmm2, %xmm2
vaesenc %xmm12, %xmm6, %xmm6
vaesenc %xmm12, %xmm7, %xmm7
vaesenc %xmm12, %xmm8, %xmm8
vaesenc %xmm12, %xmm9, %xmm9
#NO_APP
vmovdqa 176(%rdi), %xmm10
vmovdqa64 %xmm10, %xmm19
#APP
vaesenc %xmm10, %xmm0, %xmm0
vaesenc %xmm10, %xmm2, %xmm2
vaesenc %xmm10, %xmm6, %xmm6
vaesenc %xmm10, %xmm7, %xmm7
vaesenc %xmm10, %xmm8, %xmm8
vaesenc %xmm10, %xmm9, %xmm9
#NO_APP
vmovdqa 192(%rdi), %xmm10
#APP
vaesenclast %xmm10, %xmm0, %xmm0
vaesenclast %xmm10, %xmm2, %xmm2
vaesenclast %xmm10, %xmm6, %xmm6
vaesenclast %xmm10, %xmm7, %xmm7
vaesenclast %xmm10, %xmm8, %xmm8
vaesenclast %xmm10, %xmm9, %xmm9
#NO_APP
vpxorq (%r9), %xmm0, %xmm17
vpxorq 16(%r9), %xmm2, %xmm20
vpxorq 32(%r9), %xmm6, %xmm27
vpxorq 48(%r9), %xmm7, %xmm28
vpxorq 64(%r9), %xmm8, %xmm29
vpxor 80(%r9), %xmm9, %xmm0
leaq 96(%r9), %r9
leaq 96(%rdx), %rcx
vpaddd .LCPI1_9(%rip), %xmm5, %xmm2
vmovdqu64 %xmm17, (%rdx)
vmovdqu64 %xmm20, 16(%rdx)
vmovdqu64 %xmm27, 32(%rdx)
vmovdqu64 %xmm28, 48(%rdx)
leaq -96(%r10), %rax
vmovdqu64 %xmm29, 64(%rdx)
vmovdqu %xmm0, 80(%rdx)
cmpq $96, %rax
jb .LBB1_37
vmovdqa64 %xmm23, -128(%rsp)
vmovaps 208(%rdi), %xmm5
vmovaps %xmm5, 48(%rsp)
vmovdqa %xmm3, %xmm5
vmovaps 224(%rdi), %xmm3
vmovaps %xmm3, 32(%rsp)
vmovaps 240(%rdi), %xmm3
vmovaps %xmm3, 16(%rsp)
vmovaps 256(%rdi), %xmm3
vmovaps %xmm3, (%rsp)
vmovaps 272(%rdi), %xmm3
vmovaps %xmm3, -16(%rsp)
vmovdqa64 %xmm18, -32(%rsp)
vmovdqa 288(%rdi), %xmm3
vmovdqa %xmm3, -48(%rsp)
vmovdqa %xmm5, -64(%rsp)
vmovdqa64 %xmm16, -80(%rsp)
vmovdqa64 %xmm13, %xmm25
vmovdqa64 %xmm10, %xmm24
vmovdqa64 %xmm14, %xmm31
vmovdqa64 %xmm15, %xmm21
vmovaps -96(%rsp), %xmm26
vmovdqa64 %xmm11, %xmm16
vmovdqa64 -112(%rsp), %xmm18
vmovdqa64 %xmm12, %xmm23
.p2align 4, 0x90
.LBB1_35:
vpshufb %xmm22, %xmm2, %xmm5
vpaddd .LCPI1_1(%rip), %xmm2, %xmm6
vpshufb %xmm22, %xmm6, %xmm6
vpaddd .LCPI1_4(%rip), %xmm2, %xmm7
vpshufb %xmm22, %xmm7, %xmm7
vpaddd .LCPI1_5(%rip), %xmm2, %xmm8
vpshufb %xmm22, %xmm8, %xmm14
vpaddd .LCPI1_6(%rip), %xmm2, %xmm8
vpshufb %xmm22, %xmm8, %xmm15
vpaddd .LCPI1_7(%rip), %xmm2, %xmm8
vpshufb %xmm22, %xmm8, %xmm30
vpshufb %xmm22, %xmm0, %xmm8
vpxor %xmm5, %xmm4, %xmm11
vpxor %xmm6, %xmm4, %xmm12
vpxor %xmm7, %xmm4, %xmm13
vpxor %xmm4, %xmm14, %xmm14
vpxor %xmm4, %xmm15, %xmm15
vpxorq %xmm30, %xmm4, %xmm0
vmovaps -32(%rsp), %xmm3
#APP
vaesenc %xmm3, %xmm11, %xmm11
vaesenc %xmm3, %xmm12, %xmm12
vaesenc %xmm3, %xmm13, %xmm13
vaesenc %xmm3, %xmm14, %xmm14
vaesenc %xmm3, %xmm15, %xmm15
vaesenc %xmm3, %xmm0, %xmm0
#NO_APP
vpxor %xmm6, %xmm6, %xmm6
vpxor %xmm7, %xmm7, %xmm7
vpxor %xmm5, %xmm5, %xmm5
vmovaps 48(%rsp), %xmm10
vmovaps -64(%rsp), %xmm3
#APP
vaesenc %xmm3, %xmm11, %xmm11
vaesenc %xmm3, %xmm12, %xmm12
vaesenc %xmm3, %xmm13, %xmm13
vaesenc %xmm3, %xmm14, %xmm14
vaesenc %xmm3, %xmm15, %xmm15
vaesenc %xmm3, %xmm0, %xmm0
vpclmulqdq $16, %xmm10, %xmm8, %xmm9
vpxor %xmm7, %xmm9, %xmm7
vpclmulqdq $0, %xmm10, %xmm8, %xmm9
vpxor %xmm6, %xmm9, %xmm6
vpclmulqdq $17, %xmm10, %xmm8, %xmm9
vpxor %xmm5, %xmm9, %xmm5
vpclmulqdq $1, %xmm10, %xmm8, %xmm9
vpxor %xmm7, %xmm9, %xmm7
#NO_APP
vpshufb %xmm22, %xmm29, %xmm8
vmovaps 32(%rsp), %xmm3
vmovaps -80(%rsp), %xmm10
#APP
vaesenc %xmm10, %xmm11, %xmm11
vaesenc %xmm10, %xmm12, %xmm12
vaesenc %xmm10, %xmm13, %xmm13
vaesenc %xmm10, %xmm14, %xmm14
vaesenc %xmm10, %xmm15, %xmm15
vaesenc %xmm10, %xmm0, %xmm0
vpclmulqdq $16, %xmm3, %xmm8, %xmm9
vpxor %xmm7, %xmm9, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm9
vpxor %xmm6, %xmm9, %xmm6
vpclmulqdq $17, %xmm3, %xmm8, %xmm9
vpxor %xmm5, %xmm9, %xmm5
vpclmulqdq $1, %xmm3, %xmm8, %xmm9
vpxor %xmm7, %xmm9, %xmm7
#NO_APP
vpshufb %xmm22, %xmm28, %xmm8
vmovdqa64 %xmm25, %xmm3
#APP
vaesenc %xmm3, %xmm11, %xmm11
vaesenc %xmm3, %xmm12, %xmm12
vaesenc %xmm3, %xmm13, %xmm13
vaesenc %xmm3, %xmm14, %xmm14
vaesenc %xmm3, %xmm15, %xmm15
vaesenc %xmm3, %xmm0, %xmm0
#NO_APP
vmovdqa64 %xmm31, %xmm3
vmovaps 16(%rsp), %xmm10
#APP
vaesenc %xmm3, %xmm11, %xmm11
vaesenc %xmm3, %xmm12, %xmm12
vaesenc %xmm3, %xmm13, %xmm13
vaesenc %xmm3, %xmm14, %xmm14
vaesenc %xmm3, %xmm15, %xmm15
vaesenc %xmm3, %xmm0, %xmm0
vpclmulqdq $16, %xmm10, %xmm8, %xmm9
vpxor %xmm7, %xmm9, %xmm7
vpclmulqdq $0, %xmm10, %xmm8, %xmm9
vpxor %xmm6, %xmm9, %xmm6
vpclmulqdq $17, %xmm10, %xmm8, %xmm9
vpxor %xmm5, %xmm9, %xmm5
vpclmulqdq $1, %xmm10, %xmm8, %xmm9
vpxor %xmm7, %xmm9, %xmm7
#NO_APP
vpshufb %xmm22, %xmm27, %xmm8
vmovdqa64 %xmm21, %xmm3
#APP
vaesenc %xmm3, %xmm11, %xmm11
vaesenc %xmm3, %xmm12, %xmm12
vaesenc %xmm3, %xmm13, %xmm13
vaesenc %xmm3, %xmm14, %xmm14
vaesenc %xmm3, %xmm15, %xmm15
vaesenc %xmm3, %xmm0, %xmm0
#NO_APP
vmovaps (%rsp), %xmm3
vmovaps %xmm26, %xmm10
#APP
vaesenc %xmm10, %xmm11, %xmm11
vaesenc %xmm10, %xmm12, %xmm12
vaesenc %xmm10, %xmm13, %xmm13
vaesenc %xmm10, %xmm14, %xmm14
vaesenc %xmm10, %xmm15, %xmm15
vaesenc %xmm10, %xmm0, %xmm0
vpclmulqdq $16, %xmm3, %xmm8, %xmm9
vpxor %xmm7, %xmm9, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm9
vpxor %xmm6, %xmm9, %xmm6
vpclmulqdq $17, %xmm3, %xmm8, %xmm9
vpxor %xmm5, %xmm9, %xmm5
vpclmulqdq $1, %xmm3, %xmm8, %xmm9
vpxor %xmm7, %xmm9, %xmm7
#NO_APP
vpshufb %xmm22, %xmm20, %xmm8
vmovdqa64 %xmm16, %xmm3
#APP
vaesenc %xmm3, %xmm11, %xmm11
vaesenc %xmm3, %xmm12, %xmm12
vaesenc %xmm3, %xmm13, %xmm13
vaesenc %xmm3, %xmm14, %xmm14
vaesenc %xmm3, %xmm15, %xmm15
vaesenc %xmm3, %xmm0, %xmm0
#NO_APP
vmovaps -16(%rsp), %xmm3
vmovdqa64 %xmm18, %xmm10
#APP
vaesenc %xmm10, %xmm11, %xmm11
vaesenc %xmm10, %xmm12, %xmm12
vaesenc %xmm10, %xmm13, %xmm13
vaesenc %xmm10, %xmm14, %xmm14
vaesenc %xmm10, %xmm15, %xmm15
vaesenc %xmm10, %xmm0, %xmm0
vpclmulqdq $16, %xmm3, %xmm8, %xmm9
vpxor %xmm7, %xmm9, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm9
vpxor %xmm6, %xmm9, %xmm6
vpclmulqdq $17, %xmm3, %xmm8, %xmm9
vpxor %xmm5, %xmm9, %xmm5
vpclmulqdq $1, %xmm3, %xmm8, %xmm9
vpxor %xmm7, %xmm9, %xmm7
#NO_APP
vpshufb %xmm22, %xmm17, %xmm8
vpxor %xmm1, %xmm8, %xmm1
vmovdqa64 %xmm23, %xmm9
vmovdqa -48(%rsp), %xmm3
#APP
vaesenc %xmm9, %xmm11, %xmm11
vaesenc %xmm9, %xmm12, %xmm12
vaesenc %xmm9, %xmm13, %xmm13
vaesenc %xmm9, %xmm14, %xmm14
vaesenc %xmm9, %xmm15, %xmm15
vaesenc %xmm9, %xmm0, %xmm0
vpclmulqdq $16, %xmm3, %xmm1, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $0, %xmm3, %xmm1, %xmm8
vpxor %xmm6, %xmm8, %xmm6
vpclmulqdq $17, %xmm3, %xmm1, %xmm8
vpxor %xmm5, %xmm8, %xmm5
vpclmulqdq $1, %xmm3, %xmm1, %xmm8
vpxor %xmm7, %xmm8, %xmm7
#NO_APP
vpxor %xmm3, %xmm3, %xmm3
vpunpcklqdq %xmm7, %xmm3, %xmm1
vpxor %xmm1, %xmm6, %xmm6
vpunpckhqdq %xmm3, %xmm7, %xmm1
vmovdqa64 %xmm19, %xmm3
#APP
vaesenc %xmm3, %xmm11, %xmm11
vaesenc %xmm3, %xmm12, %xmm12
vaesenc %xmm3, %xmm13, %xmm13
vaesenc %xmm3, %xmm14, %xmm14
vaesenc %xmm3, %xmm15, %xmm15
vaesenc %xmm3, %xmm0, %xmm0
#NO_APP
vmovdqa64 %xmm24, %xmm7
#APP
vaesenclast %xmm7, %xmm11, %xmm11
vaesenclast %xmm7, %xmm12, %xmm12
vaesenclast %xmm7, %xmm13, %xmm13
vaesenclast %xmm7, %xmm14, %xmm14
vaesenclast %xmm7, %xmm15, %xmm15
vaesenclast %xmm7, %xmm0, %xmm0
#NO_APP
vpxorq (%r9), %xmm11, %xmm17
vpxorq 16(%r9), %xmm12, %xmm20
vpxorq 32(%r9), %xmm13, %xmm27
vpxorq 48(%r9), %xmm14, %xmm28
vpxorq 64(%r9), %xmm15, %xmm29
vpxor 80(%r9), %xmm0, %xmm0
vpxor %xmm1, %xmm5, %xmm1
vpbroadcastq .LCPI1_3(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm6, %xmm5
vpshufd $78, %xmm6, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vpclmulqdq $16, %xmm3, %xmm5, %xmm6
vpshufd $78, %xmm5, %xmm5
vpternlogq $150, %xmm6, %xmm5, %xmm1
addq $96, %r9
vmovdqu64 %xmm17, (%rcx)
vmovdqu64 %xmm20, 16(%rcx)
vmovdqu64 %xmm27, 32(%rcx)
vmovdqu64 %xmm28, 48(%rcx)
vmovdqu64 %xmm29, 64(%rcx)
vmovdqu %xmm0, 80(%rcx)
addq $96, %rcx
addq $-96, %rax
vpaddd .LCPI1_8(%rip), %xmm2, %xmm2
cmpq $95, %rax
ja .LBB1_35
vmovdqa64 -128(%rsp), %xmm23
.LBB1_37:
vpshufb %xmm22, %xmm17, %xmm4
vpxor %xmm4, %xmm1, %xmm1
vpshufb %xmm22, %xmm20, %xmm4
vpshufb %xmm22, %xmm27, %xmm5
vpshufb %xmm22, %xmm28, %xmm6
vpshufb %xmm22, %xmm29, %xmm7
vpshufb %xmm22, %xmm0, %xmm0
vmovdqa 208(%rdi), %xmm3
vmovdqa 224(%rdi), %xmm8
vmovdqa 240(%rdi), %xmm9
vmovdqa 256(%rdi), %xmm10
vmovdqa 272(%rdi), %xmm11
vmovdqa 288(%rdi), %xmm12
vpclmulqdq $0, %xmm0, %xmm3, %xmm13
vpclmulqdq $1, %xmm0, %xmm3, %xmm14
vpclmulqdq $16, %xmm0, %xmm3, %xmm15
vpxor %xmm14, %xmm15, %xmm14
vpclmulqdq $17, %xmm0, %xmm3, %xmm0
vpclmulqdq $0, %xmm7, %xmm8, %xmm3
vpclmulqdq $1, %xmm7, %xmm8, %xmm15
vpclmulqdq $16, %xmm7, %xmm8, %xmm17
vpternlogq $150, %xmm15, %xmm14, %xmm17
vpclmulqdq $17, %xmm7, %xmm8, %xmm7
vpclmulqdq $0, %xmm6, %xmm9, %xmm8
vpternlogq $150, %xmm13, %xmm3, %xmm8
vpclmulqdq $1, %xmm6, %xmm9, %xmm3
vpclmulqdq $16, %xmm6, %xmm9, %xmm13
vpternlogq $150, %xmm3, %xmm17, %xmm13
vpclmulqdq $17, %xmm6, %xmm9, %xmm3
vpternlogq $150, %xmm0, %xmm7, %xmm3
vpclmulqdq $0, %xmm5, %xmm10, %xmm0
vpclmulqdq $1, %xmm5, %xmm10, %xmm6
vpclmulqdq $16, %xmm5, %xmm10, %xmm7
vpternlogq $150, %xmm6, %xmm13, %xmm7
vpclmulqdq $17, %xmm5, %xmm10, %xmm5
vpclmulqdq $0, %xmm4, %xmm11, %xmm6
vpternlogq $150, %xmm0, %xmm8, %xmm6
vpclmulqdq $1, %xmm4, %xmm11, %xmm0
vpclmulqdq $16, %xmm4, %xmm11, %xmm8
vpternlogq $150, %xmm0, %xmm7, %xmm8
vpclmulqdq $17, %xmm4, %xmm11, %xmm0
vpternlogq $150, %xmm5, %xmm3, %xmm0
vpclmulqdq $0, %xmm1, %xmm12, %xmm3
vpclmulqdq $1, %xmm1, %xmm12, %xmm4
vpclmulqdq $16, %xmm1, %xmm12, %xmm5
vpternlogq $150, %xmm4, %xmm8, %xmm5
vpclmulqdq $17, %xmm1, %xmm12, %xmm1
vpslldq $8, %xmm5, %xmm4
vpternlogq $150, %xmm3, %xmm6, %xmm4
vpsrldq $8, %xmm5, %xmm3
vpbroadcastq .LCPI1_3(%rip), %xmm5
vpclmulqdq $16, %xmm5, %xmm4, %xmm6
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm6, %xmm4
vpclmulqdq $16, %xmm5, %xmm4, %xmm5
vpternlogq $150, %xmm1, %xmm0, %xmm5
vpshufd $78, %xmm4, %xmm1
vpternlogq $150, %xmm3, %xmm5, %xmm1
movq %rcx, %rdx
cmpq $16, %rax
jae .LBB1_38
.LBB1_28:
movq %rdx, %rcx
movq %r9, %rsi
jmp .LBB1_29
.LBB1_26:
movq %r10, %rax
cmpq $16, %rax
jb .LBB1_28
.LBB1_38:
vmovdqa (%rdi), %xmm0
vmovdqa 16(%rdi), %xmm3
vmovdqa 32(%rdi), %xmm4
vmovdqa 48(%rdi), %xmm5
vmovdqa 64(%rdi), %xmm6
vmovdqa 80(%rdi), %xmm7
vmovdqa 96(%rdi), %xmm8
vmovdqa 112(%rdi), %xmm9
vmovdqa 128(%rdi), %xmm10
vmovdqa 144(%rdi), %xmm11
vmovdqa 160(%rdi), %xmm12
vmovdqa 176(%rdi), %xmm13
vmovdqa 192(%rdi), %xmm14
vmovdqa 208(%rdi), %xmm15
vmovdqa64 .LCPI1_2(%rip), %xmm17
vpmovsxbq .LCPI1_12(%rip), %xmm18
vpbroadcastq .LCPI1_3(%rip), %xmm19
.p2align 4, 0x90
.LBB1_39:
leaq 16(%r9), %rsi
leaq 16(%rdx), %rcx
addq $-16, %rax
vpshufb %xmm17, %xmm2, %xmm20
vpxorq %xmm20, %xmm0, %xmm20
vaesenc %xmm3, %xmm20, %xmm20
vaesenc %xmm4, %xmm20, %xmm20
vaesenc %xmm5, %xmm20, %xmm20
vaesenc %xmm6, %xmm20, %xmm20
vaesenc %xmm7, %xmm20, %xmm20
vaesenc %xmm8, %xmm20, %xmm20
vaesenc %xmm9, %xmm20, %xmm20
vaesenc %xmm10, %xmm20, %xmm20
vaesenc %xmm11, %xmm20, %xmm20
vaesenc %xmm12, %xmm20, %xmm20
vaesenc %xmm13, %xmm20, %xmm20
vaesenclast %xmm14, %xmm20, %xmm20
vpaddd %xmm18, %xmm2, %xmm2
vpxorq (%r9), %xmm20, %xmm20
vmovdqu64 %xmm20, (%rdx)
vpshufb %xmm17, %xmm20, %xmm20
vpxorq %xmm20, %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm15, %xmm20
vpclmulqdq $1, %xmm1, %xmm15, %xmm21
vpclmulqdq $16, %xmm1, %xmm15, %xmm22
vpxorq %xmm21, %xmm22, %xmm21
vpclmulqdq $17, %xmm1, %xmm15, %xmm1
vpslldq $8, %xmm21, %xmm22
vpxorq %xmm22, %xmm20, %xmm20
vpsrldq $8, %xmm21, %xmm21
vpclmulqdq $16, %xmm19, %xmm20, %xmm22
vpshufd $78, %xmm20, %xmm20
vpxorq %xmm20, %xmm22, %xmm20
vpclmulqdq $16, %xmm19, %xmm20, %xmm22
vpxorq %xmm1, %xmm22, %xmm22
vpshufd $78, %xmm20, %xmm1
vpternlogq $150, %xmm21, %xmm22, %xmm1
movq %rcx, %rdx
movq %rsi, %r9
cmpq $15, %rax
ja .LBB1_39
.LBB1_29:
testq %rax, %rax
je .LBB1_19
movl $-1, %edx
bzhil %eax, %edx, %eax
kmovd %eax, %k1
vmovdqu8 (%rsi), %xmm0 {%k1} {z}
vpshufb .LCPI1_2(%rip), %xmm2, %xmm2
vpxor (%rdi), %xmm2, %xmm2
vaesenc 16(%rdi), %xmm2, %xmm2
vaesenc 32(%rdi), %xmm2, %xmm2
vaesenc 48(%rdi), %xmm2, %xmm2
vaesenc 64(%rdi), %xmm2, %xmm2
vaesenc 80(%rdi), %xmm2, %xmm2
vaesenc 96(%rdi), %xmm2, %xmm2
vaesenc 112(%rdi), %xmm2, %xmm2
vaesenc 128(%rdi), %xmm2, %xmm2
vaesenc 144(%rdi), %xmm2, %xmm2
vaesenc 160(%rdi), %xmm2, %xmm2
vaesenc 176(%rdi), %xmm2, %xmm2
vaesenclast 192(%rdi), %xmm2, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vmovdqu8 %xmm0, (%rcx) {%k1}
testq %r10, %r10
je .LBB1_10
vmovdqu8 %xmm0, %xmm0 {%k1} {z}
vpshufb .LCPI1_2(%rip), %xmm0, %xmm0
vmovdqa 208(%rdi), %xmm2
jmp .LBB1_32
.LBB1_10:
vmovdqa 208(%rdi), %xmm2
vpshufb .LCPI1_2(%rip), %xmm0, %xmm0
.LBB1_32:
vpxor %xmm0, %xmm1, %xmm3
vpclmulqdq $0, %xmm3, %xmm2, %xmm0
vpclmulqdq $1, %xmm3, %xmm2, %xmm1
vpclmulqdq $16, %xmm3, %xmm2, %xmm4
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $17, %xmm3, %xmm2, %xmm2
vpslldq $8, %xmm1, %xmm3
vpxor %xmm3, %xmm0, %xmm0
vpsrldq $8, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm2
vpbroadcastq .LCPI1_3(%rip), %xmm1
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm0
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vpshufd $78, %xmm0, %xmm1
vpternlogq $150, %xmm3, %xmm2, %xmm1
.LBB1_19:
movq 104(%rsp), %rax
vmovdqa 208(%rdi), %xmm0
vmovq %r8, %xmm2
vmovq %r10, %xmm3
vpunpcklqdq %xmm2, %xmm3, %xmm2
vpsllq $3, %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm0, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpbroadcastq .LCPI1_3(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm4
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpxorq (%rdi), %xmm23, %xmm4
vaesenc 16(%rdi), %xmm4, %xmm4
vaesenc 32(%rdi), %xmm4, %xmm4
vaesenc 48(%rdi), %xmm4, %xmm4
vaesenc 64(%rdi), %xmm4, %xmm4
vaesenc 80(%rdi), %xmm4, %xmm4
vaesenc 96(%rdi), %xmm4, %xmm4
vaesenc 112(%rdi), %xmm4, %xmm4
vaesenc 128(%rdi), %xmm4, %xmm4
vaesenc 144(%rdi), %xmm4, %xmm4
vaesenc 160(%rdi), %xmm4, %xmm4
vaesenc 176(%rdi), %xmm4, %xmm4
vaesenclast 192(%rdi), %xmm4, %xmm4
vpxor %xmm0, %xmm2, %xmm0
vpshufb .LCPI1_2(%rip), %xmm0, %xmm0
vpshufb .LCPI1_10(%rip), %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpshufb .LCPI1_11(%rip), %xmm1, %xmm1
vpternlogq $150, %xmm0, %xmm4, %xmm1
vmovdqu %xmm1, (%rax)
movl $1, %eax
.LBB1_22:
addq $64, %rsp
.cfi_def_cfa_offset 16
popq %rbx
.cfi_def_cfa_offset 8
retq
.Lfunc_end1:
.size haberdashery_aes192gcm_tigerlake_encrypt, .Lfunc_end1-haberdashery_aes192gcm_tigerlake_encrypt
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI2_0:
.byte 15
.byte 128
.byte 128
.byte 128
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI2_1:
.long 1
.long 0
.long 0
.long 0
.LCPI2_2:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI2_4:
.long 2
.long 0
.long 0
.long 0
.LCPI2_5:
.long 3
.long 0
.long 0
.long 0
.LCPI2_6:
.long 4
.long 0
.long 0
.long 0
.LCPI2_7:
.long 5
.long 0
.long 0
.long 0
.LCPI2_8:
.long 6
.long 0
.long 0
.long 0
.LCPI2_9:
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.LCPI2_10:
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI2_3:
.quad -4467570830351532032
.section .rodata,"a",@progbits
.LCPI2_11:
.byte 1
.byte 0
.section .text.haberdashery_aes192gcm_tigerlake_decrypt,"ax",@progbits
.globl haberdashery_aes192gcm_tigerlake_decrypt
.p2align 4, 0x90
.type haberdashery_aes192gcm_tigerlake_decrypt,@function
haberdashery_aes192gcm_tigerlake_decrypt:
.cfi_startproc
pushq %rbp
.cfi_def_cfa_offset 16
pushq %r14
.cfi_def_cfa_offset 24
pushq %rbx
.cfi_def_cfa_offset 32
subq $64, %rsp
.cfi_def_cfa_offset 96
.cfi_offset %rbx, -32
.cfi_offset %r14, -24
.cfi_offset %rbp, -16
movq 96(%rsp), %r10
xorl %eax, %eax
cmpq 128(%rsp), %r10
jne .LBB2_5
cmpq $16, 112(%rsp)
setne %r11b
movabsq $2305843009213693950, %rbx
cmpq %rbx, %r8
seta %bl
movq %r10, %r14
shrq $5, %r14
cmpq $2147483647, %r14
setae %bpl
orb %r11b, %bl
orb %bpl, %bl
cmpq $12, %rdx
setne %dl
orb %bl, %dl
jne .LBB2_5
vmovd (%rsi), %xmm0
vpinsrd $1, 4(%rsi), %xmm0, %xmm0
vpinsrd $2, 8(%rsi), %xmm0, %xmm0
movl $16777216, %edx
vpinsrd $3, %edx, %xmm0, %xmm16
vpxor %xmm1, %xmm1, %xmm1
testq %r8, %r8
je .LBB2_3
cmpq $96, %r8
jb .LBB2_7
vmovdqa 208(%rdi), %xmm0
vmovdqa 224(%rdi), %xmm2
vmovdqa 240(%rdi), %xmm3
vmovdqa 256(%rdi), %xmm4
vmovdqa 272(%rdi), %xmm5
vmovdqa 288(%rdi), %xmm6
vmovdqa .LCPI2_2(%rip), %xmm7
vpbroadcastq .LCPI2_3(%rip), %xmm8
movq %r8, %rdx
.p2align 4, 0x90
.LBB2_19:
vmovdqu (%rcx), %xmm9
vmovdqu 16(%rcx), %xmm10
vmovdqu 32(%rcx), %xmm11
vmovdqu 48(%rcx), %xmm12
vmovdqu 64(%rcx), %xmm13
vmovdqu 80(%rcx), %xmm14
addq $96, %rcx
addq $-96, %rdx
vpshufb %xmm7, %xmm9, %xmm9
vpxor %xmm1, %xmm9, %xmm1
vpshufb %xmm7, %xmm10, %xmm9
vpshufb %xmm7, %xmm11, %xmm10
vpshufb %xmm7, %xmm12, %xmm11
vpshufb %xmm7, %xmm13, %xmm12
vpshufb %xmm7, %xmm14, %xmm13
vpclmulqdq $0, %xmm13, %xmm0, %xmm14
vpclmulqdq $1, %xmm13, %xmm0, %xmm15
vpclmulqdq $16, %xmm13, %xmm0, %xmm17
vpxorq %xmm15, %xmm17, %xmm15
vpclmulqdq $17, %xmm13, %xmm0, %xmm13
vpclmulqdq $0, %xmm12, %xmm2, %xmm17
vpclmulqdq $1, %xmm12, %xmm2, %xmm18
vpclmulqdq $16, %xmm12, %xmm2, %xmm19
vpternlogq $150, %xmm18, %xmm15, %xmm19
vpclmulqdq $17, %xmm12, %xmm2, %xmm12
vpclmulqdq $0, %xmm11, %xmm3, %xmm15
vpternlogq $150, %xmm14, %xmm17, %xmm15
vpclmulqdq $1, %xmm11, %xmm3, %xmm14
vpclmulqdq $16, %xmm11, %xmm3, %xmm17
vpternlogq $150, %xmm14, %xmm19, %xmm17
vpclmulqdq $17, %xmm11, %xmm3, %xmm11
vpternlogq $150, %xmm13, %xmm12, %xmm11
vpclmulqdq $0, %xmm10, %xmm4, %xmm12
vpclmulqdq $1, %xmm10, %xmm4, %xmm13
vpclmulqdq $16, %xmm10, %xmm4, %xmm14
vpternlogq $150, %xmm13, %xmm17, %xmm14
vpclmulqdq $17, %xmm10, %xmm4, %xmm10
vpclmulqdq $0, %xmm9, %xmm5, %xmm13
vpternlogq $150, %xmm12, %xmm15, %xmm13
vpclmulqdq $1, %xmm9, %xmm5, %xmm12
vpclmulqdq $16, %xmm9, %xmm5, %xmm15
vpternlogq $150, %xmm12, %xmm14, %xmm15
vpclmulqdq $17, %xmm9, %xmm5, %xmm9
vpternlogq $150, %xmm10, %xmm11, %xmm9
vpclmulqdq $0, %xmm1, %xmm6, %xmm10
vpclmulqdq $1, %xmm1, %xmm6, %xmm11
vpclmulqdq $16, %xmm1, %xmm6, %xmm12
vpternlogq $150, %xmm11, %xmm15, %xmm12
vpclmulqdq $17, %xmm1, %xmm6, %xmm1
vpslldq $8, %xmm12, %xmm11
vpternlogq $150, %xmm10, %xmm13, %xmm11
vpsrldq $8, %xmm12, %xmm10
vpclmulqdq $16, %xmm8, %xmm11, %xmm12
vpshufd $78, %xmm11, %xmm11
vpxor %xmm11, %xmm12, %xmm11
vpclmulqdq $16, %xmm8, %xmm11, %xmm12
vpternlogq $150, %xmm1, %xmm9, %xmm12
vpshufd $78, %xmm11, %xmm1
vpternlogq $150, %xmm10, %xmm12, %xmm1
cmpq $95, %rdx
ja .LBB2_19
cmpq $16, %rdx
jae .LBB2_13
jmp .LBB2_9
.LBB2_7:
movq %r8, %rdx
cmpq $16, %rdx
jb .LBB2_9
.LBB2_13:
vmovdqa 208(%rdi), %xmm0
leaq -16(%rdx), %rsi
testb $16, %sil
je .LBB2_14
cmpq $16, %rsi
jae .LBB2_16
.LBB2_10:
testq %rsi, %rsi
je .LBB2_3
.LBB2_11:
movl $-1, %edx
bzhil %esi, %edx, %edx
kmovd %edx, %k1
vmovdqu8 (%rcx), %xmm0 {%k1} {z}
testq %r10, %r10
je .LBB2_12
movabsq $-68719476704, %rcx
leaq (%r10,%rcx), %rdx
incq %rcx
cmpq %rcx, %rdx
jb .LBB2_5
vmovdqa 208(%rdi), %xmm2
vpshufb .LCPI2_2(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpclmulqdq $0, %xmm0, %xmm2, %xmm1
vpclmulqdq $1, %xmm0, %xmm2, %xmm3
vpclmulqdq $16, %xmm0, %xmm2, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm2, %xmm0
vpslldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpbroadcastq .LCPI2_3(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm1, %xmm4
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm3
vpxor %xmm0, %xmm3, %xmm0
vpshufd $78, %xmm1, %xmm1
vpternlogq $150, %xmm2, %xmm0, %xmm1
jmp .LBB2_22
.LBB2_14:
vmovdqu (%rcx), %xmm2
addq $16, %rcx
vpshufb .LCPI2_2(%rip), %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
vpslldq $8, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpsrldq $8, %xmm3, %xmm3
vpbroadcastq .LCPI2_3(%rip), %xmm4
vpclmulqdq $16, %xmm4, %xmm2, %xmm5
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm5, %xmm2
vpclmulqdq $16, %xmm4, %xmm2, %xmm4
vpxor %xmm1, %xmm4, %xmm4
vpshufd $78, %xmm2, %xmm1
vpternlogq $150, %xmm3, %xmm4, %xmm1
movq %rsi, %rdx
cmpq $16, %rsi
jb .LBB2_10
.LBB2_16:
vmovdqa .LCPI2_2(%rip), %xmm2
vpbroadcastq .LCPI2_3(%rip), %xmm3
.p2align 4, 0x90
.LBB2_17:
vmovdqu (%rcx), %xmm4
vmovdqu 16(%rcx), %xmm5
vpshufb %xmm2, %xmm4, %xmm4
vpxor %xmm4, %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm4
vpclmulqdq $1, %xmm1, %xmm0, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm7
vpxor %xmm6, %xmm7, %xmm6
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
vpslldq $8, %xmm6, %xmm7
vpxor %xmm7, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm4, %xmm7
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm7, %xmm4
vpclmulqdq $16, %xmm3, %xmm4, %xmm7
vpternlogq $150, %xmm1, %xmm6, %xmm7
vpshufd $78, %xmm4, %xmm1
addq $32, %rcx
addq $-32, %rdx
vpshufb %xmm2, %xmm5, %xmm4
vpternlogq $150, %xmm1, %xmm7, %xmm4
vpclmulqdq $0, %xmm4, %xmm0, %xmm1
vpclmulqdq $1, %xmm4, %xmm0, %xmm5
vpclmulqdq $16, %xmm4, %xmm0, %xmm6
vpxor %xmm5, %xmm6, %xmm5
vpclmulqdq $17, %xmm4, %xmm0, %xmm4
vpslldq $8, %xmm5, %xmm6
vpxor %xmm6, %xmm1, %xmm1
vpsrldq $8, %xmm5, %xmm5
vpclmulqdq $16, %xmm3, %xmm1, %xmm6
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm6, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm6
vpxor %xmm4, %xmm6, %xmm4
vpshufd $78, %xmm1, %xmm1
vpternlogq $150, %xmm5, %xmm4, %xmm1
cmpq $15, %rdx
ja .LBB2_17
.LBB2_9:
movq %rdx, %rsi
testq %rsi, %rsi
jne .LBB2_11
.LBB2_3:
testq %r10, %r10
je .LBB2_29
movabsq $-68719476704, %rcx
leaq (%r10,%rcx), %rdx
incq %rcx
cmpq %rcx, %rdx
jb .LBB2_5
.LBB2_22:
movq 120(%rsp), %rax
vpshufb .LCPI2_0(%rip), %xmm16, %xmm0
vpaddd .LCPI2_1(%rip), %xmm0, %xmm2
cmpq $96, %r10
jb .LBB2_23
vmovdqa64 %xmm16, -128(%rsp)
vmovdqa (%rdi), %xmm3
vmovaps 16(%rdi), %xmm0
vmovaps %xmm0, 48(%rsp)
vmovaps 32(%rdi), %xmm0
vmovaps %xmm0, 32(%rsp)
vmovaps 48(%rdi), %xmm0
vmovaps %xmm0, 16(%rsp)
vmovaps 64(%rdi), %xmm0
vmovaps %xmm0, (%rsp)
vmovaps 80(%rdi), %xmm0
vmovaps %xmm0, -16(%rsp)
vmovaps 96(%rdi), %xmm0
vmovaps %xmm0, -32(%rsp)
vmovaps 112(%rdi), %xmm0
vmovaps %xmm0, -48(%rsp)
vmovaps 128(%rdi), %xmm0
vmovaps %xmm0, -64(%rsp)
vmovaps 144(%rdi), %xmm0
vmovaps %xmm0, -80(%rsp)
vmovaps 160(%rdi), %xmm0
vmovaps %xmm0, -96(%rsp)
vmovdqa 176(%rdi), %xmm0
vmovdqa %xmm0, -112(%rsp)
vmovdqa64 192(%rdi), %xmm21
vmovapd 208(%rdi), %xmm22
vmovdqa64 224(%rdi), %xmm23
vmovaps 240(%rdi), %xmm16
vmovdqa64 256(%rdi), %xmm18
vmovdqa64 .LCPI2_2(%rip), %xmm17
vpxord %xmm24, %xmm24, %xmm24
vpbroadcastq .LCPI2_3(%rip), %xmm25
movq %r10, %rcx
vmovdqa64 272(%rdi), %xmm19
vmovdqa64 288(%rdi), %xmm20
.p2align 4, 0x90
.LBB2_31:
vmovdqu64 (%r9), %xmm26
vmovdqu64 16(%r9), %xmm27
vmovdqu64 32(%r9), %xmm28
vmovdqu64 48(%r9), %xmm29
vmovdqu64 64(%r9), %xmm30
vmovdqu64 80(%r9), %xmm31
vpshufb %xmm17, %xmm2, %xmm0
vpaddd .LCPI2_1(%rip), %xmm2, %xmm4
vpshufb %xmm17, %xmm4, %xmm4
vpaddd .LCPI2_4(%rip), %xmm2, %xmm9
vpshufb %xmm17, %xmm9, %xmm11
vpaddd .LCPI2_5(%rip), %xmm2, %xmm9
vpshufb %xmm17, %xmm9, %xmm12
vpaddd .LCPI2_6(%rip), %xmm2, %xmm9
vpshufb %xmm17, %xmm9, %xmm13
vpaddd .LCPI2_7(%rip), %xmm2, %xmm9
vpshufb %xmm17, %xmm9, %xmm14
vpshufb %xmm17, %xmm31, %xmm5
vpxor %xmm0, %xmm3, %xmm9
vpxor %xmm4, %xmm3, %xmm10
vpxor %xmm3, %xmm11, %xmm11
vpxor %xmm3, %xmm12, %xmm12
vpxor %xmm3, %xmm13, %xmm13
vpxor %xmm3, %xmm14, %xmm14
vmovaps 48(%rsp), %xmm0
#APP
vaesenc %xmm0, %xmm9, %xmm9
vaesenc %xmm0, %xmm10, %xmm10
vaesenc %xmm0, %xmm11, %xmm11
vaesenc %xmm0, %xmm12, %xmm12
vaesenc %xmm0, %xmm13, %xmm13
vaesenc %xmm0, %xmm14, %xmm14
#NO_APP
vxorps %xmm0, %xmm0, %xmm0
vpxor %xmm4, %xmm4, %xmm4
vpxor %xmm15, %xmm15, %xmm15
vmovaps 32(%rsp), %xmm7
vmovapd %xmm22, %xmm8
#APP
vaesenc %xmm7, %xmm9, %xmm9
vaesenc %xmm7, %xmm10, %xmm10
vaesenc %xmm7, %xmm11, %xmm11
vaesenc %xmm7, %xmm12, %xmm12
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm14, %xmm14
vpclmulqdq $16, %xmm8, %xmm5, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpclmulqdq $0, %xmm8, %xmm5, %xmm6
vpxor %xmm6, %xmm0, %xmm0
vpclmulqdq $17, %xmm8, %xmm5, %xmm6
vpxor %xmm6, %xmm15, %xmm15
vpclmulqdq $1, %xmm8, %xmm5, %xmm6
vpxor %xmm6, %xmm4, %xmm4
#NO_APP
vpshufb %xmm17, %xmm30, %xmm5
vmovaps 16(%rsp), %xmm7
vmovdqa64 %xmm23, %xmm8
#APP
vaesenc %xmm7, %xmm9, %xmm9
vaesenc %xmm7, %xmm10, %xmm10
vaesenc %xmm7, %xmm11, %xmm11
vaesenc %xmm7, %xmm12, %xmm12
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm14, %xmm14
vpclmulqdq $16, %xmm8, %xmm5, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpclmulqdq $0, %xmm8, %xmm5, %xmm6
vpxor %xmm6, %xmm0, %xmm0
vpclmulqdq $17, %xmm8, %xmm5, %xmm6
vpxor %xmm6, %xmm15, %xmm15
vpclmulqdq $1, %xmm8, %xmm5, %xmm6
vpxor %xmm6, %xmm4, %xmm4
#NO_APP
vpshufb %xmm17, %xmm29, %xmm5
vmovaps (%rsp), %xmm6
#APP
vaesenc %xmm6, %xmm9, %xmm9
vaesenc %xmm6, %xmm10, %xmm10
vaesenc %xmm6, %xmm11, %xmm11
vaesenc %xmm6, %xmm12, %xmm12
vaesenc %xmm6, %xmm13, %xmm13
vaesenc %xmm6, %xmm14, %xmm14
#NO_APP
vmovaps -16(%rsp), %xmm7
vmovaps %xmm16, %xmm8
#APP
vaesenc %xmm7, %xmm9, %xmm9
vaesenc %xmm7, %xmm10, %xmm10
vaesenc %xmm7, %xmm11, %xmm11
vaesenc %xmm7, %xmm12, %xmm12
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm14, %xmm14
vpclmulqdq $16, %xmm8, %xmm5, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpclmulqdq $0, %xmm8, %xmm5, %xmm6
vpxor %xmm6, %xmm0, %xmm0
vpclmulqdq $17, %xmm8, %xmm5, %xmm6
vpxor %xmm6, %xmm15, %xmm15
vpclmulqdq $1, %xmm8, %xmm5, %xmm6
vpxor %xmm6, %xmm4, %xmm4
#NO_APP
vpshufb %xmm17, %xmm28, %xmm5
vmovaps -32(%rsp), %xmm6
#APP
vaesenc %xmm6, %xmm9, %xmm9
vaesenc %xmm6, %xmm10, %xmm10
vaesenc %xmm6, %xmm11, %xmm11
vaesenc %xmm6, %xmm12, %xmm12
vaesenc %xmm6, %xmm13, %xmm13
vaesenc %xmm6, %xmm14, %xmm14
#NO_APP
vmovaps -48(%rsp), %xmm7
vmovdqa64 %xmm18, %xmm8
#APP
vaesenc %xmm7, %xmm9, %xmm9
vaesenc %xmm7, %xmm10, %xmm10
vaesenc %xmm7, %xmm11, %xmm11
vaesenc %xmm7, %xmm12, %xmm12
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm14, %xmm14
vpclmulqdq $16, %xmm8, %xmm5, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpclmulqdq $0, %xmm8, %xmm5, %xmm6
vpxor %xmm6, %xmm0, %xmm0
vpclmulqdq $17, %xmm8, %xmm5, %xmm6
vpxor %xmm6, %xmm15, %xmm15
vpclmulqdq $1, %xmm8, %xmm5, %xmm6
vpxor %xmm6, %xmm4, %xmm4
#NO_APP
vpshufb %xmm17, %xmm27, %xmm5
vmovaps -64(%rsp), %xmm6
#APP
vaesenc %xmm6, %xmm9, %xmm9
vaesenc %xmm6, %xmm10, %xmm10
vaesenc %xmm6, %xmm11, %xmm11
vaesenc %xmm6, %xmm12, %xmm12
vaesenc %xmm6, %xmm13, %xmm13
vaesenc %xmm6, %xmm14, %xmm14
#NO_APP
vmovaps -80(%rsp), %xmm7
vmovdqa64 %xmm19, %xmm8
#APP
vaesenc %xmm7, %xmm9, %xmm9
vaesenc %xmm7, %xmm10, %xmm10
vaesenc %xmm7, %xmm11, %xmm11
vaesenc %xmm7, %xmm12, %xmm12
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm14, %xmm14
vpclmulqdq $16, %xmm8, %xmm5, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpclmulqdq $0, %xmm8, %xmm5, %xmm6
vpxor %xmm6, %xmm0, %xmm0
vpclmulqdq $17, %xmm8, %xmm5, %xmm6
vpxor %xmm6, %xmm15, %xmm15
vpclmulqdq $1, %xmm8, %xmm5, %xmm6
vpxor %xmm6, %xmm4, %xmm4
#NO_APP
vpshufb %xmm17, %xmm26, %xmm5
vpxor %xmm5, %xmm1, %xmm1
vmovaps -96(%rsp), %xmm6
vmovdqa64 %xmm20, %xmm7
#APP
vaesenc %xmm6, %xmm9, %xmm9
vaesenc %xmm6, %xmm10, %xmm10
vaesenc %xmm6, %xmm11, %xmm11
vaesenc %xmm6, %xmm12, %xmm12
vaesenc %xmm6, %xmm13, %xmm13
vaesenc %xmm6, %xmm14, %xmm14
vpclmulqdq $16, %xmm7, %xmm1, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpclmulqdq $0, %xmm7, %xmm1, %xmm5
vpxor %xmm5, %xmm0, %xmm0
vpclmulqdq $17, %xmm7, %xmm1, %xmm5
vpxor %xmm5, %xmm15, %xmm15
vpclmulqdq $1, %xmm7, %xmm1, %xmm5
vpxor %xmm5, %xmm4, %xmm4
#NO_APP
vpunpcklqdq %xmm4, %xmm24, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpunpckhqdq %xmm24, %xmm4, %xmm1
vpxor %xmm1, %xmm15, %xmm1
vmovaps -112(%rsp), %xmm4
#APP
vaesenc %xmm4, %xmm9, %xmm9
vaesenc %xmm4, %xmm10, %xmm10
vaesenc %xmm4, %xmm11, %xmm11
vaesenc %xmm4, %xmm12, %xmm12
vaesenc %xmm4, %xmm13, %xmm13
vaesenc %xmm4, %xmm14, %xmm14
#NO_APP
vmovdqa64 %xmm21, %xmm4
#APP
vaesenclast %xmm4, %xmm9, %xmm9
vaesenclast %xmm4, %xmm10, %xmm10
vaesenclast %xmm4, %xmm11, %xmm11
vaesenclast %xmm4, %xmm12, %xmm12
vaesenclast %xmm4, %xmm13, %xmm13
vaesenclast %xmm4, %xmm14, %xmm14
#NO_APP
vpxorq %xmm26, %xmm9, %xmm4
vpxorq %xmm27, %xmm10, %xmm5
vpxorq %xmm28, %xmm11, %xmm6
vpxorq %xmm29, %xmm12, %xmm9
vpxorq %xmm30, %xmm13, %xmm10
vpxorq %xmm31, %xmm14, %xmm11
vpclmulqdq $16, %xmm25, %xmm0, %xmm12
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm12, %xmm0
vmovdqu %xmm4, (%rax)
vmovdqu %xmm5, 16(%rax)
vmovdqu %xmm6, 32(%rax)
vmovdqu %xmm9, 48(%rax)
vmovdqu %xmm10, 64(%rax)
vmovdqu %xmm11, 80(%rax)
vpclmulqdq $16, %xmm25, %xmm0, %xmm4
vpshufd $78, %xmm0, %xmm0
vpternlogq $150, %xmm4, %xmm0, %xmm1
addq $96, %r9
addq $96, %rax
addq $-96, %rcx
vpaddd .LCPI2_8(%rip), %xmm2, %xmm2
cmpq $95, %rcx
ja .LBB2_31
vmovdqa64 -128(%rsp), %xmm16
cmpq $16, %rcx
jae .LBB2_33
.LBB2_25:
movq %rax, %rdx
jmp .LBB2_26
.LBB2_23:
movq %r10, %rcx
cmpq $16, %rcx
jb .LBB2_25
.LBB2_33:
vmovdqa 208(%rdi), %xmm0
vmovdqa (%rdi), %xmm3
vmovdqa 16(%rdi), %xmm4
vmovdqa 32(%rdi), %xmm5
vmovdqa 48(%rdi), %xmm6
vmovdqa 64(%rdi), %xmm7
vmovdqa 80(%rdi), %xmm8
vmovdqa 96(%rdi), %xmm9
vmovdqa 112(%rdi), %xmm10
vmovdqa 128(%rdi), %xmm11
vmovdqa 144(%rdi), %xmm12
vmovdqa 160(%rdi), %xmm13
vmovdqa 176(%rdi), %xmm14
vmovdqa 192(%rdi), %xmm15
vmovdqa64 .LCPI2_2(%rip), %xmm17
vpbroadcastq .LCPI2_3(%rip), %xmm18
vpmovsxbq .LCPI2_11(%rip), %xmm19
.p2align 4, 0x90
.LBB2_34:
leaq 16(%rax), %rdx
addq $-16, %rcx
vmovdqu64 (%r9), %xmm20
addq $16, %r9
vpshufb %xmm17, %xmm20, %xmm21
vpxorq %xmm21, %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm21
vpclmulqdq $1, %xmm1, %xmm0, %xmm22
vpclmulqdq $16, %xmm1, %xmm0, %xmm23
vpxorq %xmm22, %xmm23, %xmm22
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
vpslldq $8, %xmm22, %xmm23
vpxorq %xmm23, %xmm21, %xmm21
vpsrldq $8, %xmm22, %xmm22
vpclmulqdq $16, %xmm18, %xmm21, %xmm23
vpshufd $78, %xmm21, %xmm21
vpxorq %xmm21, %xmm23, %xmm21
vpclmulqdq $16, %xmm18, %xmm21, %xmm23
vpxorq %xmm1, %xmm23, %xmm23
vpshufd $78, %xmm21, %xmm1
vpternlogq $150, %xmm22, %xmm23, %xmm1
vpshufb %xmm17, %xmm2, %xmm21
vpxorq %xmm21, %xmm3, %xmm21
vaesenc %xmm4, %xmm21, %xmm21
vaesenc %xmm5, %xmm21, %xmm21
vaesenc %xmm6, %xmm21, %xmm21
vaesenc %xmm7, %xmm21, %xmm21
vaesenc %xmm8, %xmm21, %xmm21
vaesenc %xmm9, %xmm21, %xmm21
vaesenc %xmm10, %xmm21, %xmm21
vaesenc %xmm11, %xmm21, %xmm21
vaesenc %xmm12, %xmm21, %xmm21
vaesenc %xmm13, %xmm21, %xmm21
vaesenc %xmm14, %xmm21, %xmm21
vaesenclast %xmm15, %xmm21, %xmm21
vpaddd %xmm19, %xmm2, %xmm2
vpxorq %xmm20, %xmm21, %xmm20
vmovdqu64 %xmm20, (%rax)
movq %rdx, %rax
cmpq $15, %rcx
ja .LBB2_34
.LBB2_26:
testq %rcx, %rcx
je .LBB2_29
movl $-1, %eax
bzhil %ecx, %eax, %eax
kmovd %eax, %k1
vmovdqu8 (%r9), %xmm0 {%k1} {z}
vmovdqa .LCPI2_2(%rip), %xmm3
vpshufb %xmm3, %xmm2, %xmm2
vpxor (%rdi), %xmm2, %xmm2
vaesenc 16(%rdi), %xmm2, %xmm2
vaesenc 32(%rdi), %xmm2, %xmm2
vaesenc 48(%rdi), %xmm2, %xmm2
vaesenc 64(%rdi), %xmm2, %xmm2
vaesenc 80(%rdi), %xmm2, %xmm2
vaesenc 96(%rdi), %xmm2, %xmm2
vaesenc 112(%rdi), %xmm2, %xmm2
vaesenc 128(%rdi), %xmm2, %xmm2
vaesenc 144(%rdi), %xmm2, %xmm2
vaesenc 160(%rdi), %xmm2, %xmm2
vaesenc 176(%rdi), %xmm2, %xmm2
vaesenclast 192(%rdi), %xmm2, %xmm2
vpxor %xmm2, %xmm0, %xmm2
vmovdqu8 %xmm2, (%rdx) {%k1}
vpshufb %xmm3, %xmm0, %xmm0
vmovdqa 208(%rdi), %xmm3
jmp .LBB2_28
.LBB2_12:
vmovdqa 208(%rdi), %xmm3
vpshufb .LCPI2_2(%rip), %xmm0, %xmm0
.LBB2_28:
vpxor %xmm0, %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm3, %xmm0
vpclmulqdq $1, %xmm1, %xmm3, %xmm2
vpclmulqdq $16, %xmm1, %xmm3, %xmm4
vpxor %xmm2, %xmm4, %xmm2
vpclmulqdq $17, %xmm1, %xmm3, %xmm1
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm0, %xmm0
vpsrldq $8, %xmm2, %xmm2
vpbroadcastq .LCPI2_3(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm0, %xmm4
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm0, %xmm3
vpxor %xmm1, %xmm3, %xmm3
vpshufd $78, %xmm0, %xmm1
vpternlogq $150, %xmm2, %xmm3, %xmm1
.LBB2_29:
movq 104(%rsp), %rax
vmovdqa 208(%rdi), %xmm0
vmovq %r8, %xmm2
vmovq %r10, %xmm3
vpunpcklqdq %xmm2, %xmm3, %xmm2
vpsllq $3, %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm0, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpbroadcastq .LCPI2_3(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm4
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpxorq (%rdi), %xmm16, %xmm4
vaesenc 16(%rdi), %xmm4, %xmm4
vaesenc 32(%rdi), %xmm4, %xmm4
vaesenc 48(%rdi), %xmm4, %xmm4
vaesenc 64(%rdi), %xmm4, %xmm4
vaesenc 80(%rdi), %xmm4, %xmm4
vaesenc 96(%rdi), %xmm4, %xmm4
vaesenc 112(%rdi), %xmm4, %xmm4
vaesenc 128(%rdi), %xmm4, %xmm4
vaesenc 144(%rdi), %xmm4, %xmm4
vaesenc 160(%rdi), %xmm4, %xmm4
vaesenc 176(%rdi), %xmm4, %xmm4
vaesenclast 192(%rdi), %xmm4, %xmm4
vpshufb .LCPI2_9(%rip), %xmm1, %xmm1
vpxor %xmm0, %xmm2, %xmm0
vpshufb .LCPI2_2(%rip), %xmm0, %xmm0
vpshufb .LCPI2_10(%rip), %xmm3, %xmm2
vpternlogq $150, %xmm0, %xmm1, %xmm2
vpternlogq $150, (%rax), %xmm4, %xmm2
xorl %eax, %eax
vptest %xmm2, %xmm2
sete %al
.LBB2_5:
addq $64, %rsp
.cfi_def_cfa_offset 32
popq %rbx
.cfi_def_cfa_offset 24
popq %r14
.cfi_def_cfa_offset 16
popq %rbp
.cfi_def_cfa_offset 8
retq
.Lfunc_end2:
.size haberdashery_aes192gcm_tigerlake_decrypt, .Lfunc_end2-haberdashery_aes192gcm_tigerlake_decrypt
.cfi_endproc
.section .text.haberdashery_aes192gcm_tigerlake_is_supported,"ax",@progbits
.globl haberdashery_aes192gcm_tigerlake_is_supported
.p2align 4, 0x90
.type haberdashery_aes192gcm_tigerlake_is_supported,@function
haberdashery_aes192gcm_tigerlake_is_supported:
.cfi_startproc
xorl %esi, %esi
movl $1, %eax
xorl %ecx, %ecx
#APP
movq %rbx, %rdi
cpuid
xchgq %rbx, %rdi
#NO_APP
movl %ecx, %edi
movl %edx, %r8d
notl %r8d
notl %edi
xorl %ecx, %ecx
movl $7, %eax
#APP
movq %rbx, %r9
cpuid
xchgq %rbx, %r9
#NO_APP
andl $1993871875, %edi
andl $125829120, %r8d
orl %edi, %r8d
jne .LBB3_3
notl %r9d
andl $-240189143, %r9d
notl %ecx
andl $415260490, %ecx
orl %r9d, %ecx
jne .LBB3_3
shrl $8, %edx
andl $1, %edx
movl %edx, %esi
.LBB3_3:
movl %esi, %eax
retq
.Lfunc_end3:
.size haberdashery_aes192gcm_tigerlake_is_supported, .Lfunc_end3-haberdashery_aes192gcm_tigerlake_is_supported
.cfi_endproc
.ident "rustc version 1.86.0-nightly (9cd60bd2c 2025-02-15)"
.section ".note.GNU-stack","",@progbits
|
ts-phantomnk90/haberdashery
| 71,653
|
asm/aes256gcm_streaming_broadwell.s
|
# @generated
# https://github.com/facebookincubator/haberdashery/
.text
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI0_0:
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.LCPI0_1:
.quad 4294967297
.quad 4294967297
.LCPI0_8:
.quad 274877907008
.quad 274877907008
.LCPI0_9:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI0_10:
.zero 8
.quad -4467570830351532032
.section .rodata.cst4,"aM",@progbits,4
.p2align 2, 0x0
.LCPI0_2:
.long 0x00000002
.LCPI0_3:
.long 0x0c0f0e0d
.LCPI0_4:
.long 0x00000004
.LCPI0_5:
.long 0x00000008
.LCPI0_6:
.long 0x00000010
.LCPI0_7:
.long 0x00000020
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI0_11:
.quad -4467570830351532032
.section .text.haberdashery_aes256gcm_streaming_broadwell_init_key,"ax",@progbits
.globl haberdashery_aes256gcm_streaming_broadwell_init_key
.p2align 4, 0x90
.type haberdashery_aes256gcm_streaming_broadwell_init_key,@function
haberdashery_aes256gcm_streaming_broadwell_init_key:
.cfi_startproc
cmpq $32, %rdx
jne .LBB0_2
pushq %rax
.cfi_def_cfa_offset 16
vmovdqu (%rsi), %xmm5
vmovdqu 16(%rsi), %xmm4
vpslldq $4, %xmm5, %xmm0
vpslldq $8, %xmm5, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpslldq $12, %xmm5, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpbroadcastd .LCPI0_3(%rip), %xmm2
vpshufb %xmm2, %xmm4, %xmm1
vaesenclast .LCPI0_1(%rip), %xmm1, %xmm1
vpxor %xmm5, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm8
vmovdqa %xmm8, -16(%rsp)
vaesenc %xmm4, %xmm5, %xmm15
vpslldq $4, %xmm4, %xmm0
vpslldq $8, %xmm4, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpslldq $12, %xmm4, %xmm1
vpxor %xmm1, %xmm0, %xmm1
vpshufd $255, %xmm8, %xmm3
vpxor %xmm0, %xmm0, %xmm0
vaesenclast %xmm0, %xmm3, %xmm3
vpxor %xmm4, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm9
vmovdqa %xmm9, -32(%rsp)
vbroadcastss .LCPI0_2(%rip), %xmm3
vbroadcastss .LCPI0_3(%rip), %xmm1
#APP
vaesenc %xmm8, %xmm15, %xmm15
vpslldq $4, %xmm8, %xmm6
vpslldq $8, %xmm8, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpslldq $12, %xmm8, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpxor %xmm6, %xmm8, %xmm6
vpshufb %xmm1, %xmm9, %xmm10
vaesenclast %xmm3, %xmm10, %xmm10
vpxor %xmm6, %xmm10, %xmm10
#NO_APP
vmovaps %xmm10, %xmm8
vmovaps %xmm10, -48(%rsp)
#APP
vaesenc %xmm9, %xmm15, %xmm15
vpslldq $4, %xmm9, %xmm3
vpslldq $8, %xmm9, %xmm6
vpxor %xmm6, %xmm3, %xmm3
vpslldq $12, %xmm9, %xmm6
vpxor %xmm6, %xmm3, %xmm3
vpxor %xmm3, %xmm9, %xmm3
vpshufd $255, %xmm10, %xmm7
vaesenclast %xmm0, %xmm7, %xmm7
vpxor %xmm3, %xmm7, %xmm7
#NO_APP
vbroadcastss .LCPI0_4(%rip), %xmm3
vmovaps %xmm7, %xmm9
vmovaps %xmm7, -64(%rsp)
#APP
vaesenc %xmm8, %xmm15, %xmm15
vpslldq $4, %xmm8, %xmm6
vpslldq $8, %xmm8, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpslldq $12, %xmm8, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpxor %xmm6, %xmm8, %xmm6
vpshufb %xmm1, %xmm9, %xmm10
vaesenclast %xmm3, %xmm10, %xmm10
vpxor %xmm6, %xmm10, %xmm10
#NO_APP
vmovaps %xmm10, %xmm7
vmovaps %xmm10, -80(%rsp)
#APP
vaesenc %xmm9, %xmm15, %xmm15
vpslldq $4, %xmm9, %xmm3
vpslldq $8, %xmm9, %xmm6
vpxor %xmm6, %xmm3, %xmm3
vpslldq $12, %xmm9, %xmm6
vpxor %xmm6, %xmm3, %xmm3
vpxor %xmm3, %xmm9, %xmm3
vpshufd $255, %xmm10, %xmm8
vaesenclast %xmm0, %xmm8, %xmm8
vpxor %xmm3, %xmm8, %xmm8
#NO_APP
vmovaps %xmm8, -96(%rsp)
vbroadcastss .LCPI0_5(%rip), %xmm3
#APP
vaesenc %xmm7, %xmm15, %xmm15
vpslldq $4, %xmm7, %xmm6
vpslldq $8, %xmm7, %xmm9
vpxor %xmm6, %xmm9, %xmm6
vpslldq $12, %xmm7, %xmm9
vpxor %xmm6, %xmm9, %xmm6
vpxor %xmm7, %xmm6, %xmm6
vpshufb %xmm1, %xmm8, %xmm10
vaesenclast %xmm3, %xmm10, %xmm10
vpxor %xmm6, %xmm10, %xmm10
#NO_APP
vmovaps %xmm10, %xmm7
vmovaps %xmm10, -112(%rsp)
#APP
vaesenc %xmm8, %xmm15, %xmm15
vpslldq $4, %xmm8, %xmm3
vpslldq $8, %xmm8, %xmm6
vpxor %xmm6, %xmm3, %xmm3
vpslldq $12, %xmm8, %xmm6
vpxor %xmm6, %xmm3, %xmm3
vpxor %xmm3, %xmm8, %xmm3
vpshufd $255, %xmm10, %xmm9
vaesenclast %xmm0, %xmm9, %xmm9
vpxor %xmm3, %xmm9, %xmm9
#NO_APP
vbroadcastss .LCPI0_6(%rip), %xmm3
#APP
vaesenc %xmm7, %xmm15, %xmm15
vpslldq $4, %xmm7, %xmm6
vpslldq $8, %xmm7, %xmm11
vpxor %xmm6, %xmm11, %xmm6
vpslldq $12, %xmm7, %xmm11
vpxor %xmm6, %xmm11, %xmm6
vpxor %xmm7, %xmm6, %xmm6
vpshufb %xmm1, %xmm9, %xmm10
vaesenclast %xmm3, %xmm10, %xmm10
vpxor %xmm6, %xmm10, %xmm10
#NO_APP
#APP
vaesenc %xmm9, %xmm15, %xmm15
vpslldq $4, %xmm9, %xmm3
vpslldq $8, %xmm9, %xmm6
vpxor %xmm6, %xmm3, %xmm3
vpslldq $12, %xmm9, %xmm6
vpxor %xmm6, %xmm3, %xmm3
vpxor %xmm3, %xmm9, %xmm3
vpshufd $255, %xmm10, %xmm11
vaesenclast %xmm0, %xmm11, %xmm11
vpxor %xmm3, %xmm11, %xmm11
#NO_APP
vbroadcastss .LCPI0_7(%rip), %xmm3
#APP
vaesenc %xmm10, %xmm15, %xmm15
vpslldq $4, %xmm10, %xmm6
vpslldq $8, %xmm10, %xmm13
vpxor %xmm6, %xmm13, %xmm6
vpslldq $12, %xmm10, %xmm13
vpxor %xmm6, %xmm13, %xmm6
vpxor %xmm6, %xmm10, %xmm6
vpshufb %xmm1, %xmm11, %xmm12
vaesenclast %xmm3, %xmm12, %xmm12
vpxor %xmm6, %xmm12, %xmm12
#NO_APP
vpslldq $4, %xmm11, %xmm1
vpunpcklqdq %xmm11, %xmm0, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vinsertps $55, %xmm11, %xmm0, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpshufd $255, %xmm12, %xmm3
vaesenclast %xmm0, %xmm3, %xmm3
vpxor %xmm1, %xmm11, %xmm1
vpxor %xmm1, %xmm3, %xmm13
vpslldq $4, %xmm12, %xmm1
vpunpcklqdq %xmm12, %xmm0, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vinsertps $55, %xmm12, %xmm0, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpshufb %xmm2, %xmm13, %xmm2
vaesenclast .LCPI0_8(%rip), %xmm2, %xmm2
vpxor %xmm1, %xmm12, %xmm1
vpxor %xmm1, %xmm2, %xmm2
vmovdqa %xmm2, -128(%rsp)
vaesenc %xmm11, %xmm15, %xmm1
vaesenc %xmm12, %xmm1, %xmm1
vaesenc %xmm13, %xmm1, %xmm1
vaesenclast %xmm2, %xmm1, %xmm1
vpshufb .LCPI0_9(%rip), %xmm1, %xmm1
vpsrlq $63, %xmm1, %xmm2
vpaddq %xmm1, %xmm1, %xmm1
vpshufd $78, %xmm2, %xmm3
vpor %xmm3, %xmm1, %xmm1
vpblendd $12, %xmm2, %xmm0, %xmm0
vpsllq $63, %xmm0, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpsllq $62, %xmm0, %xmm2
vpsllq $57, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vpxor %xmm0, %xmm1, %xmm15
vpclmulqdq $0, %xmm15, %xmm15, %xmm0
vpbroadcastq .LCPI0_11(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm0, %xmm1
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpclmulqdq $17, %xmm15, %xmm15, %xmm1
vpshufd $78, %xmm0, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpclmulqdq $16, %xmm2, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm1
vpclmulqdq $16, %xmm15, %xmm1, %xmm0
vpclmulqdq $1, %xmm15, %xmm1, %xmm3
vpxor %xmm0, %xmm3, %xmm0
vpclmulqdq $0, %xmm15, %xmm1, %xmm3
vpslldq $8, %xmm0, %xmm6
vpxor %xmm6, %xmm3, %xmm3
vpclmulqdq $16, %xmm2, %xmm3, %xmm6
vpshufd $78, %xmm3, %xmm3
vpxor %xmm3, %xmm6, %xmm3
vpsrldq $8, %xmm0, %xmm0
vpclmulqdq $17, %xmm15, %xmm1, %xmm6
vpxor %xmm0, %xmm6, %xmm0
vpshufd $78, %xmm3, %xmm6
vpxor %xmm6, %xmm0, %xmm0
vpclmulqdq $16, %xmm2, %xmm3, %xmm3
vpxor %xmm3, %xmm0, %xmm3
vpclmulqdq $0, %xmm3, %xmm3, %xmm0
vpclmulqdq $16, %xmm2, %xmm0, %xmm6
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm6, %xmm0
vpclmulqdq $17, %xmm3, %xmm3, %xmm6
vpshufd $78, %xmm0, %xmm14
vpxor %xmm6, %xmm14, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm0
vpxor %xmm0, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm1, %xmm0
vpclmulqdq $16, %xmm2, %xmm0, %xmm14
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm14, %xmm0
vpclmulqdq $17, %xmm1, %xmm1, %xmm14
vpshufd $78, %xmm0, %xmm7
vpxor %xmm7, %xmm14, %xmm7
vpclmulqdq $16, %xmm2, %xmm0, %xmm0
vpxor %xmm0, %xmm7, %xmm0
vpclmulqdq $16, %xmm15, %xmm0, %xmm7
vpclmulqdq $1, %xmm15, %xmm0, %xmm14
vpxor %xmm7, %xmm14, %xmm7
vpclmulqdq $0, %xmm15, %xmm0, %xmm14
vpslldq $8, %xmm7, %xmm8
vpxor %xmm8, %xmm14, %xmm8
vpclmulqdq $16, %xmm2, %xmm8, %xmm14
vpshufd $78, %xmm8, %xmm8
vpxor %xmm8, %xmm14, %xmm8
vpsrldq $8, %xmm7, %xmm7
vpclmulqdq $17, %xmm15, %xmm0, %xmm14
vpxor %xmm7, %xmm14, %xmm7
vpclmulqdq $16, %xmm2, %xmm8, %xmm2
vpshufd $78, %xmm8, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpxor %xmm2, %xmm7, %xmm2
vmovdqa %xmm5, (%rdi)
vmovdqa %xmm4, 16(%rdi)
vmovaps -16(%rsp), %xmm4
vmovaps %xmm4, 32(%rdi)
vmovaps -32(%rsp), %xmm4
vmovaps %xmm4, 48(%rdi)
vmovaps -48(%rsp), %xmm4
vmovaps %xmm4, 64(%rdi)
vmovaps -64(%rsp), %xmm4
vmovaps %xmm4, 80(%rdi)
vmovaps -80(%rsp), %xmm4
vmovaps %xmm4, 96(%rdi)
vmovaps -96(%rsp), %xmm4
vmovaps %xmm4, 112(%rdi)
vmovaps -112(%rsp), %xmm4
vmovaps %xmm4, 128(%rdi)
vmovaps %xmm9, 144(%rdi)
vmovaps %xmm10, 160(%rdi)
vmovaps %xmm11, 176(%rdi)
vmovaps %xmm12, 192(%rdi)
vmovdqa %xmm13, 208(%rdi)
vmovaps -128(%rsp), %xmm4
vmovaps %xmm4, 224(%rdi)
vmovdqa %xmm15, 240(%rdi)
vmovdqa %xmm1, 256(%rdi)
vmovdqa %xmm3, 272(%rdi)
vmovdqa %xmm0, 288(%rdi)
vmovdqa %xmm2, 304(%rdi)
vmovdqa %xmm6, 320(%rdi)
addq $8, %rsp
.cfi_def_cfa_offset 8
.LBB0_2:
xorl %eax, %eax
cmpq $32, %rdx
sete %al
retq
.Lfunc_end0:
.size haberdashery_aes256gcm_streaming_broadwell_init_key, .Lfunc_end0-haberdashery_aes256gcm_streaming_broadwell_init_key
.cfi_endproc
.section .text.haberdashery_aes256gcm_streaming_broadwell_is_supported,"ax",@progbits
.globl haberdashery_aes256gcm_streaming_broadwell_is_supported
.p2align 4, 0x90
.type haberdashery_aes256gcm_streaming_broadwell_is_supported,@function
haberdashery_aes256gcm_streaming_broadwell_is_supported:
.cfi_startproc
movl $1, %eax
xorl %ecx, %ecx
#APP
movq %rbx, %rsi
cpuid
xchgq %rbx, %rsi
#NO_APP
movl %ecx, %esi
movl %edx, %edi
notl %edi
notl %esi
movl $7, %eax
xorl %ecx, %ecx
#APP
movq %rbx, %r8
cpuid
xchgq %rbx, %r8
#NO_APP
andl $1993871875, %esi
andl $125829120, %edi
orl %esi, %edi
notl %r8d
andl $786729, %r8d
xorl %eax, %eax
orl %edi, %r8d
sete %al
retq
.Lfunc_end1:
.size haberdashery_aes256gcm_streaming_broadwell_is_supported, .Lfunc_end1-haberdashery_aes256gcm_streaming_broadwell_is_supported
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI2_0:
.byte 15
.byte 128
.byte 128
.byte 128
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI2_1:
.long 1
.long 0
.long 0
.long 0
.section .text.haberdashery_aes256gcm_streaming_broadwell_init_state,"ax",@progbits
.globl haberdashery_aes256gcm_streaming_broadwell_init_state
.p2align 4, 0x90
.type haberdashery_aes256gcm_streaming_broadwell_init_state,@function
haberdashery_aes256gcm_streaming_broadwell_init_state:
.cfi_startproc
cmpq $12, %rcx
jne .LBB2_2
vmovd (%rdx), %xmm0
vpinsrd $1, 4(%rdx), %xmm0, %xmm0
vpinsrd $2, 8(%rdx), %xmm0, %xmm0
movl $16777216, %eax
vpinsrd $3, %eax, %xmm0, %xmm0
vpshufb .LCPI2_0(%rip), %xmm0, %xmm1
vpaddd .LCPI2_1(%rip), %xmm1, %xmm1
vxorps %xmm2, %xmm2, %xmm2
vmovups %ymm2, -56(%rsp)
vmovups %ymm2, -88(%rsp)
movq $0, -24(%rsp)
vxorps %xmm2, %xmm2, %xmm2
vmovaps %xmm2, (%rdi)
vmovdqa %xmm0, 16(%rdi)
vmovdqa %xmm1, 32(%rdi)
vmovups -56(%rsp), %ymm0
vmovups -40(%rsp), %xmm1
movq -24(%rsp), %rax
movq -16(%rsp), %rdx
vmovups %ymm0, 48(%rdi)
vmovups %xmm1, 64(%rdi)
movq %rax, 80(%rdi)
movq %rdx, 88(%rdi)
vmovaps %xmm2, 96(%rdi)
.LBB2_2:
xorl %eax, %eax
cmpq $12, %rcx
sete %al
vzeroupper
retq
.Lfunc_end2:
.size haberdashery_aes256gcm_streaming_broadwell_init_state, .Lfunc_end2-haberdashery_aes256gcm_streaming_broadwell_init_state
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI3_0:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI3_1:
.zero 8
.quad -4467570830351532032
.LCPI3_2:
.zero 16
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI3_3:
.quad -4467570830351532032
.section .text.haberdashery_aes256gcm_streaming_broadwell_aad_update,"ax",@progbits
.globl haberdashery_aes256gcm_streaming_broadwell_aad_update
.p2align 4, 0x90
.type haberdashery_aes256gcm_streaming_broadwell_aad_update,@function
haberdashery_aes256gcm_streaming_broadwell_aad_update:
.cfi_startproc
movabsq $-2305843009213693951, %rax
leaq (%rcx,%rax), %r8
incq %rax
cmpq %rax, %r8
jae .LBB3_3
xorl %eax, %eax
retq
.LBB3_3:
pushq %rbp
.cfi_def_cfa_offset 16
pushq %r15
.cfi_def_cfa_offset 24
pushq %r14
.cfi_def_cfa_offset 32
pushq %r13
.cfi_def_cfa_offset 40
pushq %r12
.cfi_def_cfa_offset 48
pushq %rbx
.cfi_def_cfa_offset 56
subq $24, %rsp
.cfi_def_cfa_offset 80
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
.cfi_offset %rbp, -16
movq 96(%rdi), %r14
addq %rcx, %r14
xorl %eax, %eax
movabsq $2305843009213693950, %r8
cmpq %r8, %r14
ja .LBB3_26
cmpq $0, 104(%rdi)
jne .LBB3_26
movq 80(%rdi), %r8
testq %r8, %r8
je .LBB3_6
leaq (%r8,%rcx), %rbx
cmpq $15, %rbx
ja .LBB3_9
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, (%rsp)
leaq (%rsp,%r8), %rax
movq %rdi, %r15
movq %rax, %rdi
movq %rdx, %rsi
movq %rcx, %rdx
movq %rcx, %r12
callq *memcpy@GOTPCREL(%rip)
movq %r15, %rdi
movq %r12, %rcx
vmovdqa 64(%r15), %xmm0
vpxor (%rsp), %xmm0, %xmm0
jmp .LBB3_24
.LBB3_6:
movq %rcx, %rbx
cmpq $96, %rbx
jae .LBB3_11
jmp .LBB3_14
.LBB3_9:
vmovaps 64(%rdi), %xmm0
vmovaps %xmm0, (%rsp)
movl $16, %eax
subq %r8, %rax
addq %rsp, %r8
leaq (%rdx,%rax), %r15
movq %rcx, %rbx
subq %rax, %rbx
movq %rdi, %r12
movq %r8, %rdi
movq %rsi, %r13
movq %rdx, %rsi
movq %rax, %rdx
movq %rcx, %rbp
callq *memcpy@GOTPCREL(%rip)
movq %r13, %rsi
movq %r12, %rdi
movq %rbp, %rcx
movq $0, 80(%r12)
vmovdqa (%rsp), %xmm0
vmovdqa 240(%r13), %xmm1
vpshufb .LCPI3_0(%rip), %xmm0, %xmm0
vpxor (%r12), %xmm0, %xmm0
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI3_3(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vmovdqa %xmm0, (%r12)
movq %r15, %rdx
cmpq $96, %rbx
jb .LBB3_14
.LBB3_11:
vmovdqu 32(%rdx), %xmm1
vmovdqu 48(%rdx), %xmm2
vmovdqu 64(%rdx), %xmm3
vmovdqu 80(%rdx), %xmm4
vmovdqa .LCPI3_0(%rip), %xmm0
vpshufb %xmm0, %xmm1, %xmm6
vpshufb %xmm0, %xmm2, %xmm5
vpshufb %xmm0, %xmm3, %xmm7
vpshufb %xmm0, %xmm4, %xmm8
vmovdqa 240(%rsi), %xmm1
vmovdqa 256(%rsi), %xmm2
vmovdqa 272(%rsi), %xmm3
vmovdqa 288(%rsi), %xmm4
vpclmulqdq $0, %xmm8, %xmm1, %xmm9
vpclmulqdq $1, %xmm8, %xmm1, %xmm10
vpclmulqdq $16, %xmm8, %xmm1, %xmm11
vpxor %xmm10, %xmm11, %xmm10
vpclmulqdq $17, %xmm8, %xmm1, %xmm8
vpclmulqdq $0, %xmm7, %xmm2, %xmm11
vpxor %xmm9, %xmm11, %xmm9
vpclmulqdq $1, %xmm7, %xmm2, %xmm11
vpclmulqdq $16, %xmm7, %xmm2, %xmm12
vpxor %xmm12, %xmm11, %xmm11
vpxor %xmm11, %xmm10, %xmm10
vpclmulqdq $17, %xmm7, %xmm2, %xmm7
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $0, %xmm5, %xmm3, %xmm8
vpclmulqdq $1, %xmm5, %xmm3, %xmm11
vpclmulqdq $16, %xmm5, %xmm3, %xmm12
vpxor %xmm12, %xmm11, %xmm11
vpclmulqdq $0, %xmm6, %xmm4, %xmm12
vpxor %xmm12, %xmm8, %xmm8
vmovdqu (%rdx), %xmm12
vpxor %xmm8, %xmm9, %xmm8
vpclmulqdq $1, %xmm6, %xmm4, %xmm9
vpxor %xmm9, %xmm11, %xmm9
vmovdqu 16(%rdx), %xmm11
vpshufb %xmm0, %xmm12, %xmm12
vpshufb %xmm0, %xmm11, %xmm11
vpxor (%rdi), %xmm12, %xmm12
vpclmulqdq $17, %xmm5, %xmm3, %xmm5
vpxor %xmm9, %xmm10, %xmm9
vpclmulqdq $17, %xmm6, %xmm4, %xmm10
vpxor %xmm5, %xmm10, %xmm10
vmovdqa 304(%rsi), %xmm5
vpclmulqdq $16, %xmm6, %xmm4, %xmm6
vpxor %xmm7, %xmm10, %xmm7
vpclmulqdq $0, %xmm11, %xmm5, %xmm10
vpxor %xmm10, %xmm8, %xmm8
vpclmulqdq $1, %xmm11, %xmm5, %xmm10
vpxor %xmm6, %xmm10, %xmm6
vpclmulqdq $16, %xmm11, %xmm5, %xmm10
vpxor %xmm6, %xmm10, %xmm6
vpxor %xmm6, %xmm9, %xmm9
vmovdqa 320(%rsi), %xmm6
vpclmulqdq $17, %xmm11, %xmm5, %xmm10
vpxor %xmm7, %xmm10, %xmm7
vpclmulqdq $0, %xmm12, %xmm6, %xmm10
vpxor %xmm10, %xmm8, %xmm8
vpclmulqdq $1, %xmm12, %xmm6, %xmm10
vpxor %xmm10, %xmm9, %xmm9
vpclmulqdq $16, %xmm12, %xmm6, %xmm10
vpxor %xmm10, %xmm9, %xmm9
vpclmulqdq $17, %xmm12, %xmm6, %xmm10
vpxor %xmm7, %xmm10, %xmm10
addq $96, %rdx
addq $-96, %rbx
cmpq $96, %rbx
jb .LBB3_13
.p2align 4, 0x90
.LBB3_12:
vmovdqu (%rdx), %xmm11
vmovdqu 32(%rdx), %xmm12
vmovdqu 48(%rdx), %xmm13
vmovdqu 64(%rdx), %xmm14
vmovdqu 80(%rdx), %xmm15
vpslldq $8, %xmm9, %xmm7
vpxor %xmm7, %xmm8, %xmm7
vpsrldq $8, %xmm9, %xmm8
vpxor %xmm8, %xmm10, %xmm8
vpbroadcastq .LCPI3_3(%rip), %xmm10
vpclmulqdq $16, %xmm10, %xmm7, %xmm9
vpshufd $78, %xmm7, %xmm7
vpxor %xmm7, %xmm9, %xmm7
vpclmulqdq $16, %xmm10, %xmm7, %xmm9
vpshufd $78, %xmm7, %xmm7
vpxor %xmm7, %xmm8, %xmm7
vpshufb %xmm0, %xmm11, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpxor %xmm7, %xmm9, %xmm10
vpshufb %xmm0, %xmm12, %xmm8
vpshufb %xmm0, %xmm13, %xmm7
vpshufb %xmm0, %xmm14, %xmm9
vpshufb %xmm0, %xmm15, %xmm11
vpclmulqdq $0, %xmm11, %xmm1, %xmm12
vpclmulqdq $1, %xmm11, %xmm1, %xmm13
vpclmulqdq $16, %xmm11, %xmm1, %xmm14
vpxor %xmm13, %xmm14, %xmm13
vpclmulqdq $17, %xmm11, %xmm1, %xmm11
vpclmulqdq $0, %xmm9, %xmm2, %xmm14
vpxor %xmm12, %xmm14, %xmm12
vpclmulqdq $1, %xmm9, %xmm2, %xmm14
vpclmulqdq $16, %xmm9, %xmm2, %xmm15
vpxor %xmm15, %xmm14, %xmm14
vpxor %xmm14, %xmm13, %xmm13
vpclmulqdq $17, %xmm9, %xmm2, %xmm9
vpxor %xmm11, %xmm9, %xmm9
vpclmulqdq $0, %xmm7, %xmm3, %xmm11
vpclmulqdq $1, %xmm7, %xmm3, %xmm14
vpclmulqdq $16, %xmm7, %xmm3, %xmm15
vpxor %xmm15, %xmm14, %xmm14
vpclmulqdq $0, %xmm8, %xmm4, %xmm15
vpxor %xmm15, %xmm11, %xmm11
vpxor %xmm11, %xmm12, %xmm11
vpclmulqdq $1, %xmm8, %xmm4, %xmm12
vpxor %xmm12, %xmm14, %xmm12
vpclmulqdq $17, %xmm7, %xmm3, %xmm7
vpxor %xmm12, %xmm13, %xmm12
vpclmulqdq $17, %xmm8, %xmm4, %xmm13
vpxor %xmm7, %xmm13, %xmm7
vmovdqu 16(%rdx), %xmm13
vpshufb %xmm0, %xmm13, %xmm13
vpclmulqdq $16, %xmm8, %xmm4, %xmm8
vpxor %xmm7, %xmm9, %xmm7
vpclmulqdq $0, %xmm13, %xmm5, %xmm9
vpxor %xmm9, %xmm11, %xmm9
vpclmulqdq $1, %xmm13, %xmm5, %xmm11
vpxor %xmm11, %xmm8, %xmm8
vpclmulqdq $16, %xmm13, %xmm5, %xmm11
vpxor %xmm11, %xmm8, %xmm8
vpxor %xmm8, %xmm12, %xmm11
vpclmulqdq $17, %xmm13, %xmm5, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $0, %xmm10, %xmm6, %xmm8
vpxor %xmm8, %xmm9, %xmm8
vpclmulqdq $1, %xmm10, %xmm6, %xmm9
vpxor %xmm9, %xmm11, %xmm9
vpclmulqdq $16, %xmm10, %xmm6, %xmm11
vpxor %xmm11, %xmm9, %xmm9
vpclmulqdq $17, %xmm10, %xmm6, %xmm10
vpxor %xmm7, %xmm10, %xmm10
addq $96, %rdx
addq $-96, %rbx
cmpq $95, %rbx
ja .LBB3_12
.LBB3_13:
vpslldq $8, %xmm9, %xmm0
vpxor %xmm0, %xmm8, %xmm0
vpsrldq $8, %xmm9, %xmm1
vpxor %xmm1, %xmm10, %xmm1
vpbroadcastq .LCPI3_3(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm0, %xmm3
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm0
vpclmulqdq $16, %xmm2, %xmm0, %xmm2
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpxor %xmm2, %xmm0, %xmm0
vmovdqa %xmm0, (%rdi)
.LBB3_14:
cmpq $16, %rbx
jae .LBB3_15
testq %rbx, %rbx
jne .LBB3_23
jmp .LBB3_25
.LBB3_15:
vmovdqa (%rdi), %xmm1
vmovdqa 240(%rsi), %xmm0
leaq -16(%rbx), %rax
testb $16, %al
jne .LBB3_17
vmovdqu (%rdx), %xmm2
vpshufb .LCPI3_0(%rip), %xmm2, %xmm2
addq $16, %rdx
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
vpslldq $8, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpsrldq $8, %xmm3, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpbroadcastq .LCPI3_3(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm2, %xmm4
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm4, %xmm2
vpclmulqdq $16, %xmm3, %xmm2, %xmm3
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
movq %rax, %rbx
.LBB3_17:
cmpq $16, %rax
jb .LBB3_21
vmovdqa .LCPI3_0(%rip), %xmm2
vpbroadcastq .LCPI3_3(%rip), %xmm3
.p2align 4, 0x90
.LBB3_19:
vmovdqu (%rdx), %xmm4
vmovdqu 16(%rdx), %xmm5
vpshufb %xmm2, %xmm4, %xmm4
vpxor %xmm4, %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm4
vpclmulqdq $1, %xmm1, %xmm0, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm7
vpxor %xmm6, %xmm7, %xmm6
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
vpslldq $8, %xmm6, %xmm7
vpxor %xmm7, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm1, %xmm1
vpclmulqdq $16, %xmm3, %xmm4, %xmm6
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm6, %xmm4
vpclmulqdq $16, %xmm3, %xmm4, %xmm6
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm1, %xmm1
addq $32, %rdx
addq $-32, %rbx
vpshufb %xmm2, %xmm5, %xmm4
vpxor %xmm4, %xmm1, %xmm1
vpxor %xmm1, %xmm6, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm4
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vpclmulqdq $16, %xmm1, %xmm0, %xmm6
vpxor %xmm5, %xmm6, %xmm5
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
vpslldq $8, %xmm5, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpsrldq $8, %xmm5, %xmm5
vpxor %xmm5, %xmm1, %xmm1
vpclmulqdq $16, %xmm3, %xmm4, %xmm5
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $16, %xmm3, %xmm4, %xmm5
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm1, %xmm1
vpxor %xmm1, %xmm5, %xmm1
cmpq $15, %rbx
ja .LBB3_19
movq %rbx, %rax
.LBB3_21:
vmovdqa %xmm1, (%rdi)
movq %rax, %rbx
testq %rbx, %rbx
je .LBB3_25
.LBB3_23:
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, (%rsp)
movq %rsp, %rax
movq %rdi, %r15
movq %rax, %rdi
movq %rdx, %rsi
movq %rbx, %rdx
movq %rcx, %r12
callq *memcpy@GOTPCREL(%rip)
movq %r15, %rdi
movq %r12, %rcx
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, 48(%r15)
vmovdqa (%rsp), %xmm0
.LBB3_24:
vmovdqa %xmm0, 64(%r15)
movq %rbx, 80(%r15)
.LBB3_25:
movq %r14, 96(%rdi)
movq %rcx, %rax
.LBB3_26:
addq $24, %rsp
.cfi_def_cfa_offset 56
popq %rbx
.cfi_def_cfa_offset 48
popq %r12
.cfi_def_cfa_offset 40
popq %r13
.cfi_def_cfa_offset 32
popq %r14
.cfi_def_cfa_offset 24
popq %r15
.cfi_def_cfa_offset 16
popq %rbp
.cfi_def_cfa_offset 8
.cfi_restore %rbx
.cfi_restore %r12
.cfi_restore %r13
.cfi_restore %r14
.cfi_restore %r15
.cfi_restore %rbp
retq
.Lfunc_end3:
.size haberdashery_aes256gcm_streaming_broadwell_aad_update, .Lfunc_end3-haberdashery_aes256gcm_streaming_broadwell_aad_update
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI4_0:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI4_1:
.zero 8
.quad -4467570830351532032
.LCPI4_2:
.long 1
.long 0
.long 0
.long 0
.LCPI4_3:
.long 2
.long 0
.long 0
.long 0
.LCPI4_4:
.long 3
.long 0
.long 0
.long 0
.LCPI4_5:
.long 4
.long 0
.long 0
.long 0
.LCPI4_6:
.long 5
.long 0
.long 0
.long 0
.LCPI4_7:
.long 6
.long 0
.long 0
.long 0
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI4_8:
.quad -4467570830351532032
.section .text.haberdashery_aes256gcm_streaming_broadwell_encrypt_update,"ax",@progbits
.globl haberdashery_aes256gcm_streaming_broadwell_encrypt_update
.p2align 4, 0x90
.type haberdashery_aes256gcm_streaming_broadwell_encrypt_update,@function
haberdashery_aes256gcm_streaming_broadwell_encrypt_update:
.cfi_startproc
cmpq %r9, %rcx
jne .LBB4_3
movq %rcx, %rax
movabsq $-68719476704, %rcx
leaq (%rax,%rcx), %r9
incq %rcx
cmpq %rcx, %r9
jb .LBB4_3
movq 104(%rdi), %rcx
leaq (%rcx,%rax), %r11
movq %r11, %r9
shrq $5, %r9
cmpq $2147483646, %r9
jbe .LBB4_6
.LBB4_3:
xorl %eax, %eax
retq
.LBB4_6:
pushq %rbp
.cfi_def_cfa_offset 16
pushq %r15
.cfi_def_cfa_offset 24
pushq %r14
.cfi_def_cfa_offset 32
pushq %r13
.cfi_def_cfa_offset 40
pushq %r12
.cfi_def_cfa_offset 48
pushq %rbx
.cfi_def_cfa_offset 56
subq $504, %rsp
.cfi_def_cfa_offset 560
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
.cfi_offset %rbp, -16
testq %rcx, %rcx
setne %r9b
movq 80(%rdi), %rcx
testq %rcx, %rcx
sete %r10b
orb %r9b, %r10b
je .LBB4_10
testq %rcx, %rcx
je .LBB4_11
movq %r11, 16(%rsp)
movq %rdi, %rbp
leaq (%rcx,%rax), %rbx
cmpq $15, %rbx
ja .LBB4_12
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, (%rsp)
leaq (%rsp,%rcx), %r14
movq memcpy@GOTPCREL(%rip), %r13
movq %r14, %rdi
movq %rdx, %rsi
movq %rax, %rdx
movq %rax, %r15
movq %r8, %r12
callq *%r13
vmovdqa (%rsp), %xmm0
vpxor 64(%rbp), %xmm0, %xmm0
vmovdqa %xmm0, 64(%rbp)
vmovdqa %xmm0, (%rsp)
movq %r12, %rdi
movq %r14, %rsi
movq %r15, %r12
movq %r15, %rdx
callq *%r13
movq %rbp, %rdi
jmp .LBB4_24
.LBB4_10:
vmovdqa 240(%rsi), %xmm0
vmovdqa 64(%rdi), %xmm1
vpshufb .LCPI4_0(%rip), %xmm1, %xmm1
vpxor (%rdi), %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm0, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI4_8(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vmovdqa %xmm0, (%rdi)
vpxor %xmm0, %xmm0, %xmm0
vmovdqu %ymm0, 48(%rdi)
movq $0, 80(%rdi)
.LBB4_11:
movq %rax, %rbx
cmpq $96, %rbx
jb .LBB4_14
.LBB4_16:
vmovups (%rdx), %xmm0
vmovaps %xmm0, 48(%rsp)
vmovups 16(%rdx), %xmm0
vmovaps %xmm0, 32(%rsp)
vmovups 32(%rdx), %xmm0
vmovaps %xmm0, 64(%rsp)
vmovdqu 48(%rdx), %xmm3
vmovdqu 64(%rdx), %xmm5
vmovdqu 80(%rdx), %xmm6
vmovdqa 32(%rdi), %xmm1
vmovdqa .LCPI4_0(%rip), %xmm14
vpaddd .LCPI4_2(%rip), %xmm1, %xmm7
vpshufb %xmm14, %xmm1, %xmm8
vpshufb %xmm14, %xmm7, %xmm7
vpaddd .LCPI4_3(%rip), %xmm1, %xmm9
vpshufb %xmm14, %xmm9, %xmm9
vpaddd .LCPI4_4(%rip), %xmm1, %xmm10
vpshufb %xmm14, %xmm10, %xmm11
vpaddd .LCPI4_5(%rip), %xmm1, %xmm10
vpaddd .LCPI4_6(%rip), %xmm1, %xmm12
vpshufb %xmm14, %xmm10, %xmm13
vmovdqa %xmm14, %xmm10
vpshufb %xmm14, %xmm12, %xmm12
vpaddd .LCPI4_7(%rip), %xmm1, %xmm1
vmovdqa %xmm1, 32(%rdi)
vmovdqa (%rsi), %xmm14
vmovaps 16(%rsi), %xmm15
vmovaps 32(%rsi), %xmm0
vpxor %xmm8, %xmm14, %xmm8
vpxor %xmm7, %xmm14, %xmm7
vpxor %xmm9, %xmm14, %xmm1
vpxor %xmm11, %xmm14, %xmm11
vpxor %xmm13, %xmm14, %xmm9
vmovdqa %xmm14, %xmm13
vpxor %xmm12, %xmm14, %xmm12
vmovaps %xmm15, 432(%rsp)
#APP
vaesenc %xmm15, %xmm8, %xmm8
vaesenc %xmm15, %xmm7, %xmm7
vaesenc %xmm15, %xmm1, %xmm1
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm12, %xmm12
#NO_APP
vmovaps %xmm0, 416(%rsp)
#APP
vaesenc %xmm0, %xmm8, %xmm8
vaesenc %xmm0, %xmm7, %xmm7
vaesenc %xmm0, %xmm1, %xmm1
vaesenc %xmm0, %xmm11, %xmm11
vaesenc %xmm0, %xmm9, %xmm9
vaesenc %xmm0, %xmm12, %xmm12
#NO_APP
vmovdqa 48(%rsi), %xmm0
#APP
vaesenc %xmm0, %xmm8, %xmm8
vaesenc %xmm0, %xmm7, %xmm7
vaesenc %xmm0, %xmm1, %xmm1
vaesenc %xmm0, %xmm11, %xmm11
vaesenc %xmm0, %xmm9, %xmm9
vaesenc %xmm0, %xmm12, %xmm12
#NO_APP
vmovaps 64(%rsi), %xmm14
vmovaps %xmm14, 400(%rsp)
#APP
vaesenc %xmm14, %xmm8, %xmm8
vaesenc %xmm14, %xmm7, %xmm7
vaesenc %xmm14, %xmm1, %xmm1
vaesenc %xmm14, %xmm11, %xmm11
vaesenc %xmm14, %xmm9, %xmm9
vaesenc %xmm14, %xmm12, %xmm12
#NO_APP
vmovaps 80(%rsi), %xmm14
vmovaps %xmm14, 384(%rsp)
#APP
vaesenc %xmm14, %xmm8, %xmm8
vaesenc %xmm14, %xmm7, %xmm7
vaesenc %xmm14, %xmm1, %xmm1
vaesenc %xmm14, %xmm11, %xmm11
vaesenc %xmm14, %xmm9, %xmm9
vaesenc %xmm14, %xmm12, %xmm12
#NO_APP
vmovaps 96(%rsi), %xmm14
vmovaps %xmm14, 368(%rsp)
#APP
vaesenc %xmm14, %xmm8, %xmm8
vaesenc %xmm14, %xmm7, %xmm7
vaesenc %xmm14, %xmm1, %xmm1
vaesenc %xmm14, %xmm11, %xmm11
vaesenc %xmm14, %xmm9, %xmm9
vaesenc %xmm14, %xmm12, %xmm12
#NO_APP
vmovaps 112(%rsi), %xmm14
vmovaps %xmm14, 352(%rsp)
#APP
vaesenc %xmm14, %xmm8, %xmm8
vaesenc %xmm14, %xmm7, %xmm7
vaesenc %xmm14, %xmm1, %xmm1
vaesenc %xmm14, %xmm11, %xmm11
vaesenc %xmm14, %xmm9, %xmm9
vaesenc %xmm14, %xmm12, %xmm12
#NO_APP
vmovaps 128(%rsi), %xmm14
vmovaps %xmm14, 336(%rsp)
#APP
vaesenc %xmm14, %xmm8, %xmm8
vaesenc %xmm14, %xmm7, %xmm7
vaesenc %xmm14, %xmm1, %xmm1
vaesenc %xmm14, %xmm11, %xmm11
vaesenc %xmm14, %xmm9, %xmm9
vaesenc %xmm14, %xmm12, %xmm12
#NO_APP
vmovaps 144(%rsi), %xmm14
vmovaps %xmm14, 320(%rsp)
#APP
vaesenc %xmm14, %xmm8, %xmm8
vaesenc %xmm14, %xmm7, %xmm7
vaesenc %xmm14, %xmm1, %xmm1
vaesenc %xmm14, %xmm11, %xmm11
vaesenc %xmm14, %xmm9, %xmm9
vaesenc %xmm14, %xmm12, %xmm12
#NO_APP
vmovaps 160(%rsi), %xmm14
vmovaps %xmm14, 304(%rsp)
#APP
vaesenc %xmm14, %xmm8, %xmm8
vaesenc %xmm14, %xmm7, %xmm7
vaesenc %xmm14, %xmm1, %xmm1
vaesenc %xmm14, %xmm11, %xmm11
vaesenc %xmm14, %xmm9, %xmm9
vaesenc %xmm14, %xmm12, %xmm12
#NO_APP
vmovaps 176(%rsi), %xmm14
vmovaps %xmm14, 288(%rsp)
#APP
vaesenc %xmm14, %xmm8, %xmm8
vaesenc %xmm14, %xmm7, %xmm7
vaesenc %xmm14, %xmm1, %xmm1
vaesenc %xmm14, %xmm11, %xmm11
vaesenc %xmm14, %xmm9, %xmm9
vaesenc %xmm14, %xmm12, %xmm12
#NO_APP
vmovaps 192(%rsi), %xmm14
vmovaps %xmm14, 272(%rsp)
#APP
vaesenc %xmm14, %xmm8, %xmm8
vaesenc %xmm14, %xmm7, %xmm7
vaesenc %xmm14, %xmm1, %xmm1
vaesenc %xmm14, %xmm11, %xmm11
vaesenc %xmm14, %xmm9, %xmm9
vaesenc %xmm14, %xmm12, %xmm12
#NO_APP
vmovdqa 208(%rsi), %xmm14
vmovdqa %xmm14, %xmm2
#APP
vaesenc %xmm14, %xmm8, %xmm8
vaesenc %xmm14, %xmm7, %xmm7
vaesenc %xmm14, %xmm1, %xmm1
vaesenc %xmm14, %xmm11, %xmm11
vaesenc %xmm14, %xmm9, %xmm9
vaesenc %xmm14, %xmm12, %xmm12
#NO_APP
vmovdqa 224(%rsi), %xmm14
vmovdqa %xmm14, %xmm4
#APP
vaesenclast %xmm14, %xmm8, %xmm8
vaesenclast %xmm14, %xmm7, %xmm7
vaesenclast %xmm14, %xmm1, %xmm1
vaesenclast %xmm14, %xmm11, %xmm11
vaesenclast %xmm14, %xmm9, %xmm9
vaesenclast %xmm14, %xmm12, %xmm12
#NO_APP
vpxor %xmm6, %xmm12, %xmm14
vpxor %xmm5, %xmm9, %xmm12
vpxor %xmm3, %xmm11, %xmm11
vpxor 64(%rsp), %xmm1, %xmm3
vpxor 32(%rsp), %xmm7, %xmm5
vpxor 48(%rsp), %xmm8, %xmm15
addq $96, %rdx
leaq 96(%r8), %rcx
addq $-96, %rbx
vmovdqu %xmm15, (%r8)
vmovdqu %xmm5, 16(%r8)
vmovdqu %xmm3, 32(%r8)
vmovdqu %xmm11, 48(%r8)
vmovdqu %xmm12, 64(%r8)
vmovdqu %xmm14, 80(%r8)
vmovdqa (%rdi), %xmm8
cmpq $96, %rbx
jb .LBB4_19
vmovaps 240(%rsi), %xmm1
vmovaps %xmm1, 256(%rsp)
vmovaps 256(%rsi), %xmm1
vmovaps %xmm1, 240(%rsp)
vmovaps 272(%rsi), %xmm1
vmovaps %xmm1, 224(%rsp)
vmovaps 288(%rsi), %xmm1
vmovaps %xmm1, 208(%rsp)
vmovaps 304(%rsi), %xmm1
vmovaps %xmm1, 192(%rsp)
vmovdqa 320(%rsi), %xmm1
vmovdqa %xmm1, 176(%rsp)
vmovdqa %xmm0, 144(%rsp)
vmovdqa %xmm2, 160(%rsp)
vmovdqa %xmm4, 128(%rsp)
vmovdqa %xmm13, 16(%rsp)
.p2align 4, 0x90
.LBB4_18:
vmovdqa %xmm3, 448(%rsp)
vmovdqa %xmm5, 464(%rsp)
vmovups (%rdx), %xmm0
vmovaps %xmm0, 48(%rsp)
vmovups 16(%rdx), %xmm0
vmovaps %xmm0, 32(%rsp)
vmovups 32(%rdx), %xmm0
vmovaps %xmm0, 64(%rsp)
vmovups 48(%rdx), %xmm0
vmovaps %xmm0, 80(%rsp)
vmovups 64(%rdx), %xmm0
vmovaps %xmm0, 112(%rsp)
vmovups 80(%rdx), %xmm0
vmovaps %xmm0, 96(%rsp)
vmovdqa 32(%rdi), %xmm0
vpaddd .LCPI4_2(%rip), %xmm0, %xmm4
vpshufb %xmm10, %xmm4, %xmm5
vpaddd .LCPI4_7(%rip), %xmm0, %xmm4
vmovdqa %xmm4, 32(%rdi)
vpaddd .LCPI4_3(%rip), %xmm0, %xmm4
vpshufb %xmm10, %xmm4, %xmm6
vpshufb %xmm10, %xmm15, %xmm4
vpxor %xmm4, %xmm8, %xmm1
vmovdqa %xmm1, 480(%rsp)
vpaddd .LCPI4_4(%rip), %xmm0, %xmm7
vpshufb %xmm10, %xmm7, %xmm7
vpaddd .LCPI4_5(%rip), %xmm0, %xmm8
vpshufb %xmm10, %xmm8, %xmm9
vpshufb %xmm10, %xmm0, %xmm8
vpaddd .LCPI4_6(%rip), %xmm0, %xmm0
vpshufb %xmm10, %xmm0, %xmm1
vmovdqa %xmm10, %xmm2
vpshufb %xmm10, %xmm14, %xmm10
vpxor %xmm8, %xmm13, %xmm8
vpxor %xmm5, %xmm13, %xmm15
vpxor 16(%rsp), %xmm6, %xmm13
vpxor 16(%rsp), %xmm7, %xmm0
vpxor 16(%rsp), %xmm9, %xmm5
vpxor 16(%rsp), %xmm1, %xmm14
vmovaps 432(%rsp), %xmm1
#APP
vaesenc %xmm1, %xmm8, %xmm8
vaesenc %xmm1, %xmm15, %xmm15
vaesenc %xmm1, %xmm13, %xmm13
vaesenc %xmm1, %xmm0, %xmm0
vaesenc %xmm1, %xmm5, %xmm5
vaesenc %xmm1, %xmm14, %xmm14
#NO_APP
vpxor %xmm6, %xmm6, %xmm6
vpxor %xmm7, %xmm7, %xmm7
vpxor %xmm9, %xmm9, %xmm9
vmovaps 256(%rsp), %xmm3
vmovaps 416(%rsp), %xmm4
#APP
vaesenc %xmm4, %xmm8, %xmm8
vaesenc %xmm4, %xmm15, %xmm15
vaesenc %xmm4, %xmm13, %xmm13
vaesenc %xmm4, %xmm0, %xmm0
vaesenc %xmm4, %xmm5, %xmm5
vaesenc %xmm4, %xmm14, %xmm14
vpclmulqdq $16, %xmm3, %xmm10, %xmm1
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm10, %xmm1
vpxor %xmm1, %xmm9, %xmm9
vpclmulqdq $17, %xmm3, %xmm10, %xmm1
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm3, %xmm10, %xmm1
vpxor %xmm1, %xmm6, %xmm6
#NO_APP
vpshufb %xmm2, %xmm12, %xmm1
vmovaps 144(%rsp), %xmm3
#APP
vaesenc %xmm3, %xmm8, %xmm8
vaesenc %xmm3, %xmm15, %xmm15
vaesenc %xmm3, %xmm13, %xmm13
vaesenc %xmm3, %xmm0, %xmm0
vaesenc %xmm3, %xmm5, %xmm5
vaesenc %xmm3, %xmm14, %xmm14
#NO_APP
vmovaps 240(%rsp), %xmm3
vmovaps 400(%rsp), %xmm4
#APP
vaesenc %xmm4, %xmm8, %xmm8
vaesenc %xmm4, %xmm15, %xmm15
vaesenc %xmm4, %xmm13, %xmm13
vaesenc %xmm4, %xmm0, %xmm0
vaesenc %xmm4, %xmm5, %xmm5
vaesenc %xmm4, %xmm14, %xmm14
vpclmulqdq $16, %xmm3, %xmm1, %xmm10
vpxor %xmm6, %xmm10, %xmm6
vpclmulqdq $0, %xmm3, %xmm1, %xmm10
vpxor %xmm10, %xmm9, %xmm9
vpclmulqdq $17, %xmm3, %xmm1, %xmm10
vpxor %xmm7, %xmm10, %xmm7
vpclmulqdq $1, %xmm3, %xmm1, %xmm10
vpxor %xmm6, %xmm10, %xmm6
#NO_APP
vpshufb %xmm2, %xmm11, %xmm1
vmovaps 384(%rsp), %xmm3
#APP
vaesenc %xmm3, %xmm8, %xmm8
vaesenc %xmm3, %xmm15, %xmm15
vaesenc %xmm3, %xmm13, %xmm13
vaesenc %xmm3, %xmm0, %xmm0
vaesenc %xmm3, %xmm5, %xmm5
vaesenc %xmm3, %xmm14, %xmm14
#NO_APP
vmovaps 224(%rsp), %xmm3
vmovaps 368(%rsp), %xmm4
#APP
vaesenc %xmm4, %xmm8, %xmm8
vaesenc %xmm4, %xmm15, %xmm15
vaesenc %xmm4, %xmm13, %xmm13
vaesenc %xmm4, %xmm0, %xmm0
vaesenc %xmm4, %xmm5, %xmm5
vaesenc %xmm4, %xmm14, %xmm14
vpclmulqdq $16, %xmm3, %xmm1, %xmm10
vpxor %xmm6, %xmm10, %xmm6
vpclmulqdq $0, %xmm3, %xmm1, %xmm10
vpxor %xmm10, %xmm9, %xmm9
vpclmulqdq $17, %xmm3, %xmm1, %xmm10
vpxor %xmm7, %xmm10, %xmm7
vpclmulqdq $1, %xmm3, %xmm1, %xmm10
vpxor %xmm6, %xmm10, %xmm6
#NO_APP
vmovdqa %xmm2, %xmm10
vmovdqa 448(%rsp), %xmm1
vpshufb %xmm2, %xmm1, %xmm1
vmovaps 352(%rsp), %xmm2
#APP
vaesenc %xmm2, %xmm8, %xmm8
vaesenc %xmm2, %xmm15, %xmm15
vaesenc %xmm2, %xmm13, %xmm13
vaesenc %xmm2, %xmm0, %xmm0
vaesenc %xmm2, %xmm5, %xmm5
vaesenc %xmm2, %xmm14, %xmm14
#NO_APP
vmovaps 208(%rsp), %xmm2
vmovaps 336(%rsp), %xmm4
#APP
vaesenc %xmm4, %xmm8, %xmm8
vaesenc %xmm4, %xmm15, %xmm15
vaesenc %xmm4, %xmm13, %xmm13
vaesenc %xmm4, %xmm0, %xmm0
vaesenc %xmm4, %xmm5, %xmm5
vaesenc %xmm4, %xmm14, %xmm14
vpclmulqdq $16, %xmm2, %xmm1, %xmm3
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm1, %xmm3
vpxor %xmm3, %xmm9, %xmm9
vpclmulqdq $17, %xmm2, %xmm1, %xmm3
vpxor %xmm3, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm1, %xmm3
vpxor %xmm3, %xmm6, %xmm6
#NO_APP
vmovdqa 464(%rsp), %xmm1
vpshufb %xmm10, %xmm1, %xmm1
vmovaps 320(%rsp), %xmm2
#APP
vaesenc %xmm2, %xmm8, %xmm8
vaesenc %xmm2, %xmm15, %xmm15
vaesenc %xmm2, %xmm13, %xmm13
vaesenc %xmm2, %xmm0, %xmm0
vaesenc %xmm2, %xmm5, %xmm5
vaesenc %xmm2, %xmm14, %xmm14
#NO_APP
vmovaps 192(%rsp), %xmm3
vmovaps 304(%rsp), %xmm4
#APP
vaesenc %xmm4, %xmm8, %xmm8
vaesenc %xmm4, %xmm15, %xmm15
vaesenc %xmm4, %xmm13, %xmm13
vaesenc %xmm4, %xmm0, %xmm0
vaesenc %xmm4, %xmm5, %xmm5
vaesenc %xmm4, %xmm14, %xmm14
vpclmulqdq $16, %xmm3, %xmm1, %xmm2
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm1, %xmm2
vpxor %xmm2, %xmm9, %xmm9
vpclmulqdq $17, %xmm3, %xmm1, %xmm2
vpxor %xmm2, %xmm7, %xmm7
vpclmulqdq $1, %xmm3, %xmm1, %xmm2
vpxor %xmm2, %xmm6, %xmm6
#NO_APP
vmovaps 288(%rsp), %xmm1
#APP
vaesenc %xmm1, %xmm8, %xmm8
vaesenc %xmm1, %xmm15, %xmm15
vaesenc %xmm1, %xmm13, %xmm13
vaesenc %xmm1, %xmm0, %xmm0
vaesenc %xmm1, %xmm5, %xmm5
vaesenc %xmm1, %xmm14, %xmm14
#NO_APP
vmovaps 176(%rsp), %xmm2
vmovaps 272(%rsp), %xmm3
vmovaps 480(%rsp), %xmm4
#APP
vaesenc %xmm3, %xmm8, %xmm8
vaesenc %xmm3, %xmm15, %xmm15
vaesenc %xmm3, %xmm13, %xmm13
vaesenc %xmm3, %xmm0, %xmm0
vaesenc %xmm3, %xmm5, %xmm5
vaesenc %xmm3, %xmm14, %xmm14
vpclmulqdq $16, %xmm2, %xmm4, %xmm1
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm4, %xmm1
vpxor %xmm1, %xmm9, %xmm9
vpclmulqdq $17, %xmm2, %xmm4, %xmm1
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm4, %xmm1
vpxor %xmm1, %xmm6, %xmm6
#NO_APP
vmovaps 160(%rsp), %xmm1
#APP
vaesenc %xmm1, %xmm8, %xmm8
vaesenc %xmm1, %xmm15, %xmm15
vaesenc %xmm1, %xmm13, %xmm13
vaesenc %xmm1, %xmm0, %xmm0
vaesenc %xmm1, %xmm5, %xmm5
vaesenc %xmm1, %xmm14, %xmm14
#NO_APP
vmovdqa 128(%rsp), %xmm1
#APP
vaesenclast %xmm1, %xmm8, %xmm8
vaesenclast %xmm1, %xmm15, %xmm15
vaesenclast %xmm1, %xmm13, %xmm13
vaesenclast %xmm1, %xmm0, %xmm0
vaesenclast %xmm1, %xmm5, %xmm5
vaesenclast %xmm1, %xmm14, %xmm14
#NO_APP
vpxor 96(%rsp), %xmm14, %xmm14
vpxor 112(%rsp), %xmm5, %xmm12
vpxor 80(%rsp), %xmm0, %xmm11
vpxor 64(%rsp), %xmm13, %xmm3
vmovdqa 16(%rsp), %xmm13
vpxor 32(%rsp), %xmm15, %xmm5
vpxor 48(%rsp), %xmm8, %xmm15
vpxor %xmm1, %xmm1, %xmm1
vpunpcklqdq %xmm6, %xmm1, %xmm0
vpxor %xmm0, %xmm9, %xmm0
vpunpckhqdq %xmm1, %xmm6, %xmm1
vpxor %xmm1, %xmm7, %xmm1
vpbroadcastq .LCPI4_8(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm0, %xmm4
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm4, %xmm0
vpshufd $78, %xmm0, %xmm4
vpxor %xmm4, %xmm1, %xmm1
vpclmulqdq $16, %xmm2, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm8
vmovdqu %xmm15, (%rcx)
vmovdqu %xmm5, 16(%rcx)
vmovdqu %xmm3, 32(%rcx)
vmovdqu %xmm11, 48(%rcx)
vmovdqu %xmm12, 64(%rcx)
vmovdqu %xmm14, 80(%rcx)
addq $96, %rdx
addq $96, %rcx
addq $-96, %rbx
cmpq $95, %rbx
ja .LBB4_18
.LBB4_19:
vpshufb %xmm10, %xmm15, %xmm0
vpxor %xmm0, %xmm8, %xmm0
vpshufb %xmm10, %xmm5, %xmm1
vpshufb %xmm10, %xmm3, %xmm4
vpshufb %xmm10, %xmm11, %xmm5
vpshufb %xmm10, %xmm12, %xmm6
vpshufb %xmm10, %xmm14, %xmm7
vmovdqa 240(%rsi), %xmm8
vmovdqa 256(%rsi), %xmm9
vmovdqa 272(%rsi), %xmm10
vmovdqa 288(%rsi), %xmm11
vmovdqa 304(%rsi), %xmm3
vmovdqa 320(%rsi), %xmm2
vpclmulqdq $0, %xmm7, %xmm8, %xmm12
vpclmulqdq $1, %xmm7, %xmm8, %xmm13
vpclmulqdq $16, %xmm7, %xmm8, %xmm14
vpxor %xmm13, %xmm14, %xmm13
vpclmulqdq $17, %xmm7, %xmm8, %xmm7
vpclmulqdq $0, %xmm6, %xmm9, %xmm8
vpxor %xmm12, %xmm8, %xmm8
vpclmulqdq $1, %xmm6, %xmm9, %xmm12
vpclmulqdq $16, %xmm6, %xmm9, %xmm14
vpxor %xmm14, %xmm12, %xmm12
vpxor %xmm12, %xmm13, %xmm12
vpclmulqdq $17, %xmm6, %xmm9, %xmm6
vpxor %xmm7, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm10, %xmm7
vpclmulqdq $1, %xmm5, %xmm10, %xmm9
vpclmulqdq $16, %xmm5, %xmm10, %xmm13
vpxor %xmm13, %xmm9, %xmm9
vpclmulqdq $17, %xmm5, %xmm10, %xmm5
vpclmulqdq $0, %xmm4, %xmm11, %xmm10
vpxor %xmm7, %xmm10, %xmm7
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $1, %xmm4, %xmm11, %xmm8
vpxor %xmm8, %xmm9, %xmm8
vpxor %xmm8, %xmm12, %xmm8
vpclmulqdq $16, %xmm4, %xmm11, %xmm9
vpclmulqdq $17, %xmm4, %xmm11, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpxor %xmm4, %xmm6, %xmm4
vpclmulqdq $0, %xmm1, %xmm3, %xmm5
vpxor %xmm5, %xmm7, %xmm5
vpclmulqdq $1, %xmm1, %xmm3, %xmm6
vpxor %xmm6, %xmm9, %xmm6
vpclmulqdq $16, %xmm1, %xmm3, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpxor %xmm6, %xmm8, %xmm6
vpclmulqdq $17, %xmm1, %xmm3, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $0, %xmm0, %xmm2, %xmm3
vpxor %xmm3, %xmm5, %xmm3
vpclmulqdq $1, %xmm0, %xmm2, %xmm4
vpxor %xmm4, %xmm6, %xmm4
vpclmulqdq $16, %xmm0, %xmm2, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpclmulqdq $17, %xmm0, %xmm2, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm4, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpsrldq $8, %xmm4, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI4_8(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm2, %xmm0, %xmm0
vmovdqa %xmm0, (%rdi)
movq %rcx, %r8
cmpq $16, %rbx
jae .LBB4_20
.LBB4_15:
testq %rbx, %rbx
jne .LBB4_23
jmp .LBB4_25
.LBB4_12:
movl $16, %r14d
subq %rcx, %r14
leaq (%rdx,%r14), %rdi
movq %rdi, 32(%rsp)
leaq (%r8,%r14), %rdi
movq %rdi, 64(%rsp)
movq %rax, %rbx
subq %r14, %rbx
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, (%rsp)
leaq (%rsp,%rcx), %r15
movq %r15, %rdi
movq %rsi, 48(%rsp)
movq %rdx, %rsi
movq %r14, %rdx
movq %rax, %r13
movq %r8, %r12
callq *memcpy@GOTPCREL(%rip)
vmovaps (%rsp), %xmm0
vxorps 64(%rbp), %xmm0, %xmm0
vmovaps %xmm0, 80(%rsp)
vmovaps %xmm0, 64(%rbp)
vmovaps %xmm0, (%rsp)
movq %r12, %rdi
movq %r15, %rsi
movq %r14, %rdx
callq *memcpy@GOTPCREL(%rip)
movq 48(%rsp), %rsi
movq %rbp, %rdi
movq %r13, %rax
movq $0, 80(%rbp)
vmovdqa 80(%rsp), %xmm0
vpshufb .LCPI4_0(%rip), %xmm0, %xmm0
vmovdqa 240(%rsi), %xmm1
vpxor (%rbp), %xmm0, %xmm0
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI4_8(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vmovdqa %xmm0, (%rbp)
movq 64(%rsp), %r8
movq 32(%rsp), %rdx
movq 16(%rsp), %r11
cmpq $96, %rbx
jae .LBB4_16
.LBB4_14:
cmpq $16, %rbx
jb .LBB4_15
.LBB4_20:
vmovdqa (%rdi), %xmm14
vmovdqa 32(%rdi), %xmm0
vmovaps (%rsi), %xmm1
vmovaps %xmm1, 16(%rsp)
vmovaps 16(%rsi), %xmm1
vmovaps %xmm1, 48(%rsp)
vmovaps 32(%rsi), %xmm1
vmovaps %xmm1, 32(%rsp)
vmovaps 48(%rsi), %xmm1
vmovaps %xmm1, 64(%rsp)
vmovaps 64(%rsi), %xmm1
vmovaps %xmm1, 80(%rsp)
vmovaps 80(%rsi), %xmm1
vmovaps %xmm1, 112(%rsp)
vmovaps 96(%rsi), %xmm1
vmovaps %xmm1, 96(%rsp)
vmovdqa 112(%rsi), %xmm8
vmovdqa 128(%rsi), %xmm9
vmovdqa 144(%rsi), %xmm10
vmovdqa 160(%rsi), %xmm11
vmovdqa 176(%rsi), %xmm12
vmovdqa 192(%rsi), %xmm13
vmovdqa 208(%rsi), %xmm15
vmovdqa 224(%rsi), %xmm1
vmovdqa 240(%rsi), %xmm2
vmovdqa .LCPI4_0(%rip), %xmm3
vpbroadcastq .LCPI4_8(%rip), %xmm4
.p2align 4, 0x90
.LBB4_21:
vpshufb %xmm3, %xmm0, %xmm5
vpxor 16(%rsp), %xmm5, %xmm5
vaesenc 48(%rsp), %xmm5, %xmm5
vaesenc 32(%rsp), %xmm5, %xmm5
vaesenc 64(%rsp), %xmm5, %xmm5
vaesenc 80(%rsp), %xmm5, %xmm5
vaesenc 112(%rsp), %xmm5, %xmm5
vaesenc 96(%rsp), %xmm5, %xmm5
vaesenc %xmm8, %xmm5, %xmm5
vaesenc %xmm9, %xmm5, %xmm5
vaesenc %xmm10, %xmm5, %xmm5
vaesenc %xmm11, %xmm5, %xmm5
vaesenc %xmm12, %xmm5, %xmm5
vaesenc %xmm13, %xmm5, %xmm5
vaesenc %xmm15, %xmm5, %xmm5
vaesenclast %xmm1, %xmm5, %xmm5
vpxor (%rdx), %xmm5, %xmm5
vmovdqu %xmm5, (%r8)
vpshufb %xmm3, %xmm5, %xmm5
vpxor %xmm5, %xmm14, %xmm5
vpclmulqdq $0, %xmm5, %xmm2, %xmm14
vpclmulqdq $1, %xmm5, %xmm2, %xmm6
vpclmulqdq $16, %xmm5, %xmm2, %xmm7
vpxor %xmm6, %xmm7, %xmm6
vpslldq $8, %xmm6, %xmm7
vpxor %xmm7, %xmm14, %xmm7
vpclmulqdq $17, %xmm5, %xmm2, %xmm5
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vpclmulqdq $16, %xmm4, %xmm7, %xmm6
vpshufd $78, %xmm7, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpshufd $78, %xmm6, %xmm7
vpxor %xmm7, %xmm5, %xmm5
vpclmulqdq $16, %xmm4, %xmm6, %xmm6
vpxor %xmm5, %xmm6, %xmm14
addq $16, %rdx
addq $16, %r8
addq $-16, %rbx
vpaddd .LCPI4_2(%rip), %xmm0, %xmm0
cmpq $15, %rbx
ja .LBB4_21
vmovdqa %xmm0, 32(%rdi)
vmovdqa %xmm14, (%rdi)
testq %rbx, %rbx
je .LBB4_25
.LBB4_23:
movq %r11, 16(%rsp)
movq %rax, %r12
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, (%rsp)
movq %rsp, %rax
movq memcpy@GOTPCREL(%rip), %r15
movq %rdi, %rbp
movq %rax, %rdi
movq %rsi, %r13
movq %rdx, %rsi
movq %rbx, %rdx
movq %r8, %r14
vzeroupper
callq *%r15
vmovdqa 32(%rbp), %xmm0
vpshufb .LCPI4_0(%rip), %xmm0, %xmm1
vpaddd .LCPI4_2(%rip), %xmm0, %xmm0
vmovdqa %xmm0, 32(%rbp)
vpxor (%r13), %xmm1, %xmm0
vaesenc 16(%r13), %xmm0, %xmm0
vaesenc 32(%r13), %xmm0, %xmm0
vaesenc 48(%r13), %xmm0, %xmm0
vaesenc 64(%r13), %xmm0, %xmm0
vaesenc 80(%r13), %xmm0, %xmm0
vaesenc 96(%r13), %xmm0, %xmm0
vaesenc 112(%r13), %xmm0, %xmm0
vaesenc 128(%r13), %xmm0, %xmm0
vaesenc 144(%r13), %xmm0, %xmm0
vaesenc 160(%r13), %xmm0, %xmm0
vaesenc 176(%r13), %xmm0, %xmm0
vaesenc 192(%r13), %xmm0, %xmm0
vaesenc 208(%r13), %xmm0, %xmm0
vaesenclast 224(%r13), %xmm0, %xmm1
vmovdqa %xmm1, 48(%rsp)
vmovdqa (%rsp), %xmm0
vpxor %xmm0, %xmm1, %xmm0
vmovdqa %xmm0, 32(%rsp)
vmovdqa %xmm0, (%rsp)
movq %rsp, %rsi
movq %r14, %rdi
movq %rbx, %rdx
callq *%r15
movq %rbp, %rdi
vmovaps 48(%rsp), %xmm0
vmovaps %xmm0, 48(%rbp)
vmovdqa 32(%rsp), %xmm0
vmovdqa %xmm0, 64(%rbp)
.LBB4_24:
movq %rbx, 80(%rdi)
movq %r12, %rax
movq 16(%rsp), %r11
.LBB4_25:
movq %r11, 104(%rdi)
addq $504, %rsp
.cfi_def_cfa_offset 56
popq %rbx
.cfi_def_cfa_offset 48
popq %r12
.cfi_def_cfa_offset 40
popq %r13
.cfi_def_cfa_offset 32
popq %r14
.cfi_def_cfa_offset 24
popq %r15
.cfi_def_cfa_offset 16
popq %rbp
.cfi_def_cfa_offset 8
.cfi_restore %rbx
.cfi_restore %r12
.cfi_restore %r13
.cfi_restore %r14
.cfi_restore %r15
.cfi_restore %rbp
vzeroupper
retq
.Lfunc_end4:
.size haberdashery_aes256gcm_streaming_broadwell_encrypt_update, .Lfunc_end4-haberdashery_aes256gcm_streaming_broadwell_encrypt_update
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI5_0:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI5_1:
.zero 8
.quad -4467570830351532032
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI5_2:
.quad -4467570830351532032
.section .text.haberdashery_aes256gcm_streaming_broadwell_encrypt_finalize,"ax",@progbits
.globl haberdashery_aes256gcm_streaming_broadwell_encrypt_finalize
.p2align 4, 0x90
.type haberdashery_aes256gcm_streaming_broadwell_encrypt_finalize,@function
haberdashery_aes256gcm_streaming_broadwell_encrypt_finalize:
.cfi_startproc
pushq %rbp
.cfi_def_cfa_offset 16
pushq %r15
.cfi_def_cfa_offset 24
pushq %r14
.cfi_def_cfa_offset 32
pushq %r13
.cfi_def_cfa_offset 40
pushq %r12
.cfi_def_cfa_offset 48
pushq %rbx
.cfi_def_cfa_offset 56
subq $56, %rsp
.cfi_def_cfa_offset 112
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
.cfi_offset %rbp, -16
movq %rcx, %rbx
movq %rsi, %r15
movq %rdi, %r12
movq 104(%rdi), %rbp
testq %rbp, %rbp
je .LBB5_1
movq %rdx, 8(%rsp)
leaq 48(%r12), %r14
vmovaps 64(%r12), %xmm0
vmovaps %xmm0, 32(%rsp)
movq 80(%r12), %r13
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, 16(%rsp)
leaq 16(%rsp), %rdi
leaq 32(%rsp), %rsi
movq %r13, %rdx
callq *memcpy@GOTPCREL(%rip)
vmovdqa (%r12), %xmm0
testq %r13, %r13
je .LBB5_4
vmovdqa 16(%rsp), %xmm1
vpshufb .LCPI5_0(%rip), %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm2
vmovdqa 240(%r15), %xmm3
vpclmulqdq $0, %xmm2, %xmm3, %xmm0
vpclmulqdq $1, %xmm2, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm3, %xmm4
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $17, %xmm2, %xmm3, %xmm2
movq 8(%rsp), %rdx
jmp .LBB5_6
.LBB5_1:
cmpq $0, 80(%r12)
vmovdqa (%r12), %xmm0
je .LBB5_8
vmovdqa 240(%r15), %xmm2
leaq 48(%r12), %r14
vmovdqa 64(%r12), %xmm1
vpshufb .LCPI5_0(%rip), %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm3
vpclmulqdq $0, %xmm3, %xmm2, %xmm0
vpclmulqdq $1, %xmm3, %xmm2, %xmm1
vpclmulqdq $16, %xmm3, %xmm2, %xmm4
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $17, %xmm3, %xmm2, %xmm2
.LBB5_6:
vpslldq $8, %xmm1, %xmm3
vpxor %xmm3, %xmm0, %xmm0
vpsrldq $8, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpbroadcastq .LCPI5_2(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm0, %xmm3
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm0
vpclmulqdq $16, %xmm2, %xmm0, %xmm2
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpxor %xmm0, %xmm2, %xmm0
jmp .LBB5_7
.LBB5_4:
movq 8(%rsp), %rdx
.LBB5_7:
vpxor %xmm1, %xmm1, %xmm1
vmovdqu %ymm1, (%r14)
movq $0, 32(%r14)
.LBB5_8:
vmovdqa 240(%r15), %xmm1
vmovq 96(%r12), %xmm2
vmovq %rbp, %xmm3
vpunpcklqdq %xmm2, %xmm3, %xmm2
vpsllq $3, %xmm2, %xmm2
vpxor %xmm0, %xmm2, %xmm0
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI5_2(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vmovdqa %xmm0, (%r12)
testq %rbx, %rbx
je .LBB5_9
vmovdqa (%r15), %xmm1
vpxor 16(%r12), %xmm1, %xmm1
vaesenc 16(%r15), %xmm1, %xmm1
vaesenc 32(%r15), %xmm1, %xmm1
vaesenc 48(%r15), %xmm1, %xmm1
vaesenc 64(%r15), %xmm1, %xmm1
vaesenc 80(%r15), %xmm1, %xmm1
vaesenc 96(%r15), %xmm1, %xmm1
vaesenc 112(%r15), %xmm1, %xmm1
vaesenc 128(%r15), %xmm1, %xmm1
vaesenc 144(%r15), %xmm1, %xmm1
vaesenc 160(%r15), %xmm1, %xmm1
vaesenc 176(%r15), %xmm1, %xmm1
vaesenc 192(%r15), %xmm1, %xmm1
vaesenc 208(%r15), %xmm1, %xmm1
vaesenclast 224(%r15), %xmm1, %xmm1
vpshufb .LCPI5_0(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
cmpq $16, %rbx
jae .LBB5_11
vmovdqa %xmm0, 16(%rsp)
leaq 16(%rsp), %rsi
movq %rdx, %rdi
movq %rbx, %rdx
vzeroupper
callq *memcpy@GOTPCREL(%rip)
jmp .LBB5_13
.LBB5_9:
xorl %ebx, %ebx
jmp .LBB5_13
.LBB5_11:
vmovdqu %xmm0, (%rdx)
movl $16, %ebx
.LBB5_13:
movq %rbx, %rax
addq $56, %rsp
.cfi_def_cfa_offset 56
popq %rbx
.cfi_def_cfa_offset 48
popq %r12
.cfi_def_cfa_offset 40
popq %r13
.cfi_def_cfa_offset 32
popq %r14
.cfi_def_cfa_offset 24
popq %r15
.cfi_def_cfa_offset 16
popq %rbp
.cfi_def_cfa_offset 8
vzeroupper
retq
.Lfunc_end5:
.size haberdashery_aes256gcm_streaming_broadwell_encrypt_finalize, .Lfunc_end5-haberdashery_aes256gcm_streaming_broadwell_encrypt_finalize
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI6_0:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI6_1:
.zero 8
.quad -4467570830351532032
.LCPI6_2:
.long 1
.long 0
.long 0
.long 0
.LCPI6_3:
.long 2
.long 0
.long 0
.long 0
.LCPI6_4:
.long 3
.long 0
.long 0
.long 0
.LCPI6_5:
.long 4
.long 0
.long 0
.long 0
.LCPI6_6:
.long 5
.long 0
.long 0
.long 0
.LCPI6_7:
.long 6
.long 0
.long 0
.long 0
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI6_8:
.quad -4467570830351532032
.section .text.haberdashery_aes256gcm_streaming_broadwell_decrypt_update,"ax",@progbits
.globl haberdashery_aes256gcm_streaming_broadwell_decrypt_update
.p2align 4, 0x90
.type haberdashery_aes256gcm_streaming_broadwell_decrypt_update,@function
haberdashery_aes256gcm_streaming_broadwell_decrypt_update:
.cfi_startproc
cmpq %r9, %rcx
jne .LBB6_3
movq %rcx, %rax
movabsq $-68719476704, %rcx
leaq (%rax,%rcx), %r9
incq %rcx
cmpq %rcx, %r9
jb .LBB6_3
movq 104(%rdi), %rcx
leaq (%rcx,%rax), %r11
movq %r11, %r9
shrq $5, %r9
cmpq $2147483646, %r9
jbe .LBB6_6
.LBB6_3:
xorl %eax, %eax
retq
.LBB6_6:
pushq %rbp
.cfi_def_cfa_offset 16
pushq %r15
.cfi_def_cfa_offset 24
pushq %r14
.cfi_def_cfa_offset 32
pushq %r13
.cfi_def_cfa_offset 40
pushq %r12
.cfi_def_cfa_offset 48
pushq %rbx
.cfi_def_cfa_offset 56
subq $456, %rsp
.cfi_def_cfa_offset 512
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
.cfi_offset %rbp, -16
testq %rcx, %rcx
setne %r9b
movq 80(%rdi), %rcx
testq %rcx, %rcx
sete %r10b
orb %r9b, %r10b
je .LBB6_10
testq %rcx, %rcx
je .LBB6_11
movq %r11, 16(%rsp)
movq %rdi, %rbp
leaq (%rcx,%rax), %rbx
cmpq $15, %rbx
ja .LBB6_12
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, (%rsp)
leaq (%rsp,%rcx), %r14
movq memcpy@GOTPCREL(%rip), %r13
movq %r14, %rdi
movq %rdx, %rsi
movq %rax, %rdx
movq %rax, %r15
movq %r8, %r12
callq *%r13
vmovdqa (%rsp), %xmm0
vpxor 64(%rbp), %xmm0, %xmm0
vmovdqa %xmm0, 64(%rbp)
vmovdqa %xmm0, (%rsp)
movq %r12, %rdi
movq %r14, %rsi
movq %r15, %r12
movq %r15, %rdx
callq *%r13
movq %rbp, %rdi
jmp .LBB6_23
.LBB6_10:
vmovdqa 240(%rsi), %xmm0
vmovdqa 64(%rdi), %xmm1
vpshufb .LCPI6_0(%rip), %xmm1, %xmm1
vpxor (%rdi), %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm0, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI6_8(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vmovdqa %xmm0, (%rdi)
vpxor %xmm0, %xmm0, %xmm0
vmovdqu %ymm0, 48(%rdi)
movq $0, 80(%rdi)
.LBB6_11:
movq %rax, %rbx
cmpq $96, %rbx
jb .LBB6_14
.LBB6_16:
vmovdqa (%rdi), %xmm7
vmovaps (%rsi), %xmm0
vmovaps %xmm0, 144(%rsp)
vmovaps 16(%rsi), %xmm0
vmovaps %xmm0, 112(%rsp)
vmovaps 32(%rsi), %xmm0
vmovaps %xmm0, 96(%rsp)
vmovaps 48(%rsi), %xmm0
vmovaps %xmm0, 432(%rsp)
vmovaps 64(%rsi), %xmm0
vmovaps %xmm0, 416(%rsp)
vmovaps 80(%rsi), %xmm0
vmovaps %xmm0, 400(%rsp)
vmovaps 96(%rsi), %xmm0
vmovaps %xmm0, 384(%rsp)
vmovaps 112(%rsi), %xmm0
vmovaps %xmm0, 368(%rsp)
vmovaps 128(%rsi), %xmm0
vmovaps %xmm0, 352(%rsp)
vmovaps 144(%rsi), %xmm0
vmovaps %xmm0, 336(%rsp)
vmovaps 160(%rsi), %xmm0
vmovaps %xmm0, 320(%rsp)
vmovaps 176(%rsi), %xmm0
vmovaps %xmm0, 304(%rsp)
vmovaps 192(%rsi), %xmm0
vmovaps %xmm0, 288(%rsp)
vmovaps 208(%rsi), %xmm0
vmovaps %xmm0, 272(%rsp)
vmovaps 224(%rsi), %xmm0
vmovaps %xmm0, 256(%rsp)
vmovaps 240(%rsi), %xmm0
vmovaps %xmm0, 240(%rsp)
vmovaps 256(%rsi), %xmm0
vmovaps %xmm0, 224(%rsp)
vmovaps 272(%rsi), %xmm0
vmovaps %xmm0, 208(%rsp)
vmovaps 288(%rsi), %xmm0
vmovaps %xmm0, 192(%rsp)
vmovaps 304(%rsi), %xmm0
vmovaps %xmm0, 176(%rsp)
vmovdqa 320(%rsi), %xmm0
vmovdqa %xmm0, 160(%rsp)
.p2align 4, 0x90
.LBB6_17:
vmovdqu (%rdx), %xmm9
vmovdqa %xmm9, 48(%rsp)
vmovups 16(%rdx), %xmm0
vmovaps %xmm0, 128(%rsp)
vmovups 32(%rdx), %xmm0
vmovaps %xmm0, 16(%rsp)
vmovdqu 48(%rdx), %xmm14
vmovdqu 64(%rdx), %xmm11
vmovdqa %xmm11, 64(%rsp)
vmovdqu 80(%rdx), %xmm10
vmovdqa %xmm10, 32(%rsp)
vmovdqa 32(%rdi), %xmm0
vmovdqa .LCPI6_0(%rip), %xmm6
vpshufb %xmm6, %xmm0, %xmm1
vpaddd .LCPI6_2(%rip), %xmm0, %xmm2
vpshufb %xmm6, %xmm2, %xmm2
vpaddd .LCPI6_3(%rip), %xmm0, %xmm3
vpshufb %xmm6, %xmm3, %xmm3
vpaddd .LCPI6_4(%rip), %xmm0, %xmm4
vpshufb %xmm6, %xmm4, %xmm4
vpaddd .LCPI6_5(%rip), %xmm0, %xmm5
vpshufb %xmm6, %xmm5, %xmm5
vpaddd .LCPI6_6(%rip), %xmm0, %xmm8
vpshufb %xmm6, %xmm8, %xmm8
vpaddd .LCPI6_7(%rip), %xmm0, %xmm0
vmovdqa %xmm0, 32(%rdi)
vpshufb %xmm6, %xmm9, %xmm0
vpxor %xmm0, %xmm7, %xmm0
vmovdqa %xmm0, 80(%rsp)
vpshufb %xmm6, %xmm10, %xmm10
vmovdqa 144(%rsp), %xmm0
vpxor %xmm1, %xmm0, %xmm15
vpxor %xmm2, %xmm0, %xmm1
vpxor %xmm3, %xmm0, %xmm2
vpxor %xmm4, %xmm0, %xmm3
vpxor %xmm5, %xmm0, %xmm4
vpxor %xmm0, %xmm8, %xmm5
vmovaps 112(%rsp), %xmm0
#APP
vaesenc %xmm0, %xmm15, %xmm15
vaesenc %xmm0, %xmm1, %xmm1
vaesenc %xmm0, %xmm2, %xmm2
vaesenc %xmm0, %xmm3, %xmm3
vaesenc %xmm0, %xmm4, %xmm4
vaesenc %xmm0, %xmm5, %xmm5
#NO_APP
vpxor %xmm8, %xmm8, %xmm8
vxorps %xmm0, %xmm0, %xmm0
vpxor %xmm9, %xmm9, %xmm9
vmovaps 96(%rsp), %xmm12
vmovaps 240(%rsp), %xmm13
#APP
vaesenc %xmm12, %xmm15, %xmm15
vaesenc %xmm12, %xmm1, %xmm1
vaesenc %xmm12, %xmm2, %xmm2
vaesenc %xmm12, %xmm3, %xmm3
vaesenc %xmm12, %xmm4, %xmm4
vaesenc %xmm12, %xmm5, %xmm5
vpclmulqdq $16, %xmm13, %xmm10, %xmm7
vpxor %xmm7, %xmm8, %xmm8
vpclmulqdq $0, %xmm13, %xmm10, %xmm7
vpxor %xmm7, %xmm9, %xmm9
vpclmulqdq $17, %xmm13, %xmm10, %xmm7
vpxor %xmm7, %xmm0, %xmm0
vpclmulqdq $1, %xmm13, %xmm10, %xmm7
vpxor %xmm7, %xmm8, %xmm8
#NO_APP
vmovaps 432(%rsp), %xmm7
#APP
vaesenc %xmm7, %xmm15, %xmm15
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm4, %xmm4
vaesenc %xmm7, %xmm5, %xmm5
#NO_APP
vpshufb %xmm6, %xmm11, %xmm7
vmovaps 416(%rsp), %xmm12
vmovaps 224(%rsp), %xmm13
#APP
vaesenc %xmm12, %xmm15, %xmm15
vaesenc %xmm12, %xmm1, %xmm1
vaesenc %xmm12, %xmm2, %xmm2
vaesenc %xmm12, %xmm3, %xmm3
vaesenc %xmm12, %xmm4, %xmm4
vaesenc %xmm12, %xmm5, %xmm5
vpclmulqdq $16, %xmm13, %xmm7, %xmm10
vpxor %xmm10, %xmm8, %xmm8
vpclmulqdq $0, %xmm13, %xmm7, %xmm10
vpxor %xmm10, %xmm9, %xmm9
vpclmulqdq $17, %xmm13, %xmm7, %xmm10
vpxor %xmm0, %xmm10, %xmm0
vpclmulqdq $1, %xmm13, %xmm7, %xmm10
vpxor %xmm10, %xmm8, %xmm8
#NO_APP
vmovaps 400(%rsp), %xmm7
#APP
vaesenc %xmm7, %xmm15, %xmm15
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm4, %xmm4
vaesenc %xmm7, %xmm5, %xmm5
#NO_APP
vpshufb %xmm6, %xmm14, %xmm7
vmovaps 384(%rsp), %xmm12
vmovaps 208(%rsp), %xmm13
#APP
vaesenc %xmm12, %xmm15, %xmm15
vaesenc %xmm12, %xmm1, %xmm1
vaesenc %xmm12, %xmm2, %xmm2
vaesenc %xmm12, %xmm3, %xmm3
vaesenc %xmm12, %xmm4, %xmm4
vaesenc %xmm12, %xmm5, %xmm5
vpclmulqdq $16, %xmm13, %xmm7, %xmm10
vpxor %xmm10, %xmm8, %xmm8
vpclmulqdq $0, %xmm13, %xmm7, %xmm10
vpxor %xmm10, %xmm9, %xmm9
vpclmulqdq $17, %xmm13, %xmm7, %xmm10
vpxor %xmm0, %xmm10, %xmm0
vpclmulqdq $1, %xmm13, %xmm7, %xmm10
vpxor %xmm10, %xmm8, %xmm8
#NO_APP
vmovaps 368(%rsp), %xmm7
#APP
vaesenc %xmm7, %xmm15, %xmm15
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm4, %xmm4
vaesenc %xmm7, %xmm5, %xmm5
#NO_APP
vmovdqa 16(%rsp), %xmm7
vpshufb %xmm6, %xmm7, %xmm7
vmovaps 352(%rsp), %xmm12
vmovaps 192(%rsp), %xmm13
#APP
vaesenc %xmm12, %xmm15, %xmm15
vaesenc %xmm12, %xmm1, %xmm1
vaesenc %xmm12, %xmm2, %xmm2
vaesenc %xmm12, %xmm3, %xmm3
vaesenc %xmm12, %xmm4, %xmm4
vaesenc %xmm12, %xmm5, %xmm5
vpclmulqdq $16, %xmm13, %xmm7, %xmm10
vpxor %xmm10, %xmm8, %xmm8
vpclmulqdq $0, %xmm13, %xmm7, %xmm10
vpxor %xmm10, %xmm9, %xmm9
vpclmulqdq $17, %xmm13, %xmm7, %xmm10
vpxor %xmm0, %xmm10, %xmm0
vpclmulqdq $1, %xmm13, %xmm7, %xmm10
vpxor %xmm10, %xmm8, %xmm8
#NO_APP
vmovaps 336(%rsp), %xmm7
#APP
vaesenc %xmm7, %xmm15, %xmm15
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm4, %xmm4
vaesenc %xmm7, %xmm5, %xmm5
#NO_APP
vmovdqa 128(%rsp), %xmm11
vpshufb %xmm6, %xmm11, %xmm7
vmovaps 320(%rsp), %xmm12
vmovdqa 176(%rsp), %xmm13
#APP
vaesenc %xmm12, %xmm15, %xmm15
vaesenc %xmm12, %xmm1, %xmm1
vaesenc %xmm12, %xmm2, %xmm2
vaesenc %xmm12, %xmm3, %xmm3
vaesenc %xmm12, %xmm4, %xmm4
vaesenc %xmm12, %xmm5, %xmm5
vpclmulqdq $16, %xmm13, %xmm7, %xmm10
vpxor %xmm10, %xmm8, %xmm8
vpclmulqdq $0, %xmm13, %xmm7, %xmm10
vpxor %xmm10, %xmm9, %xmm9
vpclmulqdq $17, %xmm13, %xmm7, %xmm10
vpxor %xmm0, %xmm10, %xmm0
vpclmulqdq $1, %xmm13, %xmm7, %xmm10
vpxor %xmm10, %xmm8, %xmm8
#NO_APP
vmovaps 304(%rsp), %xmm7
#APP
vaesenc %xmm7, %xmm15, %xmm15
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm4, %xmm4
vaesenc %xmm7, %xmm5, %xmm5
#NO_APP
vmovdqa 288(%rsp), %xmm10
vmovdqa 160(%rsp), %xmm12
vmovdqa 80(%rsp), %xmm6
#APP
vaesenc %xmm10, %xmm15, %xmm15
vaesenc %xmm10, %xmm1, %xmm1
vaesenc %xmm10, %xmm2, %xmm2
vaesenc %xmm10, %xmm3, %xmm3
vaesenc %xmm10, %xmm4, %xmm4
vaesenc %xmm10, %xmm5, %xmm5
vpclmulqdq $16, %xmm12, %xmm6, %xmm7
vpxor %xmm7, %xmm8, %xmm8
vpclmulqdq $0, %xmm12, %xmm6, %xmm7
vpxor %xmm7, %xmm9, %xmm9
vpclmulqdq $17, %xmm12, %xmm6, %xmm7
vpxor %xmm7, %xmm0, %xmm0
vpclmulqdq $1, %xmm12, %xmm6, %xmm7
vpxor %xmm7, %xmm8, %xmm8
#NO_APP
vpxor %xmm10, %xmm10, %xmm10
vpunpcklqdq %xmm8, %xmm10, %xmm7
vpxor %xmm7, %xmm9, %xmm7
vpunpckhqdq %xmm10, %xmm8, %xmm8
vpxor %xmm0, %xmm8, %xmm0
vpbroadcastq .LCPI6_8(%rip), %xmm9
vpclmulqdq $16, %xmm9, %xmm7, %xmm8
vpshufd $78, %xmm7, %xmm7
vpxor %xmm7, %xmm8, %xmm7
vpshufd $78, %xmm7, %xmm8
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $16, %xmm9, %xmm7, %xmm7
vpxor %xmm7, %xmm0, %xmm7
vmovaps 272(%rsp), %xmm0
#APP
vaesenc %xmm0, %xmm15, %xmm15
vaesenc %xmm0, %xmm1, %xmm1
vaesenc %xmm0, %xmm2, %xmm2
vaesenc %xmm0, %xmm3, %xmm3
vaesenc %xmm0, %xmm4, %xmm4
vaesenc %xmm0, %xmm5, %xmm5
#NO_APP
vmovaps 256(%rsp), %xmm0
#APP
vaesenclast %xmm0, %xmm15, %xmm15
vaesenclast %xmm0, %xmm1, %xmm1
vaesenclast %xmm0, %xmm2, %xmm2
vaesenclast %xmm0, %xmm3, %xmm3
vaesenclast %xmm0, %xmm4, %xmm4
vaesenclast %xmm0, %xmm5, %xmm5
#NO_APP
vpxor 48(%rsp), %xmm15, %xmm0
vpxor %xmm1, %xmm11, %xmm1
vpxor 16(%rsp), %xmm2, %xmm2
vpxor %xmm3, %xmm14, %xmm3
vpxor 64(%rsp), %xmm4, %xmm4
vpxor 32(%rsp), %xmm5, %xmm5
vmovdqu %xmm0, (%r8)
vmovdqu %xmm1, 16(%r8)
vmovdqu %xmm2, 32(%r8)
vmovdqu %xmm3, 48(%r8)
vmovdqu %xmm4, 64(%r8)
vmovdqu %xmm5, 80(%r8)
addq $96, %rdx
addq $96, %r8
addq $-96, %rbx
cmpq $95, %rbx
ja .LBB6_17
vmovdqa %xmm7, (%rdi)
cmpq $16, %rbx
jae .LBB6_19
.LBB6_15:
testq %rbx, %rbx
jne .LBB6_22
jmp .LBB6_24
.LBB6_12:
movl $16, %r14d
subq %rcx, %r14
leaq (%rdx,%r14), %rdi
movq %rdi, 32(%rsp)
leaq (%r8,%r14), %rdi
movq %rdi, 80(%rsp)
movq %rax, %rbx
subq %r14, %rbx
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, (%rsp)
leaq (%rsp,%rcx), %r15
movq %r15, %rdi
movq %rsi, 48(%rsp)
movq %rdx, %rsi
movq %r14, %rdx
movq %rax, %r13
movq %r8, %r12
callq *memcpy@GOTPCREL(%rip)
vmovaps (%rsp), %xmm0
vxorps 64(%rbp), %xmm0, %xmm0
vmovaps %xmm0, 64(%rsp)
vmovaps %xmm0, 64(%rbp)
vmovaps %xmm0, (%rsp)
movq %r12, %rdi
movq %r15, %rsi
movq %r14, %rdx
callq *memcpy@GOTPCREL(%rip)
movq 48(%rsp), %rsi
movq %rbp, %rdi
movq %r13, %rax
movq $0, 80(%rbp)
vmovdqa 64(%rsp), %xmm0
vpxor 48(%rbp), %xmm0, %xmm0
vpshufb .LCPI6_0(%rip), %xmm0, %xmm0
vmovdqa 240(%rsi), %xmm1
vpxor (%rbp), %xmm0, %xmm0
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI6_8(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vmovdqa %xmm0, (%rbp)
movq 80(%rsp), %r8
movq 32(%rsp), %rdx
movq 16(%rsp), %r11
cmpq $96, %rbx
jae .LBB6_16
.LBB6_14:
cmpq $16, %rbx
jb .LBB6_15
.LBB6_19:
vmovdqa (%rdi), %xmm14
vmovdqa 32(%rdi), %xmm0
vmovdqa 240(%rsi), %xmm1
vmovaps (%rsi), %xmm2
vmovaps %xmm2, 16(%rsp)
vmovaps 16(%rsi), %xmm2
vmovaps %xmm2, 48(%rsp)
vmovaps 32(%rsi), %xmm2
vmovaps %xmm2, 32(%rsp)
vmovaps 48(%rsi), %xmm2
vmovaps %xmm2, 80(%rsp)
vmovaps 64(%rsi), %xmm2
vmovaps %xmm2, 64(%rsp)
vmovaps 80(%rsi), %xmm2
vmovaps %xmm2, 128(%rsp)
vmovaps 96(%rsi), %xmm2
vmovaps %xmm2, 112(%rsp)
vmovaps 112(%rsi), %xmm2
vmovaps %xmm2, 96(%rsp)
vmovdqa 128(%rsi), %xmm10
vmovdqa 144(%rsi), %xmm11
vmovdqa 160(%rsi), %xmm12
vmovdqa 176(%rsi), %xmm13
vmovdqa 192(%rsi), %xmm15
vmovdqa 208(%rsi), %xmm2
vmovdqa 224(%rsi), %xmm3
vmovdqa .LCPI6_0(%rip), %xmm4
vpbroadcastq .LCPI6_8(%rip), %xmm5
.p2align 4, 0x90
.LBB6_20:
vmovdqu (%rdx), %xmm6
vpshufb %xmm4, %xmm6, %xmm7
vpxor %xmm7, %xmm14, %xmm7
vpclmulqdq $0, %xmm7, %xmm1, %xmm14
vpclmulqdq $1, %xmm7, %xmm1, %xmm8
vpclmulqdq $16, %xmm7, %xmm1, %xmm9
vpxor %xmm8, %xmm9, %xmm8
vpslldq $8, %xmm8, %xmm9
vpxor %xmm9, %xmm14, %xmm9
vpclmulqdq $17, %xmm7, %xmm1, %xmm7
vpsrldq $8, %xmm8, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $16, %xmm5, %xmm9, %xmm8
vpshufd $78, %xmm9, %xmm9
vpxor %xmm9, %xmm8, %xmm8
vpshufd $78, %xmm8, %xmm9
vpxor %xmm7, %xmm9, %xmm7
vpclmulqdq $16, %xmm5, %xmm8, %xmm8
vpxor %xmm7, %xmm8, %xmm14
vpshufb %xmm4, %xmm0, %xmm7
vpxor 16(%rsp), %xmm7, %xmm7
vaesenc 48(%rsp), %xmm7, %xmm7
vaesenc 32(%rsp), %xmm7, %xmm7
vaesenc 80(%rsp), %xmm7, %xmm7
vaesenc 64(%rsp), %xmm7, %xmm7
vaesenc 128(%rsp), %xmm7, %xmm7
vaesenc 112(%rsp), %xmm7, %xmm7
vaesenc 96(%rsp), %xmm7, %xmm7
vaesenc %xmm10, %xmm7, %xmm7
vaesenc %xmm11, %xmm7, %xmm7
vaesenc %xmm12, %xmm7, %xmm7
vaesenc %xmm13, %xmm7, %xmm7
vaesenc %xmm15, %xmm7, %xmm7
vaesenc %xmm2, %xmm7, %xmm7
vaesenclast %xmm3, %xmm7, %xmm7
vpxor %xmm6, %xmm7, %xmm6
vmovdqu %xmm6, (%r8)
addq $16, %r8
addq $-16, %rbx
addq $16, %rdx
vpaddd .LCPI6_2(%rip), %xmm0, %xmm0
cmpq $15, %rbx
ja .LBB6_20
vmovdqa %xmm0, 32(%rdi)
vmovdqa %xmm14, (%rdi)
testq %rbx, %rbx
je .LBB6_24
.LBB6_22:
movq %r11, 16(%rsp)
movq %rax, %r12
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, (%rsp)
movq %rsp, %rax
movq memcpy@GOTPCREL(%rip), %r15
movq %rdi, %rbp
movq %rax, %rdi
movq %rsi, %r13
movq %rdx, %rsi
movq %rbx, %rdx
movq %r8, %r14
vzeroupper
callq *%r15
vmovdqa 32(%rbp), %xmm0
vpshufb .LCPI6_0(%rip), %xmm0, %xmm1
vpaddd .LCPI6_2(%rip), %xmm0, %xmm0
vmovdqa %xmm0, 32(%rbp)
vpxor (%r13), %xmm1, %xmm0
vaesenc 16(%r13), %xmm0, %xmm0
vaesenc 32(%r13), %xmm0, %xmm0
vaesenc 48(%r13), %xmm0, %xmm0
vaesenc 64(%r13), %xmm0, %xmm0
vaesenc 80(%r13), %xmm0, %xmm0
vaesenc 96(%r13), %xmm0, %xmm0
vaesenc 112(%r13), %xmm0, %xmm0
vaesenc 128(%r13), %xmm0, %xmm0
vaesenc 144(%r13), %xmm0, %xmm0
vaesenc 160(%r13), %xmm0, %xmm0
vaesenc 176(%r13), %xmm0, %xmm0
vaesenc 192(%r13), %xmm0, %xmm0
vaesenc 208(%r13), %xmm0, %xmm0
vaesenclast 224(%r13), %xmm0, %xmm1
vmovdqa %xmm1, 48(%rsp)
vmovdqa (%rsp), %xmm0
vpxor %xmm0, %xmm1, %xmm0
vmovdqa %xmm0, 32(%rsp)
vmovdqa %xmm0, (%rsp)
movq %rsp, %rsi
movq %r14, %rdi
movq %rbx, %rdx
callq *%r15
movq %rbp, %rdi
vmovaps 48(%rsp), %xmm0
vmovaps %xmm0, 48(%rbp)
vmovdqa 32(%rsp), %xmm0
vmovdqa %xmm0, 64(%rbp)
.LBB6_23:
movq %rbx, 80(%rdi)
movq %r12, %rax
movq 16(%rsp), %r11
.LBB6_24:
movq %r11, 104(%rdi)
addq $456, %rsp
.cfi_def_cfa_offset 56
popq %rbx
.cfi_def_cfa_offset 48
popq %r12
.cfi_def_cfa_offset 40
popq %r13
.cfi_def_cfa_offset 32
popq %r14
.cfi_def_cfa_offset 24
popq %r15
.cfi_def_cfa_offset 16
popq %rbp
.cfi_def_cfa_offset 8
.cfi_restore %rbx
.cfi_restore %r12
.cfi_restore %r13
.cfi_restore %r14
.cfi_restore %r15
.cfi_restore %rbp
vzeroupper
retq
.Lfunc_end6:
.size haberdashery_aes256gcm_streaming_broadwell_decrypt_update, .Lfunc_end6-haberdashery_aes256gcm_streaming_broadwell_decrypt_update
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI7_0:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI7_1:
.zero 8
.quad -4467570830351532032
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI7_2:
.quad -4467570830351532032
.section .text.haberdashery_aes256gcm_streaming_broadwell_decrypt_finalize,"ax",@progbits
.globl haberdashery_aes256gcm_streaming_broadwell_decrypt_finalize
.p2align 4, 0x90
.type haberdashery_aes256gcm_streaming_broadwell_decrypt_finalize,@function
haberdashery_aes256gcm_streaming_broadwell_decrypt_finalize:
.cfi_startproc
xorl %eax, %eax
cmpq $16, %rcx
jne .LBB7_10
pushq %r15
.cfi_def_cfa_offset 16
pushq %r14
.cfi_def_cfa_offset 24
pushq %r13
.cfi_def_cfa_offset 32
pushq %r12
.cfi_def_cfa_offset 40
pushq %rbx
.cfi_def_cfa_offset 48
subq $48, %rsp
.cfi_def_cfa_offset 96
.cfi_offset %rbx, -48
.cfi_offset %r12, -40
.cfi_offset %r13, -32
.cfi_offset %r14, -24
.cfi_offset %r15, -16
vmovdqu (%rdx), %xmm5
movq 104(%rdi), %r14
testq %r14, %r14
je .LBB7_2
vmovdqa %xmm5, (%rsp)
movq %rsi, %r12
leaq 48(%rdi), %r15
vmovaps 48(%rdi), %xmm0
vxorps 64(%rdi), %xmm0, %xmm0
vmovaps %xmm0, 32(%rsp)
movq 80(%rdi), %rbx
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, 16(%rsp)
leaq 16(%rsp), %rax
leaq 32(%rsp), %rsi
movq %rdi, %r13
movq %rax, %rdi
movq %rbx, %rdx
callq *memcpy@GOTPCREL(%rip)
movq %r13, %rdi
vmovdqa (%r13), %xmm0
testq %rbx, %rbx
je .LBB7_5
vmovdqa 16(%rsp), %xmm1
vpshufb .LCPI7_0(%rip), %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm2
movq %r12, %rsi
vmovdqa 240(%r12), %xmm3
vpclmulqdq $0, %xmm2, %xmm3, %xmm0
vpclmulqdq $1, %xmm2, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm3, %xmm4
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $17, %xmm2, %xmm3, %xmm2
vmovdqa (%rsp), %xmm5
jmp .LBB7_7
.LBB7_2:
cmpq $0, 80(%rdi)
vmovdqa (%rdi), %xmm0
je .LBB7_9
vmovdqa 240(%rsi), %xmm2
leaq 48(%rdi), %r15
vmovdqa 64(%rdi), %xmm1
vpshufb .LCPI7_0(%rip), %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm3
vpclmulqdq $0, %xmm3, %xmm2, %xmm0
vpclmulqdq $1, %xmm3, %xmm2, %xmm1
vpclmulqdq $16, %xmm3, %xmm2, %xmm4
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $17, %xmm3, %xmm2, %xmm2
.LBB7_7:
vpslldq $8, %xmm1, %xmm3
vpxor %xmm3, %xmm0, %xmm0
vpsrldq $8, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpbroadcastq .LCPI7_2(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm0, %xmm3
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm0
vpclmulqdq $16, %xmm2, %xmm0, %xmm2
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpxor %xmm2, %xmm0, %xmm0
jmp .LBB7_8
.LBB7_5:
movq %r12, %rsi
vmovdqa (%rsp), %xmm5
.LBB7_8:
vpxor %xmm1, %xmm1, %xmm1
vmovdqu %ymm1, (%r15)
movq $0, 32(%r15)
.LBB7_9:
vmovdqa 240(%rsi), %xmm1
vmovq 96(%rdi), %xmm2
vmovq %r14, %xmm3
vpunpcklqdq %xmm2, %xmm3, %xmm2
vpsllq $3, %xmm2, %xmm2
vpxor %xmm0, %xmm2, %xmm0
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI7_2(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vmovdqa %xmm0, (%rdi)
vmovdqa (%rsi), %xmm1
vpxor 16(%rdi), %xmm1, %xmm1
vaesenc 16(%rsi), %xmm1, %xmm1
vaesenc 32(%rsi), %xmm1, %xmm1
vaesenc 48(%rsi), %xmm1, %xmm1
vaesenc 64(%rsi), %xmm1, %xmm1
vaesenc 80(%rsi), %xmm1, %xmm1
vaesenc 96(%rsi), %xmm1, %xmm1
vaesenc 112(%rsi), %xmm1, %xmm1
vaesenc 128(%rsi), %xmm1, %xmm1
vaesenc 144(%rsi), %xmm1, %xmm1
vaesenc 160(%rsi), %xmm1, %xmm1
vaesenc 176(%rsi), %xmm1, %xmm1
vaesenc 192(%rsi), %xmm1, %xmm1
vaesenc 208(%rsi), %xmm1, %xmm1
vaesenclast 224(%rsi), %xmm1, %xmm1
vpshufb .LCPI7_0(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm5, %xmm0
vpxor %xmm1, %xmm0, %xmm0
xorl %eax, %eax
vptest %xmm0, %xmm0
sete %al
addq $48, %rsp
.cfi_def_cfa_offset 48
popq %rbx
.cfi_def_cfa_offset 40
popq %r12
.cfi_def_cfa_offset 32
popq %r13
.cfi_def_cfa_offset 24
popq %r14
.cfi_def_cfa_offset 16
popq %r15
.cfi_def_cfa_offset 8
.cfi_restore %rbx
.cfi_restore %r12
.cfi_restore %r13
.cfi_restore %r14
.cfi_restore %r15
.LBB7_10:
vzeroupper
retq
.Lfunc_end7:
.size haberdashery_aes256gcm_streaming_broadwell_decrypt_finalize, .Lfunc_end7-haberdashery_aes256gcm_streaming_broadwell_decrypt_finalize
.cfi_endproc
.ident "rustc version 1.86.0-nightly (9cd60bd2c 2025-02-15)"
.section ".note.GNU-stack","",@progbits
|
ts-phantomnk90/haberdashery
| 67,075
|
asm/aes256gcm_skylake.s
|
# @generated
# https://github.com/facebookincubator/haberdashery/
.text
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI0_0:
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.LCPI0_1:
.quad 4294967297
.quad 4294967297
.LCPI0_8:
.quad 274877907008
.quad 274877907008
.LCPI0_9:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI0_10:
.zero 8
.quad -4467570830351532032
.section .rodata.cst4,"aM",@progbits,4
.p2align 2, 0x0
.LCPI0_2:
.long 0x00000002
.LCPI0_3:
.long 0x0c0f0e0d
.LCPI0_4:
.long 0x00000004
.LCPI0_5:
.long 0x00000008
.LCPI0_6:
.long 0x00000010
.LCPI0_7:
.long 0x00000020
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI0_11:
.quad -4467570830351532032
.section .text.haberdashery_aes256gcm_skylake_init,"ax",@progbits
.globl haberdashery_aes256gcm_skylake_init
.p2align 4, 0x90
.type haberdashery_aes256gcm_skylake_init,@function
haberdashery_aes256gcm_skylake_init:
.cfi_startproc
cmpq $32, %rdx
jne .LBB0_2
pushq %rax
.cfi_def_cfa_offset 16
vmovdqu (%rsi), %xmm5
vmovdqu 16(%rsi), %xmm4
vpslldq $4, %xmm5, %xmm0
vpslldq $8, %xmm5, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpslldq $12, %xmm5, %xmm1
vpbroadcastd .LCPI0_3(%rip), %xmm2
vpshufb %xmm2, %xmm4, %xmm3
vaesenclast .LCPI0_1(%rip), %xmm3, %xmm3
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm5, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm8
vmovdqa %xmm8, -16(%rsp)
vaesenc %xmm4, %xmm5, %xmm15
vpslldq $4, %xmm4, %xmm0
vpslldq $8, %xmm4, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpslldq $12, %xmm4, %xmm1
vpxor %xmm1, %xmm0, %xmm1
vpshufd $255, %xmm8, %xmm3
vpxor %xmm0, %xmm0, %xmm0
vaesenclast %xmm0, %xmm3, %xmm3
vpxor %xmm4, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm9
vmovdqa %xmm9, -32(%rsp)
vbroadcastss .LCPI0_2(%rip), %xmm3
vbroadcastss .LCPI0_3(%rip), %xmm1
#APP
vaesenc %xmm8, %xmm15, %xmm15
vpslldq $4, %xmm8, %xmm6
vpslldq $8, %xmm8, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpslldq $12, %xmm8, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpxor %xmm6, %xmm8, %xmm6
vpshufb %xmm1, %xmm9, %xmm10
vaesenclast %xmm3, %xmm10, %xmm10
vpxor %xmm6, %xmm10, %xmm10
#NO_APP
vmovaps %xmm10, %xmm8
vmovaps %xmm10, -48(%rsp)
#APP
vaesenc %xmm9, %xmm15, %xmm15
vpslldq $4, %xmm9, %xmm3
vpslldq $8, %xmm9, %xmm6
vpxor %xmm6, %xmm3, %xmm3
vpslldq $12, %xmm9, %xmm6
vpxor %xmm6, %xmm3, %xmm3
vpxor %xmm3, %xmm9, %xmm3
vpshufd $255, %xmm10, %xmm7
vaesenclast %xmm0, %xmm7, %xmm7
vpxor %xmm3, %xmm7, %xmm7
#NO_APP
vbroadcastss .LCPI0_4(%rip), %xmm3
vmovaps %xmm7, %xmm9
vmovaps %xmm7, -64(%rsp)
#APP
vaesenc %xmm8, %xmm15, %xmm15
vpslldq $4, %xmm8, %xmm6
vpslldq $8, %xmm8, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpslldq $12, %xmm8, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpxor %xmm6, %xmm8, %xmm6
vpshufb %xmm1, %xmm9, %xmm10
vaesenclast %xmm3, %xmm10, %xmm10
vpxor %xmm6, %xmm10, %xmm10
#NO_APP
vmovaps %xmm10, %xmm7
vmovaps %xmm10, -80(%rsp)
#APP
vaesenc %xmm9, %xmm15, %xmm15
vpslldq $4, %xmm9, %xmm3
vpslldq $8, %xmm9, %xmm6
vpxor %xmm6, %xmm3, %xmm3
vpslldq $12, %xmm9, %xmm6
vpxor %xmm6, %xmm3, %xmm3
vpxor %xmm3, %xmm9, %xmm3
vpshufd $255, %xmm10, %xmm8
vaesenclast %xmm0, %xmm8, %xmm8
vpxor %xmm3, %xmm8, %xmm8
#NO_APP
vmovaps %xmm8, -96(%rsp)
vbroadcastss .LCPI0_5(%rip), %xmm3
#APP
vaesenc %xmm7, %xmm15, %xmm15
vpslldq $4, %xmm7, %xmm6
vpslldq $8, %xmm7, %xmm9
vpxor %xmm6, %xmm9, %xmm6
vpslldq $12, %xmm7, %xmm9
vpxor %xmm6, %xmm9, %xmm6
vpxor %xmm7, %xmm6, %xmm6
vpshufb %xmm1, %xmm8, %xmm10
vaesenclast %xmm3, %xmm10, %xmm10
vpxor %xmm6, %xmm10, %xmm10
#NO_APP
vmovaps %xmm10, %xmm7
vmovaps %xmm10, -112(%rsp)
#APP
vaesenc %xmm8, %xmm15, %xmm15
vpslldq $4, %xmm8, %xmm3
vpslldq $8, %xmm8, %xmm6
vpxor %xmm6, %xmm3, %xmm3
vpslldq $12, %xmm8, %xmm6
vpxor %xmm6, %xmm3, %xmm3
vpxor %xmm3, %xmm8, %xmm3
vpshufd $255, %xmm10, %xmm9
vaesenclast %xmm0, %xmm9, %xmm9
vpxor %xmm3, %xmm9, %xmm9
#NO_APP
vbroadcastss .LCPI0_6(%rip), %xmm3
#APP
vaesenc %xmm7, %xmm15, %xmm15
vpslldq $4, %xmm7, %xmm6
vpslldq $8, %xmm7, %xmm11
vpxor %xmm6, %xmm11, %xmm6
vpslldq $12, %xmm7, %xmm11
vpxor %xmm6, %xmm11, %xmm6
vpxor %xmm7, %xmm6, %xmm6
vpshufb %xmm1, %xmm9, %xmm10
vaesenclast %xmm3, %xmm10, %xmm10
vpxor %xmm6, %xmm10, %xmm10
#NO_APP
#APP
vaesenc %xmm9, %xmm15, %xmm15
vpslldq $4, %xmm9, %xmm3
vpslldq $8, %xmm9, %xmm6
vpxor %xmm6, %xmm3, %xmm3
vpslldq $12, %xmm9, %xmm6
vpxor %xmm6, %xmm3, %xmm3
vpxor %xmm3, %xmm9, %xmm3
vpshufd $255, %xmm10, %xmm11
vaesenclast %xmm0, %xmm11, %xmm11
vpxor %xmm3, %xmm11, %xmm11
#NO_APP
vbroadcastss .LCPI0_7(%rip), %xmm3
#APP
vaesenc %xmm10, %xmm15, %xmm15
vpslldq $4, %xmm10, %xmm6
vpslldq $8, %xmm10, %xmm13
vpxor %xmm6, %xmm13, %xmm6
vpslldq $12, %xmm10, %xmm13
vpxor %xmm6, %xmm13, %xmm6
vpxor %xmm6, %xmm10, %xmm6
vpshufb %xmm1, %xmm11, %xmm12
vaesenclast %xmm3, %xmm12, %xmm12
vpxor %xmm6, %xmm12, %xmm12
#NO_APP
vpslldq $4, %xmm11, %xmm1
vpunpcklqdq %xmm11, %xmm0, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vinsertps $55, %xmm11, %xmm0, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpshufd $255, %xmm12, %xmm3
vaesenclast %xmm0, %xmm3, %xmm3
vpxor %xmm1, %xmm11, %xmm1
vpxor %xmm1, %xmm3, %xmm13
vpslldq $4, %xmm12, %xmm1
vpunpcklqdq %xmm12, %xmm0, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vinsertps $55, %xmm12, %xmm0, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpshufb %xmm2, %xmm13, %xmm2
vaesenclast .LCPI0_8(%rip), %xmm2, %xmm2
vpxor %xmm1, %xmm12, %xmm1
vpxor %xmm1, %xmm2, %xmm2
vmovdqa %xmm2, -128(%rsp)
vaesenc %xmm11, %xmm15, %xmm1
vaesenc %xmm12, %xmm1, %xmm1
vaesenc %xmm13, %xmm1, %xmm1
vaesenclast %xmm2, %xmm1, %xmm1
vpshufb .LCPI0_9(%rip), %xmm1, %xmm1
vpsrlq $63, %xmm1, %xmm2
vpaddq %xmm1, %xmm1, %xmm1
vpshufd $78, %xmm2, %xmm3
vpor %xmm3, %xmm1, %xmm1
vpblendd $12, %xmm2, %xmm0, %xmm0
vpsllq $63, %xmm0, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpsllq $62, %xmm0, %xmm2
vpsllq $57, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vpxor %xmm0, %xmm1, %xmm15
vpclmulqdq $0, %xmm15, %xmm15, %xmm0
vpbroadcastq .LCPI0_11(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm0, %xmm1
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpclmulqdq $17, %xmm15, %xmm15, %xmm1
vpshufd $78, %xmm0, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpclmulqdq $16, %xmm2, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm1
vpclmulqdq $16, %xmm15, %xmm1, %xmm0
vpclmulqdq $1, %xmm15, %xmm1, %xmm3
vpxor %xmm0, %xmm3, %xmm0
vpclmulqdq $0, %xmm15, %xmm1, %xmm3
vpslldq $8, %xmm0, %xmm6
vpxor %xmm6, %xmm3, %xmm3
vpclmulqdq $16, %xmm2, %xmm3, %xmm6
vpshufd $78, %xmm3, %xmm3
vpxor %xmm3, %xmm6, %xmm3
vpsrldq $8, %xmm0, %xmm0
vpclmulqdq $17, %xmm15, %xmm1, %xmm6
vpxor %xmm0, %xmm6, %xmm0
vpshufd $78, %xmm3, %xmm6
vpxor %xmm6, %xmm0, %xmm0
vpclmulqdq $16, %xmm2, %xmm3, %xmm3
vpxor %xmm3, %xmm0, %xmm3
vpclmulqdq $0, %xmm3, %xmm3, %xmm0
vpclmulqdq $16, %xmm2, %xmm0, %xmm6
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm6, %xmm0
vpclmulqdq $17, %xmm3, %xmm3, %xmm6
vpshufd $78, %xmm0, %xmm14
vpxor %xmm6, %xmm14, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm0
vpxor %xmm0, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm1, %xmm0
vpclmulqdq $16, %xmm2, %xmm0, %xmm14
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm14, %xmm0
vpclmulqdq $17, %xmm1, %xmm1, %xmm14
vpshufd $78, %xmm0, %xmm7
vpxor %xmm7, %xmm14, %xmm7
vpclmulqdq $16, %xmm2, %xmm0, %xmm0
vpxor %xmm0, %xmm7, %xmm0
vpclmulqdq $16, %xmm15, %xmm0, %xmm7
vpclmulqdq $1, %xmm15, %xmm0, %xmm14
vpxor %xmm7, %xmm14, %xmm7
vpclmulqdq $0, %xmm15, %xmm0, %xmm14
vpslldq $8, %xmm7, %xmm8
vpxor %xmm8, %xmm14, %xmm8
vpclmulqdq $16, %xmm2, %xmm8, %xmm14
vpshufd $78, %xmm8, %xmm8
vpxor %xmm8, %xmm14, %xmm8
vpsrldq $8, %xmm7, %xmm7
vpclmulqdq $17, %xmm15, %xmm0, %xmm14
vpxor %xmm7, %xmm14, %xmm7
vpclmulqdq $16, %xmm2, %xmm8, %xmm2
vpshufd $78, %xmm8, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpxor %xmm2, %xmm7, %xmm2
vmovdqa %xmm5, (%rdi)
vmovdqa %xmm4, 16(%rdi)
vmovaps -16(%rsp), %xmm4
vmovaps %xmm4, 32(%rdi)
vmovaps -32(%rsp), %xmm4
vmovaps %xmm4, 48(%rdi)
vmovaps -48(%rsp), %xmm4
vmovaps %xmm4, 64(%rdi)
vmovaps -64(%rsp), %xmm4
vmovaps %xmm4, 80(%rdi)
vmovaps -80(%rsp), %xmm4
vmovaps %xmm4, 96(%rdi)
vmovaps -96(%rsp), %xmm4
vmovaps %xmm4, 112(%rdi)
vmovaps -112(%rsp), %xmm4
vmovaps %xmm4, 128(%rdi)
vmovaps %xmm9, 144(%rdi)
vmovaps %xmm10, 160(%rdi)
vmovaps %xmm11, 176(%rdi)
vmovaps %xmm12, 192(%rdi)
vmovdqa %xmm13, 208(%rdi)
vmovaps -128(%rsp), %xmm4
vmovaps %xmm4, 224(%rdi)
vmovdqa %xmm15, 240(%rdi)
vmovdqa %xmm1, 256(%rdi)
vmovdqa %xmm3, 272(%rdi)
vmovdqa %xmm0, 288(%rdi)
vmovdqa %xmm2, 304(%rdi)
vmovdqa %xmm6, 320(%rdi)
addq $8, %rsp
.cfi_def_cfa_offset 8
.LBB0_2:
xorl %eax, %eax
cmpq $32, %rdx
sete %al
retq
.Lfunc_end0:
.size haberdashery_aes256gcm_skylake_init, .Lfunc_end0-haberdashery_aes256gcm_skylake_init
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI1_0:
.byte 15
.byte 128
.byte 128
.byte 128
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI1_1:
.long 1
.long 0
.long 0
.long 0
.LCPI1_2:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI1_3:
.zero 8
.quad -4467570830351532032
.LCPI1_4:
.long 2
.long 0
.long 0
.long 0
.LCPI1_5:
.long 3
.long 0
.long 0
.long 0
.LCPI1_6:
.long 4
.long 0
.long 0
.long 0
.LCPI1_7:
.long 5
.long 0
.long 0
.long 0
.LCPI1_8:
.long 6
.long 0
.long 0
.long 0
.LCPI1_9:
.long 7
.long 0
.long 0
.long 0
.LCPI1_10:
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.LCPI1_11:
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.LCPI1_12:
.zero 16
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI1_13:
.quad -4467570830351532032
.section .text.haberdashery_aes256gcm_skylake_encrypt,"ax",@progbits
.globl haberdashery_aes256gcm_skylake_encrypt
.p2align 4, 0x90
.type haberdashery_aes256gcm_skylake_encrypt,@function
haberdashery_aes256gcm_skylake_encrypt:
.cfi_startproc
pushq %rbp
.cfi_def_cfa_offset 16
pushq %r15
.cfi_def_cfa_offset 24
pushq %r14
.cfi_def_cfa_offset 32
pushq %r13
.cfi_def_cfa_offset 40
pushq %r12
.cfi_def_cfa_offset 48
pushq %rbx
.cfi_def_cfa_offset 56
subq $456, %rsp
.cfi_def_cfa_offset 512
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
.cfi_offset %rbp, -16
movq 512(%rsp), %r15
xorl %eax, %eax
cmpq 528(%rsp), %r15
jne .LBB1_40
cmpq $16, 544(%rsp)
setne %r10b
movabsq $2305843009213693950, %r11
cmpq %r11, %r8
seta %r11b
orb %r10b, %r11b
jne .LBB1_40
movq %r15, %r10
shrq $5, %r10
cmpq $2147483647, %r10
setae %r10b
cmpq $12, %rdx
setne %dl
orb %r10b, %dl
jne .LBB1_40
vmovd (%rsi), %xmm0
vpinsrd $1, 4(%rsi), %xmm0, %xmm0
vpinsrd $2, 8(%rsi), %xmm0, %xmm0
movl $16777216, %edx
vpinsrd $3, %edx, %xmm0, %xmm0
vmovdqa %xmm0, 144(%rsp)
vpxor %xmm5, %xmm5, %xmm5
testq %r8, %r8
je .LBB1_19
cmpq $96, %r8
jb .LBB1_5
vmovdqu (%rcx), %xmm1
vmovdqu 16(%rcx), %xmm2
vmovdqu 32(%rcx), %xmm3
vmovdqu 48(%rcx), %xmm4
vmovdqu 64(%rcx), %xmm5
vmovdqu 80(%rcx), %xmm6
vmovdqa .LCPI1_2(%rip), %xmm0
vpshufb %xmm0, %xmm1, %xmm7
vpshufb %xmm0, %xmm2, %xmm10
vpshufb %xmm0, %xmm3, %xmm8
vpshufb %xmm0, %xmm4, %xmm9
vpshufb %xmm0, %xmm5, %xmm5
vpshufb %xmm0, %xmm6, %xmm6
vmovdqa 240(%rdi), %xmm1
vmovdqa 256(%rdi), %xmm2
vmovdqa 272(%rdi), %xmm3
vmovdqa 288(%rdi), %xmm4
vpclmulqdq $0, %xmm6, %xmm1, %xmm11
vpclmulqdq $1, %xmm6, %xmm1, %xmm12
vpclmulqdq $16, %xmm6, %xmm1, %xmm13
vpxor %xmm12, %xmm13, %xmm12
vpclmulqdq $17, %xmm6, %xmm1, %xmm6
vpclmulqdq $0, %xmm5, %xmm2, %xmm13
vpxor %xmm11, %xmm13, %xmm11
vpclmulqdq $1, %xmm5, %xmm2, %xmm13
vpclmulqdq $16, %xmm5, %xmm2, %xmm14
vpxor %xmm14, %xmm13, %xmm13
vpxor %xmm13, %xmm12, %xmm12
vpclmulqdq $17, %xmm5, %xmm2, %xmm5
vpxor %xmm6, %xmm5, %xmm13
vpclmulqdq $0, %xmm9, %xmm3, %xmm5
vpclmulqdq $1, %xmm9, %xmm3, %xmm6
vpclmulqdq $16, %xmm9, %xmm3, %xmm14
vpxor %xmm6, %xmm14, %xmm6
vpclmulqdq $0, %xmm8, %xmm4, %xmm14
vpxor %xmm5, %xmm14, %xmm14
vmovdqa 304(%rdi), %xmm5
vpxor %xmm14, %xmm11, %xmm11
vpclmulqdq $1, %xmm8, %xmm4, %xmm14
vpxor %xmm6, %xmm14, %xmm14
vmovdqa 320(%rdi), %xmm6
vpclmulqdq $17, %xmm9, %xmm3, %xmm9
vpxor %xmm14, %xmm12, %xmm12
vpclmulqdq $16, %xmm8, %xmm4, %xmm14
vpclmulqdq $17, %xmm8, %xmm4, %xmm8
vpxor %xmm8, %xmm9, %xmm8
vpxor %xmm8, %xmm13, %xmm13
vpclmulqdq $0, %xmm10, %xmm5, %xmm8
vpclmulqdq $1, %xmm10, %xmm5, %xmm9
vpxor %xmm9, %xmm14, %xmm9
vpclmulqdq $16, %xmm10, %xmm5, %xmm14
vpxor %xmm14, %xmm9, %xmm9
vpclmulqdq $0, %xmm7, %xmm6, %xmm14
vpxor %xmm14, %xmm8, %xmm8
vpxor %xmm8, %xmm11, %xmm8
vpclmulqdq $1, %xmm7, %xmm6, %xmm11
vpxor %xmm11, %xmm9, %xmm9
vpxor %xmm9, %xmm12, %xmm9
vpclmulqdq $16, %xmm7, %xmm6, %xmm11
vpxor %xmm11, %xmm9, %xmm9
vpclmulqdq $17, %xmm10, %xmm5, %xmm10
vpclmulqdq $17, %xmm7, %xmm6, %xmm7
vpxor %xmm7, %xmm10, %xmm7
vpxor %xmm7, %xmm13, %xmm10
addq $96, %rcx
leaq -96(%r8), %rsi
cmpq $96, %rsi
jb .LBB1_18
.p2align 4, 0x90
.LBB1_17:
vmovdqu (%rcx), %xmm11
vmovdqu 32(%rcx), %xmm12
vmovdqu 48(%rcx), %xmm13
vmovdqu 64(%rcx), %xmm14
vmovdqu 80(%rcx), %xmm15
vpslldq $8, %xmm9, %xmm7
vpxor %xmm7, %xmm8, %xmm7
vpsrldq $8, %xmm9, %xmm8
vpxor %xmm8, %xmm10, %xmm8
vpbroadcastq .LCPI1_13(%rip), %xmm10
vpclmulqdq $16, %xmm10, %xmm7, %xmm9
vpshufd $78, %xmm7, %xmm7
vpxor %xmm7, %xmm9, %xmm7
vpclmulqdq $16, %xmm10, %xmm7, %xmm9
vpshufd $78, %xmm7, %xmm7
vpshufb %xmm0, %xmm11, %xmm10
vpxor %xmm10, %xmm8, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpxor %xmm7, %xmm9, %xmm10
vpshufb %xmm0, %xmm12, %xmm8
vpshufb %xmm0, %xmm13, %xmm7
vpshufb %xmm0, %xmm14, %xmm9
vpshufb %xmm0, %xmm15, %xmm11
vpclmulqdq $0, %xmm11, %xmm1, %xmm12
vpclmulqdq $1, %xmm11, %xmm1, %xmm13
vpclmulqdq $16, %xmm11, %xmm1, %xmm14
vpxor %xmm13, %xmm14, %xmm13
vpclmulqdq $17, %xmm11, %xmm1, %xmm11
vpclmulqdq $0, %xmm9, %xmm2, %xmm14
vpxor %xmm12, %xmm14, %xmm12
vpclmulqdq $1, %xmm9, %xmm2, %xmm14
vpclmulqdq $16, %xmm9, %xmm2, %xmm15
vpxor %xmm15, %xmm14, %xmm14
vpxor %xmm14, %xmm13, %xmm13
vpclmulqdq $17, %xmm9, %xmm2, %xmm9
vpxor %xmm11, %xmm9, %xmm9
vpclmulqdq $0, %xmm7, %xmm3, %xmm11
vpclmulqdq $1, %xmm7, %xmm3, %xmm14
vpclmulqdq $16, %xmm7, %xmm3, %xmm15
vpxor %xmm15, %xmm14, %xmm14
vpclmulqdq $0, %xmm8, %xmm4, %xmm15
vpxor %xmm15, %xmm11, %xmm11
vpxor %xmm11, %xmm12, %xmm11
vpclmulqdq $1, %xmm8, %xmm4, %xmm12
vpxor %xmm12, %xmm14, %xmm12
vpclmulqdq $17, %xmm7, %xmm3, %xmm7
vpxor %xmm12, %xmm13, %xmm12
vpclmulqdq $17, %xmm8, %xmm4, %xmm13
vpxor %xmm7, %xmm13, %xmm7
vmovdqu 16(%rcx), %xmm13
vpshufb %xmm0, %xmm13, %xmm13
vpclmulqdq $16, %xmm8, %xmm4, %xmm8
vpxor %xmm7, %xmm9, %xmm7
vpclmulqdq $0, %xmm13, %xmm5, %xmm9
vpxor %xmm9, %xmm11, %xmm9
vpclmulqdq $1, %xmm13, %xmm5, %xmm11
vpxor %xmm11, %xmm8, %xmm8
vpclmulqdq $16, %xmm13, %xmm5, %xmm11
vpxor %xmm11, %xmm8, %xmm8
vpxor %xmm8, %xmm12, %xmm11
vpclmulqdq $17, %xmm13, %xmm5, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $0, %xmm10, %xmm6, %xmm8
vpxor %xmm8, %xmm9, %xmm8
vpclmulqdq $1, %xmm10, %xmm6, %xmm9
vpxor %xmm9, %xmm11, %xmm9
vpclmulqdq $16, %xmm10, %xmm6, %xmm11
vpxor %xmm11, %xmm9, %xmm9
vpclmulqdq $17, %xmm10, %xmm6, %xmm10
vpxor %xmm7, %xmm10, %xmm10
addq $96, %rcx
addq $-96, %rsi
cmpq $95, %rsi
ja .LBB1_17
.LBB1_18:
vpslldq $8, %xmm9, %xmm0
vpxor %xmm0, %xmm8, %xmm0
vpsrldq $8, %xmm9, %xmm1
vpxor %xmm1, %xmm10, %xmm1
vpbroadcastq .LCPI1_13(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm0, %xmm3
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm0
vpclmulqdq $16, %xmm2, %xmm0, %xmm2
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpxor %xmm2, %xmm0, %xmm5
cmpq $16, %rsi
jae .LBB1_7
jmp .LBB1_12
.LBB1_19:
testq %r15, %r15
jne .LBB1_24
jmp .LBB1_39
.LBB1_5:
movq %r8, %rsi
cmpq $16, %rsi
jb .LBB1_12
.LBB1_7:
vmovdqa 240(%rdi), %xmm0
leaq -16(%rsi), %rdx
testb $16, %dl
je .LBB1_8
cmpq $16, %rdx
jae .LBB1_10
.LBB1_13:
testq %rdx, %rdx
je .LBB1_20
.LBB1_14:
vmovdqa %xmm5, 32(%rsp)
movq %r9, %r14
movq %r8, %rbx
movq %rdi, %r12
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, 16(%rsp)
leaq 16(%rsp), %rdi
movq %rcx, %rsi
callq *memcpy@GOTPCREL(%rip)
vmovdqa 16(%rsp), %xmm0
testq %r15, %r15
je .LBB1_15
movabsq $-68719476704, %rax
leaq (%r15,%rax), %rcx
incq %rax
cmpq %rax, %rcx
movl $0, %eax
vmovdqa 32(%rsp), %xmm2
jb .LBB1_40
movq %r12, %rdi
movq %rbx, %r8
movq %r14, %r9
vmovdqa 240(%r12), %xmm1
vpshufb .LCPI1_2(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI1_13(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm5
jmp .LBB1_24
.LBB1_8:
vmovdqu (%rcx), %xmm1
addq $16, %rcx
vpshufb .LCPI1_2(%rip), %xmm1, %xmm1
vpxor %xmm1, %xmm5, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
vpslldq $8, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpsrldq $8, %xmm3, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpbroadcastq .LCPI1_13(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm2, %xmm4
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm4, %xmm2
vpclmulqdq $16, %xmm3, %xmm2, %xmm3
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm5
movq %rdx, %rsi
cmpq $16, %rdx
jb .LBB1_13
.LBB1_10:
vmovdqa .LCPI1_2(%rip), %xmm1
vpbroadcastq .LCPI1_13(%rip), %xmm2
.p2align 4, 0x90
.LBB1_11:
vmovdqu (%rcx), %xmm3
vmovdqu 16(%rcx), %xmm4
vpshufb %xmm1, %xmm3, %xmm3
vpxor %xmm3, %xmm5, %xmm3
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpclmulqdq $1, %xmm3, %xmm0, %xmm6
vpclmulqdq $16, %xmm3, %xmm0, %xmm7
vpxor %xmm6, %xmm7, %xmm6
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
vpslldq $8, %xmm6, %xmm7
vpxor %xmm7, %xmm5, %xmm5
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm3, %xmm3
vpclmulqdq $16, %xmm2, %xmm5, %xmm6
vpshufd $78, %xmm5, %xmm5
vpxor %xmm5, %xmm6, %xmm5
vpclmulqdq $16, %xmm2, %xmm5, %xmm6
vpshufd $78, %xmm5, %xmm5
vpxor %xmm5, %xmm3, %xmm3
addq $32, %rcx
addq $-32, %rsi
vpshufb %xmm1, %xmm4, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpxor %xmm3, %xmm6, %xmm3
vpclmulqdq $0, %xmm3, %xmm0, %xmm4
vpclmulqdq $1, %xmm3, %xmm0, %xmm5
vpclmulqdq $16, %xmm3, %xmm0, %xmm6
vpxor %xmm5, %xmm6, %xmm5
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
vpslldq $8, %xmm5, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpsrldq $8, %xmm5, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpclmulqdq $16, %xmm2, %xmm4, %xmm5
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $16, %xmm2, %xmm4, %xmm5
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpxor %xmm3, %xmm5, %xmm5
cmpq $15, %rsi
ja .LBB1_11
.LBB1_12:
movq %rsi, %rdx
testq %rdx, %rdx
jne .LBB1_14
.LBB1_20:
testq %r15, %r15
je .LBB1_39
movabsq $-68719476704, %rcx
leaq (%r15,%rcx), %rdx
incq %rcx
cmpq %rcx, %rdx
jb .LBB1_40
.LBB1_24:
movq 520(%rsp), %rdx
vmovdqa 144(%rsp), %xmm0
vpshufb .LCPI1_0(%rip), %xmm0, %xmm1
vpaddd .LCPI1_1(%rip), %xmm1, %xmm0
cmpq $96, %r15
jb .LBB1_25
vmovdqa %xmm5, %xmm8
leaq 96(%r9), %rcx
leaq 96(%rdx), %rax
vmovdqa .LCPI1_2(%rip), %xmm10
vpshufb %xmm10, %xmm0, %xmm2
vpaddd .LCPI1_4(%rip), %xmm1, %xmm3
vpshufb %xmm10, %xmm3, %xmm3
vpaddd .LCPI1_5(%rip), %xmm1, %xmm4
vpshufb %xmm10, %xmm4, %xmm4
vpaddd .LCPI1_6(%rip), %xmm1, %xmm5
vpshufb %xmm10, %xmm5, %xmm5
vpaddd .LCPI1_7(%rip), %xmm1, %xmm6
vpshufb %xmm10, %xmm6, %xmm6
vpaddd .LCPI1_8(%rip), %xmm1, %xmm7
vpshufb %xmm10, %xmm7, %xmm7
vpaddd .LCPI1_9(%rip), %xmm1, %xmm0
vmovdqa (%rdi), %xmm1
vmovdqa 16(%rdi), %xmm12
vmovaps 32(%rdi), %xmm9
vmovaps 48(%rdi), %xmm11
vpxor %xmm2, %xmm1, %xmm2
vpxor %xmm3, %xmm1, %xmm3
vpxor %xmm4, %xmm1, %xmm4
vpxor %xmm5, %xmm1, %xmm5
vpxor %xmm6, %xmm1, %xmm6
vpxor %xmm7, %xmm1, %xmm7
vmovdqa %xmm12, 288(%rsp)
#APP
vaesenc %xmm12, %xmm2, %xmm2
vaesenc %xmm12, %xmm3, %xmm3
vaesenc %xmm12, %xmm4, %xmm4
vaesenc %xmm12, %xmm5, %xmm5
vaesenc %xmm12, %xmm6, %xmm6
vaesenc %xmm12, %xmm7, %xmm7
#NO_APP
vmovaps %xmm9, 112(%rsp)
#APP
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm9, %xmm4, %xmm4
vaesenc %xmm9, %xmm5, %xmm5
vaesenc %xmm9, %xmm6, %xmm6
vaesenc %xmm9, %xmm7, %xmm7
#NO_APP
vmovaps %xmm11, 96(%rsp)
#APP
vaesenc %xmm11, %xmm2, %xmm2
vaesenc %xmm11, %xmm3, %xmm3
vaesenc %xmm11, %xmm4, %xmm4
vaesenc %xmm11, %xmm5, %xmm5
vaesenc %xmm11, %xmm6, %xmm6
vaesenc %xmm11, %xmm7, %xmm7
#NO_APP
vmovaps 64(%rdi), %xmm9
vmovaps %xmm9, 80(%rsp)
#APP
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm9, %xmm4, %xmm4
vaesenc %xmm9, %xmm5, %xmm5
vaesenc %xmm9, %xmm6, %xmm6
vaesenc %xmm9, %xmm7, %xmm7
#NO_APP
vmovaps 80(%rdi), %xmm9
vmovaps %xmm9, 64(%rsp)
#APP
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm9, %xmm4, %xmm4
vaesenc %xmm9, %xmm5, %xmm5
vaesenc %xmm9, %xmm6, %xmm6
vaesenc %xmm9, %xmm7, %xmm7
#NO_APP
vmovaps 96(%rdi), %xmm9
vmovaps %xmm9, 416(%rsp)
#APP
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm9, %xmm4, %xmm4
vaesenc %xmm9, %xmm5, %xmm5
vaesenc %xmm9, %xmm6, %xmm6
vaesenc %xmm9, %xmm7, %xmm7
#NO_APP
vmovaps 112(%rdi), %xmm9
vmovaps %xmm9, 400(%rsp)
#APP
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm9, %xmm4, %xmm4
vaesenc %xmm9, %xmm5, %xmm5
vaesenc %xmm9, %xmm6, %xmm6
vaesenc %xmm9, %xmm7, %xmm7
#NO_APP
vmovaps 128(%rdi), %xmm9
vmovaps %xmm9, 384(%rsp)
#APP
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm9, %xmm4, %xmm4
vaesenc %xmm9, %xmm5, %xmm5
vaesenc %xmm9, %xmm6, %xmm6
vaesenc %xmm9, %xmm7, %xmm7
#NO_APP
vmovaps 144(%rdi), %xmm9
vmovaps %xmm9, 368(%rsp)
#APP
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm9, %xmm4, %xmm4
vaesenc %xmm9, %xmm5, %xmm5
vaesenc %xmm9, %xmm6, %xmm6
vaesenc %xmm9, %xmm7, %xmm7
#NO_APP
vmovaps 160(%rdi), %xmm9
vmovaps %xmm9, 352(%rsp)
#APP
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm9, %xmm4, %xmm4
vaesenc %xmm9, %xmm5, %xmm5
vaesenc %xmm9, %xmm6, %xmm6
vaesenc %xmm9, %xmm7, %xmm7
#NO_APP
vmovaps 176(%rdi), %xmm9
vmovaps %xmm9, 336(%rsp)
#APP
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm9, %xmm4, %xmm4
vaesenc %xmm9, %xmm5, %xmm5
vaesenc %xmm9, %xmm6, %xmm6
vaesenc %xmm9, %xmm7, %xmm7
#NO_APP
vmovaps 192(%rdi), %xmm9
vmovaps %xmm9, 320(%rsp)
#APP
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm9, %xmm4, %xmm4
vaesenc %xmm9, %xmm5, %xmm5
vaesenc %xmm9, %xmm6, %xmm6
vaesenc %xmm9, %xmm7, %xmm7
#NO_APP
vmovaps 208(%rdi), %xmm9
vmovaps %xmm9, 304(%rsp)
#APP
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm9, %xmm4, %xmm4
vaesenc %xmm9, %xmm5, %xmm5
vaesenc %xmm9, %xmm6, %xmm6
vaesenc %xmm9, %xmm7, %xmm7
#NO_APP
vmovaps 224(%rdi), %xmm9
#APP
vaesenclast %xmm9, %xmm2, %xmm2
vaesenclast %xmm9, %xmm3, %xmm3
vaesenclast %xmm9, %xmm4, %xmm4
vaesenclast %xmm9, %xmm5, %xmm5
vaesenclast %xmm9, %xmm6, %xmm6
vaesenclast %xmm9, %xmm7, %xmm7
#NO_APP
vpxor (%r9), %xmm2, %xmm15
vpxor 16(%r9), %xmm3, %xmm3
vpxor 32(%r9), %xmm4, %xmm4
vpxor 48(%r9), %xmm5, %xmm11
vpxor 64(%r9), %xmm6, %xmm13
vpxor 80(%r9), %xmm7, %xmm14
vmovdqu %xmm15, (%rdx)
vmovdqu %xmm3, 16(%rdx)
vmovdqu %xmm4, 32(%rdx)
vmovdqu %xmm11, 48(%rdx)
leaq -96(%r15), %rbx
vmovdqu %xmm13, 64(%rdx)
vmovdqu %xmm14, 80(%rdx)
cmpq $96, %rbx
jb .LBB1_32
vmovaps 240(%rdi), %xmm2
vmovaps %xmm2, 272(%rsp)
vmovaps 256(%rdi), %xmm2
vmovaps %xmm2, 256(%rsp)
vmovaps 272(%rdi), %xmm2
vmovaps %xmm2, 240(%rsp)
vmovaps 288(%rdi), %xmm2
vmovaps %xmm2, 224(%rsp)
vmovaps 304(%rdi), %xmm2
vmovaps %xmm2, 208(%rsp)
vmovdqa 320(%rdi), %xmm2
vmovdqa %xmm2, 192(%rsp)
vmovdqa %xmm1, 176(%rsp)
vmovaps %xmm9, 160(%rsp)
.p2align 4, 0x90
.LBB1_34:
vmovdqa %xmm4, 128(%rsp)
vmovdqa %xmm3, 48(%rsp)
vmovdqa %xmm0, (%rsp)
vpshufb %xmm10, %xmm0, %xmm3
vpaddd .LCPI1_1(%rip), %xmm0, %xmm4
vpshufb %xmm10, %xmm4, %xmm4
vmovdqa %xmm8, %xmm12
vpaddd .LCPI1_4(%rip), %xmm0, %xmm5
vpshufb %xmm10, %xmm5, %xmm5
vpaddd .LCPI1_5(%rip), %xmm0, %xmm6
vpshufb %xmm10, %xmm6, %xmm6
vpaddd .LCPI1_6(%rip), %xmm0, %xmm7
vpshufb %xmm10, %xmm7, %xmm7
vpaddd .LCPI1_7(%rip), %xmm0, %xmm8
vpshufb %xmm10, %xmm8, %xmm8
vmovdqa %xmm10, %xmm1
vpshufb %xmm10, %xmm15, %xmm10
vpxor %xmm10, %xmm12, %xmm0
vmovdqa %xmm0, 32(%rsp)
vpshufb %xmm1, %xmm14, %xmm0
vmovdqa 176(%rsp), %xmm2
vpxor %xmm3, %xmm2, %xmm14
vpxor %xmm4, %xmm2, %xmm3
vpxor %xmm5, %xmm2, %xmm4
vpxor %xmm6, %xmm2, %xmm5
vpxor %xmm7, %xmm2, %xmm6
vpxor %xmm2, %xmm8, %xmm7
vmovaps 288(%rsp), %xmm2
#APP
vaesenc %xmm2, %xmm14, %xmm14
vaesenc %xmm2, %xmm3, %xmm3
vaesenc %xmm2, %xmm4, %xmm4
vaesenc %xmm2, %xmm5, %xmm5
vaesenc %xmm2, %xmm6, %xmm6
vaesenc %xmm2, %xmm7, %xmm7
#NO_APP
vpxor %xmm8, %xmm8, %xmm8
vpxor %xmm10, %xmm10, %xmm10
vpxor %xmm12, %xmm12, %xmm12
vmovaps 272(%rsp), %xmm2
vmovaps 112(%rsp), %xmm9
#APP
vaesenc %xmm9, %xmm14, %xmm14
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm9, %xmm4, %xmm4
vaesenc %xmm9, %xmm5, %xmm5
vaesenc %xmm9, %xmm6, %xmm6
vaesenc %xmm9, %xmm7, %xmm7
vpclmulqdq $16, %xmm2, %xmm0, %xmm15
vpxor %xmm15, %xmm10, %xmm10
vpclmulqdq $0, %xmm2, %xmm0, %xmm15
vpxor %xmm15, %xmm8, %xmm8
vpclmulqdq $17, %xmm2, %xmm0, %xmm15
vpxor %xmm15, %xmm12, %xmm12
vpclmulqdq $1, %xmm2, %xmm0, %xmm15
vpxor %xmm15, %xmm10, %xmm10
#NO_APP
vpshufb %xmm1, %xmm13, %xmm0
vmovaps 96(%rsp), %xmm2
#APP
vaesenc %xmm2, %xmm14, %xmm14
vaesenc %xmm2, %xmm3, %xmm3
vaesenc %xmm2, %xmm4, %xmm4
vaesenc %xmm2, %xmm5, %xmm5
vaesenc %xmm2, %xmm6, %xmm6
vaesenc %xmm2, %xmm7, %xmm7
#NO_APP
vmovaps 256(%rsp), %xmm2
vmovaps 80(%rsp), %xmm15
#APP
vaesenc %xmm15, %xmm14, %xmm14
vaesenc %xmm15, %xmm3, %xmm3
vaesenc %xmm15, %xmm4, %xmm4
vaesenc %xmm15, %xmm5, %xmm5
vaesenc %xmm15, %xmm6, %xmm6
vaesenc %xmm15, %xmm7, %xmm7
vpclmulqdq $16, %xmm2, %xmm0, %xmm13
vpxor %xmm13, %xmm10, %xmm10
vpclmulqdq $0, %xmm2, %xmm0, %xmm13
vpxor %xmm13, %xmm8, %xmm8
vpclmulqdq $17, %xmm2, %xmm0, %xmm13
vpxor %xmm13, %xmm12, %xmm12
vpclmulqdq $1, %xmm2, %xmm0, %xmm13
vpxor %xmm13, %xmm10, %xmm10
#NO_APP
vpshufb %xmm1, %xmm11, %xmm0
vmovaps 64(%rsp), %xmm2
#APP
vaesenc %xmm2, %xmm14, %xmm14
vaesenc %xmm2, %xmm3, %xmm3
vaesenc %xmm2, %xmm4, %xmm4
vaesenc %xmm2, %xmm5, %xmm5
vaesenc %xmm2, %xmm6, %xmm6
vaesenc %xmm2, %xmm7, %xmm7
#NO_APP
vmovaps 240(%rsp), %xmm2
vmovaps 416(%rsp), %xmm13
#APP
vaesenc %xmm13, %xmm14, %xmm14
vaesenc %xmm13, %xmm3, %xmm3
vaesenc %xmm13, %xmm4, %xmm4
vaesenc %xmm13, %xmm5, %xmm5
vaesenc %xmm13, %xmm6, %xmm6
vaesenc %xmm13, %xmm7, %xmm7
vpclmulqdq $16, %xmm2, %xmm0, %xmm11
vpxor %xmm11, %xmm10, %xmm10
vpclmulqdq $0, %xmm2, %xmm0, %xmm11
vpxor %xmm11, %xmm8, %xmm8
vpclmulqdq $17, %xmm2, %xmm0, %xmm11
vpxor %xmm11, %xmm12, %xmm12
vpclmulqdq $1, %xmm2, %xmm0, %xmm11
vpxor %xmm11, %xmm10, %xmm10
#NO_APP
vmovdqa 128(%rsp), %xmm0
vpshufb %xmm1, %xmm0, %xmm0
vmovaps 400(%rsp), %xmm2
#APP
vaesenc %xmm2, %xmm14, %xmm14
vaesenc %xmm2, %xmm3, %xmm3
vaesenc %xmm2, %xmm4, %xmm4
vaesenc %xmm2, %xmm5, %xmm5
vaesenc %xmm2, %xmm6, %xmm6
vaesenc %xmm2, %xmm7, %xmm7
#NO_APP
vmovaps 224(%rsp), %xmm2
vmovaps 384(%rsp), %xmm11
#APP
vaesenc %xmm11, %xmm14, %xmm14
vaesenc %xmm11, %xmm3, %xmm3
vaesenc %xmm11, %xmm4, %xmm4
vaesenc %xmm11, %xmm5, %xmm5
vaesenc %xmm11, %xmm6, %xmm6
vaesenc %xmm11, %xmm7, %xmm7
vpclmulqdq $16, %xmm2, %xmm0, %xmm9
vpxor %xmm9, %xmm10, %xmm10
vpclmulqdq $0, %xmm2, %xmm0, %xmm9
vpxor %xmm9, %xmm8, %xmm8
vpclmulqdq $17, %xmm2, %xmm0, %xmm9
vpxor %xmm9, %xmm12, %xmm12
vpclmulqdq $1, %xmm2, %xmm0, %xmm9
vpxor %xmm9, %xmm10, %xmm10
#NO_APP
vmovdqa 48(%rsp), %xmm0
vpshufb %xmm1, %xmm0, %xmm0
vmovaps 368(%rsp), %xmm2
#APP
vaesenc %xmm2, %xmm14, %xmm14
vaesenc %xmm2, %xmm3, %xmm3
vaesenc %xmm2, %xmm4, %xmm4
vaesenc %xmm2, %xmm5, %xmm5
vaesenc %xmm2, %xmm6, %xmm6
vaesenc %xmm2, %xmm7, %xmm7
#NO_APP
vmovaps 208(%rsp), %xmm9
vmovaps 352(%rsp), %xmm11
#APP
vaesenc %xmm11, %xmm14, %xmm14
vaesenc %xmm11, %xmm3, %xmm3
vaesenc %xmm11, %xmm4, %xmm4
vaesenc %xmm11, %xmm5, %xmm5
vaesenc %xmm11, %xmm6, %xmm6
vaesenc %xmm11, %xmm7, %xmm7
vpclmulqdq $16, %xmm9, %xmm0, %xmm2
vpxor %xmm2, %xmm10, %xmm10
vpclmulqdq $0, %xmm9, %xmm0, %xmm2
vpxor %xmm2, %xmm8, %xmm8
vpclmulqdq $17, %xmm9, %xmm0, %xmm2
vpxor %xmm2, %xmm12, %xmm12
vpclmulqdq $1, %xmm9, %xmm0, %xmm2
vpxor %xmm2, %xmm10, %xmm10
#NO_APP
vmovaps 336(%rsp), %xmm0
#APP
vaesenc %xmm0, %xmm14, %xmm14
vaesenc %xmm0, %xmm3, %xmm3
vaesenc %xmm0, %xmm4, %xmm4
vaesenc %xmm0, %xmm5, %xmm5
vaesenc %xmm0, %xmm6, %xmm6
vaesenc %xmm0, %xmm7, %xmm7
#NO_APP
vmovdqa 192(%rsp), %xmm2
vmovaps 320(%rsp), %xmm9
vmovaps 32(%rsp), %xmm11
#APP
vaesenc %xmm9, %xmm14, %xmm14
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm9, %xmm4, %xmm4
vaesenc %xmm9, %xmm5, %xmm5
vaesenc %xmm9, %xmm6, %xmm6
vaesenc %xmm9, %xmm7, %xmm7
vpclmulqdq $16, %xmm2, %xmm11, %xmm0
vpxor %xmm0, %xmm10, %xmm10
vpclmulqdq $0, %xmm2, %xmm11, %xmm0
vpxor %xmm0, %xmm8, %xmm8
vpclmulqdq $17, %xmm2, %xmm11, %xmm0
vpxor %xmm0, %xmm12, %xmm12
vpclmulqdq $1, %xmm2, %xmm11, %xmm0
vpxor %xmm0, %xmm10, %xmm10
#NO_APP
vpxor %xmm2, %xmm2, %xmm2
vpunpcklqdq %xmm10, %xmm2, %xmm0
vpxor %xmm0, %xmm8, %xmm0
vpunpckhqdq %xmm2, %xmm10, %xmm2
vmovdqa %xmm1, %xmm10
vpxor %xmm2, %xmm12, %xmm2
vpbroadcastq .LCPI1_13(%rip), %xmm1
vpclmulqdq $16, %xmm1, %xmm0, %xmm8
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm8, %xmm0
vpshufd $78, %xmm0, %xmm8
vpxor %xmm2, %xmm8, %xmm8
vmovaps 304(%rsp), %xmm2
#APP
vaesenc %xmm2, %xmm14, %xmm14
vaesenc %xmm2, %xmm3, %xmm3
vaesenc %xmm2, %xmm4, %xmm4
vaesenc %xmm2, %xmm5, %xmm5
vaesenc %xmm2, %xmm6, %xmm6
vaesenc %xmm2, %xmm7, %xmm7
#NO_APP
vmovdqa 160(%rsp), %xmm2
#APP
vaesenclast %xmm2, %xmm14, %xmm14
vaesenclast %xmm2, %xmm3, %xmm3
vaesenclast %xmm2, %xmm4, %xmm4
vaesenclast %xmm2, %xmm5, %xmm5
vaesenclast %xmm2, %xmm6, %xmm6
vaesenclast %xmm2, %xmm7, %xmm7
#NO_APP
vpclmulqdq $16, %xmm1, %xmm0, %xmm0
vpxor (%rcx), %xmm14, %xmm15
vpxor 16(%rcx), %xmm3, %xmm3
vpxor 32(%rcx), %xmm4, %xmm4
vpxor 48(%rcx), %xmm5, %xmm11
vpxor 64(%rcx), %xmm6, %xmm13
vpxor 80(%rcx), %xmm7, %xmm14
vpxor %xmm0, %xmm8, %xmm8
vmovdqa (%rsp), %xmm0
addq $96, %rcx
vmovdqu %xmm15, (%rax)
vmovdqu %xmm3, 16(%rax)
vmovdqu %xmm4, 32(%rax)
vmovdqu %xmm11, 48(%rax)
vmovdqu %xmm13, 64(%rax)
vmovdqu %xmm14, 80(%rax)
addq $96, %rax
addq $-96, %rbx
vpaddd .LCPI1_8(%rip), %xmm0, %xmm0
cmpq $95, %rbx
ja .LBB1_34
.LBB1_32:
vmovdqa %xmm0, (%rsp)
vpshufb %xmm10, %xmm15, %xmm1
vpxor %xmm1, %xmm8, %xmm1
vpshufb %xmm10, %xmm3, %xmm2
vpshufb %xmm10, %xmm4, %xmm4
vpshufb %xmm10, %xmm11, %xmm5
vpshufb %xmm10, %xmm13, %xmm6
vpshufb %xmm10, %xmm14, %xmm7
vmovdqa 240(%rdi), %xmm8
vmovdqa 256(%rdi), %xmm9
vmovdqa 272(%rdi), %xmm10
vmovdqa 288(%rdi), %xmm11
vmovdqa 304(%rdi), %xmm3
vmovdqa 320(%rdi), %xmm0
vpclmulqdq $0, %xmm7, %xmm8, %xmm12
vpclmulqdq $1, %xmm7, %xmm8, %xmm13
vpclmulqdq $16, %xmm7, %xmm8, %xmm14
vpxor %xmm13, %xmm14, %xmm13
vpclmulqdq $17, %xmm7, %xmm8, %xmm7
vpclmulqdq $0, %xmm6, %xmm9, %xmm8
vpxor %xmm12, %xmm8, %xmm8
vpclmulqdq $1, %xmm6, %xmm9, %xmm12
vpclmulqdq $16, %xmm6, %xmm9, %xmm14
vpxor %xmm14, %xmm12, %xmm12
vpxor %xmm12, %xmm13, %xmm12
vpclmulqdq $17, %xmm6, %xmm9, %xmm6
vpxor %xmm7, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm10, %xmm7
vpclmulqdq $1, %xmm5, %xmm10, %xmm9
vpclmulqdq $16, %xmm5, %xmm10, %xmm13
vpxor %xmm13, %xmm9, %xmm9
vpclmulqdq $17, %xmm5, %xmm10, %xmm5
vpclmulqdq $0, %xmm4, %xmm11, %xmm10
vpxor %xmm7, %xmm10, %xmm7
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $1, %xmm4, %xmm11, %xmm8
vpxor %xmm8, %xmm9, %xmm8
vpxor %xmm8, %xmm12, %xmm8
vpclmulqdq $16, %xmm4, %xmm11, %xmm9
vpclmulqdq $17, %xmm4, %xmm11, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpxor %xmm4, %xmm6, %xmm4
vpclmulqdq $0, %xmm2, %xmm3, %xmm5
vpxor %xmm5, %xmm7, %xmm5
vpclmulqdq $1, %xmm2, %xmm3, %xmm6
vpxor %xmm6, %xmm9, %xmm6
vpclmulqdq $16, %xmm2, %xmm3, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpxor %xmm6, %xmm8, %xmm6
vpclmulqdq $17, %xmm2, %xmm3, %xmm2
vpxor %xmm2, %xmm4, %xmm2
vpclmulqdq $0, %xmm1, %xmm0, %xmm3
vpxor %xmm3, %xmm5, %xmm3
vpclmulqdq $1, %xmm1, %xmm0, %xmm4
vpxor %xmm4, %xmm6, %xmm4
vpclmulqdq $16, %xmm1, %xmm0, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpclmulqdq $17, %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vpslldq $8, %xmm4, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpsrldq $8, %xmm4, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI1_13(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm2, %xmm0, %xmm5
movq %rax, %rdx
movq %rcx, %r9
cmpq $16, %rbx
jae .LBB1_35
.LBB1_27:
movq %rdx, %r14
movq %r9, %rsi
vmovdqa (%rsp), %xmm6
jmp .LBB1_28
.LBB1_25:
vmovdqa %xmm0, (%rsp)
movq %r15, %rbx
cmpq $16, %rbx
jb .LBB1_27
.LBB1_35:
vmovaps (%rdi), %xmm0
vmovaps %xmm0, 32(%rsp)
vmovaps 16(%rdi), %xmm0
vmovaps %xmm0, 48(%rsp)
vmovaps 32(%rdi), %xmm0
vmovaps %xmm0, 128(%rsp)
vmovaps 48(%rdi), %xmm0
vmovaps %xmm0, 112(%rsp)
vmovaps 64(%rdi), %xmm0
vmovaps %xmm0, 96(%rsp)
vmovaps 80(%rdi), %xmm0
vmovaps %xmm0, 80(%rsp)
vmovaps 96(%rdi), %xmm0
vmovaps %xmm0, 64(%rsp)
vmovdqa 112(%rdi), %xmm7
vmovdqa 128(%rdi), %xmm8
vmovdqa 144(%rdi), %xmm9
vmovdqa 160(%rdi), %xmm10
vmovdqa 176(%rdi), %xmm11
vmovdqa 192(%rdi), %xmm12
vmovdqa 208(%rdi), %xmm13
vmovdqa 224(%rdi), %xmm14
vmovdqa 240(%rdi), %xmm15
vmovdqa .LCPI1_2(%rip), %xmm0
vpbroadcastq .LCPI1_13(%rip), %xmm1
vmovdqa (%rsp), %xmm6
.p2align 4, 0x90
.LBB1_36:
vpshufb %xmm0, %xmm6, %xmm2
vpxor 32(%rsp), %xmm2, %xmm2
vaesenc 48(%rsp), %xmm2, %xmm2
vaesenc 128(%rsp), %xmm2, %xmm2
vaesenc 112(%rsp), %xmm2, %xmm2
vaesenc 96(%rsp), %xmm2, %xmm2
vaesenc 80(%rsp), %xmm2, %xmm2
vaesenc 64(%rsp), %xmm2, %xmm2
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm10, %xmm2, %xmm2
vaesenc %xmm11, %xmm2, %xmm2
vaesenc %xmm12, %xmm2, %xmm2
vaesenc %xmm13, %xmm2, %xmm2
vaesenclast %xmm14, %xmm2, %xmm2
vpxor (%r9), %xmm2, %xmm2
vmovdqu %xmm2, (%rdx)
vpshufb %xmm0, %xmm2, %xmm2
vpxor %xmm2, %xmm5, %xmm2
vpclmulqdq $0, %xmm2, %xmm15, %xmm3
vpclmulqdq $1, %xmm2, %xmm15, %xmm4
vpclmulqdq $16, %xmm2, %xmm15, %xmm5
vpxor %xmm4, %xmm5, %xmm4
vpslldq $8, %xmm4, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpclmulqdq $17, %xmm2, %xmm15, %xmm2
vpsrldq $8, %xmm4, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpclmulqdq $16, %xmm1, %xmm3, %xmm4
vpshufd $78, %xmm3, %xmm3
vpxor %xmm3, %xmm4, %xmm3
vpshufd $78, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpclmulqdq $16, %xmm1, %xmm3, %xmm3
vpxor %xmm2, %xmm3, %xmm5
leaq 16(%r9), %rsi
leaq 16(%rdx), %r14
addq $-16, %rbx
vpaddd .LCPI1_1(%rip), %xmm6, %xmm6
movq %r14, %rdx
movq %rsi, %r9
cmpq $15, %rbx
ja .LBB1_36
.LBB1_28:
vmovdqa %xmm6, (%rsp)
testq %rbx, %rbx
je .LBB1_39
vmovdqa %xmm5, 32(%rsp)
movq %r8, 48(%rsp)
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, 16(%rsp)
leaq 16(%rsp), %rax
movq memcpy@GOTPCREL(%rip), %rbp
movq %rdi, %r13
movq %rax, %rdi
movq %rbx, %rdx
callq *%rbp
vmovdqa (%rsp), %xmm0
vpshufb .LCPI1_2(%rip), %xmm0, %xmm0
vpxor (%r13), %xmm0, %xmm0
vaesenc 16(%r13), %xmm0, %xmm0
vaesenc 32(%r13), %xmm0, %xmm0
vaesenc 48(%r13), %xmm0, %xmm0
vaesenc 64(%r13), %xmm0, %xmm0
vaesenc 80(%r13), %xmm0, %xmm0
vaesenc 96(%r13), %xmm0, %xmm0
vaesenc 112(%r13), %xmm0, %xmm0
vaesenc 128(%r13), %xmm0, %xmm0
vaesenc 144(%r13), %xmm0, %xmm0
vaesenc 160(%r13), %xmm0, %xmm0
vaesenc 176(%r13), %xmm0, %xmm0
vaesenc 192(%r13), %xmm0, %xmm0
vaesenc 208(%r13), %xmm0, %xmm0
movq %r13, %r12
vaesenclast 224(%r13), %xmm0, %xmm0
vpxor 16(%rsp), %xmm0, %xmm0
vmovdqa %xmm0, (%rsp)
vmovdqa %xmm0, 16(%rsp)
leaq 16(%rsp), %rsi
movq %r14, %rdi
movq %rbx, %rdx
callq *%rbp
testq %r15, %r15
je .LBB1_30
vmovaps (%rsp), %xmm0
vmovaps %xmm0, 432(%rsp)
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, 16(%rsp)
leaq 16(%rsp), %rdi
leaq 432(%rsp), %rsi
movq %rbx, %rdx
callq *memcpy@GOTPCREL(%rip)
vmovdqa 16(%rsp), %xmm0
vpshufb .LCPI1_2(%rip), %xmm0, %xmm0
vpxor 32(%rsp), %xmm0, %xmm0
movq %r12, %rdi
vmovdqa 240(%r12), %xmm1
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
jmp .LBB1_38
.LBB1_15:
movq %r12, %rdi
vmovdqa 240(%r12), %xmm1
vpshufb .LCPI1_2(%rip), %xmm0, %xmm0
vpxor 32(%rsp), %xmm0, %xmm0
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI1_13(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm5
movq %rbx, %r8
jmp .LBB1_39
.LBB1_30:
movq %r12, %rdi
vmovdqa 240(%r12), %xmm0
vmovdqa (%rsp), %xmm1
vpshufb .LCPI1_2(%rip), %xmm1, %xmm1
vpxor 32(%rsp), %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm0, %xmm0
.LBB1_38:
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI1_13(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm5
movq 48(%rsp), %r8
.LBB1_39:
movq 536(%rsp), %rax
vmovdqa 240(%rdi), %xmm0
vmovq %r8, %xmm1
vmovq %r15, %xmm2
vpunpcklqdq %xmm1, %xmm2, %xmm1
vpsllq $3, %xmm1, %xmm1
vpxor %xmm1, %xmm5, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm0, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpbroadcastq .LCPI1_13(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm4
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpxor %xmm0, %xmm2, %xmm0
vmovdqa 144(%rsp), %xmm2
vpxor (%rdi), %xmm2, %xmm2
vaesenc 16(%rdi), %xmm2, %xmm2
vaesenc 32(%rdi), %xmm2, %xmm2
vaesenc 48(%rdi), %xmm2, %xmm2
vaesenc 64(%rdi), %xmm2, %xmm2
vaesenc 80(%rdi), %xmm2, %xmm2
vaesenc 96(%rdi), %xmm2, %xmm2
vaesenc 112(%rdi), %xmm2, %xmm2
vaesenc 128(%rdi), %xmm2, %xmm2
vaesenc 144(%rdi), %xmm2, %xmm2
vaesenc 160(%rdi), %xmm2, %xmm2
vaesenc 176(%rdi), %xmm2, %xmm2
vaesenc 192(%rdi), %xmm2, %xmm2
vaesenc 208(%rdi), %xmm2, %xmm2
vaesenclast 224(%rdi), %xmm2, %xmm2
vpshufb .LCPI1_2(%rip), %xmm0, %xmm0
vpshufb .LCPI1_10(%rip), %xmm3, %xmm3
vpshufb .LCPI1_11(%rip), %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vmovdqu %xmm0, (%rax)
movl $1, %eax
.LBB1_40:
addq $456, %rsp
.cfi_def_cfa_offset 56
popq %rbx
.cfi_def_cfa_offset 48
popq %r12
.cfi_def_cfa_offset 40
popq %r13
.cfi_def_cfa_offset 32
popq %r14
.cfi_def_cfa_offset 24
popq %r15
.cfi_def_cfa_offset 16
popq %rbp
.cfi_def_cfa_offset 8
retq
.Lfunc_end1:
.size haberdashery_aes256gcm_skylake_encrypt, .Lfunc_end1-haberdashery_aes256gcm_skylake_encrypt
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI2_0:
.byte 15
.byte 128
.byte 128
.byte 128
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI2_1:
.long 1
.long 0
.long 0
.long 0
.LCPI2_2:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI2_3:
.zero 8
.quad -4467570830351532032
.LCPI2_4:
.long 2
.long 0
.long 0
.long 0
.LCPI2_5:
.long 3
.long 0
.long 0
.long 0
.LCPI2_6:
.long 4
.long 0
.long 0
.long 0
.LCPI2_7:
.long 5
.long 0
.long 0
.long 0
.LCPI2_8:
.long 6
.long 0
.long 0
.long 0
.LCPI2_9:
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.LCPI2_10:
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI2_11:
.quad -4467570830351532032
.section .text.haberdashery_aes256gcm_skylake_decrypt,"ax",@progbits
.globl haberdashery_aes256gcm_skylake_decrypt
.p2align 4, 0x90
.type haberdashery_aes256gcm_skylake_decrypt,@function
haberdashery_aes256gcm_skylake_decrypt:
.cfi_startproc
pushq %rbp
.cfi_def_cfa_offset 16
pushq %r15
.cfi_def_cfa_offset 24
pushq %r14
.cfi_def_cfa_offset 32
pushq %r13
.cfi_def_cfa_offset 40
pushq %r12
.cfi_def_cfa_offset 48
pushq %rbx
.cfi_def_cfa_offset 56
subq $488, %rsp
.cfi_def_cfa_offset 544
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
.cfi_offset %rbp, -16
movq 544(%rsp), %r15
xorl %eax, %eax
cmpq 576(%rsp), %r15
jne .LBB2_38
cmpq $16, 560(%rsp)
setne %r10b
movabsq $2305843009213693950, %r11
cmpq %r11, %r8
seta %r11b
movq %r15, %rbx
shrq $5, %rbx
cmpq $2147483647, %rbx
setae %bl
orb %r10b, %r11b
orb %bl, %r11b
cmpq $12, %rdx
setne %dl
orb %r11b, %dl
jne .LBB2_38
movq 552(%rsp), %r13
vmovd (%rsi), %xmm0
vpinsrd $1, 4(%rsi), %xmm0, %xmm0
vpinsrd $2, 8(%rsi), %xmm0, %xmm0
movl $16777216, %edx
vpinsrd $3, %edx, %xmm0, %xmm0
vmovdqa %xmm0, 144(%rsp)
vpxor %xmm5, %xmm5, %xmm5
testq %r8, %r8
je .LBB2_3
cmpq $96, %r8
jb .LBB2_6
vmovdqu (%rcx), %xmm1
vmovdqu 16(%rcx), %xmm2
vmovdqu 32(%rcx), %xmm3
vmovdqu 48(%rcx), %xmm4
vmovdqu 64(%rcx), %xmm5
vmovdqu 80(%rcx), %xmm6
vmovdqa .LCPI2_2(%rip), %xmm0
vpshufb %xmm0, %xmm1, %xmm7
vpshufb %xmm0, %xmm2, %xmm10
vpshufb %xmm0, %xmm3, %xmm8
vpshufb %xmm0, %xmm4, %xmm9
vpshufb %xmm0, %xmm5, %xmm5
vpshufb %xmm0, %xmm6, %xmm6
vmovdqa 240(%rdi), %xmm1
vmovdqa 256(%rdi), %xmm2
vmovdqa 272(%rdi), %xmm3
vmovdqa 288(%rdi), %xmm4
vpclmulqdq $0, %xmm6, %xmm1, %xmm11
vpclmulqdq $1, %xmm6, %xmm1, %xmm12
vpclmulqdq $16, %xmm6, %xmm1, %xmm13
vpxor %xmm12, %xmm13, %xmm12
vpclmulqdq $17, %xmm6, %xmm1, %xmm6
vpclmulqdq $0, %xmm5, %xmm2, %xmm13
vpxor %xmm11, %xmm13, %xmm11
vpclmulqdq $1, %xmm5, %xmm2, %xmm13
vpclmulqdq $16, %xmm5, %xmm2, %xmm14
vpxor %xmm14, %xmm13, %xmm13
vpxor %xmm13, %xmm12, %xmm12
vpclmulqdq $17, %xmm5, %xmm2, %xmm5
vpxor %xmm6, %xmm5, %xmm13
vpclmulqdq $0, %xmm9, %xmm3, %xmm5
vpclmulqdq $1, %xmm9, %xmm3, %xmm6
vpclmulqdq $16, %xmm9, %xmm3, %xmm14
vpxor %xmm6, %xmm14, %xmm6
vpclmulqdq $0, %xmm8, %xmm4, %xmm14
vpxor %xmm5, %xmm14, %xmm14
vmovdqa 304(%rdi), %xmm5
vpxor %xmm14, %xmm11, %xmm11
vpclmulqdq $1, %xmm8, %xmm4, %xmm14
vpxor %xmm6, %xmm14, %xmm14
vmovdqa 320(%rdi), %xmm6
vpclmulqdq $17, %xmm9, %xmm3, %xmm9
vpxor %xmm14, %xmm12, %xmm12
vpclmulqdq $16, %xmm8, %xmm4, %xmm14
vpclmulqdq $17, %xmm8, %xmm4, %xmm8
vpxor %xmm8, %xmm9, %xmm8
vpxor %xmm8, %xmm13, %xmm13
vpclmulqdq $0, %xmm10, %xmm5, %xmm8
vpclmulqdq $1, %xmm10, %xmm5, %xmm9
vpxor %xmm9, %xmm14, %xmm9
vpclmulqdq $16, %xmm10, %xmm5, %xmm14
vpxor %xmm14, %xmm9, %xmm9
vpclmulqdq $0, %xmm7, %xmm6, %xmm14
vpxor %xmm14, %xmm8, %xmm8
vpxor %xmm8, %xmm11, %xmm8
vpclmulqdq $1, %xmm7, %xmm6, %xmm11
vpxor %xmm11, %xmm9, %xmm9
vpxor %xmm9, %xmm12, %xmm9
vpclmulqdq $16, %xmm7, %xmm6, %xmm11
vpxor %xmm11, %xmm9, %xmm9
vpclmulqdq $17, %xmm10, %xmm5, %xmm10
vpclmulqdq $17, %xmm7, %xmm6, %xmm7
vpxor %xmm7, %xmm10, %xmm7
vpxor %xmm7, %xmm13, %xmm10
addq $96, %rcx
leaq -96(%r8), %rsi
cmpq $96, %rsi
jb .LBB2_15
.p2align 4, 0x90
.LBB2_14:
vmovdqu (%rcx), %xmm11
vmovdqu 32(%rcx), %xmm12
vmovdqu 48(%rcx), %xmm13
vmovdqu 64(%rcx), %xmm14
vmovdqu 80(%rcx), %xmm15
vpslldq $8, %xmm9, %xmm7
vpxor %xmm7, %xmm8, %xmm7
vpsrldq $8, %xmm9, %xmm8
vpxor %xmm8, %xmm10, %xmm8
vpbroadcastq .LCPI2_11(%rip), %xmm10
vpclmulqdq $16, %xmm10, %xmm7, %xmm9
vpshufd $78, %xmm7, %xmm7
vpxor %xmm7, %xmm9, %xmm7
vpclmulqdq $16, %xmm10, %xmm7, %xmm9
vpshufd $78, %xmm7, %xmm7
vpshufb %xmm0, %xmm11, %xmm10
vpxor %xmm10, %xmm8, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpxor %xmm7, %xmm9, %xmm10
vpshufb %xmm0, %xmm12, %xmm8
vpshufb %xmm0, %xmm13, %xmm7
vpshufb %xmm0, %xmm14, %xmm9
vpshufb %xmm0, %xmm15, %xmm11
vpclmulqdq $0, %xmm11, %xmm1, %xmm12
vpclmulqdq $1, %xmm11, %xmm1, %xmm13
vpclmulqdq $16, %xmm11, %xmm1, %xmm14
vpxor %xmm13, %xmm14, %xmm13
vpclmulqdq $17, %xmm11, %xmm1, %xmm11
vpclmulqdq $0, %xmm9, %xmm2, %xmm14
vpxor %xmm12, %xmm14, %xmm12
vpclmulqdq $1, %xmm9, %xmm2, %xmm14
vpclmulqdq $16, %xmm9, %xmm2, %xmm15
vpxor %xmm15, %xmm14, %xmm14
vpxor %xmm14, %xmm13, %xmm13
vpclmulqdq $17, %xmm9, %xmm2, %xmm9
vpxor %xmm11, %xmm9, %xmm9
vpclmulqdq $0, %xmm7, %xmm3, %xmm11
vpclmulqdq $1, %xmm7, %xmm3, %xmm14
vpclmulqdq $16, %xmm7, %xmm3, %xmm15
vpxor %xmm15, %xmm14, %xmm14
vpclmulqdq $0, %xmm8, %xmm4, %xmm15
vpxor %xmm15, %xmm11, %xmm11
vpxor %xmm11, %xmm12, %xmm11
vpclmulqdq $1, %xmm8, %xmm4, %xmm12
vpxor %xmm12, %xmm14, %xmm12
vpclmulqdq $17, %xmm7, %xmm3, %xmm7
vpxor %xmm12, %xmm13, %xmm12
vpclmulqdq $17, %xmm8, %xmm4, %xmm13
vpxor %xmm7, %xmm13, %xmm7
vmovdqu 16(%rcx), %xmm13
vpshufb %xmm0, %xmm13, %xmm13
vpclmulqdq $16, %xmm8, %xmm4, %xmm8
vpxor %xmm7, %xmm9, %xmm7
vpclmulqdq $0, %xmm13, %xmm5, %xmm9
vpxor %xmm9, %xmm11, %xmm9
vpclmulqdq $1, %xmm13, %xmm5, %xmm11
vpxor %xmm11, %xmm8, %xmm8
vpclmulqdq $16, %xmm13, %xmm5, %xmm11
vpxor %xmm11, %xmm8, %xmm8
vpxor %xmm8, %xmm12, %xmm11
vpclmulqdq $17, %xmm13, %xmm5, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $0, %xmm10, %xmm6, %xmm8
vpxor %xmm8, %xmm9, %xmm8
vpclmulqdq $1, %xmm10, %xmm6, %xmm9
vpxor %xmm9, %xmm11, %xmm9
vpclmulqdq $16, %xmm10, %xmm6, %xmm11
vpxor %xmm11, %xmm9, %xmm9
vpclmulqdq $17, %xmm10, %xmm6, %xmm10
vpxor %xmm7, %xmm10, %xmm10
addq $96, %rcx
addq $-96, %rsi
cmpq $95, %rsi
ja .LBB2_14
.LBB2_15:
vpslldq $8, %xmm9, %xmm0
vpxor %xmm0, %xmm8, %xmm0
vpsrldq $8, %xmm9, %xmm1
vpxor %xmm1, %xmm10, %xmm1
vpbroadcastq .LCPI2_11(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm0, %xmm3
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm0
vpclmulqdq $16, %xmm2, %xmm0, %xmm2
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpxor %xmm2, %xmm0, %xmm5
cmpq $16, %rsi
jae .LBB2_16
jmp .LBB2_8
.LBB2_6:
movq %r8, %rsi
cmpq $16, %rsi
jb .LBB2_8
.LBB2_16:
vmovdqa 240(%rdi), %xmm0
leaq -16(%rsi), %rdx
testb $16, %dl
je .LBB2_17
cmpq $16, %rdx
jae .LBB2_19
.LBB2_9:
testq %rdx, %rdx
je .LBB2_3
.LBB2_10:
vmovdqa %xmm5, 16(%rsp)
movq %r9, %r14
movq %r8, %rbx
movq %rdi, %r12
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, 32(%rsp)
leaq 32(%rsp), %rdi
movq %rcx, %rsi
callq *memcpy@GOTPCREL(%rip)
vmovdqa 32(%rsp), %xmm0
testq %r15, %r15
je .LBB2_11
movabsq $-68719476704, %rax
leaq (%r15,%rax), %rcx
incq %rax
cmpq %rax, %rcx
movl $0, %eax
vmovdqa 16(%rsp), %xmm2
jb .LBB2_38
movq %r12, %rdi
movq %rbx, %r8
movq %r14, %r9
vmovdqa 240(%r12), %xmm1
vpshufb .LCPI2_2(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI2_11(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm5
jmp .LBB2_23
.LBB2_17:
vmovdqu (%rcx), %xmm1
addq $16, %rcx
vpshufb .LCPI2_2(%rip), %xmm1, %xmm1
vpxor %xmm1, %xmm5, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
vpslldq $8, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpsrldq $8, %xmm3, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpbroadcastq .LCPI2_11(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm2, %xmm4
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm4, %xmm2
vpclmulqdq $16, %xmm3, %xmm2, %xmm3
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm5
movq %rdx, %rsi
cmpq $16, %rdx
jb .LBB2_9
.LBB2_19:
vmovdqa .LCPI2_2(%rip), %xmm1
vpbroadcastq .LCPI2_11(%rip), %xmm2
.p2align 4, 0x90
.LBB2_20:
vmovdqu (%rcx), %xmm3
vmovdqu 16(%rcx), %xmm4
vpshufb %xmm1, %xmm3, %xmm3
vpxor %xmm3, %xmm5, %xmm3
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpclmulqdq $1, %xmm3, %xmm0, %xmm6
vpclmulqdq $16, %xmm3, %xmm0, %xmm7
vpxor %xmm6, %xmm7, %xmm6
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
vpslldq $8, %xmm6, %xmm7
vpxor %xmm7, %xmm5, %xmm5
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm3, %xmm3
vpclmulqdq $16, %xmm2, %xmm5, %xmm6
vpshufd $78, %xmm5, %xmm5
vpxor %xmm5, %xmm6, %xmm5
vpclmulqdq $16, %xmm2, %xmm5, %xmm6
vpshufd $78, %xmm5, %xmm5
vpxor %xmm5, %xmm3, %xmm3
addq $32, %rcx
addq $-32, %rsi
vpshufb %xmm1, %xmm4, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpxor %xmm3, %xmm6, %xmm3
vpclmulqdq $0, %xmm3, %xmm0, %xmm4
vpclmulqdq $1, %xmm3, %xmm0, %xmm5
vpclmulqdq $16, %xmm3, %xmm0, %xmm6
vpxor %xmm5, %xmm6, %xmm5
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
vpslldq $8, %xmm5, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpsrldq $8, %xmm5, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpclmulqdq $16, %xmm2, %xmm4, %xmm5
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $16, %xmm2, %xmm4, %xmm5
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpxor %xmm3, %xmm5, %xmm5
cmpq $15, %rsi
ja .LBB2_20
.LBB2_8:
movq %rsi, %rdx
testq %rdx, %rdx
jne .LBB2_10
.LBB2_3:
testq %r15, %r15
je .LBB2_12
movabsq $-68719476704, %rcx
leaq (%r15,%rcx), %rdx
incq %rcx
cmpq %rcx, %rdx
jb .LBB2_38
.LBB2_23:
movq 568(%rsp), %rax
vmovdqa 144(%rsp), %xmm0
vpshufb .LCPI2_0(%rip), %xmm0, %xmm0
vpaddd .LCPI2_1(%rip), %xmm0, %xmm7
cmpq $96, %r15
jb .LBB2_24
vmovaps (%rdi), %xmm0
vmovaps %xmm0, 160(%rsp)
vmovaps 16(%rdi), %xmm0
vmovaps %xmm0, 64(%rsp)
vmovaps 32(%rdi), %xmm0
vmovaps %xmm0, 48(%rsp)
vmovaps 48(%rdi), %xmm0
vmovaps %xmm0, 448(%rsp)
vmovaps 64(%rdi), %xmm0
vmovaps %xmm0, 432(%rsp)
vmovaps 80(%rdi), %xmm0
vmovaps %xmm0, 416(%rsp)
vmovaps 96(%rdi), %xmm0
vmovaps %xmm0, 400(%rsp)
vmovaps 112(%rdi), %xmm0
vmovaps %xmm0, 384(%rsp)
vmovaps 128(%rdi), %xmm0
vmovaps %xmm0, 368(%rsp)
vmovaps 144(%rdi), %xmm0
vmovaps %xmm0, 352(%rsp)
vmovaps 160(%rdi), %xmm0
vmovaps %xmm0, 336(%rsp)
vmovaps 176(%rdi), %xmm0
vmovaps %xmm0, 320(%rsp)
vmovaps 192(%rdi), %xmm0
vmovaps %xmm0, 304(%rsp)
vmovaps 208(%rdi), %xmm0
vmovaps %xmm0, 288(%rsp)
vmovaps 224(%rdi), %xmm0
vmovaps %xmm0, 272(%rsp)
vmovaps 240(%rdi), %xmm0
vmovaps %xmm0, 256(%rsp)
movq %r15, %rbx
vmovaps 256(%rdi), %xmm0
vmovaps %xmm0, 240(%rsp)
vmovaps 272(%rdi), %xmm0
vmovaps %xmm0, 224(%rsp)
vmovaps 288(%rdi), %xmm0
vmovaps %xmm0, 208(%rsp)
vmovaps 304(%rdi), %xmm0
vmovaps %xmm0, 192(%rsp)
vmovdqa 320(%rdi), %xmm0
vmovdqa %xmm0, 176(%rsp)
.p2align 4, 0x90
.LBB2_28:
vmovdqa %xmm7, (%rsp)
vmovdqu (%r9), %xmm9
vmovdqa %xmm9, 112(%rsp)
vmovups 32(%r9), %xmm0
vmovaps %xmm0, 16(%rsp)
vmovdqu 48(%r9), %xmm13
vmovdqa %xmm13, 80(%rsp)
vmovdqu 64(%r9), %xmm10
vmovdqu 80(%r9), %xmm11
vmovdqa %xmm11, 128(%rsp)
vmovdqa .LCPI2_2(%rip), %xmm6
vpshufb %xmm6, %xmm7, %xmm0
vpaddd .LCPI2_1(%rip), %xmm7, %xmm1
vpshufb %xmm6, %xmm1, %xmm1
vpaddd .LCPI2_4(%rip), %xmm7, %xmm2
vpshufb %xmm6, %xmm2, %xmm2
vpaddd .LCPI2_5(%rip), %xmm7, %xmm3
vpshufb %xmm6, %xmm3, %xmm3
vpaddd .LCPI2_6(%rip), %xmm7, %xmm4
vpshufb %xmm6, %xmm4, %xmm4
vmovdqa %xmm5, %xmm8
vpaddd .LCPI2_7(%rip), %xmm7, %xmm5
vpshufb %xmm6, %xmm5, %xmm5
vpshufb %xmm6, %xmm9, %xmm7
vpxor %xmm7, %xmm8, %xmm7
vmovdqa %xmm7, 96(%rsp)
vpshufb %xmm6, %xmm11, %xmm9
vmovdqa 160(%rsp), %xmm7
vpxor %xmm0, %xmm7, %xmm15
vpxor %xmm1, %xmm7, %xmm1
vpxor %xmm2, %xmm7, %xmm2
vpxor %xmm3, %xmm7, %xmm3
vpxor %xmm4, %xmm7, %xmm4
vpxor %xmm5, %xmm7, %xmm14
vmovaps 64(%rsp), %xmm0
#APP
vaesenc %xmm0, %xmm15, %xmm15
vaesenc %xmm0, %xmm1, %xmm1
vaesenc %xmm0, %xmm2, %xmm2
vaesenc %xmm0, %xmm3, %xmm3
vaesenc %xmm0, %xmm4, %xmm4
vaesenc %xmm0, %xmm14, %xmm14
#NO_APP
vpxor %xmm7, %xmm7, %xmm7
vpxor %xmm8, %xmm8, %xmm8
vxorps %xmm0, %xmm0, %xmm0
vmovaps 48(%rsp), %xmm11
vmovaps 256(%rsp), %xmm12
#APP
vaesenc %xmm11, %xmm15, %xmm15
vaesenc %xmm11, %xmm1, %xmm1
vaesenc %xmm11, %xmm2, %xmm2
vaesenc %xmm11, %xmm3, %xmm3
vaesenc %xmm11, %xmm4, %xmm4
vaesenc %xmm11, %xmm14, %xmm14
vpclmulqdq $16, %xmm12, %xmm9, %xmm5
vpxor %xmm5, %xmm8, %xmm8
vpclmulqdq $0, %xmm12, %xmm9, %xmm5
vpxor %xmm5, %xmm7, %xmm7
vpclmulqdq $17, %xmm12, %xmm9, %xmm5
vpxor %xmm5, %xmm0, %xmm0
vpclmulqdq $1, %xmm12, %xmm9, %xmm5
vpxor %xmm5, %xmm8, %xmm8
#NO_APP
vpshufb %xmm6, %xmm10, %xmm5
vmovaps 448(%rsp), %xmm9
#APP
vaesenc %xmm9, %xmm15, %xmm15
vaesenc %xmm9, %xmm1, %xmm1
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm9, %xmm4, %xmm4
vaesenc %xmm9, %xmm14, %xmm14
#NO_APP
vmovaps 432(%rsp), %xmm11
vmovaps 240(%rsp), %xmm12
#APP
vaesenc %xmm11, %xmm15, %xmm15
vaesenc %xmm11, %xmm1, %xmm1
vaesenc %xmm11, %xmm2, %xmm2
vaesenc %xmm11, %xmm3, %xmm3
vaesenc %xmm11, %xmm4, %xmm4
vaesenc %xmm11, %xmm14, %xmm14
vpclmulqdq $16, %xmm12, %xmm5, %xmm9
vpxor %xmm9, %xmm8, %xmm8
vpclmulqdq $0, %xmm12, %xmm5, %xmm9
vpxor %xmm7, %xmm9, %xmm7
vpclmulqdq $17, %xmm12, %xmm5, %xmm9
vpxor %xmm0, %xmm9, %xmm0
vpclmulqdq $1, %xmm12, %xmm5, %xmm9
vpxor %xmm9, %xmm8, %xmm8
#NO_APP
vpshufb %xmm6, %xmm13, %xmm5
vmovaps 416(%rsp), %xmm9
#APP
vaesenc %xmm9, %xmm15, %xmm15
vaesenc %xmm9, %xmm1, %xmm1
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm9, %xmm4, %xmm4
vaesenc %xmm9, %xmm14, %xmm14
#NO_APP
vmovaps 400(%rsp), %xmm11
vmovaps 224(%rsp), %xmm12
#APP
vaesenc %xmm11, %xmm15, %xmm15
vaesenc %xmm11, %xmm1, %xmm1
vaesenc %xmm11, %xmm2, %xmm2
vaesenc %xmm11, %xmm3, %xmm3
vaesenc %xmm11, %xmm4, %xmm4
vaesenc %xmm11, %xmm14, %xmm14
vpclmulqdq $16, %xmm12, %xmm5, %xmm9
vpxor %xmm9, %xmm8, %xmm8
vpclmulqdq $0, %xmm12, %xmm5, %xmm9
vpxor %xmm7, %xmm9, %xmm7
vpclmulqdq $17, %xmm12, %xmm5, %xmm9
vpxor %xmm0, %xmm9, %xmm0
vpclmulqdq $1, %xmm12, %xmm5, %xmm9
vpxor %xmm9, %xmm8, %xmm8
#NO_APP
vmovdqa 16(%rsp), %xmm5
vpshufb %xmm6, %xmm5, %xmm5
vmovaps 384(%rsp), %xmm9
#APP
vaesenc %xmm9, %xmm15, %xmm15
vaesenc %xmm9, %xmm1, %xmm1
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm9, %xmm4, %xmm4
vaesenc %xmm9, %xmm14, %xmm14
#NO_APP
vmovaps 368(%rsp), %xmm11
vmovaps 208(%rsp), %xmm12
#APP
vaesenc %xmm11, %xmm15, %xmm15
vaesenc %xmm11, %xmm1, %xmm1
vaesenc %xmm11, %xmm2, %xmm2
vaesenc %xmm11, %xmm3, %xmm3
vaesenc %xmm11, %xmm4, %xmm4
vaesenc %xmm11, %xmm14, %xmm14
vpclmulqdq $16, %xmm12, %xmm5, %xmm9
vpxor %xmm9, %xmm8, %xmm8
vpclmulqdq $0, %xmm12, %xmm5, %xmm9
vpxor %xmm7, %xmm9, %xmm7
vpclmulqdq $17, %xmm12, %xmm5, %xmm9
vpxor %xmm0, %xmm9, %xmm0
vpclmulqdq $1, %xmm12, %xmm5, %xmm9
vpxor %xmm9, %xmm8, %xmm8
#NO_APP
vmovdqu 16(%r9), %xmm5
vmovaps 352(%rsp), %xmm9
#APP
vaesenc %xmm9, %xmm15, %xmm15
vaesenc %xmm9, %xmm1, %xmm1
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm9, %xmm4, %xmm4
vaesenc %xmm9, %xmm14, %xmm14
#NO_APP
vpshufb %xmm6, %xmm5, %xmm9
vmovaps 336(%rsp), %xmm12
vmovdqa 192(%rsp), %xmm13
#APP
vaesenc %xmm12, %xmm15, %xmm15
vaesenc %xmm12, %xmm1, %xmm1
vaesenc %xmm12, %xmm2, %xmm2
vaesenc %xmm12, %xmm3, %xmm3
vaesenc %xmm12, %xmm4, %xmm4
vaesenc %xmm12, %xmm14, %xmm14
vpclmulqdq $16, %xmm13, %xmm9, %xmm11
vpxor %xmm11, %xmm8, %xmm8
vpclmulqdq $0, %xmm13, %xmm9, %xmm11
vpxor %xmm7, %xmm11, %xmm7
vpclmulqdq $17, %xmm13, %xmm9, %xmm11
vpxor %xmm0, %xmm11, %xmm0
vpclmulqdq $1, %xmm13, %xmm9, %xmm11
vpxor %xmm11, %xmm8, %xmm8
#NO_APP
vmovaps 320(%rsp), %xmm9
#APP
vaesenc %xmm9, %xmm15, %xmm15
vaesenc %xmm9, %xmm1, %xmm1
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm9, %xmm4, %xmm4
vaesenc %xmm9, %xmm14, %xmm14
#NO_APP
vmovdqa 304(%rsp), %xmm11
vmovdqa 176(%rsp), %xmm12
vmovdqa 96(%rsp), %xmm6
#APP
vaesenc %xmm11, %xmm15, %xmm15
vaesenc %xmm11, %xmm1, %xmm1
vaesenc %xmm11, %xmm2, %xmm2
vaesenc %xmm11, %xmm3, %xmm3
vaesenc %xmm11, %xmm4, %xmm4
vaesenc %xmm11, %xmm14, %xmm14
vpclmulqdq $16, %xmm12, %xmm6, %xmm9
vpxor %xmm9, %xmm8, %xmm8
vpclmulqdq $0, %xmm12, %xmm6, %xmm9
vpxor %xmm7, %xmm9, %xmm7
vpclmulqdq $17, %xmm12, %xmm6, %xmm9
vpxor %xmm0, %xmm9, %xmm0
vpclmulqdq $1, %xmm12, %xmm6, %xmm9
vpxor %xmm9, %xmm8, %xmm8
#NO_APP
vpxor %xmm11, %xmm11, %xmm11
vpunpcklqdq %xmm8, %xmm11, %xmm9
vpxor %xmm7, %xmm9, %xmm7
vpunpckhqdq %xmm11, %xmm8, %xmm8
vpxor %xmm0, %xmm8, %xmm0
vpbroadcastq .LCPI2_11(%rip), %xmm9
vpclmulqdq $16, %xmm9, %xmm7, %xmm8
vpshufd $78, %xmm7, %xmm7
vpxor %xmm7, %xmm8, %xmm7
vpshufd $78, %xmm7, %xmm8
vpxor %xmm0, %xmm8, %xmm0
vmovaps 288(%rsp), %xmm8
#APP
vaesenc %xmm8, %xmm15, %xmm15
vaesenc %xmm8, %xmm1, %xmm1
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm8, %xmm3, %xmm3
vaesenc %xmm8, %xmm4, %xmm4
vaesenc %xmm8, %xmm14, %xmm14
#NO_APP
vmovaps 272(%rsp), %xmm8
#APP
vaesenclast %xmm8, %xmm15, %xmm15
vaesenclast %xmm8, %xmm1, %xmm1
vaesenclast %xmm8, %xmm2, %xmm2
vaesenclast %xmm8, %xmm3, %xmm3
vaesenclast %xmm8, %xmm4, %xmm4
vaesenclast %xmm8, %xmm14, %xmm14
#NO_APP
vpxor 112(%rsp), %xmm15, %xmm8
vpxor %xmm5, %xmm1, %xmm1
vpxor 16(%rsp), %xmm2, %xmm2
vpxor 80(%rsp), %xmm3, %xmm3
vpxor %xmm4, %xmm10, %xmm4
vmovdqu %xmm8, (%rax)
vmovdqu %xmm1, 16(%rax)
vmovdqu %xmm2, 32(%rax)
vmovdqu %xmm3, 48(%rax)
vpxor 128(%rsp), %xmm14, %xmm1
vmovdqu %xmm4, 64(%rax)
vmovdqu %xmm1, 80(%rax)
vpclmulqdq $16, %xmm9, %xmm7, %xmm1
vmovdqa (%rsp), %xmm7
vpxor %xmm1, %xmm0, %xmm5
addq $96, %r9
addq $96, %rax
addq $-96, %rbx
vpaddd .LCPI2_8(%rip), %xmm7, %xmm7
cmpq $95, %rbx
ja .LBB2_28
cmpq $16, %rbx
jb .LBB2_26
.LBB2_29:
vmovdqa 240(%rdi), %xmm0
vmovaps (%rdi), %xmm1
vmovaps %xmm1, 16(%rsp)
vmovaps 16(%rdi), %xmm1
vmovaps %xmm1, (%rsp)
vmovaps 32(%rdi), %xmm1
vmovaps %xmm1, 128(%rsp)
vmovaps 48(%rdi), %xmm1
vmovaps %xmm1, 112(%rsp)
vmovaps 64(%rdi), %xmm1
vmovaps %xmm1, 96(%rsp)
vmovaps 80(%rdi), %xmm1
vmovaps %xmm1, 80(%rsp)
vmovaps 96(%rdi), %xmm1
vmovaps %xmm1, 64(%rsp)
vmovaps 112(%rdi), %xmm1
vmovaps %xmm1, 48(%rsp)
vmovdqa 128(%rdi), %xmm9
vmovdqa 144(%rdi), %xmm10
vmovdqa 160(%rdi), %xmm11
vmovdqa 176(%rdi), %xmm12
vmovdqa 192(%rdi), %xmm13
vmovdqa 208(%rdi), %xmm14
movq %rdi, %r13
vmovdqa 224(%rdi), %xmm15
vmovdqa .LCPI2_2(%rip), %xmm1
vpbroadcastq .LCPI2_11(%rip), %xmm2
.p2align 4, 0x90
.LBB2_30:
vmovdqu (%r9), %xmm3
vpshufb %xmm1, %xmm3, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $0, %xmm4, %xmm0, %xmm5
vpclmulqdq $1, %xmm4, %xmm0, %xmm6
vmovdqa %xmm7, %xmm8
vpclmulqdq $16, %xmm4, %xmm0, %xmm7
vpxor %xmm6, %xmm7, %xmm6
vpslldq $8, %xmm6, %xmm7
vpxor %xmm7, %xmm5, %xmm5
vpclmulqdq $17, %xmm4, %xmm0, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpclmulqdq $16, %xmm2, %xmm5, %xmm6
vpshufd $78, %xmm5, %xmm5
vpxor %xmm5, %xmm6, %xmm5
vpshufd $78, %xmm5, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpshufb %xmm1, %xmm8, %xmm6
vpxor 16(%rsp), %xmm6, %xmm6
vaesenc (%rsp), %xmm6, %xmm6
vaesenc 128(%rsp), %xmm6, %xmm6
vaesenc 112(%rsp), %xmm6, %xmm6
vaesenc 96(%rsp), %xmm6, %xmm6
vaesenc 80(%rsp), %xmm6, %xmm6
vaesenc 64(%rsp), %xmm6, %xmm6
vaesenc 48(%rsp), %xmm6, %xmm6
vaesenc %xmm9, %xmm6, %xmm6
vaesenc %xmm10, %xmm6, %xmm6
vaesenc %xmm11, %xmm6, %xmm6
vaesenc %xmm12, %xmm6, %xmm6
vaesenc %xmm13, %xmm6, %xmm6
vaesenc %xmm14, %xmm6, %xmm6
vaesenclast %xmm15, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm3
vmovdqu %xmm3, (%rax)
vpclmulqdq $16, %xmm2, %xmm5, %xmm3
vpxor %xmm4, %xmm3, %xmm5
leaq 16(%rax), %r14
addq $-16, %rbx
addq $16, %r9
vpaddd .LCPI2_1(%rip), %xmm8, %xmm7
movq %r14, %rax
cmpq $15, %rbx
ja .LBB2_30
jmp .LBB2_31
.LBB2_24:
movq %r15, %rbx
cmpq $16, %rbx
jae .LBB2_29
.LBB2_26:
movq %rdi, %r13
movq %rax, %r14
.LBB2_31:
vmovdqa %xmm5, 16(%rsp)
movq %r8, %rbp
vpxor %xmm1, %xmm1, %xmm1
vpxor %xmm2, %xmm2, %xmm2
testq %rbx, %rbx
je .LBB2_33
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, 32(%rsp)
leaq 32(%rsp), %rdi
movq memcpy@GOTPCREL(%rip), %r12
movq %r9, %rsi
movq %rbx, %rdx
vmovdqa %xmm7, (%rsp)
callq *%r12
vmovdqa (%rsp), %xmm0
vpshufb .LCPI2_2(%rip), %xmm0, %xmm0
vpxor (%r13), %xmm0, %xmm0
vaesenc 16(%r13), %xmm0, %xmm0
vaesenc 32(%r13), %xmm0, %xmm0
vaesenc 48(%r13), %xmm0, %xmm0
vaesenc 64(%r13), %xmm0, %xmm0
vaesenc 80(%r13), %xmm0, %xmm0
vaesenc 96(%r13), %xmm0, %xmm0
vaesenc 112(%r13), %xmm0, %xmm0
vaesenc 128(%r13), %xmm0, %xmm0
vaesenc 144(%r13), %xmm0, %xmm0
vaesenc 160(%r13), %xmm0, %xmm0
vaesenc 176(%r13), %xmm0, %xmm0
vaesenc 192(%r13), %xmm0, %xmm0
vaesenc 208(%r13), %xmm0, %xmm0
vmovdqa 32(%rsp), %xmm1
vmovdqa %xmm1, (%rsp)
vaesenclast 224(%r13), %xmm0, %xmm0
vpxor %xmm1, %xmm0, %xmm0
vmovdqa %xmm0, 32(%rsp)
leaq 32(%rsp), %rsi
movq %r14, %rdi
movq %rbx, %rdx
callq *%r12
vmovdqa (%rsp), %xmm2
vpxor %xmm1, %xmm1, %xmm1
.LBB2_33:
movq 552(%rsp), %rax
vmovdqu (%rax), %xmm0
vmovdqa %xmm0, (%rsp)
vmovdqa %xmm2, 464(%rsp)
vmovdqa %xmm1, 32(%rsp)
leaq 32(%rsp), %rdi
leaq 464(%rsp), %rsi
movq %rbx, %rdx
callq *memcpy@GOTPCREL(%rip)
testq %rbx, %rbx
je .LBB2_34
vmovdqa 32(%rsp), %xmm0
vpshufb .LCPI2_2(%rip), %xmm0, %xmm0
vpxor 16(%rsp), %xmm0, %xmm0
movq %r13, %rdi
vmovdqa 240(%r13), %xmm1
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI2_11(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm5
movq %rbp, %r8
jmp .LBB2_36
.LBB2_11:
movq %r12, %rdi
vmovdqa 240(%r12), %xmm1
vpshufb .LCPI2_2(%rip), %xmm0, %xmm0
vpxor 16(%rsp), %xmm0, %xmm0
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI2_11(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm5
movq %rbx, %r8
.LBB2_12:
vmovdqu (%r13), %xmm6
jmp .LBB2_37
.LBB2_34:
movq %r13, %rdi
movq %rbp, %r8
vmovdqa 16(%rsp), %xmm5
.LBB2_36:
vmovdqa (%rsp), %xmm6
.LBB2_37:
vmovdqa 240(%rdi), %xmm0
vmovq %r8, %xmm1
vmovq %r15, %xmm2
vpunpcklqdq %xmm1, %xmm2, %xmm1
vpsllq $3, %xmm1, %xmm1
vpxor %xmm1, %xmm5, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm0, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpbroadcastq .LCPI2_11(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm4
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpxor %xmm0, %xmm2, %xmm0
vmovdqa 144(%rsp), %xmm2
vpxor (%rdi), %xmm2, %xmm2
vaesenc 16(%rdi), %xmm2, %xmm2
vaesenc 32(%rdi), %xmm2, %xmm2
vaesenc 48(%rdi), %xmm2, %xmm2
vaesenc 64(%rdi), %xmm2, %xmm2
vaesenc 80(%rdi), %xmm2, %xmm2
vaesenc 96(%rdi), %xmm2, %xmm2
vaesenc 112(%rdi), %xmm2, %xmm2
vaesenc 128(%rdi), %xmm2, %xmm2
vaesenc 144(%rdi), %xmm2, %xmm2
vaesenc 160(%rdi), %xmm2, %xmm2
vaesenc 176(%rdi), %xmm2, %xmm2
vaesenc 192(%rdi), %xmm2, %xmm2
vaesenc 208(%rdi), %xmm2, %xmm2
vaesenclast 224(%rdi), %xmm2, %xmm2
vpshufb .LCPI2_2(%rip), %xmm0, %xmm0
vpshufb .LCPI2_9(%rip), %xmm3, %xmm3
vpshufb .LCPI2_10(%rip), %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpxor %xmm1, %xmm6, %xmm1
vpxor %xmm0, %xmm1, %xmm0
vpxor %xmm2, %xmm0, %xmm0
xorl %eax, %eax
vptest %xmm0, %xmm0
sete %al
.LBB2_38:
addq $488, %rsp
.cfi_def_cfa_offset 56
popq %rbx
.cfi_def_cfa_offset 48
popq %r12
.cfi_def_cfa_offset 40
popq %r13
.cfi_def_cfa_offset 32
popq %r14
.cfi_def_cfa_offset 24
popq %r15
.cfi_def_cfa_offset 16
popq %rbp
.cfi_def_cfa_offset 8
retq
.Lfunc_end2:
.size haberdashery_aes256gcm_skylake_decrypt, .Lfunc_end2-haberdashery_aes256gcm_skylake_decrypt
.cfi_endproc
.section .text.haberdashery_aes256gcm_skylake_is_supported,"ax",@progbits
.globl haberdashery_aes256gcm_skylake_is_supported
.p2align 4, 0x90
.type haberdashery_aes256gcm_skylake_is_supported,@function
haberdashery_aes256gcm_skylake_is_supported:
.cfi_startproc
movl $1, %eax
xorl %ecx, %ecx
#APP
movq %rbx, %rsi
cpuid
xchgq %rbx, %rsi
#NO_APP
movl %ecx, %esi
movl %edx, %edi
notl %edi
notl %esi
movl $7, %eax
xorl %ecx, %ecx
#APP
movq %rbx, %r8
cpuid
xchgq %rbx, %r8
#NO_APP
andl $1993871875, %esi
andl $125829120, %edi
orl %esi, %edi
notl %r8d
andl $9175337, %r8d
xorl %eax, %eax
orl %edi, %r8d
sete %al
retq
.Lfunc_end3:
.size haberdashery_aes256gcm_skylake_is_supported, .Lfunc_end3-haberdashery_aes256gcm_skylake_is_supported
.cfi_endproc
.ident "rustc version 1.86.0-nightly (9cd60bd2c 2025-02-15)"
.section ".note.GNU-stack","",@progbits
|
ts-phantomnk90/haberdashery
| 74,782
|
asm/aes256gcmdndkv2_skylakex.s
|
# @generated
# https://github.com/facebookincubator/haberdashery/
.text
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI0_0:
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI0_1:
.quad 4294967297
.LCPI0_2:
.quad 8589934594
.LCPI0_3:
.quad 17179869188
.LCPI0_4:
.quad 34359738376
.LCPI0_5:
.quad 68719476752
.LCPI0_6:
.quad 137438953504
.LCPI0_7:
.quad 274877907008
.section .rodata.cst4,"aM",@progbits,4
.p2align 2, 0x0
.LCPI0_8:
.byte 13
.byte 14
.byte 15
.byte 12
.section .text.haberdashery_aes256gcmdndkv2_skylakex_init,"ax",@progbits
.globl haberdashery_aes256gcmdndkv2_skylakex_init
.p2align 4, 0x90
.type haberdashery_aes256gcmdndkv2_skylakex_init,@function
haberdashery_aes256gcmdndkv2_skylakex_init:
.cfi_startproc
cmpq $32, %rdx
jne .LBB0_2
vmovupd (%rsi), %xmm0
vmovdqu 16(%rsi), %xmm1
vpslldq $4, %xmm0, %xmm2
vpslldq $8, %xmm0, %xmm3
vpslldq $12, %xmm0, %xmm4
vpternlogq $150, %xmm3, %xmm2, %xmm4
vpbroadcastd .LCPI0_8(%rip), %xmm3
vpshufb %xmm3, %xmm1, %xmm2
vpbroadcastq .LCPI0_1(%rip), %xmm5
vaesenclast %xmm5, %xmm2, %xmm2
vpternlogq $150, %xmm4, %xmm0, %xmm2
vpslldq $4, %xmm1, %xmm4
vpslldq $8, %xmm1, %xmm5
vpslldq $12, %xmm1, %xmm7
vpternlogq $150, %xmm5, %xmm4, %xmm7
vpshufd $255, %xmm2, %xmm4
vpxor %xmm6, %xmm6, %xmm6
vaesenclast %xmm6, %xmm4, %xmm4
vpternlogq $150, %xmm7, %xmm1, %xmm4
vpslldq $4, %xmm2, %xmm5
vpslldq $8, %xmm2, %xmm7
vpslldq $12, %xmm2, %xmm8
vpternlogq $150, %xmm7, %xmm5, %xmm8
vpshufb %xmm3, %xmm4, %xmm5
vpbroadcastq .LCPI0_2(%rip), %xmm7
vaesenclast %xmm7, %xmm5, %xmm5
vpternlogq $150, %xmm8, %xmm2, %xmm5
vpslldq $4, %xmm4, %xmm7
vpslldq $8, %xmm4, %xmm8
vpslldq $12, %xmm4, %xmm9
vpternlogq $150, %xmm8, %xmm7, %xmm9
vpshufd $255, %xmm5, %xmm7
vaesenclast %xmm6, %xmm7, %xmm7
vpternlogq $150, %xmm9, %xmm4, %xmm7
vpslldq $4, %xmm5, %xmm8
vpslldq $8, %xmm5, %xmm9
vpslldq $12, %xmm5, %xmm10
vpternlogq $150, %xmm9, %xmm8, %xmm10
vpshufb %xmm3, %xmm7, %xmm8
vpbroadcastq .LCPI0_3(%rip), %xmm9
vaesenclast %xmm9, %xmm8, %xmm8
vpternlogq $150, %xmm10, %xmm5, %xmm8
vpslldq $4, %xmm7, %xmm9
vpslldq $8, %xmm7, %xmm10
vpslldq $12, %xmm7, %xmm11
vpternlogq $150, %xmm10, %xmm9, %xmm11
vpshufd $255, %xmm8, %xmm9
vaesenclast %xmm6, %xmm9, %xmm9
vpternlogq $150, %xmm11, %xmm7, %xmm9
vpslldq $4, %xmm8, %xmm10
vpslldq $8, %xmm8, %xmm11
vpslldq $12, %xmm8, %xmm12
vpternlogq $150, %xmm11, %xmm10, %xmm12
vpshufb %xmm3, %xmm9, %xmm10
vpbroadcastq .LCPI0_4(%rip), %xmm11
vaesenclast %xmm11, %xmm10, %xmm10
vpternlogq $150, %xmm12, %xmm8, %xmm10
vpslldq $4, %xmm9, %xmm11
vpslldq $8, %xmm9, %xmm12
vpslldq $12, %xmm9, %xmm13
vpternlogq $150, %xmm12, %xmm11, %xmm13
vpshufd $255, %xmm10, %xmm11
vaesenclast %xmm6, %xmm11, %xmm11
vpternlogq $150, %xmm13, %xmm9, %xmm11
vpslldq $4, %xmm10, %xmm12
vpslldq $8, %xmm10, %xmm13
vpslldq $12, %xmm10, %xmm14
vpternlogq $150, %xmm13, %xmm12, %xmm14
vpshufb %xmm3, %xmm11, %xmm12
vpbroadcastq .LCPI0_5(%rip), %xmm13
vaesenclast %xmm13, %xmm12, %xmm12
vpternlogq $150, %xmm14, %xmm10, %xmm12
vpslldq $4, %xmm11, %xmm13
vpslldq $8, %xmm11, %xmm14
vpslldq $12, %xmm11, %xmm15
vpternlogq $150, %xmm14, %xmm13, %xmm15
vpshufd $255, %xmm12, %xmm13
vaesenclast %xmm6, %xmm13, %xmm13
vpternlogq $150, %xmm15, %xmm11, %xmm13
vpslldq $4, %xmm12, %xmm14
vpslldq $8, %xmm12, %xmm15
vpslldq $12, %xmm12, %xmm16
vpternlogq $150, %xmm15, %xmm14, %xmm16
vpshufb %xmm3, %xmm13, %xmm14
vpbroadcastq .LCPI0_6(%rip), %xmm15
vaesenclast %xmm15, %xmm14, %xmm14
vpternlogq $150, %xmm16, %xmm12, %xmm14
vpslldq $4, %xmm13, %xmm15
vpslldq $8, %xmm13, %xmm16
vpslldq $12, %xmm13, %xmm17
vpternlogq $150, %xmm16, %xmm15, %xmm17
vpshufd $255, %xmm14, %xmm15
vaesenclast %xmm6, %xmm15, %xmm6
vpternlogq $150, %xmm17, %xmm13, %xmm6
vpslldq $4, %xmm14, %xmm15
vpslldq $8, %xmm14, %xmm16
vpslldq $12, %xmm14, %xmm17
vpternlogq $150, %xmm16, %xmm15, %xmm17
vpshufb %xmm3, %xmm6, %xmm3
vpbroadcastq .LCPI0_7(%rip), %xmm15
vaesenclast %xmm15, %xmm3, %xmm3
vpternlogq $150, %xmm17, %xmm14, %xmm3
vmovdqa %xmm0, (%rdi)
vmovdqa %xmm1, 16(%rdi)
vmovdqa %xmm2, 32(%rdi)
vmovdqa %xmm4, 48(%rdi)
vmovdqa %xmm5, 64(%rdi)
vmovdqa %xmm7, 80(%rdi)
vmovdqa %xmm8, 96(%rdi)
vmovdqa %xmm9, 112(%rdi)
vmovdqa %xmm10, 128(%rdi)
vmovdqa %xmm11, 144(%rdi)
vmovdqa %xmm12, 160(%rdi)
vmovdqa %xmm13, 176(%rdi)
vmovdqa %xmm14, 192(%rdi)
vmovdqa %xmm6, 208(%rdi)
vmovdqa %xmm3, 224(%rdi)
.LBB0_2:
xorl %eax, %eax
cmpq $32, %rdx
sete %al
retq
.Lfunc_end0:
.size haberdashery_aes256gcmdndkv2_skylakex_init, .Lfunc_end0-haberdashery_aes256gcmdndkv2_skylakex_init
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI1_0:
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 0
.LCPI1_1:
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 96
.LCPI1_2:
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 97
.LCPI1_3:
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 98
.LCPI1_4:
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.LCPI1_13:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI1_15:
.byte 15
.byte 128
.byte 128
.byte 128
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI1_16:
.long 1
.long 0
.long 0
.long 0
.LCPI1_17:
.long 2
.long 0
.long 0
.long 0
.LCPI1_18:
.long 3
.long 0
.long 0
.long 0
.LCPI1_19:
.long 4
.long 0
.long 0
.long 0
.LCPI1_20:
.long 5
.long 0
.long 0
.long 0
.LCPI1_21:
.long 6
.long 0
.long 0
.long 0
.LCPI1_22:
.long 7
.long 0
.long 0
.long 0
.LCPI1_23:
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.LCPI1_24:
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI1_5:
.quad 4294967297
.LCPI1_12:
.quad 274877907008
.LCPI1_14:
.quad -4467570830351532032
.section .rodata.cst4,"aM",@progbits,4
.p2align 2, 0x0
.LCPI1_6:
.long 0x00000002
.LCPI1_7:
.long 0x0c0f0e0d
.LCPI1_8:
.long 0x00000004
.LCPI1_9:
.long 0x00000008
.LCPI1_10:
.long 0x00000010
.LCPI1_11:
.long 0x00000020
.section .rodata,"a",@progbits
.LCPI1_25:
.byte 1
.byte 0
.section .text.haberdashery_aes256gcmdndkv2_skylakex_encrypt,"ax",@progbits
.globl haberdashery_aes256gcmdndkv2_skylakex_encrypt
.p2align 4, 0x90
.type haberdashery_aes256gcmdndkv2_skylakex_encrypt,@function
haberdashery_aes256gcmdndkv2_skylakex_encrypt:
.cfi_startproc
pushq %rbx
.cfi_def_cfa_offset 16
subq $176, %rsp
.cfi_def_cfa_offset 192
.cfi_offset %rbx, -16
movq 192(%rsp), %r10
xorl %eax, %eax
cmpq 208(%rsp), %r10
jne .LBB1_45
movq %r10, %r11
shrq $5, %r11
cmpq $2147483646, %r11
ja .LBB1_45
movabsq $2305843009213693950, %r11
cmpq %r11, %r8
ja .LBB1_45
cmpq $24, %rdx
jne .LBB1_45
cmpq $16, 224(%rsp)
jne .LBB1_45
vmovdqu64 (%rsi), %xmm17
vmovdqa (%rdi), %xmm14
vmovdqa 16(%rdi), %xmm12
vmovdqa 32(%rdi), %xmm0
vmovdqa 48(%rdi), %xmm1
vpternlogq $120, .LCPI1_0(%rip), %xmm17, %xmm14
vpxor .LCPI1_1(%rip), %xmm14, %xmm2
vaesenc %xmm12, %xmm2, %xmm2
vaesenc %xmm0, %xmm2, %xmm2
vaesenc %xmm1, %xmm2, %xmm3
vmovdqa 64(%rdi), %xmm2
vaesenc %xmm2, %xmm3, %xmm4
vmovdqa 80(%rdi), %xmm3
vaesenc %xmm3, %xmm4, %xmm5
vmovdqa 96(%rdi), %xmm4
vaesenc %xmm4, %xmm5, %xmm6
vmovdqa 112(%rdi), %xmm5
vaesenc %xmm5, %xmm6, %xmm7
vmovdqa 128(%rdi), %xmm6
vaesenc %xmm6, %xmm7, %xmm8
vmovdqa 144(%rdi), %xmm7
vaesenc %xmm7, %xmm8, %xmm9
vmovdqa 160(%rdi), %xmm8
vaesenc %xmm8, %xmm9, %xmm11
vmovdqa 176(%rdi), %xmm9
vaesenc %xmm9, %xmm11, %xmm13
vmovdqa 192(%rdi), %xmm11
vaesenc %xmm11, %xmm13, %xmm15
vmovdqa 208(%rdi), %xmm13
vaesenc %xmm13, %xmm15, %xmm15
vpxor .LCPI1_2(%rip), %xmm14, %xmm10
vaesenc %xmm12, %xmm10, %xmm10
vpxor .LCPI1_3(%rip), %xmm14, %xmm14
vaesenc %xmm12, %xmm14, %xmm12
vmovdqa 224(%rdi), %xmm14
vaesenclast %xmm14, %xmm15, %xmm15
vaesenc %xmm0, %xmm10, %xmm10
vaesenc %xmm1, %xmm10, %xmm10
vaesenc %xmm2, %xmm10, %xmm10
vaesenc %xmm3, %xmm10, %xmm10
vaesenc %xmm4, %xmm10, %xmm10
vaesenc %xmm5, %xmm10, %xmm10
vaesenc %xmm6, %xmm10, %xmm10
vaesenc %xmm7, %xmm10, %xmm10
vaesenc %xmm8, %xmm10, %xmm10
vaesenc %xmm9, %xmm10, %xmm10
vaesenc %xmm11, %xmm10, %xmm10
vaesenc %xmm13, %xmm10, %xmm10
vaesenclast %xmm14, %xmm10, %xmm10
vaesenc %xmm0, %xmm12, %xmm0
vaesenc %xmm1, %xmm0, %xmm0
vaesenc %xmm2, %xmm0, %xmm0
vaesenc %xmm3, %xmm0, %xmm0
vaesenc %xmm4, %xmm0, %xmm0
vaesenc %xmm5, %xmm0, %xmm0
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm7, %xmm0, %xmm0
vaesenc %xmm8, %xmm0, %xmm0
vaesenc %xmm9, %xmm0, %xmm0
vaesenc %xmm11, %xmm0, %xmm0
vaesenc %xmm13, %xmm0, %xmm0
vaesenclast %xmm14, %xmm0, %xmm0
vpxor %xmm15, %xmm10, %xmm4
vpxor %xmm0, %xmm15, %xmm10
vpslldq $4, %xmm4, %xmm0
vpslldq $8, %xmm4, %xmm2
vpslldq $12, %xmm4, %xmm3
vpbroadcastd .LCPI1_7(%rip), %xmm1
vpternlogq $150, %xmm2, %xmm0, %xmm3
vpshufb %xmm1, %xmm10, %xmm0
vpbroadcastq .LCPI1_5(%rip), %xmm2
vaesenclast %xmm2, %xmm0, %xmm8
vpternlogq $150, %xmm3, %xmm4, %xmm8
vmovdqa64 %xmm4, %xmm28
vaesenc %xmm10, %xmm4, %xmm0
vpslldq $4, %xmm10, %xmm2
vpslldq $8, %xmm10, %xmm3
vpslldq $12, %xmm10, %xmm4
vpternlogq $150, %xmm3, %xmm2, %xmm4
vpshufd $255, %xmm8, %xmm2
vpxor %xmm5, %xmm5, %xmm5
vaesenclast %xmm5, %xmm2, %xmm9
vbroadcastss .LCPI1_6(%rip), %xmm3
vbroadcastss .LCPI1_7(%rip), %xmm2
vpternlogq $150, %xmm4, %xmm10, %xmm9
vmovdqa64 %xmm8, %xmm27
#APP
vaesenc %xmm8, %xmm0, %xmm0
vpslldq $4, %xmm8, %xmm4
vpslldq $8, %xmm8, %xmm6
vpslldq $12, %xmm8, %xmm7
vpternlogq $150, %xmm4, %xmm6, %xmm7
vpshufb %xmm2, %xmm9, %xmm11
vaesenclast %xmm3, %xmm11, %xmm11
vpternlogq $150, %xmm8, %xmm7, %xmm11
#NO_APP
vmovdqa64 %xmm9, %xmm29
#APP
vaesenc %xmm9, %xmm0, %xmm0
vpslldq $4, %xmm9, %xmm3
vpslldq $8, %xmm9, %xmm4
vpslldq $12, %xmm9, %xmm6
vpternlogq $150, %xmm3, %xmm4, %xmm6
vpshufd $255, %xmm11, %xmm12
vaesenclast %xmm5, %xmm12, %xmm12
vpternlogq $150, %xmm9, %xmm6, %xmm12
#NO_APP
vbroadcastss .LCPI1_8(%rip), %xmm3
vmovdqa64 %xmm11, %xmm25
#APP
vaesenc %xmm11, %xmm0, %xmm0
vpslldq $4, %xmm11, %xmm4
vpslldq $8, %xmm11, %xmm6
vpslldq $12, %xmm11, %xmm7
vpternlogq $150, %xmm4, %xmm6, %xmm7
vpshufb %xmm2, %xmm12, %xmm8
vaesenclast %xmm3, %xmm8, %xmm8
vpternlogq $150, %xmm11, %xmm7, %xmm8
#NO_APP
vmovdqa64 %xmm12, %xmm30
#APP
vaesenc %xmm12, %xmm0, %xmm0
vpslldq $4, %xmm12, %xmm3
vpslldq $8, %xmm12, %xmm4
vpslldq $12, %xmm12, %xmm6
vpternlogq $150, %xmm3, %xmm4, %xmm6
vpshufd $255, %xmm8, %xmm15
vaesenclast %xmm5, %xmm15, %xmm15
vpternlogq $150, %xmm12, %xmm6, %xmm15
#NO_APP
vbroadcastss .LCPI1_9(%rip), %xmm3
vmovaps %xmm8, -64(%rsp)
#APP
vaesenc %xmm8, %xmm0, %xmm0
vpslldq $4, %xmm8, %xmm4
vpslldq $8, %xmm8, %xmm6
vpslldq $12, %xmm8, %xmm7
vpternlogq $150, %xmm4, %xmm6, %xmm7
vpshufb %xmm2, %xmm15, %xmm14
vaesenclast %xmm3, %xmm14, %xmm14
vpternlogq $150, %xmm8, %xmm7, %xmm14
#NO_APP
vbroadcastss .LCPI1_10(%rip), %xmm3
vmovaps %xmm15, -80(%rsp)
#APP
vaesenc %xmm15, %xmm0, %xmm0
vpslldq $4, %xmm15, %xmm4
vpslldq $8, %xmm15, %xmm6
vpslldq $12, %xmm15, %xmm7
vpternlogq $150, %xmm4, %xmm6, %xmm7
vpshufd $255, %xmm14, %xmm8
vaesenclast %xmm5, %xmm8, %xmm8
vpternlogq $150, %xmm15, %xmm7, %xmm8
#NO_APP
vmovaps %xmm14, -96(%rsp)
#APP
vaesenc %xmm14, %xmm0, %xmm0
vpslldq $4, %xmm14, %xmm4
vpslldq $8, %xmm14, %xmm6
vpslldq $12, %xmm14, %xmm7
vpternlogq $150, %xmm4, %xmm6, %xmm7
vpshufb %xmm2, %xmm8, %xmm13
vaesenclast %xmm3, %xmm13, %xmm13
vpternlogq $150, %xmm14, %xmm7, %xmm13
#NO_APP
vmovdqa %xmm8, %xmm14
#APP
vaesenc %xmm8, %xmm0, %xmm0
vpslldq $4, %xmm8, %xmm3
vpslldq $8, %xmm8, %xmm4
vpslldq $12, %xmm8, %xmm6
vpternlogq $150, %xmm3, %xmm4, %xmm6
vpshufd $255, %xmm13, %xmm11
vaesenclast %xmm5, %xmm11, %xmm11
vpternlogq $150, %xmm8, %xmm6, %xmm11
#NO_APP
vbroadcastss .LCPI1_11(%rip), %xmm3
#APP
vaesenc %xmm13, %xmm0, %xmm0
vpslldq $4, %xmm13, %xmm4
vpslldq $8, %xmm13, %xmm6
vpslldq $12, %xmm13, %xmm7
vpternlogq $150, %xmm4, %xmm6, %xmm7
vpshufb %xmm2, %xmm11, %xmm12
vaesenclast %xmm3, %xmm12, %xmm12
vpternlogq $150, %xmm13, %xmm7, %xmm12
#NO_APP
vpslldq $4, %xmm11, %xmm2
vpunpcklqdq %xmm11, %xmm5, %xmm3
vinsertps $55, %xmm11, %xmm0, %xmm4
vpternlogq $150, %xmm3, %xmm2, %xmm4
vpshufd $255, %xmm12, %xmm2
vaesenclast %xmm5, %xmm2, %xmm6
vpternlogq $150, %xmm4, %xmm11, %xmm6
vpshufb %xmm1, %xmm6, %xmm1
vpbroadcastq .LCPI1_12(%rip), %xmm2
vaesenclast %xmm2, %xmm1, %xmm4
vpslldq $4, %xmm12, %xmm1
vpunpcklqdq %xmm12, %xmm5, %xmm2
vinsertps $55, %xmm12, %xmm0, %xmm3
vpternlogq $150, %xmm2, %xmm1, %xmm3
vpternlogq $150, %xmm3, %xmm12, %xmm4
vaesenc %xmm11, %xmm0, %xmm0
vaesenc %xmm12, %xmm0, %xmm0
vaesenc %xmm6, %xmm0, %xmm0
vaesenclast %xmm4, %xmm0, %xmm0
vpshufb .LCPI1_13(%rip), %xmm0, %xmm0
vpaddq %xmm0, %xmm0, %xmm1
vpsrlq $63, %xmm0, %xmm0
vpshufd $78, %xmm0, %xmm2
vpblendd $12, %xmm0, %xmm5, %xmm0
vpsllq $63, %xmm0, %xmm3
vpternlogq $30, %xmm2, %xmm1, %xmm3
vpsllq $62, %xmm0, %xmm1
vpsllq $57, %xmm0, %xmm15
vpternlogq $150, %xmm1, %xmm3, %xmm15
vpclmulqdq $0, %xmm15, %xmm15, %xmm0
vpshufd $78, %xmm0, %xmm1
vpbroadcastq .LCPI1_14(%rip), %xmm9
vpclmulqdq $16, %xmm9, %xmm0, %xmm0
vpxor %xmm1, %xmm0, %xmm0
vpclmulqdq $16, %xmm9, %xmm0, %xmm1
vpshufd $78, %xmm0, %xmm7
vpclmulqdq $17, %xmm15, %xmm15, %xmm0
vpternlogq $150, %xmm1, %xmm0, %xmm7
vpclmulqdq $16, %xmm15, %xmm7, %xmm0
vpclmulqdq $1, %xmm15, %xmm7, %xmm1
vpxor %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm0, %xmm1
vpclmulqdq $0, %xmm15, %xmm7, %xmm2
vpxor %xmm1, %xmm2, %xmm1
vpshufd $78, %xmm1, %xmm2
vpclmulqdq $16, %xmm9, %xmm1, %xmm1
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $16, %xmm9, %xmm1, %xmm2
vpclmulqdq $17, %xmm15, %xmm7, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vpsrldq $8, %xmm0, %xmm0
vpshufd $78, %xmm1, %xmm3
vpternlogq $150, %xmm0, %xmm2, %xmm3
vpclmulqdq $0, %xmm3, %xmm3, %xmm0
vpshufd $78, %xmm0, %xmm1
vpclmulqdq $16, %xmm9, %xmm0, %xmm0
vpxor %xmm1, %xmm0, %xmm0
vpclmulqdq $16, %xmm9, %xmm0, %xmm1
vpshufd $78, %xmm0, %xmm2
vmovdqa %xmm3, (%rsp)
vpclmulqdq $17, %xmm3, %xmm3, %xmm0
vpternlogq $150, %xmm1, %xmm0, %xmm2
vmovdqa %xmm2, -16(%rsp)
vpclmulqdq $0, %xmm7, %xmm7, %xmm0
vpshufd $78, %xmm0, %xmm1
vpclmulqdq $16, %xmm9, %xmm0, %xmm0
vpxor %xmm1, %xmm0, %xmm0
vpclmulqdq $16, %xmm9, %xmm0, %xmm1
vpshufd $78, %xmm0, %xmm3
vmovdqa64 %xmm7, %xmm26
vpclmulqdq $17, %xmm7, %xmm7, %xmm0
vpternlogq $150, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm15, %xmm3, %xmm0
vpclmulqdq $1, %xmm15, %xmm3, %xmm1
vpxor %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm0, %xmm1
vpclmulqdq $0, %xmm15, %xmm3, %xmm2
vpxor %xmm1, %xmm2, %xmm1
vpshufd $78, %xmm1, %xmm2
vpclmulqdq $16, %xmm9, %xmm1, %xmm1
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $16, %xmm9, %xmm1, %xmm2
vmovdqa64 %xmm3, %xmm16
vpclmulqdq $17, %xmm15, %xmm3, %xmm3
vpxor %xmm2, %xmm3, %xmm2
movzbl 16(%rsi), %edx
movzbl 17(%rsi), %edi
movzbl 23(%rsi), %r11d
vpextrb $15, %xmm17, %ebx
vpsrldq $8, %xmm0, %xmm0
vpshufd $78, %xmm1, %xmm3
vpternlogq $150, %xmm0, %xmm2, %xmm3
shll $8, %edx
orl %ebx, %edx
shll $16, %edi
orl %edx, %edi
movzbl 18(%rsi), %edx
shll $24, %edx
orl %edi, %edx
vmovd %edx, %xmm0
vpinsrd $1, 19(%rsi), %xmm0, %xmm0
vpinsrd $2, %r11d, %xmm0, %xmm0
movl $16777216, %edx
vpinsrd $3, %edx, %xmm0, %xmm21
testq %r8, %r8
vmovaps %xmm11, -112(%rsp)
vmovaps %xmm12, -128(%rsp)
vmovdqa %xmm6, -32(%rsp)
vmovdqa %xmm4, -48(%rsp)
je .LBB1_23
cmpq $96, %r8
jb .LBB1_7
vmovdqa64 %xmm13, %xmm24
vmovdqa64 %xmm14, %xmm23
vmovdqa64 %xmm30, %xmm22
vmovdqa64 %xmm29, %xmm20
vmovdqa64 %xmm27, %xmm19
vmovapd %xmm10, %xmm18
vmovdqa64 %xmm28, %xmm17
vmovdqa64 .LCPI1_13(%rip), %xmm27
movq %r8, %rdx
vmovdqa64 %xmm15, %xmm31
vmovdqa64 %xmm26, %xmm15
vmovdqa64 %xmm16, %xmm7
vmovdqa (%rsp), %xmm8
vmovdqa %xmm3, %xmm0
.p2align 4, 0x90
.LBB1_21:
vmovdqu64 (%rcx), %xmm16
vmovdqu 16(%rcx), %xmm2
vmovdqu 32(%rcx), %xmm3
vmovdqu 48(%rcx), %xmm4
vmovdqu 64(%rcx), %xmm6
vmovdqu 80(%rcx), %xmm11
vpshufb %xmm27, %xmm4, %xmm4
vpshufb %xmm27, %xmm6, %xmm6
vpshufb %xmm27, %xmm11, %xmm11
vmovdqa64 %xmm31, %xmm1
vpclmulqdq $0, %xmm11, %xmm1, %xmm12
vpclmulqdq $1, %xmm11, %xmm1, %xmm13
vpclmulqdq $16, %xmm11, %xmm1, %xmm14
vpxor %xmm13, %xmm14, %xmm13
vpclmulqdq $0, %xmm6, %xmm15, %xmm14
vpclmulqdq $1, %xmm6, %xmm15, %xmm10
vpclmulqdq $16, %xmm6, %xmm15, %xmm9
vpternlogq $150, %xmm10, %xmm13, %xmm9
vpclmulqdq $0, %xmm4, %xmm8, %xmm10
vpternlogq $150, %xmm12, %xmm14, %xmm10
vpclmulqdq $1, %xmm4, %xmm8, %xmm12
vpclmulqdq $16, %xmm4, %xmm8, %xmm13
vpternlogq $150, %xmm12, %xmm9, %xmm13
vpshufb %xmm27, %xmm2, %xmm2
vpshufb %xmm27, %xmm3, %xmm3
vpclmulqdq $17, %xmm11, %xmm1, %xmm9
vpclmulqdq $17, %xmm6, %xmm15, %xmm6
vpclmulqdq $17, %xmm4, %xmm8, %xmm4
vpternlogq $150, %xmm9, %xmm6, %xmm4
vpclmulqdq $1, %xmm3, %xmm7, %xmm6
vpclmulqdq $16, %xmm3, %xmm7, %xmm9
vpternlogq $150, %xmm6, %xmm13, %xmm9
vpclmulqdq $0, %xmm3, %xmm7, %xmm6
vpclmulqdq $0, %xmm2, %xmm0, %xmm11
vpternlogq $150, %xmm6, %xmm10, %xmm11
vpclmulqdq $1, %xmm2, %xmm0, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm10
vpternlogq $150, %xmm6, %xmm9, %xmm10
vpbroadcastq .LCPI1_14(%rip), %xmm9
vpshufb %xmm27, %xmm16, %xmm1
vpxor %xmm1, %xmm5, %xmm1
vpclmulqdq $17, %xmm3, %xmm7, %xmm3
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vpternlogq $150, %xmm3, %xmm4, %xmm2
vpclmulqdq $16, -16(%rsp), %xmm1, %xmm3
vpclmulqdq $1, -16(%rsp), %xmm1, %xmm4
vpternlogq $150, %xmm3, %xmm10, %xmm4
vmovdqa -16(%rsp), %xmm6
vpclmulqdq $0, %xmm1, %xmm6, %xmm3
vpslldq $8, %xmm4, %xmm5
vpternlogq $150, %xmm3, %xmm11, %xmm5
vpclmulqdq $17, %xmm1, %xmm6, %xmm1
vpclmulqdq $16, %xmm9, %xmm5, %xmm3
vpshufd $78, %xmm5, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpclmulqdq $16, %xmm9, %xmm3, %xmm5
vpternlogq $150, %xmm1, %xmm2, %xmm5
vpsrldq $8, %xmm4, %xmm1
vpshufd $78, %xmm3, %xmm2
addq $96, %rcx
addq $-96, %rdx
vpternlogq $150, %xmm1, %xmm2, %xmm5
cmpq $95, %rdx
ja .LBB1_21
vmovdqa64 %xmm17, %xmm28
vmovapd %xmm18, %xmm10
vmovdqa64 %xmm19, %xmm27
vmovdqa64 %xmm20, %xmm29
vmovdqa64 %xmm22, %xmm30
vmovdqa64 %xmm23, %xmm14
vmovdqa64 %xmm24, %xmm13
vmovaps -112(%rsp), %xmm11
vmovaps -128(%rsp), %xmm12
vmovdqa -32(%rsp), %xmm6
vmovdqa -48(%rsp), %xmm4
vmovdqa64 %xmm7, %xmm16
vmovdqa64 %xmm15, %xmm26
vmovdqa64 %xmm31, %xmm15
vmovdqa %xmm0, %xmm3
cmpq $16, %rdx
jae .LBB1_14
.LBB1_9:
movq %rdx, %rsi
testq %rsi, %rsi
jne .LBB1_11
jmp .LBB1_24
.LBB1_23:
testq %r10, %r10
jne .LBB1_26
jmp .LBB1_44
.LBB1_7:
movq %r8, %rdx
cmpq $16, %rdx
jb .LBB1_9
.LBB1_14:
leaq -16(%rdx), %rsi
testb $16, %sil
je .LBB1_15
cmpq $16, %rsi
jae .LBB1_17
.LBB1_10:
testq %rsi, %rsi
je .LBB1_24
.LBB1_11:
movl $-1, %edx
bzhil %esi, %edx, %edx
kmovd %edx, %k1
vmovdqu8 (%rcx), %xmm0 {%k1} {z}
testq %r10, %r10
je .LBB1_43
movabsq $-68719476704, %rcx
leaq (%r10,%rcx), %rdx
incq %rcx
cmpq %rcx, %rdx
jb .LBB1_45
vpshufb .LCPI1_13(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm5, %xmm0
vpclmulqdq $0, %xmm0, %xmm15, %xmm1
vpclmulqdq $1, %xmm0, %xmm15, %xmm2
vmovdqa64 %xmm3, %xmm17
vpclmulqdq $16, %xmm0, %xmm15, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $17, %xmm0, %xmm15, %xmm0
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpsrldq $8, %xmm2, %xmm2
vpclmulqdq $16, %xmm9, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm9, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm0, %xmm3, %xmm5
vmovdqa64 %xmm17, %xmm3
vpternlogq $150, %xmm2, %xmm1, %xmm5
jmp .LBB1_26
.LBB1_15:
vmovdqu (%rcx), %xmm0
addq $16, %rcx
vpshufb .LCPI1_13(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm5, %xmm0
vpclmulqdq $0, %xmm0, %xmm15, %xmm1
vpclmulqdq $1, %xmm0, %xmm15, %xmm2
vmovdqa64 %xmm3, %xmm17
vpclmulqdq $16, %xmm0, %xmm15, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $17, %xmm0, %xmm15, %xmm0
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpsrldq $8, %xmm2, %xmm2
vpclmulqdq $16, %xmm9, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm9, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm0, %xmm3, %xmm5
vmovdqa64 %xmm17, %xmm3
vpternlogq $150, %xmm2, %xmm1, %xmm5
movq %rsi, %rdx
cmpq $16, %rsi
jb .LBB1_10
.LBB1_17:
vmovdqa64 %xmm3, %xmm17
vmovdqa .LCPI1_13(%rip), %xmm0
.p2align 4, 0x90
.LBB1_18:
vmovdqu (%rcx), %xmm1
vmovdqu 16(%rcx), %xmm2
vpshufb %xmm0, %xmm1, %xmm1
vpxor %xmm1, %xmm5, %xmm1
vpclmulqdq $0, %xmm1, %xmm15, %xmm3
vpclmulqdq $1, %xmm1, %xmm15, %xmm4
vpclmulqdq $16, %xmm1, %xmm15, %xmm5
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $17, %xmm1, %xmm15, %xmm1
vpslldq $8, %xmm4, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpsrldq $8, %xmm4, %xmm4
vpclmulqdq $16, %xmm9, %xmm3, %xmm5
vpshufd $78, %xmm3, %xmm3
vpxor %xmm3, %xmm5, %xmm3
vpclmulqdq $16, %xmm9, %xmm3, %xmm5
vpshufd $78, %xmm3, %xmm3
vpternlogq $150, %xmm1, %xmm4, %xmm5
addq $32, %rcx
addq $-32, %rdx
vpshufb %xmm0, %xmm2, %xmm1
vpternlogq $150, %xmm3, %xmm5, %xmm1
vpclmulqdq $0, %xmm1, %xmm15, %xmm2
vpclmulqdq $1, %xmm1, %xmm15, %xmm3
vpclmulqdq $16, %xmm1, %xmm15, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm15, %xmm1
vpslldq $8, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpsrldq $8, %xmm3, %xmm3
vpclmulqdq $16, %xmm9, %xmm2, %xmm4
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm4, %xmm2
vpclmulqdq $16, %xmm9, %xmm2, %xmm4
vpshufd $78, %xmm2, %xmm2
vpxor %xmm1, %xmm4, %xmm5
vpternlogq $150, %xmm3, %xmm2, %xmm5
cmpq $15, %rdx
ja .LBB1_18
movq %rdx, %rsi
vmovdqa -48(%rsp), %xmm4
vmovdqa64 %xmm17, %xmm3
testq %rsi, %rsi
jne .LBB1_11
.LBB1_24:
testq %r10, %r10
je .LBB1_44
movabsq $-68719476704, %rcx
leaq (%r10,%rcx), %rdx
incq %rcx
cmpq %rcx, %rdx
jb .LBB1_45
.LBB1_26:
movq 200(%rsp), %rdx
vpshufb .LCPI1_15(%rip), %xmm21, %xmm1
vpaddd .LCPI1_16(%rip), %xmm1, %xmm17
cmpq $96, %r10
jb .LBB1_27
vmovdqa %xmm3, 16(%rsp)
vmovdqa64 .LCPI1_13(%rip), %xmm18
vpshufb %xmm18, %xmm17, %xmm0
vpaddd .LCPI1_17(%rip), %xmm1, %xmm2
vpshufb %xmm18, %xmm2, %xmm2
vpaddd .LCPI1_18(%rip), %xmm1, %xmm3
vpshufb %xmm18, %xmm3, %xmm3
vmovdqa64 %xmm4, %xmm20
vpaddd .LCPI1_19(%rip), %xmm1, %xmm4
vpshufb %xmm18, %xmm4, %xmm4
vpaddd .LCPI1_20(%rip), %xmm1, %xmm6
vpshufb %xmm18, %xmm6, %xmm6
vpaddd .LCPI1_21(%rip), %xmm1, %xmm9
vpshufb %xmm18, %xmm9, %xmm9
vpxorq %xmm0, %xmm28, %xmm0
vpxorq %xmm2, %xmm28, %xmm2
vpxorq %xmm3, %xmm28, %xmm3
vpxorq %xmm4, %xmm28, %xmm4
vmovaps %xmm11, %xmm19
vpxorq %xmm6, %xmm28, %xmm11
vmovdqa64 %xmm28, 32(%rsp)
vmovdqa64 %xmm10, %xmm24
vmovdqa64 %xmm30, %xmm6
vmovdqa %xmm12, %xmm8
vpxorq %xmm9, %xmm28, %xmm12
vmovdqa %xmm10, %xmm7
#APP
vaesenc %xmm10, %xmm0, %xmm0
vaesenc %xmm10, %xmm2, %xmm2
vaesenc %xmm10, %xmm3, %xmm3
vaesenc %xmm10, %xmm4, %xmm4
vaesenc %xmm10, %xmm11, %xmm11
vaesenc %xmm10, %xmm12, %xmm12
#NO_APP
vmovdqa64 %xmm27, %xmm10
#APP
vaesenc %xmm10, %xmm0, %xmm0
vaesenc %xmm10, %xmm2, %xmm2
vaesenc %xmm10, %xmm3, %xmm3
vaesenc %xmm10, %xmm4, %xmm4
vaesenc %xmm10, %xmm11, %xmm11
vaesenc %xmm10, %xmm12, %xmm12
#NO_APP
vmovdqa64 %xmm29, %xmm9
vmovdqa64 %xmm29, 144(%rsp)
#APP
vaesenc %xmm9, %xmm0, %xmm0
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm9, %xmm4, %xmm4
vaesenc %xmm9, %xmm11, %xmm11
vaesenc %xmm9, %xmm12, %xmm12
#NO_APP
vmovdqa64 %xmm25, %xmm9
vmovdqa64 %xmm25, 128(%rsp)
#APP
vaesenc %xmm9, %xmm0, %xmm0
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm9, %xmm4, %xmm4
vaesenc %xmm9, %xmm11, %xmm11
vaesenc %xmm9, %xmm12, %xmm12
#NO_APP
vmovdqa64 %xmm30, 112(%rsp)
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm11, %xmm11
vaesenc %xmm6, %xmm12, %xmm12
#NO_APP
vmovaps -64(%rsp), %xmm6
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm11, %xmm11
vaesenc %xmm6, %xmm12, %xmm12
#NO_APP
vmovaps -80(%rsp), %xmm6
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm11, %xmm11
vaesenc %xmm6, %xmm12, %xmm12
#NO_APP
vmovaps -96(%rsp), %xmm6
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm11, %xmm11
vaesenc %xmm6, %xmm12, %xmm12
#NO_APP
#APP
vaesenc %xmm14, %xmm0, %xmm0
vaesenc %xmm14, %xmm2, %xmm2
vaesenc %xmm14, %xmm3, %xmm3
vaesenc %xmm14, %xmm4, %xmm4
vaesenc %xmm14, %xmm11, %xmm11
vaesenc %xmm14, %xmm12, %xmm12
#NO_APP
#APP
vaesenc %xmm13, %xmm0, %xmm0
vaesenc %xmm13, %xmm2, %xmm2
vaesenc %xmm13, %xmm3, %xmm3
vaesenc %xmm13, %xmm4, %xmm4
vaesenc %xmm13, %xmm11, %xmm11
vaesenc %xmm13, %xmm12, %xmm12
#NO_APP
vmovaps %xmm19, %xmm6
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm11, %xmm11
vaesenc %xmm6, %xmm12, %xmm12
#NO_APP
#APP
vaesenc %xmm8, %xmm0, %xmm0
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm8, %xmm3, %xmm3
vaesenc %xmm8, %xmm4, %xmm4
vaesenc %xmm8, %xmm11, %xmm11
vaesenc %xmm8, %xmm12, %xmm12
#NO_APP
vmovaps -32(%rsp), %xmm6
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm11, %xmm11
vaesenc %xmm6, %xmm12, %xmm12
#NO_APP
vmovdqa64 %xmm20, %xmm6
#APP
vaesenclast %xmm6, %xmm0, %xmm0
vaesenclast %xmm6, %xmm2, %xmm2
vaesenclast %xmm6, %xmm3, %xmm3
vaesenclast %xmm6, %xmm4, %xmm4
vaesenclast %xmm6, %xmm11, %xmm11
vaesenclast %xmm6, %xmm12, %xmm12
#NO_APP
vpxorq (%r9), %xmm0, %xmm19
vpxorq 16(%r9), %xmm2, %xmm20
vpxorq 32(%r9), %xmm3, %xmm28
vpxorq 48(%r9), %xmm4, %xmm29
vpxorq 64(%r9), %xmm11, %xmm30
vpxor 80(%r9), %xmm12, %xmm2
leaq 96(%r9), %r9
leaq 96(%rdx), %rcx
vpaddd .LCPI1_22(%rip), %xmm1, %xmm17
vmovdqu64 %xmm19, (%rdx)
vmovdqu64 %xmm20, 16(%rdx)
vmovdqu64 %xmm28, 32(%rdx)
vmovdqu64 %xmm29, 48(%rdx)
leaq -96(%r10), %rax
vmovdqu64 %xmm30, 64(%rdx)
vmovdqu %xmm2, 80(%rdx)
cmpq $96, %rax
jb .LBB1_33
vmovdqa64 %xmm21, 160(%rsp)
vmovdqa64 32(%rsp), %xmm31
vmovdqa %xmm7, 96(%rsp)
vmovdqa %xmm10, 80(%rsp)
vmovaps -96(%rsp), %xmm24
vmovdqa %xmm14, 48(%rsp)
vmovdqa %xmm13, 64(%rsp)
vmovaps -112(%rsp), %xmm21
vmovdqa64 -128(%rsp), %xmm23
vmovdqa64 -48(%rsp), %xmm25
vmovaps (%rsp), %xmm27
vmovdqa64 16(%rsp), %xmm22
.p2align 4, 0x90
.LBB1_36:
vpshufb %xmm18, %xmm17, %xmm0
vpaddd .LCPI1_16(%rip), %xmm17, %xmm1
vpshufb %xmm18, %xmm1, %xmm1
vpaddd .LCPI1_17(%rip), %xmm17, %xmm3
vpshufb %xmm18, %xmm3, %xmm4
vpaddd .LCPI1_18(%rip), %xmm17, %xmm3
vpshufb %xmm18, %xmm3, %xmm9
vpaddd .LCPI1_19(%rip), %xmm17, %xmm3
vpshufb %xmm18, %xmm3, %xmm10
vpaddd .LCPI1_20(%rip), %xmm17, %xmm3
vpshufb %xmm18, %xmm3, %xmm12
vpshufb %xmm18, %xmm2, %xmm6
vpxorq %xmm0, %xmm31, %xmm3
vpxorq %xmm1, %xmm31, %xmm13
vpxorq %xmm4, %xmm31, %xmm1
vpxorq %xmm9, %xmm31, %xmm11
vpxorq %xmm10, %xmm31, %xmm14
vmovdqa -16(%rsp), %xmm10
vpxorq %xmm12, %xmm31, %xmm2
vmovaps 96(%rsp), %xmm0
#APP
vaesenc %xmm0, %xmm3, %xmm3
vaesenc %xmm0, %xmm13, %xmm13
vaesenc %xmm0, %xmm1, %xmm1
vaesenc %xmm0, %xmm11, %xmm11
vaesenc %xmm0, %xmm14, %xmm14
vaesenc %xmm0, %xmm2, %xmm2
#NO_APP
vxorps %xmm0, %xmm0, %xmm0
vpxor %xmm4, %xmm4, %xmm4
vpxor %xmm12, %xmm12, %xmm12
vmovaps 80(%rsp), %xmm7
#APP
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm11, %xmm11
vaesenc %xmm7, %xmm14, %xmm14
vaesenc %xmm7, %xmm2, %xmm2
vpclmulqdq $16, %xmm15, %xmm6, %xmm9
vpxor %xmm4, %xmm9, %xmm4
vpclmulqdq $0, %xmm15, %xmm6, %xmm9
vpxor %xmm0, %xmm9, %xmm0
vpclmulqdq $17, %xmm15, %xmm6, %xmm9
vpxor %xmm9, %xmm12, %xmm12
vpclmulqdq $1, %xmm15, %xmm6, %xmm9
vpxor %xmm4, %xmm9, %xmm4
#NO_APP
vmovdqa64 %xmm26, %xmm8
vpshufb %xmm18, %xmm30, %xmm6
vmovaps 144(%rsp), %xmm7
#APP
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm11, %xmm11
vaesenc %xmm7, %xmm14, %xmm14
vaesenc %xmm7, %xmm2, %xmm2
#NO_APP
vmovaps 128(%rsp), %xmm7
#APP
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm11, %xmm11
vaesenc %xmm7, %xmm14, %xmm14
vaesenc %xmm7, %xmm2, %xmm2
vpclmulqdq $16, %xmm8, %xmm6, %xmm9
vpxor %xmm4, %xmm9, %xmm4
vpclmulqdq $0, %xmm8, %xmm6, %xmm9
vpxor %xmm0, %xmm9, %xmm0
vpclmulqdq $17, %xmm8, %xmm6, %xmm9
vpxor %xmm9, %xmm12, %xmm12
vpclmulqdq $1, %xmm8, %xmm6, %xmm9
vpxor %xmm4, %xmm9, %xmm4
#NO_APP
vpshufb %xmm18, %xmm29, %xmm6
vmovaps 112(%rsp), %xmm7
#APP
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm11, %xmm11
vaesenc %xmm7, %xmm14, %xmm14
vaesenc %xmm7, %xmm2, %xmm2
#NO_APP
vmovaps %xmm27, %xmm8
vmovaps -64(%rsp), %xmm7
#APP
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm11, %xmm11
vaesenc %xmm7, %xmm14, %xmm14
vaesenc %xmm7, %xmm2, %xmm2
vpclmulqdq $16, %xmm8, %xmm6, %xmm9
vpxor %xmm4, %xmm9, %xmm4
vpclmulqdq $0, %xmm8, %xmm6, %xmm9
vpxor %xmm0, %xmm9, %xmm0
vpclmulqdq $17, %xmm8, %xmm6, %xmm9
vpxor %xmm9, %xmm12, %xmm12
vpclmulqdq $1, %xmm8, %xmm6, %xmm9
vpxor %xmm4, %xmm9, %xmm4
#NO_APP
vpshufb %xmm18, %xmm28, %xmm6
vmovaps -80(%rsp), %xmm7
#APP
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm11, %xmm11
vaesenc %xmm7, %xmm14, %xmm14
vaesenc %xmm7, %xmm2, %xmm2
#NO_APP
vmovdqa64 %xmm16, %xmm7
vmovaps %xmm24, %xmm8
#APP
vaesenc %xmm8, %xmm3, %xmm3
vaesenc %xmm8, %xmm13, %xmm13
vaesenc %xmm8, %xmm1, %xmm1
vaesenc %xmm8, %xmm11, %xmm11
vaesenc %xmm8, %xmm14, %xmm14
vaesenc %xmm8, %xmm2, %xmm2
vpclmulqdq $16, %xmm7, %xmm6, %xmm9
vpxor %xmm4, %xmm9, %xmm4
vpclmulqdq $0, %xmm7, %xmm6, %xmm9
vpxor %xmm0, %xmm9, %xmm0
vpclmulqdq $17, %xmm7, %xmm6, %xmm9
vpxor %xmm9, %xmm12, %xmm12
vpclmulqdq $1, %xmm7, %xmm6, %xmm9
vpxor %xmm4, %xmm9, %xmm4
#NO_APP
vpshufb %xmm18, %xmm20, %xmm6
vmovaps 48(%rsp), %xmm8
#APP
vaesenc %xmm8, %xmm3, %xmm3
vaesenc %xmm8, %xmm13, %xmm13
vaesenc %xmm8, %xmm1, %xmm1
vaesenc %xmm8, %xmm11, %xmm11
vaesenc %xmm8, %xmm14, %xmm14
vaesenc %xmm8, %xmm2, %xmm2
#NO_APP
vmovaps 64(%rsp), %xmm7
vmovdqa64 %xmm22, %xmm8
#APP
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm11, %xmm11
vaesenc %xmm7, %xmm14, %xmm14
vaesenc %xmm7, %xmm2, %xmm2
vpclmulqdq $16, %xmm8, %xmm6, %xmm9
vpxor %xmm4, %xmm9, %xmm4
vpclmulqdq $0, %xmm8, %xmm6, %xmm9
vpxor %xmm0, %xmm9, %xmm0
vpclmulqdq $17, %xmm8, %xmm6, %xmm9
vpxor %xmm9, %xmm12, %xmm12
vpclmulqdq $1, %xmm8, %xmm6, %xmm9
vpxor %xmm4, %xmm9, %xmm4
#NO_APP
vpshufb %xmm18, %xmm19, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vmovaps %xmm21, %xmm6
#APP
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm13, %xmm13
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm11, %xmm11
vaesenc %xmm6, %xmm14, %xmm14
vaesenc %xmm6, %xmm2, %xmm2
#NO_APP
vmovdqa64 %xmm23, %xmm7
#APP
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm11, %xmm11
vaesenc %xmm7, %xmm14, %xmm14
vaesenc %xmm7, %xmm2, %xmm2
vpclmulqdq $16, %xmm10, %xmm5, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpclmulqdq $0, %xmm10, %xmm5, %xmm6
vpxor %xmm6, %xmm0, %xmm0
vpclmulqdq $17, %xmm10, %xmm5, %xmm6
vpxor %xmm6, %xmm12, %xmm12
vpclmulqdq $1, %xmm10, %xmm5, %xmm6
vpxor %xmm6, %xmm4, %xmm4
#NO_APP
vmovaps -32(%rsp), %xmm5
#APP
vaesenc %xmm5, %xmm3, %xmm3
vaesenc %xmm5, %xmm13, %xmm13
vaesenc %xmm5, %xmm1, %xmm1
vaesenc %xmm5, %xmm11, %xmm11
vaesenc %xmm5, %xmm14, %xmm14
vaesenc %xmm5, %xmm2, %xmm2
#NO_APP
vmovdqa64 %xmm25, %xmm5
#APP
vaesenclast %xmm5, %xmm3, %xmm3
vaesenclast %xmm5, %xmm13, %xmm13
vaesenclast %xmm5, %xmm1, %xmm1
vaesenclast %xmm5, %xmm11, %xmm11
vaesenclast %xmm5, %xmm14, %xmm14
vaesenclast %xmm5, %xmm2, %xmm2
#NO_APP
vpxorq (%r9), %xmm3, %xmm19
vpxorq 16(%r9), %xmm13, %xmm20
vpxorq 32(%r9), %xmm1, %xmm28
vpxorq 48(%r9), %xmm11, %xmm29
vpxor %xmm3, %xmm3, %xmm3
vpunpcklqdq %xmm4, %xmm3, %xmm1
vpunpckhqdq %xmm3, %xmm4, %xmm3
vpxorq 64(%r9), %xmm14, %xmm30
vpxor 80(%r9), %xmm2, %xmm2
vpxor %xmm1, %xmm0, %xmm0
vpshufd $78, %xmm0, %xmm1
vpbroadcastq .LCPI1_14(%rip), %xmm4
vpclmulqdq $16, %xmm4, %xmm0, %xmm0
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm3, %xmm12, %xmm5
vpshufd $78, %xmm0, %xmm1
vpclmulqdq $16, %xmm4, %xmm0, %xmm0
vpternlogq $150, %xmm0, %xmm1, %xmm5
addq $96, %r9
vmovdqu64 %xmm19, (%rcx)
vmovdqu64 %xmm20, 16(%rcx)
vmovdqu64 %xmm28, 32(%rcx)
vmovdqu64 %xmm29, 48(%rcx)
vmovdqu64 %xmm30, 64(%rcx)
vmovdqu %xmm2, 80(%rcx)
addq $96, %rcx
addq $-96, %rax
vpaddd .LCPI1_21(%rip), %xmm17, %xmm17
cmpq $95, %rax
ja .LBB1_36
vmovdqa64 96(%rsp), %xmm24
vmovdqa64 80(%rsp), %xmm27
vmovdqa 48(%rsp), %xmm14
vmovdqa 64(%rsp), %xmm13
vmovdqa64 160(%rsp), %xmm21
jmp .LBB1_34
.LBB1_27:
vmovdqa64 %xmm10, %xmm24
movq %r10, %rax
vmovdqa64 %xmm28, %xmm3
jmp .LBB1_28
.LBB1_33:
vmovdqa -16(%rsp), %xmm10
.LBB1_34:
vpshufb %xmm18, %xmm29, %xmm0
vpshufb %xmm18, %xmm30, %xmm1
vpshufb %xmm18, %xmm2, %xmm2
vpclmulqdq $0, %xmm2, %xmm15, %xmm3
vpclmulqdq $1, %xmm2, %xmm15, %xmm4
vpclmulqdq $16, %xmm2, %xmm15, %xmm6
vpxor %xmm4, %xmm6, %xmm4
vmovdqa64 %xmm26, %xmm7
vpclmulqdq $1, %xmm1, %xmm7, %xmm6
vpclmulqdq $16, %xmm1, %xmm7, %xmm9
vpternlogq $150, %xmm6, %xmm4, %xmm9
vpclmulqdq $0, %xmm1, %xmm7, %xmm4
vmovdqa (%rsp), %xmm8
vpclmulqdq $0, %xmm0, %xmm8, %xmm6
vpternlogq $150, %xmm3, %xmm4, %xmm6
vpclmulqdq $1, %xmm0, %xmm8, %xmm3
vpclmulqdq $16, %xmm0, %xmm8, %xmm4
vpternlogq $150, %xmm3, %xmm9, %xmm4
vpclmulqdq $17, %xmm1, %xmm7, %xmm1
vpshufb %xmm18, %xmm20, %xmm3
vpclmulqdq $17, %xmm0, %xmm8, %xmm0
vpshufb %xmm18, %xmm28, %xmm7
vpclmulqdq $17, %xmm2, %xmm15, %xmm2
vpternlogq $150, %xmm2, %xmm1, %xmm0
vmovdqa64 %xmm16, %xmm11
vpclmulqdq $1, %xmm7, %xmm11, %xmm1
vpclmulqdq $16, %xmm7, %xmm11, %xmm2
vpternlogq $150, %xmm1, %xmm4, %xmm2
vpclmulqdq $0, %xmm7, %xmm11, %xmm1
vmovdqa 16(%rsp), %xmm8
vpclmulqdq $0, %xmm3, %xmm8, %xmm4
vpternlogq $150, %xmm1, %xmm6, %xmm4
vpclmulqdq $1, %xmm3, %xmm8, %xmm1
vpclmulqdq $16, %xmm3, %xmm8, %xmm6
vpternlogq $150, %xmm1, %xmm2, %xmm6
vpclmulqdq $17, %xmm7, %xmm11, %xmm1
vpclmulqdq $17, %xmm3, %xmm8, %xmm2
vpshufb %xmm18, %xmm19, %xmm3
vpxor %xmm3, %xmm5, %xmm3
vpternlogq $150, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm3, %xmm10, %xmm0
vpclmulqdq $16, %xmm3, %xmm10, %xmm1
vpternlogq $150, %xmm0, %xmm6, %xmm1
vpclmulqdq $0, %xmm3, %xmm10, %xmm0
vpslldq $8, %xmm1, %xmm5
vpternlogq $150, %xmm0, %xmm4, %xmm5
vpclmulqdq $17, %xmm3, %xmm10, %xmm0
vpbroadcastq .LCPI1_14(%rip), %xmm6
vpclmulqdq $16, %xmm6, %xmm5, %xmm3
vpshufd $78, %xmm5, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpclmulqdq $16, %xmm6, %xmm3, %xmm5
vpternlogq $150, %xmm0, %xmm2, %xmm5
vpsrldq $8, %xmm1, %xmm0
vpshufd $78, %xmm3, %xmm1
vpternlogq $150, %xmm0, %xmm1, %xmm5
movq %rcx, %rdx
vmovdqa 32(%rsp), %xmm3
vmovdqa64 144(%rsp), %xmm29
vmovdqa64 128(%rsp), %xmm25
vmovdqa64 112(%rsp), %xmm30
vmovdqa -32(%rsp), %xmm6
vmovdqa -48(%rsp), %xmm4
.LBB1_28:
vmovdqa64 %xmm13, %xmm19
vmovdqa64 %xmm14, %xmm18
cmpq $16, %rax
vmovdqa64 %xmm3, %xmm28
jb .LBB1_29
vmovdqa64 .LCPI1_13(%rip), %xmm23
vpmovsxbq .LCPI1_25(%rip), %xmm20
vmovdqa64 -96(%rsp), %xmm16
vmovdqa64 %xmm18, %xmm22
vmovdqa64 %xmm19, %xmm11
vmovdqa -112(%rsp), %xmm12
vmovdqa64 -128(%rsp), %xmm31
vpbroadcastq .LCPI1_14(%rip), %xmm26
vmovdqa64 %xmm24, %xmm1
vmovdqa64 %xmm27, %xmm8
vmovdqa64 %xmm29, %xmm7
vmovdqa64 %xmm25, %xmm0
vmovdqa64 %xmm30, %xmm14
vmovdqa -80(%rsp), %xmm13
vmovdqa -64(%rsp), %xmm10
.p2align 4, 0x90
.LBB1_39:
vpshufb %xmm23, %xmm17, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vaesenc %xmm1, %xmm2, %xmm2
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm0, %xmm2, %xmm2
vaesenc %xmm14, %xmm2, %xmm2
vaesenc %xmm10, %xmm2, %xmm2
vaesenc %xmm13, %xmm2, %xmm2
vmovdqa64 %xmm16, %xmm3
vaesenc %xmm3, %xmm2, %xmm2
vmovdqa64 %xmm22, %xmm3
vaesenc %xmm3, %xmm2, %xmm2
vaesenc %xmm11, %xmm2, %xmm2
vaesenc %xmm12, %xmm2, %xmm2
vmovdqa64 %xmm31, %xmm3
vaesenc %xmm3, %xmm2, %xmm2
vaesenc %xmm6, %xmm2, %xmm2
vaesenclast %xmm4, %xmm2, %xmm2
vpxor (%r9), %xmm2, %xmm2
vpshufb %xmm23, %xmm2, %xmm3
vpxor %xmm3, %xmm5, %xmm3
vpclmulqdq $1, %xmm3, %xmm15, %xmm4
vpclmulqdq $16, %xmm3, %xmm15, %xmm5
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $0, %xmm3, %xmm15, %xmm5
vpclmulqdq $17, %xmm3, %xmm15, %xmm3
vpslldq $8, %xmm4, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vmovdqa64 %xmm26, %xmm9
vpclmulqdq $16, %xmm9, %xmm5, %xmm6
vpshufd $78, %xmm5, %xmm5
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm9, %xmm6, %xmm5
vpxor %xmm3, %xmm5, %xmm5
vpshufd $78, %xmm6, %xmm3
vmovdqa -32(%rsp), %xmm6
leaq 16(%r9), %rsi
leaq 16(%rdx), %rcx
addq $-16, %rax
vpaddd %xmm20, %xmm17, %xmm17
vmovdqu %xmm2, (%rdx)
vpsrldq $8, %xmm4, %xmm2
vmovdqa -48(%rsp), %xmm4
vpternlogq $150, %xmm2, %xmm3, %xmm5
vmovdqa64 %xmm28, %xmm3
movq %rcx, %rdx
movq %rsi, %r9
cmpq $15, %rax
ja .LBB1_39
testq %rax, %rax
je .LBB1_31
.LBB1_40:
movl $-1, %edx
bzhil %eax, %edx, %eax
kmovd %eax, %k1
vmovdqu8 (%rsi), %xmm0 {%k1} {z}
vpshufb .LCPI1_13(%rip), %xmm17, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vmovdqa64 %xmm24, %xmm10
vaesenc %xmm10, %xmm1, %xmm1
vmovdqa64 %xmm27, %xmm2
vaesenc %xmm2, %xmm1, %xmm1
vmovdqa64 %xmm29, %xmm2
vaesenc %xmm2, %xmm1, %xmm1
vmovdqa64 %xmm25, %xmm2
vaesenc %xmm2, %xmm1, %xmm1
vmovdqa64 %xmm30, %xmm2
vaesenc %xmm2, %xmm1, %xmm1
vaesenc -64(%rsp), %xmm1, %xmm1
vaesenc -80(%rsp), %xmm1, %xmm1
vaesenc -96(%rsp), %xmm1, %xmm1
vmovdqa64 %xmm18, %xmm14
vaesenc %xmm14, %xmm1, %xmm1
vmovdqa64 %xmm19, %xmm13
vaesenc %xmm13, %xmm1, %xmm1
vmovdqa -112(%rsp), %xmm11
vaesenc %xmm11, %xmm1, %xmm1
vmovdqa -128(%rsp), %xmm12
vaesenc %xmm12, %xmm1, %xmm1
vaesenc %xmm6, %xmm1, %xmm1
vaesenclast %xmm4, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vmovdqu8 %xmm0, (%rcx) {%k1}
testq %r10, %r10
je .LBB1_42
vmovdqu8 %xmm0, %xmm0 {%k1} {z}
.LBB1_42:
vpbroadcastq .LCPI1_14(%rip), %xmm9
.LBB1_43:
vpshufb .LCPI1_13(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm5, %xmm0
vpclmulqdq $0, %xmm0, %xmm15, %xmm1
vpclmulqdq $1, %xmm0, %xmm15, %xmm2
vpclmulqdq $16, %xmm0, %xmm15, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $17, %xmm0, %xmm15, %xmm0
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpsrldq $8, %xmm2, %xmm2
vpclmulqdq $16, %xmm9, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm9, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm0, %xmm3, %xmm5
vpternlogq $150, %xmm2, %xmm1, %xmm5
jmp .LBB1_44
.LBB1_29:
movq %rdx, %rcx
movq %r9, %rsi
testq %rax, %rax
jne .LBB1_40
.LBB1_31:
vmovdqa64 %xmm18, %xmm14
vmovdqa64 %xmm19, %xmm13
vmovaps -112(%rsp), %xmm11
vmovaps -128(%rsp), %xmm12
vpbroadcastq .LCPI1_14(%rip), %xmm9
vmovdqa64 %xmm24, %xmm10
.LBB1_44:
vmovq %r8, %xmm0
vmovq %r10, %xmm1
vpunpcklqdq %xmm0, %xmm1, %xmm0
vpsllq $3, %xmm0, %xmm0
vpxor %xmm0, %xmm5, %xmm0
vpclmulqdq $1, %xmm0, %xmm15, %xmm1
vpclmulqdq $16, %xmm0, %xmm15, %xmm2
vpxor %xmm1, %xmm2, %xmm1
vpclmulqdq $0, %xmm0, %xmm15, %xmm2
vpclmulqdq $17, %xmm0, %xmm15, %xmm0
vpslldq $8, %xmm1, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vpshufd $78, %xmm2, %xmm3
vpclmulqdq $16, %xmm9, %xmm2, %xmm2
vpxor %xmm3, %xmm2, %xmm2
vpclmulqdq $16, %xmm9, %xmm2, %xmm3
vpxor %xmm0, %xmm3, %xmm0
vpxorq %xmm21, %xmm28, %xmm3
vaesenc %xmm10, %xmm3, %xmm3
vmovdqa64 %xmm27, %xmm5
vaesenc %xmm5, %xmm3, %xmm3
vmovdqa64 %xmm29, %xmm5
vaesenc %xmm5, %xmm3, %xmm3
vmovdqa64 %xmm25, %xmm5
vaesenc %xmm5, %xmm3, %xmm3
vmovdqa64 %xmm30, %xmm5
vaesenc %xmm5, %xmm3, %xmm3
vaesenc -64(%rsp), %xmm3, %xmm3
vaesenc -80(%rsp), %xmm3, %xmm3
vaesenc -96(%rsp), %xmm3, %xmm3
vaesenc %xmm14, %xmm3, %xmm3
vaesenc %xmm13, %xmm3, %xmm3
vaesenc %xmm11, %xmm3, %xmm3
vaesenc %xmm12, %xmm3, %xmm3
vaesenc %xmm6, %xmm3, %xmm3
vaesenclast %xmm4, %xmm3, %xmm3
vpshufb .LCPI1_24(%rip), %xmm2, %xmm2
vpshufb .LCPI1_13(%rip), %xmm0, %xmm0
vpshufb .LCPI1_23(%rip), %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpternlogq $150, %xmm0, %xmm3, %xmm2
movq 216(%rsp), %rax
vmovdqu %xmm2, (%rax)
movl $1, %eax
.LBB1_45:
addq $176, %rsp
.cfi_def_cfa_offset 16
popq %rbx
.cfi_def_cfa_offset 8
retq
.Lfunc_end1:
.size haberdashery_aes256gcmdndkv2_skylakex_encrypt, .Lfunc_end1-haberdashery_aes256gcmdndkv2_skylakex_encrypt
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI2_0:
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 0
.LCPI2_1:
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 96
.LCPI2_2:
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 97
.LCPI2_3:
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 98
.LCPI2_4:
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.LCPI2_13:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI2_15:
.byte 15
.byte 128
.byte 128
.byte 128
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI2_16:
.long 1
.long 0
.long 0
.long 0
.LCPI2_17:
.long 2
.long 0
.long 0
.long 0
.LCPI2_18:
.long 3
.long 0
.long 0
.long 0
.LCPI2_19:
.long 4
.long 0
.long 0
.long 0
.LCPI2_20:
.long 5
.long 0
.long 0
.long 0
.LCPI2_21:
.long 6
.long 0
.long 0
.long 0
.LCPI2_22:
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.LCPI2_23:
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI2_5:
.quad 4294967297
.LCPI2_12:
.quad 274877907008
.LCPI2_14:
.quad -4467570830351532032
.section .rodata.cst4,"aM",@progbits,4
.p2align 2, 0x0
.LCPI2_6:
.long 0x00000002
.LCPI2_7:
.long 0x0c0f0e0d
.LCPI2_8:
.long 0x00000004
.LCPI2_9:
.long 0x00000008
.LCPI2_10:
.long 0x00000010
.LCPI2_11:
.long 0x00000020
.section .rodata,"a",@progbits
.LCPI2_24:
.byte 1
.byte 0
.section .text.haberdashery_aes256gcmdndkv2_skylakex_decrypt,"ax",@progbits
.globl haberdashery_aes256gcmdndkv2_skylakex_decrypt
.p2align 4, 0x90
.type haberdashery_aes256gcmdndkv2_skylakex_decrypt,@function
haberdashery_aes256gcmdndkv2_skylakex_decrypt:
.cfi_startproc
pushq %rbp
.cfi_def_cfa_offset 16
pushq %rbx
.cfi_def_cfa_offset 24
subq $120, %rsp
.cfi_def_cfa_offset 144
.cfi_offset %rbx, -24
.cfi_offset %rbp, -16
movq 144(%rsp), %r10
xorl %eax, %eax
cmpq 176(%rsp), %r10
jne .LBB2_44
movq %r10, %r11
shrq $5, %r11
cmpq $2147483646, %r11
ja .LBB2_44
movabsq $2305843009213693950, %r11
cmpq %r11, %r8
ja .LBB2_44
cmpq $24, %rdx
jne .LBB2_44
cmpq $16, 160(%rsp)
jne .LBB2_44
vmovdqu64 (%rsi), %xmm16
vmovdqa (%rdi), %xmm14
vmovdqa 16(%rdi), %xmm9
vmovdqa 32(%rdi), %xmm0
vmovdqa 48(%rdi), %xmm1
vpternlogq $120, .LCPI2_0(%rip), %xmm16, %xmm14
vpxor .LCPI2_1(%rip), %xmm14, %xmm2
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm0, %xmm2, %xmm3
vmovdqa 64(%rdi), %xmm2
vaesenc %xmm1, %xmm3, %xmm3
vaesenc %xmm2, %xmm3, %xmm5
vmovdqa 80(%rdi), %xmm3
vmovdqa 96(%rdi), %xmm4
vaesenc %xmm3, %xmm5, %xmm5
vaesenc %xmm4, %xmm5, %xmm7
vmovdqa 112(%rdi), %xmm5
vmovdqa 128(%rdi), %xmm6
vaesenc %xmm5, %xmm7, %xmm7
vaesenc %xmm6, %xmm7, %xmm11
vmovdqa 144(%rdi), %xmm7
vmovdqa 160(%rdi), %xmm8
vaesenc %xmm7, %xmm11, %xmm11
vaesenc %xmm8, %xmm11, %xmm13
vmovdqa 176(%rdi), %xmm11
vmovdqa 192(%rdi), %xmm12
vaesenc %xmm11, %xmm13, %xmm13
vaesenc %xmm12, %xmm13, %xmm15
vmovdqa 208(%rdi), %xmm13
vpxor .LCPI2_2(%rip), %xmm14, %xmm10
vaesenc %xmm9, %xmm10, %xmm10
vpxor .LCPI2_3(%rip), %xmm14, %xmm14
vaesenc %xmm9, %xmm14, %xmm9
vmovdqa 224(%rdi), %xmm14
vaesenc %xmm13, %xmm15, %xmm15
vaesenclast %xmm14, %xmm15, %xmm15
vaesenc %xmm0, %xmm10, %xmm10
vaesenc %xmm1, %xmm10, %xmm10
vaesenc %xmm2, %xmm10, %xmm10
vaesenc %xmm3, %xmm10, %xmm10
vaesenc %xmm4, %xmm10, %xmm10
vaesenc %xmm5, %xmm10, %xmm10
vaesenc %xmm6, %xmm10, %xmm10
vaesenc %xmm7, %xmm10, %xmm10
vaesenc %xmm8, %xmm10, %xmm10
vaesenc %xmm11, %xmm10, %xmm10
vaesenc %xmm12, %xmm10, %xmm10
vaesenc %xmm13, %xmm10, %xmm10
vaesenclast %xmm14, %xmm10, %xmm10
vaesenc %xmm0, %xmm9, %xmm0
vaesenc %xmm1, %xmm0, %xmm0
vaesenc %xmm2, %xmm0, %xmm0
vaesenc %xmm3, %xmm0, %xmm0
vaesenc %xmm4, %xmm0, %xmm0
vaesenc %xmm5, %xmm0, %xmm0
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm7, %xmm0, %xmm0
vaesenc %xmm8, %xmm0, %xmm0
vaesenc %xmm11, %xmm0, %xmm0
vaesenc %xmm12, %xmm0, %xmm0
vaesenc %xmm13, %xmm0, %xmm0
vaesenclast %xmm14, %xmm0, %xmm0
vpxor %xmm15, %xmm10, %xmm11
vpxor %xmm0, %xmm15, %xmm12
vpslldq $4, %xmm11, %xmm0
vpslldq $8, %xmm11, %xmm1
vpslldq $12, %xmm11, %xmm2
vpternlogq $150, %xmm1, %xmm0, %xmm2
vpbroadcastd .LCPI2_7(%rip), %xmm1
vpshufb %xmm1, %xmm12, %xmm0
vpbroadcastq .LCPI2_5(%rip), %xmm3
vaesenclast %xmm3, %xmm0, %xmm8
vpternlogq $150, %xmm2, %xmm11, %xmm8
vaesenc %xmm12, %xmm11, %xmm0
vpslldq $4, %xmm12, %xmm2
vpslldq $8, %xmm12, %xmm3
vpslldq $12, %xmm12, %xmm4
vpternlogq $150, %xmm3, %xmm2, %xmm4
vpshufd $255, %xmm8, %xmm2
vpxor %xmm5, %xmm5, %xmm5
vaesenclast %xmm5, %xmm2, %xmm9
vpternlogq $150, %xmm4, %xmm12, %xmm9
vbroadcastss .LCPI2_6(%rip), %xmm3
vbroadcastss .LCPI2_7(%rip), %xmm2
vmovdqa %xmm8, -48(%rsp)
#APP
vaesenc %xmm8, %xmm0, %xmm0
vpslldq $4, %xmm8, %xmm4
vpslldq $8, %xmm8, %xmm6
vpslldq $12, %xmm8, %xmm7
vpternlogq $150, %xmm4, %xmm6, %xmm7
vpshufb %xmm2, %xmm9, %xmm10
vaesenclast %xmm3, %xmm10, %xmm10
vpternlogq $150, %xmm8, %xmm7, %xmm10
#NO_APP
vmovdqa %xmm9, -32(%rsp)
#APP
vaesenc %xmm9, %xmm0, %xmm0
vpslldq $4, %xmm9, %xmm3
vpslldq $8, %xmm9, %xmm4
vpslldq $12, %xmm9, %xmm6
vpternlogq $150, %xmm3, %xmm4, %xmm6
vpshufd $255, %xmm10, %xmm8
vaesenclast %xmm5, %xmm8, %xmm8
vpternlogq $150, %xmm9, %xmm6, %xmm8
#NO_APP
vbroadcastss .LCPI2_8(%rip), %xmm3
vmovdqa64 %xmm10, %xmm19
#APP
vaesenc %xmm10, %xmm0, %xmm0
vpslldq $4, %xmm10, %xmm4
vpslldq $8, %xmm10, %xmm6
vpslldq $12, %xmm10, %xmm7
vpternlogq $150, %xmm4, %xmm6, %xmm7
vpshufb %xmm2, %xmm8, %xmm14
vaesenclast %xmm3, %xmm14, %xmm14
vpternlogq $150, %xmm10, %xmm7, %xmm14
#NO_APP
vmovapd %xmm8, %xmm31
#APP
vaesenc %xmm8, %xmm0, %xmm0
vpslldq $4, %xmm8, %xmm3
vpslldq $8, %xmm8, %xmm4
vpslldq $12, %xmm8, %xmm6
vpternlogq $150, %xmm3, %xmm4, %xmm6
vpshufd $255, %xmm14, %xmm9
vaesenclast %xmm5, %xmm9, %xmm9
vpternlogq $150, %xmm8, %xmm6, %xmm9
#NO_APP
vbroadcastss .LCPI2_9(%rip), %xmm3
vmovdqa64 %xmm14, %xmm27
#APP
vaesenc %xmm14, %xmm0, %xmm0
vpslldq $4, %xmm14, %xmm4
vpslldq $8, %xmm14, %xmm6
vpslldq $12, %xmm14, %xmm7
vpternlogq $150, %xmm4, %xmm6, %xmm7
vpshufb %xmm2, %xmm9, %xmm13
vaesenclast %xmm3, %xmm13, %xmm13
vpternlogq $150, %xmm14, %xmm7, %xmm13
#NO_APP
vmovaps %xmm9, (%rsp)
#APP
vaesenc %xmm9, %xmm0, %xmm0
vpslldq $4, %xmm9, %xmm3
vpslldq $8, %xmm9, %xmm4
vpslldq $12, %xmm9, %xmm6
vpternlogq $150, %xmm3, %xmm4, %xmm6
vpshufd $255, %xmm13, %xmm14
vaesenclast %xmm5, %xmm14, %xmm14
vpternlogq $150, %xmm9, %xmm6, %xmm14
#NO_APP
vbroadcastss .LCPI2_10(%rip), %xmm3
vmovaps %xmm13, -128(%rsp)
#APP
vaesenc %xmm13, %xmm0, %xmm0
vpslldq $4, %xmm13, %xmm4
vpslldq $8, %xmm13, %xmm6
vpslldq $12, %xmm13, %xmm7
vpternlogq $150, %xmm4, %xmm6, %xmm7
vpshufb %xmm2, %xmm14, %xmm9
vaesenclast %xmm3, %xmm9, %xmm9
vpternlogq $150, %xmm13, %xmm7, %xmm9
#NO_APP
vmovdqa %xmm14, %xmm13
vmovdqa %xmm9, %xmm14
#APP
vaesenc %xmm13, %xmm0, %xmm0
vpslldq $4, %xmm13, %xmm3
vpslldq $8, %xmm13, %xmm4
vpslldq $12, %xmm13, %xmm6
vpternlogq $150, %xmm3, %xmm4, %xmm6
vpshufd $255, %xmm9, %xmm15
vaesenclast %xmm5, %xmm15, %xmm15
vpternlogq $150, %xmm13, %xmm6, %xmm15
#NO_APP
vbroadcastss .LCPI2_11(%rip), %xmm3
#APP
vaesenc %xmm9, %xmm0, %xmm0
vpslldq $4, %xmm9, %xmm4
vpslldq $8, %xmm9, %xmm6
vpslldq $12, %xmm9, %xmm7
vpternlogq $150, %xmm4, %xmm6, %xmm7
vpshufb %xmm2, %xmm15, %xmm8
vaesenclast %xmm3, %xmm8, %xmm8
vpternlogq $150, %xmm9, %xmm7, %xmm8
#NO_APP
vpslldq $4, %xmm15, %xmm2
vpunpcklqdq %xmm15, %xmm5, %xmm3
vinsertps $55, %xmm15, %xmm0, %xmm4
vpternlogq $150, %xmm3, %xmm2, %xmm4
vpshufd $255, %xmm8, %xmm2
vaesenclast %xmm5, %xmm2, %xmm10
vpternlogq $150, %xmm4, %xmm15, %xmm10
vpshufb %xmm1, %xmm10, %xmm1
vpbroadcastq .LCPI2_12(%rip), %xmm2
vaesenclast %xmm2, %xmm1, %xmm7
vpslldq $4, %xmm8, %xmm1
vpunpcklqdq %xmm8, %xmm5, %xmm2
vinsertps $55, %xmm8, %xmm0, %xmm3
vpternlogq $150, %xmm2, %xmm1, %xmm3
vpternlogq $150, %xmm3, %xmm8, %xmm7
vaesenc %xmm15, %xmm0, %xmm0
vaesenc %xmm8, %xmm0, %xmm0
vaesenc %xmm10, %xmm0, %xmm0
vaesenclast %xmm7, %xmm0, %xmm0
vpshufb .LCPI2_13(%rip), %xmm0, %xmm0
vpaddq %xmm0, %xmm0, %xmm1
vpsrlq $63, %xmm0, %xmm0
vpshufd $78, %xmm0, %xmm2
vpblendd $12, %xmm0, %xmm5, %xmm0
vpsllq $63, %xmm0, %xmm3
vpternlogq $30, %xmm2, %xmm1, %xmm3
vpsllq $62, %xmm0, %xmm1
vpsllq $57, %xmm0, %xmm4
vpternlogq $150, %xmm1, %xmm3, %xmm4
vpclmulqdq $0, %xmm4, %xmm4, %xmm0
vpshufd $78, %xmm0, %xmm1
vpbroadcastq .LCPI2_14(%rip), %xmm6
vpclmulqdq $16, %xmm6, %xmm0, %xmm0
vpxor %xmm1, %xmm0, %xmm0
vpclmulqdq $16, %xmm6, %xmm0, %xmm1
vpshufd $78, %xmm0, %xmm9
vpclmulqdq $17, %xmm4, %xmm4, %xmm0
vpternlogq $150, %xmm1, %xmm0, %xmm9
vpclmulqdq $16, %xmm4, %xmm9, %xmm0
vpclmulqdq $1, %xmm4, %xmm9, %xmm1
vpxor %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm0, %xmm1
vpclmulqdq $0, %xmm4, %xmm9, %xmm2
vpxor %xmm1, %xmm2, %xmm1
vpshufd $78, %xmm1, %xmm2
vpclmulqdq $16, %xmm6, %xmm1, %xmm1
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $16, %xmm6, %xmm1, %xmm2
vpclmulqdq $17, %xmm4, %xmm9, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vpsrldq $8, %xmm0, %xmm0
vpshufd $78, %xmm1, %xmm3
vpternlogq $150, %xmm0, %xmm2, %xmm3
vpclmulqdq $0, %xmm3, %xmm3, %xmm0
vpshufd $78, %xmm0, %xmm1
vpclmulqdq $16, %xmm6, %xmm0, %xmm0
vpxor %xmm1, %xmm0, %xmm0
vpclmulqdq $16, %xmm6, %xmm0, %xmm1
vpshufd $78, %xmm0, %xmm2
vmovdqa %xmm3, 64(%rsp)
vpclmulqdq $17, %xmm3, %xmm3, %xmm0
vpternlogq $150, %xmm1, %xmm0, %xmm2
vmovdqa %xmm2, 48(%rsp)
vpclmulqdq $0, %xmm9, %xmm9, %xmm0
vpshufd $78, %xmm0, %xmm1
vpclmulqdq $16, %xmm6, %xmm0, %xmm0
vpxor %xmm1, %xmm0, %xmm0
vpclmulqdq $16, %xmm6, %xmm0, %xmm1
vpshufd $78, %xmm0, %xmm3
vmovdqa %xmm9, 96(%rsp)
vpclmulqdq $17, %xmm9, %xmm9, %xmm0
vpternlogq $150, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm4, %xmm3, %xmm0
vpclmulqdq $1, %xmm4, %xmm3, %xmm1
vpxor %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm0, %xmm1
vpclmulqdq $0, %xmm4, %xmm3, %xmm2
vpxor %xmm1, %xmm2, %xmm1
vpshufd $78, %xmm1, %xmm2
vpclmulqdq $16, %xmm6, %xmm1, %xmm1
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $16, %xmm6, %xmm1, %xmm2
vmovdqa %xmm3, %xmm6
vpclmulqdq $17, %xmm4, %xmm3, %xmm3
vpxor %xmm2, %xmm3, %xmm2
movq 152(%rsp), %rdx
movzbl 16(%rsi), %edi
movzbl 17(%rsi), %r11d
movzbl 23(%rsi), %ebx
vpextrb $15, %xmm16, %ebp
vpsrldq $8, %xmm0, %xmm0
vpshufd $78, %xmm1, %xmm1
vpternlogq $150, %xmm0, %xmm2, %xmm1
shll $8, %edi
orl %ebp, %edi
shll $16, %r11d
orl %edi, %r11d
movzbl 18(%rsi), %edi
shll $24, %edi
orl %r11d, %edi
vmovd %edi, %xmm0
vpinsrd $1, 19(%rsi), %xmm0, %xmm0
vpinsrd $2, %ebx, %xmm0, %xmm0
movl $16777216, %esi
vpinsrd $3, %esi, %xmm0, %xmm22
testq %r8, %r8
vmovdqa %xmm6, 32(%rsp)
vmovdqa %xmm1, 16(%rsp)
je .LBB2_37
cmpq $96, %r8
jb .LBB2_7
vmovdqa64 %xmm22, -16(%rsp)
vmovdqa %xmm7, -80(%rsp)
vmovdqa %xmm10, -96(%rsp)
vmovaps %xmm8, -112(%rsp)
vmovaps %xmm15, %xmm24
vmovdqa64 %xmm14, %xmm23
vmovdqa64 %xmm13, %xmm22
vmovdqa64 %xmm27, %xmm21
vmovapd %xmm31, %xmm20
vmovapd %xmm12, %xmm16
vmovapd %xmm11, %xmm28
vmovdqa64 .LCPI2_13(%rip), %xmm27
movq %r8, %rsi
vpbroadcastq .LCPI2_14(%rip), %xmm25
vmovdqa64 96(%rsp), %xmm31
vmovdqa 64(%rsp), %xmm6
vmovdqa64 %xmm4, %xmm26
vmovdqa64 48(%rsp), %xmm29
vmovdqa 32(%rsp), %xmm0
vmovdqa 16(%rsp), %xmm9
.p2align 4, 0x90
.LBB2_20:
vmovdqu64 (%rcx), %xmm30
vmovdqu 16(%rcx), %xmm2
vmovdqu 32(%rcx), %xmm3
vmovdqu 48(%rcx), %xmm11
vmovdqu 64(%rcx), %xmm12
vmovdqu 80(%rcx), %xmm13
vpshufb %xmm27, %xmm11, %xmm11
vpshufb %xmm27, %xmm12, %xmm12
vpshufb %xmm27, %xmm13, %xmm13
vmovdqa64 %xmm26, %xmm1
vpclmulqdq $0, %xmm13, %xmm1, %xmm14
vpclmulqdq $1, %xmm13, %xmm1, %xmm15
vpclmulqdq $16, %xmm13, %xmm1, %xmm8
vpxor %xmm15, %xmm8, %xmm8
vmovdqa64 %xmm31, %xmm4
vpclmulqdq $0, %xmm12, %xmm4, %xmm15
vpclmulqdq $1, %xmm12, %xmm4, %xmm7
vpclmulqdq $16, %xmm12, %xmm4, %xmm10
vpternlogq $150, %xmm7, %xmm8, %xmm10
vpclmulqdq $0, %xmm11, %xmm6, %xmm7
vpternlogq $150, %xmm14, %xmm15, %xmm7
vpclmulqdq $1, %xmm11, %xmm6, %xmm8
vpclmulqdq $16, %xmm11, %xmm6, %xmm14
vpternlogq $150, %xmm8, %xmm10, %xmm14
vpshufb %xmm27, %xmm2, %xmm2
vpshufb %xmm27, %xmm3, %xmm3
vpclmulqdq $17, %xmm13, %xmm1, %xmm8
vpclmulqdq $17, %xmm12, %xmm4, %xmm10
vpclmulqdq $17, %xmm11, %xmm6, %xmm11
vpternlogq $150, %xmm8, %xmm10, %xmm11
vpclmulqdq $1, %xmm3, %xmm0, %xmm8
vpclmulqdq $16, %xmm3, %xmm0, %xmm10
vpternlogq $150, %xmm8, %xmm14, %xmm10
vpclmulqdq $0, %xmm3, %xmm0, %xmm8
vpclmulqdq $0, %xmm2, %xmm9, %xmm12
vpternlogq $150, %xmm8, %xmm7, %xmm12
vpclmulqdq $1, %xmm2, %xmm9, %xmm7
vpclmulqdq $16, %xmm2, %xmm9, %xmm8
vpternlogq $150, %xmm7, %xmm10, %xmm8
vpshufb %xmm27, %xmm30, %xmm1
vpxor %xmm1, %xmm5, %xmm1
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
vpclmulqdq $17, %xmm2, %xmm9, %xmm2
vpternlogq $150, %xmm3, %xmm11, %xmm2
vmovdqa64 %xmm29, %xmm4
vpclmulqdq $1, %xmm1, %xmm4, %xmm3
vpclmulqdq $16, %xmm1, %xmm4, %xmm7
vpternlogq $150, %xmm3, %xmm8, %xmm7
vpclmulqdq $0, %xmm1, %xmm4, %xmm3
vpslldq $8, %xmm7, %xmm5
vpternlogq $150, %xmm3, %xmm12, %xmm5
vpclmulqdq $17, %xmm1, %xmm4, %xmm1
vmovdqa64 %xmm25, %xmm4
vpclmulqdq $16, %xmm4, %xmm5, %xmm3
vpshufd $78, %xmm5, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpclmulqdq $16, %xmm4, %xmm3, %xmm5
vpternlogq $150, %xmm1, %xmm2, %xmm5
vpsrldq $8, %xmm7, %xmm1
vpshufd $78, %xmm3, %xmm2
addq $96, %rcx
addq $-96, %rsi
vpternlogq $150, %xmm1, %xmm2, %xmm5
cmpq $95, %rsi
ja .LBB2_20
vmovapd %xmm28, %xmm11
vmovapd %xmm16, %xmm12
vmovdqa64 %xmm19, %xmm9
vmovapd %xmm20, %xmm31
vmovdqa64 %xmm21, %xmm27
vmovdqa -128(%rsp), %xmm6
vmovdqa64 %xmm22, %xmm13
vmovdqa64 %xmm23, %xmm14
vmovaps %xmm24, %xmm15
vmovaps -112(%rsp), %xmm8
vmovdqa -96(%rsp), %xmm10
vmovdqa -80(%rsp), %xmm7
vmovdqa64 %xmm26, %xmm4
vmovdqa64 -16(%rsp), %xmm22
cmpq $16, %rsi
jae .LBB2_10
.LBB2_9:
movq %rsi, %rdi
testq %rdi, %rdi
jne .LBB2_22
jmp .LBB2_17
.LBB2_37:
xorl %r8d, %r8d
testq %r10, %r10
vmovdqa -128(%rsp), %xmm6
vmovdqa64 %xmm19, %xmm9
jne .LBB2_25
jmp .LBB2_38
.LBB2_7:
movq %r8, %rsi
vmovdqa -128(%rsp), %xmm6
vmovdqa64 %xmm19, %xmm9
cmpq $16, %rsi
jb .LBB2_9
.LBB2_10:
leaq -16(%rsi), %rdi
testb $16, %dil
je .LBB2_11
cmpq $16, %rdi
jae .LBB2_13
.LBB2_16:
testq %rdi, %rdi
je .LBB2_17
.LBB2_22:
movl $-1, %esi
bzhil %edi, %esi, %esi
kmovd %esi, %k1
vmovdqu8 (%rcx), %xmm0 {%k1} {z}
shlq $3, %r8
testq %r10, %r10
je .LBB2_45
movabsq $-68719476704, %rcx
leaq (%r10,%rcx), %rsi
incq %rcx
cmpq %rcx, %rsi
jb .LBB2_44
vpshufb .LCPI2_13(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm5, %xmm0
vpclmulqdq $0, %xmm0, %xmm4, %xmm1
vpclmulqdq $1, %xmm0, %xmm4, %xmm2
vpclmulqdq $16, %xmm0, %xmm4, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $17, %xmm0, %xmm4, %xmm0
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpsrldq $8, %xmm2, %xmm2
vpbroadcastq .LCPI2_14(%rip), %xmm5
vpclmulqdq $16, %xmm5, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm5, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm0, %xmm3, %xmm5
vpternlogq $150, %xmm2, %xmm1, %xmm5
jmp .LBB2_25
.LBB2_11:
vmovdqu (%rcx), %xmm0
addq $16, %rcx
vpshufb .LCPI2_13(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm5, %xmm0
vpclmulqdq $0, %xmm0, %xmm4, %xmm1
vpclmulqdq $1, %xmm0, %xmm4, %xmm2
vpclmulqdq $16, %xmm0, %xmm4, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $17, %xmm0, %xmm4, %xmm0
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpsrldq $8, %xmm2, %xmm2
vpbroadcastq .LCPI2_14(%rip), %xmm5
vpclmulqdq $16, %xmm5, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm5, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm0, %xmm3, %xmm5
vpternlogq $150, %xmm2, %xmm1, %xmm5
movq %rdi, %rsi
cmpq $16, %rdi
jb .LBB2_16
.LBB2_13:
vmovapd %xmm12, %xmm17
vmovdqa64 %xmm7, %xmm16
vmovdqa .LCPI2_13(%rip), %xmm0
vpbroadcastq .LCPI2_14(%rip), %xmm12
.p2align 4, 0x90
.LBB2_14:
vmovdqu (%rcx), %xmm1
vmovdqu 16(%rcx), %xmm2
vpshufb %xmm0, %xmm1, %xmm1
vpxor %xmm1, %xmm5, %xmm1
vpclmulqdq $0, %xmm1, %xmm4, %xmm3
vpclmulqdq $1, %xmm1, %xmm4, %xmm5
vpclmulqdq $16, %xmm1, %xmm4, %xmm7
vpxor %xmm5, %xmm7, %xmm5
vpclmulqdq $17, %xmm1, %xmm4, %xmm1
vpslldq $8, %xmm5, %xmm7
vpxor %xmm7, %xmm3, %xmm3
vpsrldq $8, %xmm5, %xmm5
vpclmulqdq $16, %xmm12, %xmm3, %xmm7
vpshufd $78, %xmm3, %xmm3
vpxor %xmm3, %xmm7, %xmm3
vpclmulqdq $16, %xmm12, %xmm3, %xmm7
vpshufd $78, %xmm3, %xmm3
vpternlogq $150, %xmm1, %xmm5, %xmm7
addq $32, %rcx
addq $-32, %rsi
vpshufb %xmm0, %xmm2, %xmm1
vpternlogq $150, %xmm3, %xmm7, %xmm1
vpclmulqdq $0, %xmm1, %xmm4, %xmm2
vpclmulqdq $1, %xmm1, %xmm4, %xmm3
vpclmulqdq $16, %xmm1, %xmm4, %xmm5
vpxor %xmm3, %xmm5, %xmm3
vpclmulqdq $17, %xmm1, %xmm4, %xmm1
vpslldq $8, %xmm3, %xmm5
vpxor %xmm5, %xmm2, %xmm2
vpsrldq $8, %xmm3, %xmm3
vpclmulqdq $16, %xmm12, %xmm2, %xmm5
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm5, %xmm2
vpclmulqdq $16, %xmm12, %xmm2, %xmm5
vpshufd $78, %xmm2, %xmm2
vpxor %xmm1, %xmm5, %xmm5
vpternlogq $150, %xmm3, %xmm2, %xmm5
cmpq $15, %rsi
ja .LBB2_14
movq %rsi, %rdi
vmovdqa64 %xmm16, %xmm7
vmovapd %xmm17, %xmm12
testq %rdi, %rdi
jne .LBB2_22
.LBB2_17:
shlq $3, %r8
testq %r10, %r10
je .LBB2_38
movabsq $-68719476704, %rcx
leaq (%r10,%rcx), %rsi
incq %rcx
cmpq %rcx, %rsi
jb .LBB2_44
.LBB2_25:
vmovaps %xmm8, -112(%rsp)
vmovdqa %xmm14, -64(%rsp)
movq 168(%rsp), %rax
vpshufb .LCPI2_15(%rip), %xmm22, %xmm0
vpaddd .LCPI2_16(%rip), %xmm0, %xmm17
cmpq $96, %r10
jb .LBB2_26
vmovdqa64 %xmm22, -16(%rsp)
vmovdqa64 .LCPI2_13(%rip), %xmm18
movq %r10, %rcx
vmovdqa %xmm9, 80(%rsp)
vmovapd %xmm31, -96(%rsp)
vmovdqa64 %xmm27, -80(%rsp)
vmovdqa64 %xmm13, %xmm24
vmovdqa64 %xmm15, %xmm25
vmovdqa64 %xmm10, %xmm22
vmovdqa %xmm7, %xmm9
vmovdqa64 64(%rsp), %xmm19
vmovdqa64 48(%rsp), %xmm23
vmovaps 32(%rsp), %xmm20
vmovaps 16(%rsp), %xmm21
.p2align 4, 0x90
.LBB2_30:
vmovdqu64 16(%r9), %xmm26
vmovdqu64 32(%r9), %xmm27
vmovdqu64 48(%r9), %xmm28
vmovdqu64 64(%r9), %xmm29
vmovdqu64 80(%r9), %xmm30
vpshufb %xmm18, %xmm17, %xmm0
vpaddd .LCPI2_16(%rip), %xmm17, %xmm1
vpshufb %xmm18, %xmm1, %xmm1
vpaddd .LCPI2_17(%rip), %xmm17, %xmm2
vpshufb %xmm18, %xmm2, %xmm3
vpaddd .LCPI2_18(%rip), %xmm17, %xmm2
vpshufb %xmm18, %xmm2, %xmm7
vpaddd .LCPI2_19(%rip), %xmm17, %xmm2
vpshufb %xmm18, %xmm2, %xmm8
vpaddd .LCPI2_20(%rip), %xmm17, %xmm2
vpshufb %xmm18, %xmm2, %xmm10
vpshufb %xmm18, %xmm30, %xmm6
vpxor %xmm0, %xmm11, %xmm2
vpxor %xmm1, %xmm11, %xmm14
vpxor %xmm3, %xmm11, %xmm3
vpxor %xmm7, %xmm11, %xmm13
vpxor %xmm8, %xmm11, %xmm1
vmovapd %xmm11, %xmm31
vpxor %xmm10, %xmm11, %xmm11
#APP
vaesenc %xmm12, %xmm2, %xmm2
vaesenc %xmm12, %xmm14, %xmm14
vaesenc %xmm12, %xmm3, %xmm3
vaesenc %xmm12, %xmm13, %xmm13
vaesenc %xmm12, %xmm1, %xmm1
vaesenc %xmm12, %xmm11, %xmm11
#NO_APP
vxorps %xmm15, %xmm15, %xmm15
vpxor %xmm0, %xmm0, %xmm0
vmovapd %xmm12, %xmm16
vxorpd %xmm12, %xmm12, %xmm12
vmovaps -48(%rsp), %xmm8
#APP
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm8, %xmm14, %xmm14
vaesenc %xmm8, %xmm3, %xmm3
vaesenc %xmm8, %xmm13, %xmm13
vaesenc %xmm8, %xmm1, %xmm1
vaesenc %xmm8, %xmm11, %xmm11
vpclmulqdq $16, %xmm4, %xmm6, %xmm7
vpxor %xmm7, %xmm0, %xmm0
vpclmulqdq $0, %xmm4, %xmm6, %xmm7
vpxor %xmm7, %xmm15, %xmm15
vpclmulqdq $17, %xmm4, %xmm6, %xmm7
vpxor %xmm7, %xmm12, %xmm12
vpclmulqdq $1, %xmm4, %xmm6, %xmm7
vpxor %xmm7, %xmm0, %xmm0
#NO_APP
vpshufb %xmm18, %xmm29, %xmm6
vmovaps -32(%rsp), %xmm7
#APP
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm7, %xmm14, %xmm14
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm11, %xmm11
#NO_APP
vmovaps 80(%rsp), %xmm8
vmovaps 96(%rsp), %xmm10
#APP
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm8, %xmm14, %xmm14
vaesenc %xmm8, %xmm3, %xmm3
vaesenc %xmm8, %xmm13, %xmm13
vaesenc %xmm8, %xmm1, %xmm1
vaesenc %xmm8, %xmm11, %xmm11
vpclmulqdq $16, %xmm10, %xmm6, %xmm7
vpxor %xmm7, %xmm0, %xmm0
vpclmulqdq $0, %xmm10, %xmm6, %xmm7
vpxor %xmm7, %xmm15, %xmm15
vpclmulqdq $17, %xmm10, %xmm6, %xmm7
vpxor %xmm7, %xmm12, %xmm12
vpclmulqdq $1, %xmm10, %xmm6, %xmm7
vpxor %xmm7, %xmm0, %xmm0
#NO_APP
vpshufb %xmm18, %xmm28, %xmm6
vmovaps -96(%rsp), %xmm7
#APP
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm7, %xmm14, %xmm14
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm11, %xmm11
#NO_APP
vmovaps -80(%rsp), %xmm8
vmovdqa64 %xmm19, %xmm10
#APP
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm8, %xmm14, %xmm14
vaesenc %xmm8, %xmm3, %xmm3
vaesenc %xmm8, %xmm13, %xmm13
vaesenc %xmm8, %xmm1, %xmm1
vaesenc %xmm8, %xmm11, %xmm11
vpclmulqdq $16, %xmm10, %xmm6, %xmm7
vpxor %xmm7, %xmm0, %xmm0
vpclmulqdq $0, %xmm10, %xmm6, %xmm7
vpxor %xmm7, %xmm15, %xmm15
vpclmulqdq $17, %xmm10, %xmm6, %xmm7
vpxor %xmm7, %xmm12, %xmm12
vpclmulqdq $1, %xmm10, %xmm6, %xmm7
vpxor %xmm7, %xmm0, %xmm0
#NO_APP
vpshufb %xmm18, %xmm27, %xmm6
vmovaps (%rsp), %xmm7
#APP
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm7, %xmm14, %xmm14
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm11, %xmm11
#NO_APP
vmovaps -128(%rsp), %xmm8
vmovaps %xmm20, %xmm10
#APP
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm8, %xmm14, %xmm14
vaesenc %xmm8, %xmm3, %xmm3
vaesenc %xmm8, %xmm13, %xmm13
vaesenc %xmm8, %xmm1, %xmm1
vaesenc %xmm8, %xmm11, %xmm11
vpclmulqdq $16, %xmm10, %xmm6, %xmm7
vpxor %xmm7, %xmm0, %xmm0
vpclmulqdq $0, %xmm10, %xmm6, %xmm7
vpxor %xmm7, %xmm15, %xmm15
vpclmulqdq $17, %xmm10, %xmm6, %xmm7
vpxor %xmm7, %xmm12, %xmm12
vpclmulqdq $1, %xmm10, %xmm6, %xmm7
vpxor %xmm7, %xmm0, %xmm0
#NO_APP
vpshufb %xmm18, %xmm26, %xmm6
vmovdqa64 %xmm24, %xmm7
#APP
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm7, %xmm14, %xmm14
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm11, %xmm11
#NO_APP
vmovaps -64(%rsp), %xmm8
vmovaps %xmm21, %xmm10
#APP
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm8, %xmm14, %xmm14
vaesenc %xmm8, %xmm3, %xmm3
vaesenc %xmm8, %xmm13, %xmm13
vaesenc %xmm8, %xmm1, %xmm1
vaesenc %xmm8, %xmm11, %xmm11
vpclmulqdq $16, %xmm10, %xmm6, %xmm7
vpxor %xmm7, %xmm0, %xmm0
vpclmulqdq $0, %xmm10, %xmm6, %xmm7
vpxor %xmm7, %xmm15, %xmm15
vpclmulqdq $17, %xmm10, %xmm6, %xmm7
vpxor %xmm7, %xmm12, %xmm12
vpclmulqdq $1, %xmm10, %xmm6, %xmm7
vpxor %xmm7, %xmm0, %xmm0
#NO_APP
vmovdqu (%r9), %xmm6
vpshufb %xmm18, %xmm6, %xmm7
vpxor %xmm7, %xmm5, %xmm5
vmovdqa64 %xmm25, %xmm7
#APP
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm7, %xmm14, %xmm14
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm11, %xmm11
#NO_APP
vmovdqa64 %xmm23, %xmm10
vmovaps -112(%rsp), %xmm8
#APP
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm8, %xmm14, %xmm14
vaesenc %xmm8, %xmm3, %xmm3
vaesenc %xmm8, %xmm13, %xmm13
vaesenc %xmm8, %xmm1, %xmm1
vaesenc %xmm8, %xmm11, %xmm11
vpclmulqdq $16, %xmm10, %xmm5, %xmm7
vpxor %xmm7, %xmm0, %xmm0
vpclmulqdq $0, %xmm10, %xmm5, %xmm7
vpxor %xmm7, %xmm15, %xmm15
vpclmulqdq $17, %xmm10, %xmm5, %xmm7
vpxor %xmm7, %xmm12, %xmm12
vpclmulqdq $1, %xmm10, %xmm5, %xmm7
vpxor %xmm7, %xmm0, %xmm0
#NO_APP
vpxor %xmm7, %xmm7, %xmm7
vpunpcklqdq %xmm0, %xmm7, %xmm5
vpunpckhqdq %xmm7, %xmm0, %xmm0
vmovdqa64 %xmm22, %xmm7
#APP
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm7, %xmm14, %xmm14
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm11, %xmm11
#NO_APP
#APP
vaesenclast %xmm9, %xmm2, %xmm2
vaesenclast %xmm9, %xmm14, %xmm14
vaesenclast %xmm9, %xmm3, %xmm3
vaesenclast %xmm9, %xmm13, %xmm13
vaesenclast %xmm9, %xmm1, %xmm1
vaesenclast %xmm9, %xmm11, %xmm11
#NO_APP
vpxor %xmm6, %xmm2, %xmm2
vpxorq %xmm26, %xmm14, %xmm6
vpxorq %xmm27, %xmm3, %xmm3
vpxorq %xmm28, %xmm13, %xmm7
vpxorq %xmm29, %xmm1, %xmm1
vpxorq %xmm30, %xmm11, %xmm8
vmovapd %xmm31, %xmm11
vpxor %xmm5, %xmm15, %xmm5
vpshufd $78, %xmm5, %xmm10
vpbroadcastq .LCPI2_14(%rip), %xmm13
vpclmulqdq $16, %xmm13, %xmm5, %xmm5
vpxor %xmm5, %xmm10, %xmm10
vpxor %xmm0, %xmm12, %xmm5
vmovapd %xmm16, %xmm12
vmovdqu %xmm2, (%rax)
vmovdqu %xmm6, 16(%rax)
vmovdqu %xmm3, 32(%rax)
vmovdqu %xmm7, 48(%rax)
vmovdqu %xmm1, 64(%rax)
vmovdqu %xmm8, 80(%rax)
vpshufd $78, %xmm10, %xmm0
vpclmulqdq $16, %xmm13, %xmm10, %xmm1
vpternlogq $150, %xmm1, %xmm0, %xmm5
addq $96, %r9
addq $96, %rax
addq $-96, %rcx
vpaddd .LCPI2_21(%rip), %xmm17, %xmm17
cmpq $95, %rcx
ja .LBB2_30
vmovdqa64 %xmm22, %xmm1
vmovdqa64 %xmm25, %xmm8
vmovdqa64 %xmm24, %xmm14
vmovdqa64 80(%rsp), %xmm20
vmovapd -96(%rsp), %xmm31
vmovdqa64 -80(%rsp), %xmm27
vmovdqa64 -16(%rsp), %xmm22
vmovapd %xmm12, %xmm18
cmpq $16, %rcx
vmovdqa64 (%rsp), %xmm21
jae .LBB2_32
.LBB2_28:
movq %rax, %rsi
jmp .LBB2_34
.LBB2_26:
vmovdqa64 %xmm9, %xmm20
vmovdqa %xmm7, %xmm9
vmovdqa %xmm10, %xmm1
vmovdqa %xmm15, %xmm8
vmovdqa %xmm13, %xmm14
movq %r10, %rcx
vmovapd %xmm12, %xmm18
cmpq $16, %rcx
vmovdqa64 (%rsp), %xmm21
jb .LBB2_28
.LBB2_32:
vmovdqa64 .LCPI2_13(%rip), %xmm19
vpmovsxbq .LCPI2_24(%rip), %xmm16
vmovdqa64 -128(%rsp), %xmm23
vmovdqa64 -64(%rsp), %xmm24
vmovdqa64 -112(%rsp), %xmm25
vpbroadcastq .LCPI2_14(%rip), %xmm26
vmovapd %xmm18, %xmm29
vmovdqa64 -48(%rsp), %xmm28
vmovdqa64 -32(%rsp), %xmm30
vmovdqa64 %xmm20, %xmm15
vmovapd %xmm31, %xmm12
vmovdqa64 %xmm27, %xmm0
vmovdqa64 %xmm21, %xmm13
.p2align 4, 0x90
.LBB2_33:
vmovdqu (%r9), %xmm2
vpshufb %xmm19, %xmm2, %xmm3
vpxor %xmm3, %xmm5, %xmm3
vpclmulqdq $1, %xmm3, %xmm4, %xmm5
vpclmulqdq $16, %xmm3, %xmm4, %xmm6
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm4, %xmm5
vpclmulqdq $17, %xmm3, %xmm4, %xmm3
vpslldq $8, %xmm6, %xmm7
vpxor %xmm7, %xmm5, %xmm5
vpshufd $78, %xmm5, %xmm7
vmovdqa64 %xmm26, %xmm10
vpclmulqdq $16, %xmm10, %xmm5, %xmm5
vpxor %xmm7, %xmm5, %xmm5
vpshufd $78, %xmm5, %xmm7
vpclmulqdq $16, %xmm10, %xmm5, %xmm5
vpxor %xmm3, %xmm5, %xmm5
vpshufb %xmm19, %xmm17, %xmm3
vpxor %xmm3, %xmm11, %xmm3
vmovapd %xmm29, %xmm10
vaesenc %xmm10, %xmm3, %xmm3
vmovdqa64 %xmm28, %xmm10
vaesenc %xmm10, %xmm3, %xmm3
vmovdqa64 %xmm30, %xmm10
vaesenc %xmm10, %xmm3, %xmm3
vaesenc %xmm15, %xmm3, %xmm3
vaesenc %xmm12, %xmm3, %xmm3
vaesenc %xmm0, %xmm3, %xmm3
vaesenc %xmm13, %xmm3, %xmm3
vmovdqa64 %xmm23, %xmm10
vaesenc %xmm10, %xmm3, %xmm3
vaesenc %xmm14, %xmm3, %xmm3
vmovdqa64 %xmm24, %xmm10
vaesenc %xmm10, %xmm3, %xmm3
vaesenc %xmm8, %xmm3, %xmm3
vmovdqa64 %xmm25, %xmm10
vaesenc %xmm10, %xmm3, %xmm3
vaesenc %xmm1, %xmm3, %xmm3
vaesenclast %xmm9, %xmm3, %xmm3
vpxor %xmm2, %xmm3, %xmm2
leaq 16(%rax), %rsi
addq $-16, %rcx
addq $16, %r9
vpsrldq $8, %xmm6, %xmm3
vpternlogq $150, %xmm3, %xmm7, %xmm5
vpaddd %xmm16, %xmm17, %xmm17
vmovdqu %xmm2, (%rax)
movq %rsi, %rax
cmpq $15, %rcx
ja .LBB2_33
.LBB2_34:
vmovdqa %xmm1, %xmm10
testq %rcx, %rcx
je .LBB2_39
movl $-1, %eax
bzhil %ecx, %eax, %eax
kmovd %eax, %k1
vmovdqu8 (%r9), %xmm1 {%k1} {z}
vpshufb .LCPI2_13(%rip), %xmm17, %xmm0
vpxor %xmm0, %xmm11, %xmm0
vmovapd %xmm18, %xmm12
vaesenc %xmm12, %xmm0, %xmm0
vaesenc -48(%rsp), %xmm0, %xmm0
vaesenc -32(%rsp), %xmm0, %xmm0
vmovdqa64 %xmm20, %xmm2
vaesenc %xmm2, %xmm0, %xmm0
vmovapd %xmm31, %xmm2
vaesenc %xmm2, %xmm0, %xmm0
vmovdqa64 %xmm27, %xmm2
vaesenc %xmm2, %xmm0, %xmm0
vmovdqa64 %xmm21, %xmm2
vaesenc %xmm2, %xmm0, %xmm0
vmovdqa -128(%rsp), %xmm2
vmovdqa64 %xmm2, %xmm16
vaesenc %xmm2, %xmm0, %xmm0
vmovdqa %xmm14, %xmm13
vaesenc %xmm14, %xmm0, %xmm0
vmovdqa -64(%rsp), %xmm14
vaesenc %xmm14, %xmm0, %xmm0
vmovdqa %xmm8, %xmm15
vaesenc %xmm8, %xmm0, %xmm0
vmovdqa -112(%rsp), %xmm8
vaesenc %xmm8, %xmm0, %xmm0
vaesenc %xmm10, %xmm0, %xmm0
vmovdqa %xmm9, %xmm7
vaesenclast %xmm9, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm2
vmovdqu8 %xmm2, (%rsi) {%k1}
vmovdqu (%rdx), %xmm0
testq %r10, %r10
vpbroadcastq .LCPI2_14(%rip), %xmm9
je .LBB2_36
vpshufb .LCPI2_13(%rip), %xmm1, %xmm1
jmp .LBB2_41
.LBB2_39:
vmovdqu (%rdx), %xmm0
vmovdqa64 -128(%rsp), %xmm16
vmovdqa %xmm14, %xmm13
vmovdqa -64(%rsp), %xmm14
vmovdqa %xmm8, %xmm15
vmovdqa -112(%rsp), %xmm8
vmovdqa %xmm9, %xmm7
vpbroadcastq .LCPI2_14(%rip), %xmm9
vmovapd %xmm18, %xmm12
jmp .LBB2_42
.LBB2_45:
vpshufb .LCPI2_13(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm5, %xmm0
vpclmulqdq $0, %xmm0, %xmm4, %xmm1
vpclmulqdq $1, %xmm0, %xmm4, %xmm2
vpclmulqdq $16, %xmm0, %xmm4, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $17, %xmm0, %xmm4, %xmm0
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpsrldq $8, %xmm2, %xmm2
vpbroadcastq .LCPI2_14(%rip), %xmm5
vpclmulqdq $16, %xmm5, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm5, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm0, %xmm3, %xmm5
vpternlogq $150, %xmm2, %xmm1, %xmm5
.LBB2_38:
vmovdqa64 %xmm6, %xmm16
vmovdqa64 %xmm9, %xmm20
vmovdqu (%rdx), %xmm0
vmovdqa (%rsp), %xmm6
vpbroadcastq .LCPI2_14(%rip), %xmm9
jmp .LBB2_43
.LBB2_36:
vpshufb .LCPI2_13(%rip), %xmm2, %xmm1
.LBB2_41:
vpxor %xmm1, %xmm5, %xmm1
vpclmulqdq $0, %xmm1, %xmm4, %xmm2
vpclmulqdq $1, %xmm1, %xmm4, %xmm3
vpclmulqdq $16, %xmm1, %xmm4, %xmm5
vpxor %xmm3, %xmm5, %xmm3
vpclmulqdq $17, %xmm1, %xmm4, %xmm1
vpslldq $8, %xmm3, %xmm5
vpxor %xmm5, %xmm2, %xmm2
vpsrldq $8, %xmm3, %xmm3
vpclmulqdq $16, %xmm9, %xmm2, %xmm5
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm5, %xmm2
vpclmulqdq $16, %xmm9, %xmm2, %xmm5
vpshufd $78, %xmm2, %xmm2
vpxor %xmm1, %xmm5, %xmm5
vpternlogq $150, %xmm3, %xmm2, %xmm5
.LBB2_42:
vmovdqa64 %xmm21, %xmm6
.LBB2_43:
shlq $3, %r10
vmovq %r8, %xmm1
vmovq %r10, %xmm2
vpunpcklqdq %xmm1, %xmm2, %xmm1
vpxor %xmm5, %xmm1, %xmm1
vpclmulqdq $1, %xmm1, %xmm4, %xmm2
vpclmulqdq $16, %xmm1, %xmm4, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $0, %xmm1, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm4, %xmm1
vpslldq $8, %xmm2, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpshufd $78, %xmm3, %xmm4
vpclmulqdq $16, %xmm9, %xmm3, %xmm3
vpxor %xmm4, %xmm3, %xmm3
vpclmulqdq $16, %xmm9, %xmm3, %xmm4
vpxor %xmm1, %xmm4, %xmm1
vpxorq %xmm22, %xmm11, %xmm4
vaesenc %xmm12, %xmm4, %xmm4
vaesenc -48(%rsp), %xmm4, %xmm4
vaesenc -32(%rsp), %xmm4, %xmm4
vmovdqa64 %xmm20, %xmm5
vaesenc %xmm5, %xmm4, %xmm4
vmovapd %xmm31, %xmm5
vaesenc %xmm5, %xmm4, %xmm4
vmovdqa64 %xmm27, %xmm5
vaesenc %xmm5, %xmm4, %xmm4
vaesenc %xmm6, %xmm4, %xmm4
vmovdqa64 %xmm16, %xmm5
vaesenc %xmm5, %xmm4, %xmm4
vaesenc %xmm13, %xmm4, %xmm4
vaesenc %xmm14, %xmm4, %xmm4
vaesenc %xmm15, %xmm4, %xmm4
vaesenc %xmm8, %xmm4, %xmm4
vaesenc %xmm10, %xmm4, %xmm4
vaesenclast %xmm7, %xmm4, %xmm4
vpshufb .LCPI2_22(%rip), %xmm3, %xmm3
vpshufb .LCPI2_13(%rip), %xmm1, %xmm1
vpshufb .LCPI2_23(%rip), %xmm2, %xmm2
vpternlogq $150, %xmm1, %xmm3, %xmm2
vpternlogq $150, %xmm4, %xmm0, %xmm2
xorl %eax, %eax
vptest %xmm2, %xmm2
sete %al
.LBB2_44:
addq $120, %rsp
.cfi_def_cfa_offset 24
popq %rbx
.cfi_def_cfa_offset 16
popq %rbp
.cfi_def_cfa_offset 8
retq
.Lfunc_end2:
.size haberdashery_aes256gcmdndkv2_skylakex_decrypt, .Lfunc_end2-haberdashery_aes256gcmdndkv2_skylakex_decrypt
.cfi_endproc
.section .text.haberdashery_aes256gcmdndkv2_skylakex_is_supported,"ax",@progbits
.globl haberdashery_aes256gcmdndkv2_skylakex_is_supported
.p2align 4, 0x90
.type haberdashery_aes256gcmdndkv2_skylakex_is_supported,@function
haberdashery_aes256gcmdndkv2_skylakex_is_supported:
.cfi_startproc
movl $1, %eax
xorl %ecx, %ecx
#APP
movq %rbx, %rsi
cpuid
xchgq %rbx, %rsi
#NO_APP
movl %ecx, %esi
movl %edx, %edi
notl %edi
notl %esi
movl $7, %eax
xorl %ecx, %ecx
#APP
movq %rbx, %r8
cpuid
xchgq %rbx, %r8
#NO_APP
andl $1993871875, %esi
andl $125829120, %edi
orl %esi, %edi
notl %r8d
andl $-779157207, %r8d
xorl %eax, %eax
orl %edi, %r8d
sete %al
retq
.Lfunc_end3:
.size haberdashery_aes256gcmdndkv2_skylakex_is_supported, .Lfunc_end3-haberdashery_aes256gcmdndkv2_skylakex_is_supported
.cfi_endproc
.ident "rustc version 1.86.0-nightly (9cd60bd2c 2025-02-15)"
.section ".note.GNU-stack","",@progbits
|
ts-phantomnk90/haberdashery
| 75,622
|
asm/aes256gcmsiv_skylakex.s
|
# @generated
# https://github.com/facebookincubator/haberdashery/
.text
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI0_0:
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI0_1:
.quad 4294967297
.LCPI0_2:
.quad 8589934594
.LCPI0_3:
.quad 17179869188
.LCPI0_4:
.quad 34359738376
.LCPI0_5:
.quad 68719476752
.LCPI0_6:
.quad 137438953504
.LCPI0_7:
.quad 274877907008
.section .rodata.cst4,"aM",@progbits,4
.p2align 2, 0x0
.LCPI0_8:
.byte 13
.byte 14
.byte 15
.byte 12
.section .text.haberdashery_aes256gcmsiv_skylakex_init,"ax",@progbits
.globl haberdashery_aes256gcmsiv_skylakex_init
.p2align 4, 0x90
.type haberdashery_aes256gcmsiv_skylakex_init,@function
haberdashery_aes256gcmsiv_skylakex_init:
.cfi_startproc
cmpq $32, %rdx
jne .LBB0_2
vmovupd (%rsi), %xmm0
vmovdqu 16(%rsi), %xmm1
vpslldq $4, %xmm0, %xmm2
vpslldq $8, %xmm0, %xmm3
vpslldq $12, %xmm0, %xmm4
vpternlogq $150, %xmm3, %xmm2, %xmm4
vpbroadcastd .LCPI0_8(%rip), %xmm3
vpshufb %xmm3, %xmm1, %xmm2
vpbroadcastq .LCPI0_1(%rip), %xmm5
vaesenclast %xmm5, %xmm2, %xmm2
vpternlogq $150, %xmm4, %xmm0, %xmm2
vpslldq $4, %xmm1, %xmm4
vpslldq $8, %xmm1, %xmm5
vpslldq $12, %xmm1, %xmm7
vpternlogq $150, %xmm5, %xmm4, %xmm7
vpshufd $255, %xmm2, %xmm4
vpxor %xmm6, %xmm6, %xmm6
vaesenclast %xmm6, %xmm4, %xmm4
vpternlogq $150, %xmm7, %xmm1, %xmm4
vpslldq $4, %xmm2, %xmm5
vpslldq $8, %xmm2, %xmm7
vpslldq $12, %xmm2, %xmm8
vpternlogq $150, %xmm7, %xmm5, %xmm8
vpshufb %xmm3, %xmm4, %xmm5
vpbroadcastq .LCPI0_2(%rip), %xmm7
vaesenclast %xmm7, %xmm5, %xmm5
vpternlogq $150, %xmm8, %xmm2, %xmm5
vpslldq $4, %xmm4, %xmm7
vpslldq $8, %xmm4, %xmm8
vpslldq $12, %xmm4, %xmm9
vpternlogq $150, %xmm8, %xmm7, %xmm9
vpshufd $255, %xmm5, %xmm7
vaesenclast %xmm6, %xmm7, %xmm7
vpternlogq $150, %xmm9, %xmm4, %xmm7
vpslldq $4, %xmm5, %xmm8
vpslldq $8, %xmm5, %xmm9
vpslldq $12, %xmm5, %xmm10
vpternlogq $150, %xmm9, %xmm8, %xmm10
vpshufb %xmm3, %xmm7, %xmm8
vpbroadcastq .LCPI0_3(%rip), %xmm9
vaesenclast %xmm9, %xmm8, %xmm8
vpternlogq $150, %xmm10, %xmm5, %xmm8
vpslldq $4, %xmm7, %xmm9
vpslldq $8, %xmm7, %xmm10
vpslldq $12, %xmm7, %xmm11
vpternlogq $150, %xmm10, %xmm9, %xmm11
vpshufd $255, %xmm8, %xmm9
vaesenclast %xmm6, %xmm9, %xmm9
vpternlogq $150, %xmm11, %xmm7, %xmm9
vpslldq $4, %xmm8, %xmm10
vpslldq $8, %xmm8, %xmm11
vpslldq $12, %xmm8, %xmm12
vpternlogq $150, %xmm11, %xmm10, %xmm12
vpshufb %xmm3, %xmm9, %xmm10
vpbroadcastq .LCPI0_4(%rip), %xmm11
vaesenclast %xmm11, %xmm10, %xmm10
vpternlogq $150, %xmm12, %xmm8, %xmm10
vpslldq $4, %xmm9, %xmm11
vpslldq $8, %xmm9, %xmm12
vpslldq $12, %xmm9, %xmm13
vpternlogq $150, %xmm12, %xmm11, %xmm13
vpshufd $255, %xmm10, %xmm11
vaesenclast %xmm6, %xmm11, %xmm11
vpternlogq $150, %xmm13, %xmm9, %xmm11
vpslldq $4, %xmm10, %xmm12
vpslldq $8, %xmm10, %xmm13
vpslldq $12, %xmm10, %xmm14
vpternlogq $150, %xmm13, %xmm12, %xmm14
vpshufb %xmm3, %xmm11, %xmm12
vpbroadcastq .LCPI0_5(%rip), %xmm13
vaesenclast %xmm13, %xmm12, %xmm12
vpternlogq $150, %xmm14, %xmm10, %xmm12
vpslldq $4, %xmm11, %xmm13
vpslldq $8, %xmm11, %xmm14
vpslldq $12, %xmm11, %xmm15
vpternlogq $150, %xmm14, %xmm13, %xmm15
vpshufd $255, %xmm12, %xmm13
vaesenclast %xmm6, %xmm13, %xmm13
vpternlogq $150, %xmm15, %xmm11, %xmm13
vpslldq $4, %xmm12, %xmm14
vpslldq $8, %xmm12, %xmm15
vpslldq $12, %xmm12, %xmm16
vpternlogq $150, %xmm15, %xmm14, %xmm16
vpshufb %xmm3, %xmm13, %xmm14
vpbroadcastq .LCPI0_6(%rip), %xmm15
vaesenclast %xmm15, %xmm14, %xmm14
vpternlogq $150, %xmm16, %xmm12, %xmm14
vpslldq $4, %xmm13, %xmm15
vpslldq $8, %xmm13, %xmm16
vpslldq $12, %xmm13, %xmm17
vpternlogq $150, %xmm16, %xmm15, %xmm17
vpshufd $255, %xmm14, %xmm15
vaesenclast %xmm6, %xmm15, %xmm6
vpternlogq $150, %xmm17, %xmm13, %xmm6
vpslldq $4, %xmm14, %xmm15
vpslldq $8, %xmm14, %xmm16
vpslldq $12, %xmm14, %xmm17
vpternlogq $150, %xmm16, %xmm15, %xmm17
vpshufb %xmm3, %xmm6, %xmm3
vpbroadcastq .LCPI0_7(%rip), %xmm15
vaesenclast %xmm15, %xmm3, %xmm3
vpternlogq $150, %xmm17, %xmm14, %xmm3
vmovdqa %xmm0, (%rdi)
vmovdqa %xmm1, 16(%rdi)
vmovdqa %xmm2, 32(%rdi)
vmovdqa %xmm4, 48(%rdi)
vmovdqa %xmm5, 64(%rdi)
vmovdqa %xmm7, 80(%rdi)
vmovdqa %xmm8, 96(%rdi)
vmovdqa %xmm9, 112(%rdi)
vmovdqa %xmm10, 128(%rdi)
vmovdqa %xmm11, 144(%rdi)
vmovdqa %xmm12, 160(%rdi)
vmovdqa %xmm13, 176(%rdi)
vmovdqa %xmm14, 192(%rdi)
vmovdqa %xmm6, 208(%rdi)
vmovdqa %xmm3, 224(%rdi)
.LBB0_2:
xorl %eax, %eax
cmpq $32, %rdx
sete %al
retq
.Lfunc_end0:
.size haberdashery_aes256gcmsiv_skylakex_init, .Lfunc_end0-haberdashery_aes256gcmsiv_skylakex_init
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI1_0:
.long 1
.long 0
.long 0
.long 0
.LCPI1_1:
.long 2
.long 0
.long 0
.long 0
.LCPI1_2:
.long 3
.long 0
.long 0
.long 0
.LCPI1_3:
.quad 4
.quad 0
.LCPI1_4:
.long 5
.long 0
.long 0
.long 0
.LCPI1_5:
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.LCPI1_14:
.quad -1
.quad 9223372036854775807
.LCPI1_15:
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 128
.LCPI1_16:
.long 6
.long 0
.long 0
.long 0
.LCPI1_17:
.long 7
.long 0
.long 0
.long 0
.LCPI1_18:
.long 8
.long 0
.long 0
.long 0
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI1_6:
.quad 4294967297
.LCPI1_7:
.quad 8589934594
.LCPI1_8:
.quad 17179869188
.LCPI1_9:
.quad 34359738376
.LCPI1_10:
.quad 68719476752
.LCPI1_11:
.quad 137438953504
.LCPI1_12:
.quad 274877907008
.LCPI1_13:
.quad -4467570830351532032
.section .rodata.cst4,"aM",@progbits,4
.p2align 2, 0x0
.LCPI1_19:
.byte 13
.byte 14
.byte 15
.byte 12
.section .rodata,"a",@progbits
.LCPI1_20:
.byte 2
.byte 0
.LCPI1_21:
.byte 3
.byte 0
.LCPI1_22:
.byte 4
.byte 0
.LCPI1_23:
.byte 5
.byte 0
.LCPI1_24:
.byte 6
.byte 0
.LCPI1_25:
.byte 7
.byte 0
.LCPI1_26:
.byte 8
.byte 0
.section .text.haberdashery_aes256gcmsiv_skylakex_encrypt,"ax",@progbits
.globl haberdashery_aes256gcmsiv_skylakex_encrypt
.p2align 4, 0x90
.type haberdashery_aes256gcmsiv_skylakex_encrypt,@function
haberdashery_aes256gcmsiv_skylakex_encrypt:
.cfi_startproc
pushq %rbx
.cfi_def_cfa_offset 16
subq $48, %rsp
.cfi_def_cfa_offset 64
.cfi_offset %rbx, -16
movq 64(%rsp), %r10
xorl %eax, %eax
cmpq 80(%rsp), %r10
jne .LBB1_46
movabsq $68719476737, %rax
cmpq %rax, %r8
setb %r11b
cmpq %rax, %r10
setb %bl
andb %r11b, %bl
cmpq $16, 96(%rsp)
sete %r11b
cmpq $12, %rdx
sete %al
andb %r11b, %al
andb %bl, %al
cmpb $1, %al
jne .LBB1_45
vmovsd 4(%rsi), %xmm0
vmovss (%rsi), %xmm1
vshufps $65, %xmm0, %xmm1, %xmm0
vxorps (%rdi), %xmm0, %xmm0
vxorps .LCPI1_0(%rip), %xmm0, %xmm3
vxorps .LCPI1_1(%rip), %xmm0, %xmm2
vxorps .LCPI1_2(%rip), %xmm0, %xmm4
vxorps .LCPI1_3(%rip), %xmm0, %xmm1
vxorps .LCPI1_4(%rip), %xmm0, %xmm5
vmovaps 16(%rdi), %xmm7
vmovaps 32(%rdi), %xmm8
vmovaps 48(%rdi), %xmm9
vmovaps 64(%rdi), %xmm6
#APP
vaesenc %xmm7, %xmm0, %xmm0
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm7, %xmm4, %xmm4
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm5, %xmm5
#NO_APP
#APP
vaesenc %xmm8, %xmm0, %xmm0
vaesenc %xmm8, %xmm3, %xmm3
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm8, %xmm4, %xmm4
vaesenc %xmm8, %xmm1, %xmm1
vaesenc %xmm8, %xmm5, %xmm5
#NO_APP
#APP
vaesenc %xmm9, %xmm0, %xmm0
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm9, %xmm4, %xmm4
vaesenc %xmm9, %xmm1, %xmm1
vaesenc %xmm9, %xmm5, %xmm5
#NO_APP
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 80(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 96(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 112(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 128(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 144(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 160(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 176(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 192(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 208(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 224(%rdi), %xmm6
#APP
vaesenclast %xmm6, %xmm0, %xmm0
vaesenclast %xmm6, %xmm3, %xmm3
vaesenclast %xmm6, %xmm2, %xmm2
vaesenclast %xmm6, %xmm4, %xmm4
vaesenclast %xmm6, %xmm1, %xmm1
vaesenclast %xmm6, %xmm5, %xmm5
#NO_APP
vpunpcklqdq %xmm3, %xmm0, %xmm14
vunpcklpd %xmm4, %xmm2, %xmm24
vunpcklpd %xmm5, %xmm1, %xmm0
vpslldq $4, %xmm24, %xmm3
vxorpd %xmm5, %xmm5, %xmm5
vunpcklpd %xmm2, %xmm5, %xmm4
vinsertps $55, %xmm2, %xmm0, %xmm2
vpternlogq $150, %xmm4, %xmm3, %xmm2
vpbroadcastd .LCPI1_19(%rip), %xmm16
vpshufb %xmm16, %xmm0, %xmm3
vpbroadcastq .LCPI1_6(%rip), %xmm4
vaesenclast %xmm4, %xmm3, %xmm4
vpternlogq $150, %xmm2, %xmm24, %xmm4
vpslldq $4, %xmm0, %xmm2
vunpcklpd %xmm1, %xmm5, %xmm3
vinsertps $55, %xmm1, %xmm0, %xmm1
vpternlogq $150, %xmm3, %xmm2, %xmm1
vpshufd $255, %xmm4, %xmm2
vaesenclast %xmm5, %xmm2, %xmm15
vmovaps %xmm0, -96(%rsp)
vpternlogq $150, %xmm1, %xmm0, %xmm15
vpslldq $4, %xmm4, %xmm1
vpslldq $8, %xmm4, %xmm2
vpslldq $12, %xmm4, %xmm3
vpternlogq $150, %xmm2, %xmm1, %xmm3
vpshufb %xmm16, %xmm15, %xmm1
vpbroadcastq .LCPI1_7(%rip), %xmm2
vaesenclast %xmm2, %xmm1, %xmm0
vmovaps %xmm4, -80(%rsp)
vpternlogq $150, %xmm3, %xmm4, %xmm0
vpslldq $4, %xmm15, %xmm1
vpslldq $8, %xmm15, %xmm2
vpslldq $12, %xmm15, %xmm6
vpternlogq $150, %xmm2, %xmm1, %xmm6
vpclmulqdq $0, %xmm14, %xmm14, %xmm1
vpbroadcastq .LCPI1_13(%rip), %xmm12
vpclmulqdq $16, %xmm12, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpclmulqdq $16, %xmm12, %xmm1, %xmm2
vpclmulqdq $17, %xmm14, %xmm14, %xmm3
vpshufd $78, %xmm1, %xmm1
vpternlogq $150, %xmm2, %xmm3, %xmm1
vpclmulqdq $0, %xmm1, %xmm1, %xmm2
vpclmulqdq $16, %xmm12, %xmm2, %xmm3
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $16, %xmm12, %xmm2, %xmm3
vpclmulqdq $17, %xmm1, %xmm1, %xmm4
vpshufd $78, %xmm2, %xmm2
vpternlogq $150, %xmm3, %xmm4, %xmm2
vpclmulqdq $0, %xmm2, %xmm2, %xmm3
vpclmulqdq $16, %xmm12, %xmm3, %xmm4
vpshufd $78, %xmm3, %xmm3
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $16, %xmm12, %xmm3, %xmm4
vpclmulqdq $17, %xmm2, %xmm2, %xmm5
vpshufd $78, %xmm3, %xmm7
vmovdqa %xmm1, %xmm3
vpternlogq $150, %xmm4, %xmm5, %xmm7
vmovdqa %xmm7, -128(%rsp)
vpclmulqdq $0, %xmm14, %xmm1, %xmm4
vpclmulqdq $16, %xmm14, %xmm1, %xmm5
vpclmulqdq $1, %xmm14, %xmm1, %xmm7
vpxor %xmm5, %xmm7, %xmm5
vpslldq $8, %xmm5, %xmm7
vpxor %xmm7, %xmm4, %xmm4
vpclmulqdq $16, %xmm12, %xmm4, %xmm7
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm7, %xmm4
vpclmulqdq $16, %xmm12, %xmm4, %xmm7
vpclmulqdq $17, %xmm14, %xmm1, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpsrldq $8, %xmm5, %xmm5
vpshufd $78, %xmm4, %xmm1
vmovdqa %xmm2, %xmm4
vpternlogq $150, %xmm5, %xmm7, %xmm1
vpclmulqdq $0, %xmm1, %xmm1, %xmm5
vpclmulqdq $16, %xmm12, %xmm5, %xmm7
vpshufd $78, %xmm5, %xmm5
vpxor %xmm5, %xmm7, %xmm5
vpclmulqdq $16, %xmm12, %xmm5, %xmm7
vmovdqa %xmm1, -112(%rsp)
vpclmulqdq $17, %xmm1, %xmm1, %xmm8
vpshufd $78, %xmm5, %xmm5
vpternlogq $150, %xmm7, %xmm8, %xmm5
vpclmulqdq $0, %xmm14, %xmm5, %xmm8
vpclmulqdq $16, %xmm14, %xmm5, %xmm7
vpclmulqdq $1, %xmm14, %xmm5, %xmm9
vpxor %xmm7, %xmm9, %xmm7
vpslldq $8, %xmm7, %xmm9
vpxor %xmm9, %xmm8, %xmm8
vpclmulqdq $16, %xmm12, %xmm8, %xmm9
vpshufd $78, %xmm8, %xmm8
vpxor %xmm8, %xmm9, %xmm8
vpclmulqdq $16, %xmm12, %xmm8, %xmm9
vpclmulqdq $17, %xmm14, %xmm5, %xmm10
vpxorq %xmm9, %xmm10, %xmm27
vpclmulqdq $0, %xmm14, %xmm2, %xmm10
vpclmulqdq $16, %xmm14, %xmm2, %xmm9
vpclmulqdq $1, %xmm14, %xmm2, %xmm11
vpxor %xmm9, %xmm11, %xmm9
vpslldq $8, %xmm9, %xmm11
vpxor %xmm11, %xmm10, %xmm10
vpclmulqdq $16, %xmm12, %xmm10, %xmm11
vpshufd $78, %xmm10, %xmm10
vpxor %xmm10, %xmm11, %xmm10
vpclmulqdq $16, %xmm12, %xmm10, %xmm11
vpclmulqdq $17, %xmm14, %xmm2, %xmm12
vpxorq %xmm11, %xmm12, %xmm20
vpshufd $255, %xmm0, %xmm11
vpxor %xmm13, %xmm13, %xmm13
vaesenclast %xmm13, %xmm11, %xmm1
vmovdqa64 %xmm15, %xmm23
vpternlogq $150, %xmm6, %xmm15, %xmm1
vpbroadcastq .LCPI1_8(%rip), %xmm6
vpshufb %xmm16, %xmm1, %xmm11
vaesenclast %xmm6, %xmm11, %xmm2
vpslldq $4, %xmm0, %xmm6
vpslldq $8, %xmm0, %xmm11
vpslldq $12, %xmm0, %xmm12
vpternlogq $150, %xmm11, %xmm6, %xmm12
vmovapd %xmm0, %xmm25
vpternlogq $150, %xmm12, %xmm0, %xmm2
vpslldq $4, %xmm1, %xmm6
vpslldq $8, %xmm1, %xmm11
vpslldq $12, %xmm1, %xmm12
vpternlogq $150, %xmm11, %xmm6, %xmm12
vpshufd $255, %xmm2, %xmm6
vaesenclast %xmm13, %xmm6, %xmm0
vmovaps %xmm1, 32(%rsp)
vpternlogq $150, %xmm12, %xmm1, %xmm0
vpshufb %xmm16, %xmm0, %xmm6
vpbroadcastq .LCPI1_9(%rip), %xmm11
vaesenclast %xmm11, %xmm6, %xmm1
vpslldq $4, %xmm2, %xmm6
vpslldq $8, %xmm2, %xmm11
vpslldq $12, %xmm2, %xmm12
vpternlogq $150, %xmm11, %xmm6, %xmm12
vmovaps %xmm2, 16(%rsp)
vpternlogq $150, %xmm12, %xmm2, %xmm1
vpslldq $4, %xmm0, %xmm6
vpslldq $8, %xmm0, %xmm11
vpslldq $12, %xmm0, %xmm12
vpternlogq $150, %xmm11, %xmm6, %xmm12
vpshufd $255, %xmm1, %xmm6
vaesenclast %xmm13, %xmm6, %xmm2
vmovaps %xmm0, (%rsp)
vpternlogq $150, %xmm12, %xmm0, %xmm2
vpshufb %xmm16, %xmm2, %xmm6
vpbroadcastq .LCPI1_10(%rip), %xmm11
vaesenclast %xmm11, %xmm6, %xmm0
vpslldq $4, %xmm1, %xmm6
vpslldq $8, %xmm1, %xmm11
vpslldq $12, %xmm1, %xmm12
vpternlogq $150, %xmm11, %xmm6, %xmm12
vmovaps %xmm1, -16(%rsp)
vpternlogq $150, %xmm12, %xmm1, %xmm0
vpslldq $4, %xmm2, %xmm6
vpslldq $8, %xmm2, %xmm11
vpslldq $12, %xmm2, %xmm12
vpternlogq $150, %xmm11, %xmm6, %xmm12
vpshufd $255, %xmm0, %xmm6
vaesenclast %xmm13, %xmm6, %xmm1
vmovaps %xmm2, -32(%rsp)
vpternlogq $150, %xmm12, %xmm2, %xmm1
vpbroadcastq .LCPI1_11(%rip), %xmm6
vpshufb %xmm16, %xmm1, %xmm12
vaesenclast %xmm6, %xmm12, %xmm2
vpslldq $4, %xmm0, %xmm6
vpslldq $8, %xmm0, %xmm17
vpslldq $12, %xmm0, %xmm18
vpternlogq $150, %xmm17, %xmm6, %xmm18
vmovaps %xmm0, -48(%rsp)
vpternlogq $150, %xmm18, %xmm0, %xmm2
vpslldq $4, %xmm1, %xmm18
vpslldq $8, %xmm1, %xmm19
vmovaps %xmm1, -64(%rsp)
vpslldq $12, %xmm1, %xmm17
vpsrldq $8, %xmm7, %xmm7
vpshufd $78, %xmm8, %xmm21
vpternlogq $150, %xmm7, %xmm27, %xmm21
vpsrldq $8, %xmm9, %xmm7
vpshufd $78, %xmm10, %xmm6
vpternlogq $150, %xmm7, %xmm20, %xmm6
vmovdqa64 %xmm2, %xmm27
vpshufd $255, %xmm2, %xmm1
cmpq $128, %r8
jb .LBB1_6
vmovdqa64 %xmm1, %xmm20
vpxor %xmm7, %xmm7, %xmm7
movq %r8, %rdx
vpbroadcastq .LCPI1_13(%rip), %xmm29
vmovdqa64 %xmm14, %xmm22
vmovdqa64 %xmm5, %xmm26
vmovdqa %xmm4, %xmm5
vmovdqa %xmm3, %xmm4
vmovdqa64 %xmm6, %xmm28
vmovdqa -128(%rsp), %xmm6
vmovdqa -112(%rsp), %xmm8
.p2align 4, 0x90
.LBB1_4:
vmovdqu 16(%rcx), %xmm13
vmovdqu 32(%rcx), %xmm9
vmovdqu 80(%rcx), %xmm10
vmovdqu 96(%rcx), %xmm11
vmovdqu 112(%rcx), %xmm12
vmovdqa64 %xmm22, %xmm14
vpclmulqdq $0, %xmm12, %xmm14, %xmm15
vpclmulqdq $1, %xmm12, %xmm14, %xmm0
vpclmulqdq $16, %xmm12, %xmm14, %xmm3
vpxor %xmm0, %xmm3, %xmm0
vpclmulqdq $0, %xmm11, %xmm4, %xmm3
vpclmulqdq $1, %xmm11, %xmm4, %xmm1
vpclmulqdq $16, %xmm11, %xmm4, %xmm2
vpternlogq $150, %xmm1, %xmm0, %xmm2
vpclmulqdq $0, %xmm10, %xmm8, %xmm0
vpternlogq $150, %xmm15, %xmm3, %xmm0
vmovdqa64 %xmm21, %xmm15
vpclmulqdq $1, %xmm10, %xmm8, %xmm1
vpclmulqdq $16, %xmm10, %xmm8, %xmm3
vpternlogq $150, %xmm1, %xmm2, %xmm3
vmovdqu 48(%rcx), %xmm1
vmovdqu 64(%rcx), %xmm2
vpclmulqdq $17, %xmm12, %xmm14, %xmm12
vpclmulqdq $17, %xmm11, %xmm4, %xmm11
vpclmulqdq $17, %xmm10, %xmm8, %xmm10
vpternlogq $150, %xmm12, %xmm11, %xmm10
vpclmulqdq $1, %xmm2, %xmm5, %xmm11
vpclmulqdq $16, %xmm2, %xmm5, %xmm12
vpternlogq $150, %xmm11, %xmm3, %xmm12
vpclmulqdq $0, %xmm2, %xmm5, %xmm3
vmovdqa64 %xmm28, %xmm14
vpclmulqdq $0, %xmm1, %xmm14, %xmm11
vpternlogq $150, %xmm3, %xmm0, %xmm11
vpclmulqdq $1, %xmm1, %xmm14, %xmm0
vpclmulqdq $16, %xmm1, %xmm14, %xmm3
vpternlogq $150, %xmm0, %xmm12, %xmm3
vpclmulqdq $17, %xmm2, %xmm5, %xmm0
vpclmulqdq $17, %xmm1, %xmm14, %xmm1
vpternlogq $150, %xmm0, %xmm10, %xmm1
vmovdqa64 %xmm26, %xmm12
vpclmulqdq $1, %xmm9, %xmm12, %xmm0
vpclmulqdq $16, %xmm9, %xmm12, %xmm2
vpternlogq $150, %xmm0, %xmm3, %xmm2
vpclmulqdq $0, %xmm9, %xmm12, %xmm0
vpclmulqdq $0, %xmm13, %xmm15, %xmm3
vpternlogq $150, %xmm0, %xmm11, %xmm3
vpclmulqdq $1, %xmm13, %xmm15, %xmm0
vpclmulqdq $16, %xmm13, %xmm15, %xmm10
vpternlogq $150, %xmm0, %xmm2, %xmm10
vpxor (%rcx), %xmm7, %xmm0
vpclmulqdq $17, %xmm9, %xmm12, %xmm2
vpclmulqdq $17, %xmm13, %xmm15, %xmm9
vpternlogq $150, %xmm2, %xmm1, %xmm9
vpclmulqdq $1, %xmm0, %xmm6, %xmm1
vpclmulqdq $16, %xmm0, %xmm6, %xmm2
vpternlogq $150, %xmm1, %xmm10, %xmm2
vpclmulqdq $0, %xmm0, %xmm6, %xmm1
vpslldq $8, %xmm2, %xmm7
vpternlogq $150, %xmm1, %xmm3, %xmm7
vpclmulqdq $17, %xmm0, %xmm6, %xmm0
vmovdqa64 %xmm29, %xmm10
vpclmulqdq $16, %xmm10, %xmm7, %xmm1
vpshufd $78, %xmm7, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpclmulqdq $16, %xmm10, %xmm1, %xmm7
vpternlogq $150, %xmm0, %xmm9, %xmm7
vpsrldq $8, %xmm2, %xmm0
vpshufd $78, %xmm1, %xmm1
addq $128, %rcx
addq $-128, %rdx
vpternlogq $150, %xmm0, %xmm1, %xmm7
cmpq $127, %rdx
ja .LBB1_4
vmovdqa64 %xmm29, %xmm10
vmovdqa %xmm4, %xmm3
vmovdqa %xmm5, %xmm4
vmovdqa64 %xmm26, %xmm5
vmovdqa64 %xmm22, %xmm14
vmovdqa64 %xmm28, %xmm6
vmovdqa64 %xmm20, %xmm1
jmp .LBB1_7
.LBB1_6:
vpxor %xmm7, %xmm7, %xmm7
movq %r8, %rdx
vpbroadcastq .LCPI1_13(%rip), %xmm10
.LBB1_7:
vpternlogq $150, %xmm19, %xmm18, %xmm17
vpxor %xmm0, %xmm0, %xmm0
vaesenclast %xmm0, %xmm1, %xmm11
vmovdqa64 %xmm11, %xmm28
cmpq $16, %rdx
vmovdqa -96(%rsp), %xmm15
vmovdqa -80(%rsp), %xmm12
vmovdqa64 %xmm23, %xmm13
vmovapd %xmm25, %xmm1
vmovdqa -64(%rsp), %xmm9
vmovdqa64 %xmm3, %xmm29
jb .LBB1_16
leaq -16(%rdx), %rdi
testb $16, %dil
jne .LBB1_9
vpxor (%rcx), %xmm7, %xmm7
addq $16, %rcx
vpclmulqdq $0, %xmm7, %xmm14, %xmm0
vpclmulqdq $1, %xmm7, %xmm14, %xmm10
vpclmulqdq $16, %xmm7, %xmm14, %xmm9
vpxor %xmm10, %xmm9, %xmm9
vpclmulqdq $17, %xmm7, %xmm14, %xmm1
vpslldq $8, %xmm9, %xmm10
vpxor %xmm0, %xmm10, %xmm10
vpsrldq $8, %xmm9, %xmm9
vpbroadcastq .LCPI1_13(%rip), %xmm0
vpclmulqdq $16, %xmm0, %xmm10, %xmm7
vpshufd $78, %xmm10, %xmm10
vpxor %xmm7, %xmm10, %xmm7
vpbroadcastq .LCPI1_13(%rip), %xmm0
vpclmulqdq $16, %xmm0, %xmm7, %xmm10
vpshufd $78, %xmm7, %xmm18
vpxor %xmm1, %xmm10, %xmm7
vpbroadcastq .LCPI1_13(%rip), %xmm10
vmovapd %xmm25, %xmm1
vpternlogq $150, %xmm9, %xmm18, %xmm7
vmovdqa -64(%rsp), %xmm9
movq %rdi, %rdx
cmpq $16, %rdi
jb .LBB1_10
.LBB1_36:
vmovapd %xmm1, %xmm18
.p2align 4, 0x90
.LBB1_37:
vpxor (%rcx), %xmm7, %xmm0
vpclmulqdq $0, %xmm0, %xmm14, %xmm1
vpclmulqdq $1, %xmm0, %xmm14, %xmm2
vpclmulqdq $16, %xmm0, %xmm14, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $17, %xmm0, %xmm14, %xmm0
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpsrldq $8, %xmm2, %xmm2
vpclmulqdq $16, %xmm10, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm10, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpternlogq $150, %xmm0, %xmm2, %xmm3
vpternlogq $150, 16(%rcx), %xmm1, %xmm3
addq $-32, %rdx
addq $32, %rcx
vpclmulqdq $0, %xmm3, %xmm14, %xmm0
vpclmulqdq $1, %xmm3, %xmm14, %xmm1
vpclmulqdq $16, %xmm3, %xmm14, %xmm2
vpxor %xmm1, %xmm2, %xmm1
vpclmulqdq $17, %xmm3, %xmm14, %xmm2
vpslldq $8, %xmm1, %xmm3
vpxor %xmm3, %xmm0, %xmm0
vpsrldq $8, %xmm1, %xmm1
vpclmulqdq $16, %xmm10, %xmm0, %xmm3
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm0
vpclmulqdq $16, %xmm10, %xmm0, %xmm3
vpshufd $78, %xmm0, %xmm0
vpxor %xmm2, %xmm3, %xmm7
vpternlogq $150, %xmm1, %xmm0, %xmm7
cmpq $15, %rdx
ja .LBB1_37
movq %rdx, %rdi
vmovapd %xmm18, %xmm1
vpternlogq $150, %xmm17, %xmm9, %xmm28
testq %rdi, %rdi
jne .LBB1_11
jmp .LBB1_12
.LBB1_16:
movq %rdx, %rdi
vpternlogq $150, %xmm17, %xmm9, %xmm28
testq %rdi, %rdi
jne .LBB1_11
jmp .LBB1_12
.LBB1_9:
cmpq $16, %rdi
jae .LBB1_36
.LBB1_10:
vpternlogq $150, %xmm17, %xmm9, %xmm28
testq %rdi, %rdi
je .LBB1_12
.LBB1_11:
movl $-1, %edx
bzhil %edi, %edx, %edx
kmovd %edx, %k1
vmovdqu8 (%rcx), %xmm0 {%k1} {z}
vpxor %xmm0, %xmm7, %xmm0
vmovapd %xmm1, %xmm11
vpclmulqdq $0, %xmm0, %xmm14, %xmm1
vpclmulqdq $1, %xmm0, %xmm14, %xmm2
vpclmulqdq $16, %xmm0, %xmm14, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $17, %xmm0, %xmm14, %xmm0
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpsrldq $8, %xmm2, %xmm2
vpclmulqdq $16, %xmm10, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm10, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm0, %xmm3, %xmm7
vpternlogq $150, %xmm2, %xmm1, %xmm7
vmovapd %xmm11, %xmm1
.LBB1_12:
vpslldq $4, %xmm27, %xmm18
vpslldq $8, %xmm27, %xmm19
vpslldq $12, %xmm27, %xmm17
vpshufb %xmm16, %xmm28, %xmm0
vpbroadcastq .LCPI1_12(%rip), %xmm8
vmovq %r10, %xmm16
vmovq %r8, %xmm20
cmpq $128, %r10
jb .LBB1_17
vmovdqa64 %xmm0, %xmm26
movq %r9, %rdx
movq %r10, %rcx
vmovdqa64 %xmm14, %xmm22
vmovdqa64 %xmm5, %xmm30
vmovdqa64 %xmm4, %xmm31
vmovdqa64 %xmm29, %xmm4
vmovdqa64 %xmm6, %xmm29
vmovdqa -128(%rsp), %xmm6
vmovdqa -112(%rsp), %xmm8
vmovdqa64 %xmm21, %xmm14
.p2align 4, 0x90
.LBB1_14:
vmovdqu 16(%rdx), %xmm9
vmovdqu 32(%rdx), %xmm10
vmovdqu 80(%rdx), %xmm0
vmovdqu 96(%rdx), %xmm1
vmovdqu 112(%rdx), %xmm2
vmovdqa64 %xmm22, %xmm5
vpclmulqdq $0, %xmm2, %xmm5, %xmm3
vpclmulqdq $1, %xmm2, %xmm5, %xmm11
vpclmulqdq $16, %xmm2, %xmm5, %xmm12
vpxor %xmm11, %xmm12, %xmm11
vpclmulqdq $0, %xmm1, %xmm4, %xmm12
vpclmulqdq $1, %xmm1, %xmm4, %xmm15
vpclmulqdq $16, %xmm1, %xmm4, %xmm13
vpternlogq $150, %xmm15, %xmm11, %xmm13
vpclmulqdq $0, %xmm0, %xmm8, %xmm11
vpternlogq $150, %xmm3, %xmm12, %xmm11
vpclmulqdq $1, %xmm0, %xmm8, %xmm3
vpclmulqdq $16, %xmm0, %xmm8, %xmm12
vpternlogq $150, %xmm3, %xmm13, %xmm12
vmovdqu 48(%rdx), %xmm3
vmovdqu 64(%rdx), %xmm13
vpclmulqdq $17, %xmm2, %xmm5, %xmm2
vpclmulqdq $17, %xmm1, %xmm4, %xmm1
vpclmulqdq $17, %xmm0, %xmm8, %xmm0
vpternlogq $150, %xmm2, %xmm1, %xmm0
vmovdqa64 %xmm31, %xmm5
vpclmulqdq $1, %xmm13, %xmm5, %xmm1
vpclmulqdq $16, %xmm13, %xmm5, %xmm2
vpternlogq $150, %xmm1, %xmm12, %xmm2
vpclmulqdq $0, %xmm13, %xmm5, %xmm1
vmovdqa64 %xmm29, %xmm15
vpclmulqdq $0, %xmm3, %xmm15, %xmm12
vpternlogq $150, %xmm1, %xmm11, %xmm12
vpclmulqdq $1, %xmm3, %xmm15, %xmm1
vpclmulqdq $16, %xmm3, %xmm15, %xmm11
vpternlogq $150, %xmm1, %xmm2, %xmm11
vpclmulqdq $17, %xmm13, %xmm5, %xmm1
vpclmulqdq $17, %xmm3, %xmm15, %xmm2
vpternlogq $150, %xmm1, %xmm0, %xmm2
vmovdqa64 %xmm30, %xmm5
vpclmulqdq $1, %xmm10, %xmm5, %xmm0
vpclmulqdq $16, %xmm10, %xmm5, %xmm1
vpternlogq $150, %xmm0, %xmm11, %xmm1
vpclmulqdq $0, %xmm10, %xmm5, %xmm0
vpclmulqdq $0, %xmm9, %xmm14, %xmm3
vpternlogq $150, %xmm0, %xmm12, %xmm3
vpclmulqdq $1, %xmm9, %xmm14, %xmm0
vpclmulqdq $16, %xmm9, %xmm14, %xmm11
vpternlogq $150, %xmm0, %xmm1, %xmm11
vpxor (%rdx), %xmm7, %xmm0
vpclmulqdq $17, %xmm10, %xmm5, %xmm1
vpbroadcastq .LCPI1_13(%rip), %xmm10
vpclmulqdq $17, %xmm9, %xmm14, %xmm9
vpternlogq $150, %xmm1, %xmm2, %xmm9
vpclmulqdq $1, %xmm0, %xmm6, %xmm1
vpclmulqdq $16, %xmm0, %xmm6, %xmm2
vpternlogq $150, %xmm1, %xmm11, %xmm2
vpclmulqdq $0, %xmm0, %xmm6, %xmm1
vpslldq $8, %xmm2, %xmm7
vpternlogq $150, %xmm1, %xmm3, %xmm7
vpclmulqdq $17, %xmm0, %xmm6, %xmm0
vpclmulqdq $16, %xmm10, %xmm7, %xmm1
vpshufd $78, %xmm7, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpclmulqdq $16, %xmm10, %xmm1, %xmm7
vpternlogq $150, %xmm0, %xmm9, %xmm7
vpsrldq $8, %xmm2, %xmm0
vpshufd $78, %xmm1, %xmm1
addq $128, %rdx
addq $-128, %rcx
vpternlogq $150, %xmm0, %xmm1, %xmm7
cmpq $127, %rcx
ja .LBB1_14
vmovdqa -96(%rsp), %xmm15
vmovdqa -80(%rsp), %xmm12
vmovdqa64 %xmm23, %xmm13
vmovapd %xmm25, %xmm1
vmovdqa -64(%rsp), %xmm9
vmovdqa64 %xmm22, %xmm14
vmovdqa64 %xmm26, %xmm0
vpbroadcastq .LCPI1_12(%rip), %xmm8
jmp .LBB1_18
.LBB1_17:
movq %r10, %rcx
movq %r9, %rdx
.LBB1_18:
vmovd 8(%rsi), %xmm2
vmovq (%rsi), %xmm3
vpternlogq $150, %xmm19, %xmm18, %xmm17
vaesenclast %xmm8, %xmm0, %xmm11
vpunpcklqdq %xmm16, %xmm20, %xmm4
cmpq $16, %rcx
vmovdqa64 %xmm27, %xmm8
jb .LBB1_24
leaq -16(%rcx), %rsi
testb $16, %sil
jne .LBB1_21
vpxor (%rdx), %xmm7, %xmm0
addq $16, %rdx
vpclmulqdq $0, %xmm0, %xmm14, %xmm5
vpclmulqdq $1, %xmm0, %xmm14, %xmm6
vpclmulqdq $16, %xmm0, %xmm14, %xmm7
vpxor %xmm6, %xmm7, %xmm6
vpclmulqdq $17, %xmm0, %xmm14, %xmm0
vpslldq $8, %xmm6, %xmm7
vpxor %xmm7, %xmm5, %xmm5
vpsrldq $8, %xmm6, %xmm6
vpclmulqdq $16, %xmm10, %xmm5, %xmm7
vpshufd $78, %xmm5, %xmm5
vpxor %xmm5, %xmm7, %xmm5
vpclmulqdq $16, %xmm10, %xmm5, %xmm7
vpshufd $78, %xmm5, %xmm5
vpxor %xmm0, %xmm7, %xmm7
vpternlogq $150, %xmm6, %xmm5, %xmm7
movq %rsi, %rcx
.LBB1_21:
cmpq $16, %rsi
jb .LBB1_25
.p2align 4, 0x90
.LBB1_22:
vpxor (%rdx), %xmm7, %xmm0
vpclmulqdq $0, %xmm0, %xmm14, %xmm5
vpclmulqdq $1, %xmm0, %xmm14, %xmm6
vpclmulqdq $16, %xmm0, %xmm14, %xmm7
vpxor %xmm6, %xmm7, %xmm6
vpclmulqdq $17, %xmm0, %xmm14, %xmm0
vpslldq $8, %xmm6, %xmm7
vpxor %xmm7, %xmm5, %xmm5
vpsrldq $8, %xmm6, %xmm6
vpclmulqdq $16, %xmm10, %xmm5, %xmm7
vpshufd $78, %xmm5, %xmm5
vpxor %xmm5, %xmm7, %xmm5
vpclmulqdq $16, %xmm10, %xmm5, %xmm7
vpshufd $78, %xmm5, %xmm5
vpternlogq $150, %xmm0, %xmm6, %xmm7
vpternlogq $150, 16(%rdx), %xmm5, %xmm7
addq $-32, %rcx
addq $32, %rdx
vpclmulqdq $0, %xmm7, %xmm14, %xmm0
vpclmulqdq $1, %xmm7, %xmm14, %xmm5
vpclmulqdq $16, %xmm7, %xmm14, %xmm6
vpxor %xmm5, %xmm6, %xmm5
vpclmulqdq $17, %xmm7, %xmm14, %xmm6
vpslldq $8, %xmm5, %xmm7
vpxor %xmm7, %xmm0, %xmm0
vpsrldq $8, %xmm5, %xmm5
vpclmulqdq $16, %xmm10, %xmm0, %xmm7
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm7, %xmm0
vpclmulqdq $16, %xmm10, %xmm0, %xmm7
vpshufd $78, %xmm0, %xmm0
vpxor %xmm6, %xmm7, %xmm7
vpternlogq $150, %xmm5, %xmm0, %xmm7
cmpq $15, %rcx
ja .LBB1_22
.LBB1_24:
movq %rcx, %rsi
.LBB1_25:
movq 88(%rsp), %rcx
vpunpcklqdq %xmm2, %xmm3, %xmm2
vpternlogq $150, %xmm17, %xmm8, %xmm11
vmovdqa %xmm11, -128(%rsp)
vpsllq $3, %xmm4, %xmm3
testq %rsi, %rsi
je .LBB1_27
movl $-1, %edi
bzhil %esi, %edi, %esi
kmovd %esi, %k1
vmovdqu8 (%rdx), %xmm0 {%k1} {z}
vpxor %xmm0, %xmm7, %xmm0
vpclmulqdq $0, %xmm0, %xmm14, %xmm4
vpclmulqdq $1, %xmm0, %xmm14, %xmm5
vpclmulqdq $16, %xmm0, %xmm14, %xmm6
vpxor %xmm5, %xmm6, %xmm5
vpclmulqdq $17, %xmm0, %xmm14, %xmm0
vpslldq $8, %xmm5, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpsrldq $8, %xmm5, %xmm5
vpclmulqdq $16, %xmm10, %xmm4, %xmm6
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm6, %xmm4
vpclmulqdq $16, %xmm10, %xmm4, %xmm6
vpshufd $78, %xmm4, %xmm4
vpxor %xmm0, %xmm6, %xmm7
vpternlogq $150, %xmm5, %xmm4, %xmm7
.LBB1_27:
vpxor %xmm3, %xmm7, %xmm0
vpclmulqdq $1, %xmm0, %xmm14, %xmm3
vpclmulqdq $16, %xmm0, %xmm14, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $0, %xmm0, %xmm14, %xmm4
vpclmulqdq $17, %xmm0, %xmm14, %xmm0
vpslldq $8, %xmm3, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpshufd $78, %xmm4, %xmm5
vpclmulqdq $16, %xmm10, %xmm4, %xmm4
vpxor %xmm5, %xmm4, %xmm4
vpclmulqdq $16, %xmm10, %xmm4, %xmm5
vpshufd $78, %xmm4, %xmm4
vpternlogq $150, %xmm2, %xmm0, %xmm5
vpsrldq $8, %xmm3, %xmm0
vpternlogq $150, %xmm0, %xmm4, %xmm5
vpternlogq $108, .LCPI1_14(%rip), %xmm24, %xmm5
vaesenc %xmm15, %xmm5, %xmm0
vmovdqa %xmm12, %xmm7
vaesenc %xmm12, %xmm0, %xmm0
vmovdqa %xmm13, %xmm10
vaesenc %xmm13, %xmm0, %xmm0
vmovapd %xmm1, -112(%rsp)
vaesenc %xmm1, %xmm0, %xmm0
vmovdqa 32(%rsp), %xmm12
vaesenc %xmm12, %xmm0, %xmm0
vmovdqa 16(%rsp), %xmm13
vaesenc %xmm13, %xmm0, %xmm0
vmovdqa (%rsp), %xmm4
vaesenc %xmm4, %xmm0, %xmm0
vmovdqa -16(%rsp), %xmm3
vaesenc %xmm3, %xmm0, %xmm0
vmovdqa -32(%rsp), %xmm1
vaesenc %xmm1, %xmm0, %xmm0
vmovdqa -48(%rsp), %xmm5
vaesenc %xmm5, %xmm0, %xmm0
vaesenc %xmm9, %xmm0, %xmm0
vaesenc %xmm8, %xmm0, %xmm0
vmovdqa64 %xmm28, %xmm6
vaesenc %xmm6, %xmm0, %xmm0
vaesenclast -128(%rsp), %xmm0, %xmm0
vmovdqu %xmm0, (%rcx)
vpor .LCPI1_15(%rip), %xmm0, %xmm15
movq 72(%rsp), %rcx
cmpq $128, %r10
jb .LBB1_31
vpmovsxbq .LCPI1_20(%rip), %xmm17
vpmovsxbq .LCPI1_21(%rip), %xmm18
vpmovsxbq .LCPI1_22(%rip), %xmm19
vpmovsxbq .LCPI1_23(%rip), %xmm20
vpmovsxbq .LCPI1_24(%rip), %xmm21
vpmovsxbq .LCPI1_25(%rip), %xmm22
vpmovsxbq .LCPI1_26(%rip), %xmm23
vmovdqa64 %xmm4, %xmm28
vmovdqa64 %xmm3, %xmm30
vmovdqa64 %xmm1, %xmm31
vmovdqa64 %xmm5, %xmm16
vmovdqa64 %xmm8, %xmm29
vmovdqa64 %xmm6, %xmm26
vmovdqa64 %xmm7, %xmm25
vmovdqa64 %xmm10, %xmm27
vmovaps -96(%rsp), %xmm10
vmovaps -112(%rsp), %xmm1
vmovdqa -128(%rsp), %xmm11
.p2align 4, 0x90
.LBB1_29:
vpaddd .LCPI1_0(%rip), %xmm15, %xmm0
vpaddd %xmm17, %xmm15, %xmm4
vpaddd %xmm18, %xmm15, %xmm5
vpaddd %xmm19, %xmm15, %xmm6
vpaddd %xmm20, %xmm15, %xmm7
vpaddd %xmm21, %xmm15, %xmm8
vpaddd %xmm22, %xmm15, %xmm9
vpxorq %xmm24, %xmm15, %xmm2
vpxorq %xmm0, %xmm24, %xmm3
vpxorq %xmm4, %xmm24, %xmm4
vpxorq %xmm5, %xmm24, %xmm5
vpxorq %xmm6, %xmm24, %xmm6
vpxorq %xmm7, %xmm24, %xmm7
vpxorq %xmm8, %xmm24, %xmm8
vpxorq %xmm9, %xmm24, %xmm14
vmovdqa -64(%rsp), %xmm9
#APP
vaesenc %xmm10, %xmm2, %xmm2
vaesenc %xmm10, %xmm3, %xmm3
vaesenc %xmm10, %xmm4, %xmm4
vaesenc %xmm10, %xmm5, %xmm5
vaesenc %xmm10, %xmm6, %xmm6
vaesenc %xmm10, %xmm7, %xmm7
vaesenc %xmm10, %xmm8, %xmm8
vaesenc %xmm10, %xmm14, %xmm14
#NO_APP
vmovdqa64 %xmm25, %xmm0
#APP
vaesenc %xmm0, %xmm2, %xmm2
vaesenc %xmm0, %xmm3, %xmm3
vaesenc %xmm0, %xmm4, %xmm4
vaesenc %xmm0, %xmm5, %xmm5
vaesenc %xmm0, %xmm6, %xmm6
vaesenc %xmm0, %xmm7, %xmm7
vaesenc %xmm0, %xmm8, %xmm8
vaesenc %xmm0, %xmm14, %xmm14
#NO_APP
vmovdqa64 %xmm27, %xmm0
#APP
vaesenc %xmm0, %xmm2, %xmm2
vaesenc %xmm0, %xmm3, %xmm3
vaesenc %xmm0, %xmm4, %xmm4
vaesenc %xmm0, %xmm5, %xmm5
vaesenc %xmm0, %xmm6, %xmm6
vaesenc %xmm0, %xmm7, %xmm7
vaesenc %xmm0, %xmm8, %xmm8
vaesenc %xmm0, %xmm14, %xmm14
#NO_APP
#APP
vaesenc %xmm1, %xmm2, %xmm2
vaesenc %xmm1, %xmm3, %xmm3
vaesenc %xmm1, %xmm4, %xmm4
vaesenc %xmm1, %xmm5, %xmm5
vaesenc %xmm1, %xmm6, %xmm6
vaesenc %xmm1, %xmm7, %xmm7
vaesenc %xmm1, %xmm8, %xmm8
vaesenc %xmm1, %xmm14, %xmm14
#NO_APP
#APP
vaesenc %xmm12, %xmm2, %xmm2
vaesenc %xmm12, %xmm3, %xmm3
vaesenc %xmm12, %xmm4, %xmm4
vaesenc %xmm12, %xmm5, %xmm5
vaesenc %xmm12, %xmm6, %xmm6
vaesenc %xmm12, %xmm7, %xmm7
vaesenc %xmm12, %xmm8, %xmm8
vaesenc %xmm12, %xmm14, %xmm14
#NO_APP
#APP
vaesenc %xmm13, %xmm2, %xmm2
vaesenc %xmm13, %xmm3, %xmm3
vaesenc %xmm13, %xmm4, %xmm4
vaesenc %xmm13, %xmm5, %xmm5
vaesenc %xmm13, %xmm6, %xmm6
vaesenc %xmm13, %xmm7, %xmm7
vaesenc %xmm13, %xmm8, %xmm8
vaesenc %xmm13, %xmm14, %xmm14
#NO_APP
vmovdqa64 %xmm28, %xmm0
#APP
vaesenc %xmm0, %xmm2, %xmm2
vaesenc %xmm0, %xmm3, %xmm3
vaesenc %xmm0, %xmm4, %xmm4
vaesenc %xmm0, %xmm5, %xmm5
vaesenc %xmm0, %xmm6, %xmm6
vaesenc %xmm0, %xmm7, %xmm7
vaesenc %xmm0, %xmm8, %xmm8
vaesenc %xmm0, %xmm14, %xmm14
#NO_APP
vmovdqa64 %xmm30, %xmm0
#APP
vaesenc %xmm0, %xmm2, %xmm2
vaesenc %xmm0, %xmm3, %xmm3
vaesenc %xmm0, %xmm4, %xmm4
vaesenc %xmm0, %xmm5, %xmm5
vaesenc %xmm0, %xmm6, %xmm6
vaesenc %xmm0, %xmm7, %xmm7
vaesenc %xmm0, %xmm8, %xmm8
vaesenc %xmm0, %xmm14, %xmm14
#NO_APP
vmovdqa64 %xmm31, %xmm0
#APP
vaesenc %xmm0, %xmm2, %xmm2
vaesenc %xmm0, %xmm3, %xmm3
vaesenc %xmm0, %xmm4, %xmm4
vaesenc %xmm0, %xmm5, %xmm5
vaesenc %xmm0, %xmm6, %xmm6
vaesenc %xmm0, %xmm7, %xmm7
vaesenc %xmm0, %xmm8, %xmm8
vaesenc %xmm0, %xmm14, %xmm14
#NO_APP
vmovdqa64 %xmm16, %xmm0
#APP
vaesenc %xmm0, %xmm2, %xmm2
vaesenc %xmm0, %xmm3, %xmm3
vaesenc %xmm0, %xmm4, %xmm4
vaesenc %xmm0, %xmm5, %xmm5
vaesenc %xmm0, %xmm6, %xmm6
vaesenc %xmm0, %xmm7, %xmm7
vaesenc %xmm0, %xmm8, %xmm8
vaesenc %xmm0, %xmm14, %xmm14
#NO_APP
#APP
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm9, %xmm4, %xmm4
vaesenc %xmm9, %xmm5, %xmm5
vaesenc %xmm9, %xmm6, %xmm6
vaesenc %xmm9, %xmm7, %xmm7
vaesenc %xmm9, %xmm8, %xmm8
vaesenc %xmm9, %xmm14, %xmm14
#NO_APP
vmovdqa64 %xmm29, %xmm0
#APP
vaesenc %xmm0, %xmm2, %xmm2
vaesenc %xmm0, %xmm3, %xmm3
vaesenc %xmm0, %xmm4, %xmm4
vaesenc %xmm0, %xmm5, %xmm5
vaesenc %xmm0, %xmm6, %xmm6
vaesenc %xmm0, %xmm7, %xmm7
vaesenc %xmm0, %xmm8, %xmm8
vaesenc %xmm0, %xmm14, %xmm14
#NO_APP
vmovdqa64 %xmm26, %xmm0
#APP
vaesenc %xmm0, %xmm2, %xmm2
vaesenc %xmm0, %xmm3, %xmm3
vaesenc %xmm0, %xmm4, %xmm4
vaesenc %xmm0, %xmm5, %xmm5
vaesenc %xmm0, %xmm6, %xmm6
vaesenc %xmm0, %xmm7, %xmm7
vaesenc %xmm0, %xmm8, %xmm8
vaesenc %xmm0, %xmm14, %xmm14
#NO_APP
#APP
vaesenclast %xmm11, %xmm2, %xmm2
vaesenclast %xmm11, %xmm3, %xmm3
vaesenclast %xmm11, %xmm4, %xmm4
vaesenclast %xmm11, %xmm5, %xmm5
vaesenclast %xmm11, %xmm6, %xmm6
vaesenclast %xmm11, %xmm7, %xmm7
vaesenclast %xmm11, %xmm8, %xmm8
vaesenclast %xmm11, %xmm14, %xmm14
#NO_APP
vpxor (%r9), %xmm2, %xmm0
vpxor 16(%r9), %xmm3, %xmm2
vpxor 32(%r9), %xmm4, %xmm3
vpxor 48(%r9), %xmm5, %xmm4
vpxor 64(%r9), %xmm6, %xmm5
vpxor 80(%r9), %xmm7, %xmm6
vpxor 96(%r9), %xmm8, %xmm7
vpxor 112(%r9), %xmm14, %xmm8
leaq 128(%r9), %r9
vmovdqu %xmm0, (%rcx)
vmovdqu %xmm2, 16(%rcx)
vmovdqu %xmm3, 32(%rcx)
vmovdqu %xmm4, 48(%rcx)
vmovdqu %xmm5, 64(%rcx)
vmovdqu %xmm6, 80(%rcx)
vmovdqu %xmm7, 96(%rcx)
vmovdqu %xmm8, 112(%rcx)
addq $128, %rcx
addq $-128, %r10
vpaddd %xmm23, %xmm15, %xmm15
cmpq $127, %r10
ja .LBB1_29
vmovdqa64 %xmm28, %xmm4
vmovdqa64 %xmm30, %xmm3
vmovdqa64 %xmm31, %xmm1
vmovdqa64 %xmm16, %xmm5
vmovdqa64 %xmm29, %xmm8
vmovdqa64 %xmm26, %xmm6
vmovdqa64 %xmm25, %xmm7
vmovdqa64 %xmm27, %xmm10
.LBB1_31:
cmpq $16, %r10
jb .LBB1_34
leaq -16(%r10), %rsi
testb $16, %sil
jne .LBB1_39
leaq 16(%r9), %rdi
leaq 16(%rcx), %rdx
vpaddd .LCPI1_0(%rip), %xmm15, %xmm2
vpxorq %xmm24, %xmm15, %xmm0
vaesenc -96(%rsp), %xmm0, %xmm0
vaesenc %xmm7, %xmm0, %xmm0
vaesenc %xmm10, %xmm0, %xmm0
vaesenc -112(%rsp), %xmm0, %xmm0
vaesenc %xmm12, %xmm0, %xmm0
vaesenc %xmm13, %xmm0, %xmm0
vaesenc %xmm4, %xmm0, %xmm0
vaesenc %xmm3, %xmm0, %xmm0
vaesenc %xmm1, %xmm0, %xmm0
vaesenc %xmm5, %xmm0, %xmm0
vaesenc %xmm9, %xmm0, %xmm0
vaesenc %xmm8, %xmm0, %xmm0
vaesenc %xmm6, %xmm0, %xmm0
vaesenclast -128(%rsp), %xmm0, %xmm0
vpxor (%r9), %xmm0, %xmm0
vmovdqu %xmm0, (%rcx)
movq %rdx, %rcx
vmovdqa %xmm2, %xmm15
movq %rsi, %r10
movq %rdi, %r9
cmpq $16, %rsi
jae .LBB1_40
jmp .LBB1_43
.LBB1_34:
movq %r9, %rdi
movq %rcx, %rdx
movq %r10, %rsi
vmovdqa %xmm15, %xmm2
jmp .LBB1_43
.LBB1_39:
cmpq $16, %rsi
jb .LBB1_43
.LBB1_40:
vmovdqa64 -96(%rsp), %xmm30
vmovdqa64 %xmm3, %xmm27
vmovdqa64 -112(%rsp), %xmm31
vmovdqa64 %xmm6, %xmm19
vmovdqa64 %xmm5, %xmm21
vmovdqa64 %xmm1, %xmm22
vmovdqa64 %xmm13, %xmm25
vmovdqa64 %xmm12, %xmm26
vmovdqa64 %xmm4, %xmm28
vmovdqa64 %xmm9, %xmm20
vmovdqa64 %xmm10, %xmm23
vmovdqa64 %xmm8, %xmm29
vmovdqa64 -128(%rsp), %xmm16
vmovdqa -80(%rsp), %xmm7
.p2align 4, 0x90
.LBB1_41:
vpaddd .LCPI1_0(%rip), %xmm15, %xmm17
vpxorq %xmm24, %xmm15, %xmm4
vmovdqa64 %xmm30, %xmm3
vaesenc %xmm3, %xmm4, %xmm4
vaesenc %xmm7, %xmm4, %xmm4
vmovdqa64 %xmm23, %xmm1
vaesenc %xmm1, %xmm4, %xmm4
vmovdqa64 %xmm31, %xmm8
vaesenc %xmm8, %xmm4, %xmm4
vmovdqa64 %xmm26, %xmm11
vaesenc %xmm11, %xmm4, %xmm4
vmovdqa64 %xmm25, %xmm13
vaesenc %xmm13, %xmm4, %xmm4
vmovdqa64 %xmm28, %xmm10
vaesenc %xmm10, %xmm4, %xmm4
vmovdqa64 %xmm27, %xmm12
vaesenc %xmm12, %xmm4, %xmm4
vmovdqa64 %xmm22, %xmm9
vaesenc %xmm9, %xmm4, %xmm4
vmovdqa64 %xmm21, %xmm5
vaesenc %xmm5, %xmm4, %xmm4
vmovdqa64 %xmm20, %xmm6
vaesenc %xmm6, %xmm4, %xmm4
vmovdqa64 %xmm29, %xmm2
vaesenc %xmm2, %xmm4, %xmm4
vmovdqa64 %xmm19, %xmm14
vaesenc %xmm14, %xmm4, %xmm4
vmovdqa64 %xmm16, %xmm0
vaesenclast %xmm0, %xmm4, %xmm4
vpxor (%r9), %xmm4, %xmm4
vmovdqu %xmm4, (%rcx)
vpxorq %xmm17, %xmm24, %xmm0
vaesenc %xmm3, %xmm0, %xmm0
vaesenc %xmm7, %xmm0, %xmm0
vaesenc %xmm1, %xmm0, %xmm0
vaesenc %xmm8, %xmm0, %xmm0
vaesenc %xmm11, %xmm0, %xmm0
vaesenc %xmm13, %xmm0, %xmm0
vaesenc %xmm10, %xmm0, %xmm0
vaesenc %xmm12, %xmm0, %xmm0
vaesenc %xmm9, %xmm0, %xmm0
vaesenc %xmm5, %xmm0, %xmm0
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm2, %xmm0, %xmm0
vaesenc %xmm14, %xmm0, %xmm0
vmovdqa64 %xmm16, %xmm1
vaesenclast %xmm1, %xmm0, %xmm0
vpxor 16(%r9), %xmm0, %xmm0
addq $32, %r9
vmovdqu %xmm0, 16(%rcx)
addq $32, %rcx
addq $-32, %r10
vpaddd .LCPI1_1(%rip), %xmm15, %xmm15
cmpq $15, %r10
ja .LBB1_41
movq %r9, %rdi
movq %rcx, %rdx
movq %r10, %rsi
vmovdqa %xmm15, %xmm2
vmovdqa64 %xmm29, %xmm8
vmovdqa64 %xmm27, %xmm3
vmovdqa64 %xmm28, %xmm4
vmovdqa64 %xmm26, %xmm12
vmovdqa64 %xmm25, %xmm13
vmovdqa64 %xmm22, %xmm1
vmovdqa64 %xmm21, %xmm5
vmovdqa64 %xmm19, %xmm6
vmovdqa -80(%rsp), %xmm7
vmovdqa64 %xmm23, %xmm10
vmovdqa64 %xmm20, %xmm9
.LBB1_43:
testq %rsi, %rsi
je .LBB1_45
movl $-1, %ecx
bzhil %esi, %ecx, %ecx
kmovd %ecx, %k1
vmovdqu8 (%rdi), %xmm0 {%k1} {z}
vpxorq %xmm24, %xmm2, %xmm2
vaesenc -96(%rsp), %xmm2, %xmm2
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm10, %xmm2, %xmm2
vaesenc -112(%rsp), %xmm2, %xmm2
vaesenc %xmm12, %xmm2, %xmm2
vaesenc %xmm13, %xmm2, %xmm2
vaesenc %xmm4, %xmm2, %xmm2
vaesenc %xmm3, %xmm2, %xmm2
vaesenc %xmm1, %xmm2, %xmm2
vaesenc %xmm5, %xmm2, %xmm2
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm6, %xmm2, %xmm2
vaesenclast -128(%rsp), %xmm2, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vmovdqu8 %xmm0, (%rdx) {%k1}
.LBB1_45:
movzbl %al, %eax
.LBB1_46:
addq $48, %rsp
.cfi_def_cfa_offset 16
popq %rbx
.cfi_def_cfa_offset 8
retq
.Lfunc_end1:
.size haberdashery_aes256gcmsiv_skylakex_encrypt, .Lfunc_end1-haberdashery_aes256gcmsiv_skylakex_encrypt
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI2_0:
.long 1
.long 0
.long 0
.long 0
.LCPI2_1:
.long 2
.long 0
.long 0
.long 0
.LCPI2_2:
.long 3
.long 0
.long 0
.long 0
.LCPI2_3:
.quad 4
.quad 0
.LCPI2_4:
.long 5
.long 0
.long 0
.long 0
.LCPI2_5:
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.LCPI2_14:
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 128
.LCPI2_15:
.long 6
.long 0
.long 0
.long 0
.LCPI2_16:
.long 7
.long 0
.long 0
.long 0
.LCPI2_17:
.long 8
.long 0
.long 0
.long 0
.LCPI2_18:
.long 9
.long 0
.long 0
.long 0
.LCPI2_19:
.long 10
.long 0
.long 0
.long 0
.LCPI2_20:
.long 11
.long 0
.long 0
.long 0
.LCPI2_21:
.quad -1
.quad 9223372036854775807
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI2_6:
.quad 4294967297
.LCPI2_7:
.quad 8589934594
.LCPI2_8:
.quad 17179869188
.LCPI2_9:
.quad 34359738376
.LCPI2_10:
.quad 68719476752
.LCPI2_11:
.quad 137438953504
.LCPI2_12:
.quad 274877907008
.LCPI2_13:
.quad -4467570830351532032
.section .rodata.cst4,"aM",@progbits,4
.p2align 2, 0x0
.LCPI2_22:
.byte 13
.byte 14
.byte 15
.byte 12
.section .rodata,"a",@progbits
.LCPI2_23:
.byte 1
.byte 0
.section .text.haberdashery_aes256gcmsiv_skylakex_decrypt,"ax",@progbits
.globl haberdashery_aes256gcmsiv_skylakex_decrypt
.p2align 4, 0x90
.type haberdashery_aes256gcmsiv_skylakex_decrypt,@function
haberdashery_aes256gcmsiv_skylakex_decrypt:
.cfi_startproc
subq $264, %rsp
.cfi_def_cfa_offset 272
movq 272(%rsp), %r10
xorl %eax, %eax
cmpq 304(%rsp), %r10
jne .LBB2_37
cmpq $12, %rdx
jne .LBB2_37
movabsq $68719476737, %rdx
cmpq %rdx, %r8
jae .LBB2_37
cmpq %rdx, %r10
jae .LBB2_37
cmpq $16, 288(%rsp)
jb .LBB2_37
vmovsd 4(%rsi), %xmm0
vmovss (%rsi), %xmm1
vshufps $65, %xmm0, %xmm1, %xmm0
vxorps (%rdi), %xmm0, %xmm1
vxorps .LCPI2_0(%rip), %xmm1, %xmm3
vxorps .LCPI2_1(%rip), %xmm1, %xmm2
vxorps .LCPI2_2(%rip), %xmm1, %xmm4
vxorps .LCPI2_3(%rip), %xmm1, %xmm0
vxorps .LCPI2_4(%rip), %xmm1, %xmm5
vmovaps 16(%rdi), %xmm7
vmovaps 32(%rdi), %xmm8
vmovaps 48(%rdi), %xmm9
vmovaps 64(%rdi), %xmm6
#APP
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm7, %xmm4, %xmm4
vaesenc %xmm7, %xmm0, %xmm0
vaesenc %xmm7, %xmm5, %xmm5
#NO_APP
#APP
vaesenc %xmm8, %xmm1, %xmm1
vaesenc %xmm8, %xmm3, %xmm3
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm8, %xmm4, %xmm4
vaesenc %xmm8, %xmm0, %xmm0
vaesenc %xmm8, %xmm5, %xmm5
#NO_APP
#APP
vaesenc %xmm9, %xmm1, %xmm1
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm9, %xmm4, %xmm4
vaesenc %xmm9, %xmm0, %xmm0
vaesenc %xmm9, %xmm5, %xmm5
#NO_APP
#APP
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 80(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 96(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 112(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 128(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 144(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 160(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 176(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 192(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 208(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 224(%rdi), %xmm6
#APP
vaesenclast %xmm6, %xmm1, %xmm1
vaesenclast %xmm6, %xmm3, %xmm3
vaesenclast %xmm6, %xmm2, %xmm2
vaesenclast %xmm6, %xmm4, %xmm4
vaesenclast %xmm6, %xmm0, %xmm0
vaesenclast %xmm6, %xmm5, %xmm5
#NO_APP
vunpcklpd %xmm3, %xmm1, %xmm3
vunpcklpd %xmm4, %xmm2, %xmm31
vmovlhps %xmm5, %xmm0, %xmm6
vpslldq $4, %xmm31, %xmm4
vxorpd %xmm1, %xmm1, %xmm1
vunpcklpd %xmm2, %xmm1, %xmm5
vinsertps $55, %xmm2, %xmm0, %xmm2
vpbroadcastd .LCPI2_22(%rip), %xmm17
vpternlogq $150, %xmm5, %xmm4, %xmm2
vpshufb %xmm17, %xmm6, %xmm4
vpbroadcastq .LCPI2_6(%rip), %xmm5
vaesenclast %xmm5, %xmm4, %xmm5
vpternlogq $150, %xmm2, %xmm31, %xmm5
vpslldq $4, %xmm6, %xmm2
vunpcklpd %xmm0, %xmm1, %xmm4
vinsertps $55, %xmm0, %xmm0, %xmm0
vpternlogq $150, %xmm4, %xmm2, %xmm0
vpshufd $255, %xmm5, %xmm2
vaesenclast %xmm1, %xmm2, %xmm12
vmovaps %xmm6, -48(%rsp)
vpternlogq $150, %xmm0, %xmm6, %xmm12
vpslldq $4, %xmm5, %xmm0
vpslldq $8, %xmm5, %xmm2
vpslldq $12, %xmm5, %xmm4
vpternlogq $150, %xmm2, %xmm0, %xmm4
vpshufb %xmm17, %xmm12, %xmm0
vpbroadcastq .LCPI2_7(%rip), %xmm2
vaesenclast %xmm2, %xmm0, %xmm10
vmovdqa64 %xmm5, %xmm26
vpternlogq $150, %xmm4, %xmm5, %xmm10
vpslldq $4, %xmm12, %xmm0
vpslldq $8, %xmm12, %xmm2
vpslldq $12, %xmm12, %xmm4
vpternlogq $150, %xmm2, %xmm0, %xmm4
vpshufd $255, %xmm10, %xmm0
vaesenclast %xmm1, %xmm0, %xmm13
vpternlogq $150, %xmm4, %xmm12, %xmm13
vpslldq $4, %xmm10, %xmm2
vpslldq $8, %xmm10, %xmm4
vpslldq $12, %xmm10, %xmm0
vpternlogq $150, %xmm4, %xmm2, %xmm0
vpclmulqdq $0, %xmm3, %xmm3, %xmm2
vpbroadcastq .LCPI2_13(%rip), %xmm7
vpclmulqdq $16, %xmm7, %xmm2, %xmm4
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm4, %xmm2
vpclmulqdq $16, %xmm7, %xmm2, %xmm4
vpclmulqdq $17, %xmm3, %xmm3, %xmm5
vpshufd $78, %xmm2, %xmm8
vpternlogq $150, %xmm4, %xmm5, %xmm8
vpclmulqdq $0, %xmm3, %xmm8, %xmm2
vpclmulqdq $16, %xmm3, %xmm8, %xmm4
vpclmulqdq $1, %xmm3, %xmm8, %xmm5
vpxor %xmm4, %xmm5, %xmm4
vpslldq $8, %xmm4, %xmm5
vpxor %xmm5, %xmm2, %xmm2
vpclmulqdq $16, %xmm7, %xmm2, %xmm5
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm5, %xmm2
vpclmulqdq $16, %xmm7, %xmm2, %xmm5
vpclmulqdq $17, %xmm3, %xmm8, %xmm6
vpxor %xmm5, %xmm6, %xmm5
vpsrldq $8, %xmm4, %xmm4
vpshufd $78, %xmm2, %xmm11
vpternlogq $150, %xmm4, %xmm5, %xmm11
vpclmulqdq $0, %xmm11, %xmm11, %xmm2
vpclmulqdq $16, %xmm7, %xmm2, %xmm4
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm4, %xmm2
vpclmulqdq $16, %xmm7, %xmm2, %xmm4
vpclmulqdq $17, %xmm11, %xmm11, %xmm5
vpshufd $78, %xmm2, %xmm2
vpternlogq $150, %xmm4, %xmm5, %xmm2
vmovdqa %xmm2, 64(%rsp)
vpclmulqdq $0, %xmm8, %xmm8, %xmm2
vpclmulqdq $16, %xmm7, %xmm2, %xmm4
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm4, %xmm2
vpclmulqdq $16, %xmm7, %xmm2, %xmm4
vmovdqa %xmm8, -16(%rsp)
vpclmulqdq $17, %xmm8, %xmm8, %xmm5
vpshufd $78, %xmm2, %xmm6
vpternlogq $150, %xmm4, %xmm5, %xmm6
vpclmulqdq $0, %xmm3, %xmm6, %xmm4
vpclmulqdq $16, %xmm3, %xmm6, %xmm2
vpclmulqdq $1, %xmm3, %xmm6, %xmm5
vpxor %xmm2, %xmm5, %xmm2
vpslldq $8, %xmm2, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpclmulqdq $16, %xmm7, %xmm4, %xmm5
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vmovdqa64 %xmm7, %xmm16
vpclmulqdq $16, %xmm7, %xmm4, %xmm5
vmovdqa %xmm6, 48(%rsp)
vpclmulqdq $17, %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm6, %xmm5
vpshufb %xmm17, %xmm13, %xmm6
vpbroadcastq .LCPI2_8(%rip), %xmm7
vaesenclast %xmm7, %xmm6, %xmm8
vpternlogq $150, %xmm0, %xmm10, %xmm8
vpslldq $4, %xmm13, %xmm0
vpslldq $8, %xmm13, %xmm6
vpslldq $12, %xmm13, %xmm7
vpternlogq $150, %xmm6, %xmm0, %xmm7
vpshufd $255, %xmm8, %xmm0
vaesenclast %xmm1, %xmm0, %xmm9
vpternlogq $150, %xmm7, %xmm13, %xmm9
vpshufb %xmm17, %xmm9, %xmm0
vpbroadcastq .LCPI2_9(%rip), %xmm6
vaesenclast %xmm6, %xmm0, %xmm15
vpslldq $4, %xmm8, %xmm0
vpslldq $8, %xmm8, %xmm6
vpslldq $12, %xmm8, %xmm7
vpternlogq $150, %xmm6, %xmm0, %xmm7
vmovdqa64 %xmm8, %xmm18
vpternlogq $150, %xmm7, %xmm8, %xmm15
vpslldq $4, %xmm9, %xmm0
vpslldq $8, %xmm9, %xmm6
vpslldq $12, %xmm9, %xmm7
vpternlogq $150, %xmm6, %xmm0, %xmm7
vpshufd $255, %xmm15, %xmm0
vaesenclast %xmm1, %xmm0, %xmm8
vmovaps %xmm9, -32(%rsp)
vpternlogq $150, %xmm7, %xmm9, %xmm8
vpshufb %xmm17, %xmm8, %xmm0
vpbroadcastq .LCPI2_10(%rip), %xmm6
vaesenclast %xmm6, %xmm0, %xmm9
vpslldq $4, %xmm15, %xmm0
vpslldq $8, %xmm15, %xmm6
vpslldq $12, %xmm15, %xmm7
vpternlogq $150, %xmm6, %xmm0, %xmm7
vmovaps %xmm15, -128(%rsp)
vpternlogq $150, %xmm7, %xmm15, %xmm9
vmovdqa64 %xmm8, %xmm21
vmovdqa %xmm9, %xmm8
vmovdqa %xmm9, -96(%rsp)
vpslldq $4, %xmm21, %xmm0
vpslldq $8, %xmm21, %xmm6
vpslldq $12, %xmm21, %xmm7
vpternlogq $150, %xmm6, %xmm0, %xmm7
vpshufd $255, %xmm9, %xmm0
vaesenclast %xmm1, %xmm0, %xmm14
vpternlogq $150, %xmm7, %xmm21, %xmm14
vpbroadcastq .LCPI2_11(%rip), %xmm0
vpshufb %xmm17, %xmm14, %xmm6
vaesenclast %xmm0, %xmm6, %xmm15
vpslldq $4, %xmm9, %xmm0
vpslldq $8, %xmm9, %xmm6
vpslldq $12, %xmm9, %xmm7
vpternlogq $150, %xmm6, %xmm0, %xmm7
vpslldq $4, %xmm14, %xmm0
vpslldq $8, %xmm14, %xmm6
vpslldq $12, %xmm14, %xmm9
vpternlogq $150, %xmm6, %xmm0, %xmm9
vpternlogq $150, %xmm7, %xmm8, %xmm15
vmovaps %xmm14, -112(%rsp)
vmovdqa %xmm15, -80(%rsp)
vpshufd $255, %xmm15, %xmm0
vaesenclast %xmm1, %xmm0, %xmm7
vpternlogq $150, %xmm9, %xmm14, %xmm7
vpsrldq $8, %xmm2, %xmm0
vpshufd $78, %xmm4, %xmm15
vpternlogq $150, %xmm0, %xmm5, %xmm15
cmpq $96, %r8
vmovaps %xmm13, 16(%rsp)
jb .LBB2_6
vmovdqa %xmm7, %xmm13
vmovapd %xmm10, %xmm23
vmovapd %xmm12, %xmm22
movq %r8, %rax
vmovdqa64 %xmm16, %xmm8
vmovdqa 64(%rsp), %xmm14
vmovdqa -16(%rsp), %xmm10
vmovdqa %xmm15, %xmm12
vmovdqa %xmm11, %xmm15
vmovdqa 48(%rsp), %xmm11
.p2align 4, 0x90
.LBB2_25:
vmovdqu 48(%rcx), %xmm0
vmovdqu 64(%rcx), %xmm2
vmovdqu 80(%rcx), %xmm4
vpclmulqdq $0, %xmm4, %xmm3, %xmm5
vpclmulqdq $1, %xmm4, %xmm3, %xmm6
vpclmulqdq $16, %xmm4, %xmm3, %xmm7
vpxor %xmm6, %xmm7, %xmm6
vpclmulqdq $0, %xmm2, %xmm10, %xmm7
vpclmulqdq $1, %xmm2, %xmm10, %xmm9
vpclmulqdq $1, -16(%rsp), %xmm2, %xmm10
vpternlogq $150, %xmm9, %xmm6, %xmm10
vpclmulqdq $0, %xmm0, %xmm15, %xmm6
vpternlogq $150, %xmm5, %xmm7, %xmm6
vpclmulqdq $1, %xmm0, %xmm15, %xmm5
vpclmulqdq $16, %xmm0, %xmm15, %xmm7
vpternlogq $150, %xmm5, %xmm10, %xmm7
vmovdqa -16(%rsp), %xmm10
vmovdqu 16(%rcx), %xmm5
vmovdqu 32(%rcx), %xmm9
vpclmulqdq $17, %xmm4, %xmm3, %xmm4
vpclmulqdq $17, %xmm2, %xmm10, %xmm2
vpclmulqdq $17, %xmm0, %xmm15, %xmm0
vpternlogq $150, %xmm4, %xmm2, %xmm0
vpclmulqdq $1, %xmm9, %xmm11, %xmm2
vpclmulqdq $16, %xmm9, %xmm11, %xmm4
vpternlogq $150, %xmm2, %xmm7, %xmm4
vpclmulqdq $0, %xmm9, %xmm11, %xmm2
vpclmulqdq $0, %xmm5, %xmm12, %xmm7
vpternlogq $150, %xmm2, %xmm6, %xmm7
vpclmulqdq $1, %xmm5, %xmm12, %xmm2
vpclmulqdq $16, %xmm5, %xmm12, %xmm6
vpternlogq $150, %xmm2, %xmm4, %xmm6
vpxor (%rcx), %xmm1, %xmm1
vpclmulqdq $17, %xmm9, %xmm11, %xmm2
vpclmulqdq $17, %xmm5, %xmm12, %xmm4
vpternlogq $150, %xmm2, %xmm0, %xmm4
vpclmulqdq $1, %xmm1, %xmm14, %xmm0
vpclmulqdq $16, %xmm1, %xmm14, %xmm2
vpternlogq $150, %xmm0, %xmm6, %xmm2
vpclmulqdq $0, %xmm1, %xmm14, %xmm0
vpslldq $8, %xmm2, %xmm5
vpternlogq $150, %xmm0, %xmm7, %xmm5
vpclmulqdq $17, %xmm1, %xmm14, %xmm0
vpclmulqdq $16, %xmm8, %xmm5, %xmm1
vpshufd $78, %xmm5, %xmm5
vpxor %xmm5, %xmm1, %xmm5
vpclmulqdq $16, %xmm8, %xmm5, %xmm1
vpternlogq $150, %xmm0, %xmm4, %xmm1
vpsrldq $8, %xmm2, %xmm0
vpshufd $78, %xmm5, %xmm2
addq $96, %rcx
addq $-96, %rax
vpternlogq $150, %xmm0, %xmm2, %xmm1
cmpq $95, %rax
ja .LBB2_25
vmovdqa 16(%rsp), %xmm8
vmovapd -80(%rsp), %xmm14
vmovdqa %xmm15, %xmm11
vmovdqa %xmm12, %xmm15
vmovdqa64 %xmm21, %xmm29
vmovapd %xmm22, %xmm12
vmovapd %xmm23, %xmm10
vmovdqa %xmm13, %xmm7
jmp .LBB2_7
.LBB2_6:
vmovdqa %xmm13, %xmm8
vmovdqa64 %xmm21, %xmm29
movq %r8, %rax
vmovapd -80(%rsp), %xmm14
.LBB2_7:
vpslldq $4, %xmm14, %xmm2
vpslldq $8, %xmm14, %xmm4
vpslldq $12, %xmm14, %xmm0
vpshufb %xmm17, %xmm7, %xmm5
vpbroadcastq .LCPI2_12(%rip), %xmm9
movq 280(%rsp), %rdx
cmpq $16, %rax
vmovdqa64 %xmm18, %xmm13
jb .LBB2_8
leaq -16(%rax), %rdi
testb $16, %dil
jne .LBB2_18
vpxor (%rcx), %xmm1, %xmm1
addq $16, %rcx
vmovdqa64 %xmm7, %xmm17
vpclmulqdq $0, %xmm1, %xmm3, %xmm7
vmovdqa %xmm8, %xmm13
vpclmulqdq $1, %xmm1, %xmm3, %xmm8
vmovdqa64 %xmm9, %xmm19
vpclmulqdq $16, %xmm1, %xmm3, %xmm9
vpxor %xmm8, %xmm9, %xmm8
vpclmulqdq $17, %xmm1, %xmm3, %xmm1
vpslldq $8, %xmm8, %xmm9
vpxor %xmm7, %xmm9, %xmm7
vpsrldq $8, %xmm8, %xmm8
vmovdqa64 %xmm16, %xmm6
vpclmulqdq $16, %xmm6, %xmm7, %xmm9
vpshufd $78, %xmm7, %xmm7
vpxor %xmm7, %xmm9, %xmm7
vpclmulqdq $16, %xmm6, %xmm7, %xmm9
vpshufd $78, %xmm7, %xmm7
vpxor %xmm1, %xmm9, %xmm1
vpternlogq $150, %xmm8, %xmm7, %xmm1
vmovdqa64 %xmm17, %xmm7
vmovdqa %xmm13, %xmm8
vmovdqa64 %xmm18, %xmm13
vmovdqa64 %xmm19, %xmm9
movq %rdi, %rax
jmp .LBB2_20
.LBB2_8:
movq %rax, %rdi
vmovdqa64 %xmm16, %xmm6
jmp .LBB2_9
.LBB2_18:
vmovdqa64 %xmm16, %xmm6
.LBB2_20:
cmpq $16, %rdi
jb .LBB2_9
vmovdqa64 %xmm9, %xmm19
vmovdqa64 %xmm7, %xmm17
vmovapd %xmm10, %xmm16
.p2align 4, 0x90
.LBB2_22:
vpxor (%rcx), %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm3, %xmm7
vpclmulqdq $1, %xmm1, %xmm3, %xmm8
vpclmulqdq $16, %xmm1, %xmm3, %xmm9
vpxor %xmm8, %xmm9, %xmm8
vpclmulqdq $17, %xmm1, %xmm3, %xmm1
vpslldq $8, %xmm8, %xmm9
vpxor %xmm7, %xmm9, %xmm7
vpsrldq $8, %xmm8, %xmm8
vpclmulqdq $16, %xmm6, %xmm7, %xmm9
vpshufd $78, %xmm7, %xmm7
vpxor %xmm7, %xmm9, %xmm7
vpclmulqdq $16, %xmm6, %xmm7, %xmm9
vpshufd $78, %xmm7, %xmm7
vpternlogq $150, %xmm1, %xmm8, %xmm9
vpternlogq $150, 16(%rcx), %xmm7, %xmm9
addq $-32, %rax
addq $32, %rcx
vpclmulqdq $0, %xmm9, %xmm3, %xmm1
vpclmulqdq $1, %xmm9, %xmm3, %xmm7
vpclmulqdq $16, %xmm9, %xmm3, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $17, %xmm9, %xmm3, %xmm8
vpslldq $8, %xmm7, %xmm9
vpxor %xmm1, %xmm9, %xmm1
vpsrldq $8, %xmm7, %xmm7
vpclmulqdq $16, %xmm6, %xmm1, %xmm9
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm9, %xmm1
vpclmulqdq $16, %xmm6, %xmm1, %xmm9
vpshufd $78, %xmm1, %xmm10
vpxor %xmm8, %xmm9, %xmm1
vpternlogq $150, %xmm7, %xmm10, %xmm1
cmpq $15, %rax
ja .LBB2_22
movq %rax, %rdi
vmovdqa 16(%rsp), %xmm8
vmovdqa64 %xmm18, %xmm13
vmovapd %xmm16, %xmm10
vmovdqa64 %xmm17, %xmm7
vmovdqa64 %xmm19, %xmm9
.LBB2_9:
vpternlogq $150, %xmm4, %xmm2, %xmm0
vaesenclast %xmm9, %xmm5, %xmm9
vmovdqu64 (%rdx), %xmm27
testq %rdi, %rdi
je .LBB2_11
movl $-1, %eax
bzhil %edi, %eax, %eax
kmovd %eax, %k1
vmovdqu8 (%rcx), %xmm2 {%k1} {z}
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm3, %xmm2
vpclmulqdq $1, %xmm1, %xmm3, %xmm4
vpclmulqdq $16, %xmm1, %xmm3, %xmm5
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $17, %xmm1, %xmm3, %xmm1
vpslldq $8, %xmm4, %xmm5
vpxor %xmm5, %xmm2, %xmm2
vpsrldq $8, %xmm4, %xmm4
vpclmulqdq $16, %xmm6, %xmm2, %xmm5
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm5, %xmm2
vpclmulqdq $16, %xmm6, %xmm2, %xmm5
vpshufd $78, %xmm2, %xmm2
vpxor %xmm1, %xmm5, %xmm1
vpternlogq $150, %xmm4, %xmm2, %xmm1
.LBB2_11:
vmovq %r10, %xmm17
vmovd 8(%rsi), %xmm28
vmovq (%rsi), %xmm25
vmovq %r8, %xmm18
movq 296(%rsp), %rdx
vpternlogq $150, %xmm0, %xmm14, %xmm9
vporq .LCPI2_14(%rip), %xmm27, %xmm23
cmpq $96, %r10
vmovdqa %xmm7, 32(%rsp)
vmovdqa %xmm9, (%rsp)
vmovaps %xmm3, -64(%rsp)
vmovdqa64 %xmm27, 240(%rsp)
jb .LBB2_12
vmovdqa %xmm11, 80(%rsp)
vpaddd .LCPI2_0(%rip), %xmm23, %xmm0
vpaddd .LCPI2_1(%rip), %xmm23, %xmm2
vpaddd .LCPI2_2(%rip), %xmm23, %xmm4
vpaddd .LCPI2_3(%rip), %xmm23, %xmm5
vpaddd .LCPI2_4(%rip), %xmm23, %xmm6
vmovdqa64 %xmm7, %xmm19
vpxorq %xmm31, %xmm23, %xmm7
vpxorq %xmm0, %xmm31, %xmm0
vpxorq %xmm2, %xmm31, %xmm2
vpxorq %xmm4, %xmm31, %xmm4
vpxorq %xmm5, %xmm31, %xmm5
vpxorq %xmm6, %xmm31, %xmm6
vmovaps -48(%rsp), %xmm11
#APP
vaesenc %xmm11, %xmm7, %xmm7
vaesenc %xmm11, %xmm0, %xmm0
vaesenc %xmm11, %xmm2, %xmm2
vaesenc %xmm11, %xmm4, %xmm4
vaesenc %xmm11, %xmm5, %xmm5
vaesenc %xmm11, %xmm6, %xmm6
#NO_APP
vmovdqa64 %xmm26, %xmm11
vmovdqa64 %xmm26, 160(%rsp)
#APP
vaesenc %xmm11, %xmm7, %xmm7
vaesenc %xmm11, %xmm0, %xmm0
vaesenc %xmm11, %xmm2, %xmm2
vaesenc %xmm11, %xmm4, %xmm4
vaesenc %xmm11, %xmm5, %xmm5
vaesenc %xmm11, %xmm6, %xmm6
#NO_APP
vmovapd %xmm12, 144(%rsp)
#APP
vaesenc %xmm12, %xmm7, %xmm7
vaesenc %xmm12, %xmm0, %xmm0
vaesenc %xmm12, %xmm2, %xmm2
vaesenc %xmm12, %xmm4, %xmm4
vaesenc %xmm12, %xmm5, %xmm5
vaesenc %xmm12, %xmm6, %xmm6
#NO_APP
vmovapd %xmm10, 128(%rsp)
#APP
vaesenc %xmm10, %xmm7, %xmm7
vaesenc %xmm10, %xmm0, %xmm0
vaesenc %xmm10, %xmm2, %xmm2
vaesenc %xmm10, %xmm4, %xmm4
vaesenc %xmm10, %xmm5, %xmm5
vaesenc %xmm10, %xmm6, %xmm6
#NO_APP
#APP
vaesenc %xmm8, %xmm7, %xmm7
vaesenc %xmm8, %xmm0, %xmm0
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm8, %xmm4, %xmm4
vaesenc %xmm8, %xmm5, %xmm5
vaesenc %xmm8, %xmm6, %xmm6
#NO_APP
#APP
vaesenc %xmm13, %xmm7, %xmm7
vaesenc %xmm13, %xmm0, %xmm0
vaesenc %xmm13, %xmm2, %xmm2
vaesenc %xmm13, %xmm4, %xmm4
vaesenc %xmm13, %xmm5, %xmm5
vaesenc %xmm13, %xmm6, %xmm6
#NO_APP
vmovaps -32(%rsp), %xmm8
#APP
vaesenc %xmm8, %xmm7, %xmm7
vaesenc %xmm8, %xmm0, %xmm0
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm8, %xmm4, %xmm4
vaesenc %xmm8, %xmm5, %xmm5
vaesenc %xmm8, %xmm6, %xmm6
#NO_APP
vmovaps -128(%rsp), %xmm8
#APP
vaesenc %xmm8, %xmm7, %xmm7
vaesenc %xmm8, %xmm0, %xmm0
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm8, %xmm4, %xmm4
vaesenc %xmm8, %xmm5, %xmm5
vaesenc %xmm8, %xmm6, %xmm6
#NO_APP
vmovdqa64 %xmm29, %xmm8
#APP
vaesenc %xmm8, %xmm7, %xmm7
vaesenc %xmm8, %xmm0, %xmm0
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm8, %xmm4, %xmm4
vaesenc %xmm8, %xmm5, %xmm5
vaesenc %xmm8, %xmm6, %xmm6
#NO_APP
vmovaps -96(%rsp), %xmm10
#APP
vaesenc %xmm10, %xmm7, %xmm7
vaesenc %xmm10, %xmm0, %xmm0
vaesenc %xmm10, %xmm2, %xmm2
vaesenc %xmm10, %xmm4, %xmm4
vaesenc %xmm10, %xmm5, %xmm5
vaesenc %xmm10, %xmm6, %xmm6
#NO_APP
vmovaps -112(%rsp), %xmm10
#APP
vaesenc %xmm10, %xmm7, %xmm7
vaesenc %xmm10, %xmm0, %xmm0
vaesenc %xmm10, %xmm2, %xmm2
vaesenc %xmm10, %xmm4, %xmm4
vaesenc %xmm10, %xmm5, %xmm5
vaesenc %xmm10, %xmm6, %xmm6
#NO_APP
#APP
vaesenc %xmm14, %xmm7, %xmm7
vaesenc %xmm14, %xmm0, %xmm0
vaesenc %xmm14, %xmm2, %xmm2
vaesenc %xmm14, %xmm4, %xmm4
vaesenc %xmm14, %xmm5, %xmm5
vaesenc %xmm14, %xmm6, %xmm6
#NO_APP
vmovdqa64 %xmm19, %xmm10
#APP
vaesenc %xmm10, %xmm7, %xmm7
vaesenc %xmm10, %xmm0, %xmm0
vaesenc %xmm10, %xmm2, %xmm2
vaesenc %xmm10, %xmm4, %xmm4
vaesenc %xmm10, %xmm5, %xmm5
vaesenc %xmm10, %xmm6, %xmm6
#NO_APP
#APP
vaesenclast %xmm9, %xmm7, %xmm7
vaesenclast %xmm9, %xmm0, %xmm0
vaesenclast %xmm9, %xmm2, %xmm2
vaesenclast %xmm9, %xmm4, %xmm4
vaesenclast %xmm9, %xmm5, %xmm5
vaesenclast %xmm9, %xmm6, %xmm6
#NO_APP
vpxorq (%r9), %xmm7, %xmm22
leaq 96(%r9), %rcx
leaq 96(%rdx), %rax
vxorpd 16(%r9), %xmm0, %xmm9
vpxor 32(%r9), %xmm2, %xmm10
vpxor 48(%r9), %xmm4, %xmm11
vmovdqa64 %xmm29, %xmm0
vpxor 64(%r9), %xmm5, %xmm12
vmovdqa %xmm13, %xmm2
vpxor 80(%r9), %xmm6, %xmm13
vmovdqu64 %xmm22, (%rdx)
vmovupd %xmm9, 16(%rdx)
vmovdqu %xmm10, 32(%rdx)
vmovdqu %xmm11, 48(%rdx)
vmovdqu %xmm12, 64(%rdx)
addq $-96, %r10
vmovdqu %xmm13, 80(%rdx)
vpaddd .LCPI2_15(%rip), %xmm23, %xmm21
cmpq $96, %r10
jb .LBB2_28
vmovdqa64 %xmm18, 176(%rsp)
vmovdqa64 %xmm17, 192(%rsp)
vmovdqa64 %xmm25, 208(%rsp)
vmovdqa64 %xmm28, 224(%rsp)
vmovdqa %xmm2, 112(%rsp)
vmovdqa64 -32(%rsp), %xmm19
vmovaps -128(%rsp), %xmm25
vmovdqa %xmm0, 96(%rsp)
vmovaps -96(%rsp), %xmm27
vmovaps -112(%rsp), %xmm20
vmovdqa64 %xmm14, %xmm24
vmovdqa64 64(%rsp), %xmm29
vmovdqa64 -16(%rsp), %xmm30
vmovdqa64 48(%rsp), %xmm26
vmovdqa64 80(%rsp), %xmm16
vmovdqa64 %xmm15, %xmm17
vmovapd (%rsp), %xmm28
.p2align 4, 0x90
.LBB2_31:
vpaddd .LCPI2_16(%rip), %xmm23, %xmm0
vpaddd .LCPI2_17(%rip), %xmm23, %xmm2
vpaddd .LCPI2_18(%rip), %xmm23, %xmm4
vpaddd .LCPI2_19(%rip), %xmm23, %xmm5
vpaddd .LCPI2_20(%rip), %xmm23, %xmm15
vpxorq %xmm31, %xmm21, %xmm6
vpxorq %xmm0, %xmm31, %xmm14
vpxorq %xmm2, %xmm31, %xmm8
vpxorq %xmm4, %xmm31, %xmm7
vpxorq %xmm5, %xmm31, %xmm0
vpxorq %xmm15, %xmm31, %xmm2
vpxor %xmm5, %xmm5, %xmm5
vpxor %xmm4, %xmm4, %xmm4
vpxor %xmm15, %xmm15, %xmm15
vmovapd %xmm9, %xmm23
vmovdqa64 %xmm10, %xmm18
vmovaps -64(%rsp), %xmm3
vmovaps -48(%rsp), %xmm10
#APP
vaesenc %xmm10, %xmm6, %xmm6
vaesenc %xmm10, %xmm14, %xmm14
vaesenc %xmm10, %xmm8, %xmm8
vaesenc %xmm10, %xmm7, %xmm7
vaesenc %xmm10, %xmm0, %xmm0
vaesenc %xmm10, %xmm2, %xmm2
vpclmulqdq $16, %xmm3, %xmm13, %xmm9
vpxor %xmm4, %xmm9, %xmm4
vpclmulqdq $0, %xmm3, %xmm13, %xmm9
vpxor %xmm5, %xmm9, %xmm5
vpclmulqdq $17, %xmm3, %xmm13, %xmm9
vpxor %xmm9, %xmm15, %xmm15
vpclmulqdq $1, %xmm3, %xmm13, %xmm9
vpxor %xmm4, %xmm9, %xmm4
#NO_APP
vmovaps 160(%rsp), %xmm3
#APP
vaesenc %xmm3, %xmm6, %xmm6
vaesenc %xmm3, %xmm14, %xmm14
vaesenc %xmm3, %xmm8, %xmm8
vaesenc %xmm3, %xmm7, %xmm7
vaesenc %xmm3, %xmm0, %xmm0
vaesenc %xmm3, %xmm2, %xmm2
#NO_APP
vmovdqa64 %xmm30, %xmm10
vmovaps 144(%rsp), %xmm3
#APP
vaesenc %xmm3, %xmm6, %xmm6
vaesenc %xmm3, %xmm14, %xmm14
vaesenc %xmm3, %xmm8, %xmm8
vaesenc %xmm3, %xmm7, %xmm7
vaesenc %xmm3, %xmm0, %xmm0
vaesenc %xmm3, %xmm2, %xmm2
vpclmulqdq $16, %xmm10, %xmm12, %xmm9
vpxor %xmm4, %xmm9, %xmm4
vpclmulqdq $0, %xmm10, %xmm12, %xmm9
vpxor %xmm5, %xmm9, %xmm5
vpclmulqdq $17, %xmm10, %xmm12, %xmm9
vpxor %xmm9, %xmm15, %xmm15
vpclmulqdq $1, %xmm10, %xmm12, %xmm9
vpxor %xmm4, %xmm9, %xmm4
#NO_APP
vmovaps 128(%rsp), %xmm3
#APP
vaesenc %xmm3, %xmm6, %xmm6
vaesenc %xmm3, %xmm14, %xmm14
vaesenc %xmm3, %xmm8, %xmm8
vaesenc %xmm3, %xmm7, %xmm7
vaesenc %xmm3, %xmm0, %xmm0
vaesenc %xmm3, %xmm2, %xmm2
#NO_APP
vmovdqa64 %xmm16, %xmm10
vmovaps 16(%rsp), %xmm3
#APP
vaesenc %xmm3, %xmm6, %xmm6
vaesenc %xmm3, %xmm14, %xmm14
vaesenc %xmm3, %xmm8, %xmm8
vaesenc %xmm3, %xmm7, %xmm7
vaesenc %xmm3, %xmm0, %xmm0
vaesenc %xmm3, %xmm2, %xmm2
vpclmulqdq $16, %xmm10, %xmm11, %xmm9
vpxor %xmm4, %xmm9, %xmm4
vpclmulqdq $0, %xmm10, %xmm11, %xmm9
vpxor %xmm5, %xmm9, %xmm5
vpclmulqdq $17, %xmm10, %xmm11, %xmm9
vpxor %xmm9, %xmm15, %xmm15
vpclmulqdq $1, %xmm10, %xmm11, %xmm9
vpxor %xmm4, %xmm9, %xmm4
#NO_APP
vmovaps 112(%rsp), %xmm3
#APP
vaesenc %xmm3, %xmm6, %xmm6
vaesenc %xmm3, %xmm14, %xmm14
vaesenc %xmm3, %xmm8, %xmm8
vaesenc %xmm3, %xmm7, %xmm7
vaesenc %xmm3, %xmm0, %xmm0
vaesenc %xmm3, %xmm2, %xmm2
#NO_APP
vmovdqa64 %xmm19, %xmm3
#APP
vaesenc %xmm3, %xmm6, %xmm6
vaesenc %xmm3, %xmm14, %xmm14
vaesenc %xmm3, %xmm8, %xmm8
vaesenc %xmm3, %xmm7, %xmm7
vaesenc %xmm3, %xmm0, %xmm0
vaesenc %xmm3, %xmm2, %xmm2
#NO_APP
vmovdqa64 %xmm26, %xmm3
vmovaps %xmm25, %xmm10
vmovdqa64 %xmm18, %xmm11
#APP
vaesenc %xmm10, %xmm6, %xmm6
vaesenc %xmm10, %xmm14, %xmm14
vaesenc %xmm10, %xmm8, %xmm8
vaesenc %xmm10, %xmm7, %xmm7
vaesenc %xmm10, %xmm0, %xmm0
vaesenc %xmm10, %xmm2, %xmm2
vpclmulqdq $16, %xmm3, %xmm11, %xmm9
vpxor %xmm4, %xmm9, %xmm4
vpclmulqdq $0, %xmm3, %xmm11, %xmm9
vpxor %xmm5, %xmm9, %xmm5
vpclmulqdq $17, %xmm3, %xmm11, %xmm9
vpxor %xmm9, %xmm15, %xmm15
vpclmulqdq $1, %xmm3, %xmm11, %xmm9
vpxor %xmm4, %xmm9, %xmm4
#NO_APP
vmovaps 96(%rsp), %xmm3
#APP
vaesenc %xmm3, %xmm6, %xmm6
vaesenc %xmm3, %xmm14, %xmm14
vaesenc %xmm3, %xmm8, %xmm8
vaesenc %xmm3, %xmm7, %xmm7
vaesenc %xmm3, %xmm0, %xmm0
vaesenc %xmm3, %xmm2, %xmm2
#NO_APP
vmovdqa64 %xmm17, %xmm10
vmovaps %xmm27, %xmm3
vmovapd %xmm23, %xmm11
#APP
vaesenc %xmm3, %xmm6, %xmm6
vaesenc %xmm3, %xmm14, %xmm14
vaesenc %xmm3, %xmm8, %xmm8
vaesenc %xmm3, %xmm7, %xmm7
vaesenc %xmm3, %xmm0, %xmm0
vaesenc %xmm3, %xmm2, %xmm2
vpclmulqdq $16, %xmm10, %xmm11, %xmm9
vpxor %xmm4, %xmm9, %xmm4
vpclmulqdq $0, %xmm10, %xmm11, %xmm9
vpxor %xmm5, %xmm9, %xmm5
vpclmulqdq $17, %xmm10, %xmm11, %xmm9
vpxor %xmm9, %xmm15, %xmm15
vpclmulqdq $1, %xmm10, %xmm11, %xmm9
vpxor %xmm4, %xmm9, %xmm4
#NO_APP
vpxorq %xmm1, %xmm22, %xmm1
vmovaps %xmm20, %xmm3
#APP
vaesenc %xmm3, %xmm6, %xmm6
vaesenc %xmm3, %xmm14, %xmm14
vaesenc %xmm3, %xmm8, %xmm8
vaesenc %xmm3, %xmm7, %xmm7
vaesenc %xmm3, %xmm0, %xmm0
vaesenc %xmm3, %xmm2, %xmm2
#NO_APP
vmovdqa64 %xmm29, %xmm3
vmovdqa64 %xmm24, %xmm10
#APP
vaesenc %xmm10, %xmm6, %xmm6
vaesenc %xmm10, %xmm14, %xmm14
vaesenc %xmm10, %xmm8, %xmm8
vaesenc %xmm10, %xmm7, %xmm7
vaesenc %xmm10, %xmm0, %xmm0
vaesenc %xmm10, %xmm2, %xmm2
vpclmulqdq $16, %xmm3, %xmm1, %xmm9
vpxor %xmm4, %xmm9, %xmm4
vpclmulqdq $0, %xmm3, %xmm1, %xmm9
vpxor %xmm5, %xmm9, %xmm5
vpclmulqdq $17, %xmm3, %xmm1, %xmm9
vpxor %xmm9, %xmm15, %xmm15
vpclmulqdq $1, %xmm3, %xmm1, %xmm9
vpxor %xmm4, %xmm9, %xmm4
#NO_APP
vpxor %xmm3, %xmm3, %xmm3
vpunpcklqdq %xmm4, %xmm3, %xmm1
vpunpckhqdq %xmm3, %xmm4, %xmm4
vpxor %xmm4, %xmm15, %xmm4
vmovaps 32(%rsp), %xmm3
#APP
vaesenc %xmm3, %xmm6, %xmm6
vaesenc %xmm3, %xmm14, %xmm14
vaesenc %xmm3, %xmm8, %xmm8
vaesenc %xmm3, %xmm7, %xmm7
vaesenc %xmm3, %xmm0, %xmm0
vaesenc %xmm3, %xmm2, %xmm2
#NO_APP
vmovapd %xmm28, %xmm3
#APP
vaesenclast %xmm3, %xmm6, %xmm6
vaesenclast %xmm3, %xmm14, %xmm14
vaesenclast %xmm3, %xmm8, %xmm8
vaesenclast %xmm3, %xmm7, %xmm7
vaesenclast %xmm3, %xmm0, %xmm0
vaesenclast %xmm3, %xmm2, %xmm2
#NO_APP
vpxor %xmm1, %xmm5, %xmm1
vpshufd $78, %xmm1, %xmm5
vpbroadcastq .LCPI2_13(%rip), %xmm9
vpclmulqdq $16, %xmm9, %xmm1, %xmm1
vpxor %xmm5, %xmm1, %xmm1
vpxorq (%rcx), %xmm6, %xmm22
vpclmulqdq $16, %xmm9, %xmm1, %xmm5
vpshufd $78, %xmm1, %xmm1
vxorpd 16(%rcx), %xmm14, %xmm9
vpxor 32(%rcx), %xmm8, %xmm10
vpxor 48(%rcx), %xmm7, %xmm11
vpxor 64(%rcx), %xmm0, %xmm12
vpxor 80(%rcx), %xmm2, %xmm13
vpternlogq $150, %xmm5, %xmm4, %xmm1
addq $96, %rcx
vmovdqu64 %xmm22, (%rax)
vmovupd %xmm9, 16(%rax)
vmovdqu %xmm10, 32(%rax)
vmovdqu %xmm11, 48(%rax)
vmovdqu %xmm12, 64(%rax)
vmovdqu %xmm13, 80(%rax)
addq $96, %rax
addq $-96, %r10
vmovdqa64 %xmm21, %xmm23
vpaddd .LCPI2_15(%rip), %xmm21, %xmm21
cmpq $95, %r10
ja .LBB2_31
vpbroadcastq .LCPI2_13(%rip), %xmm8
vmovdqa64 112(%rsp), %xmm27
vmovdqa 96(%rsp), %xmm14
vmovdqa64 %xmm17, %xmm15
vmovdqa64 224(%rsp), %xmm28
vmovdqa64 208(%rsp), %xmm25
vmovdqa64 192(%rsp), %xmm17
vmovdqa64 176(%rsp), %xmm18
vmovapd -64(%rsp), %xmm3
jmp .LBB2_29
.LBB2_12:
vmovdqa64 %xmm13, %xmm27
vmovdqa -32(%rsp), %xmm7
vmovdqa -128(%rsp), %xmm6
vmovdqa64 %xmm26, %xmm21
vmovdqa64 %xmm29, %xmm5
jmp .LBB2_13
.LBB2_28:
vmovdqa64 %xmm2, %xmm27
vmovdqa %xmm0, %xmm14
vpbroadcastq .LCPI2_13(%rip), %xmm8
.LBB2_29:
vpclmulqdq $0, %xmm13, %xmm3, %xmm0
vpclmulqdq $1, %xmm13, %xmm3, %xmm2
vpclmulqdq $16, %xmm13, %xmm3, %xmm4
vpxor %xmm2, %xmm4, %xmm2
vmovdqa -16(%rsp), %xmm6
vpclmulqdq $1, %xmm12, %xmm6, %xmm4
vpclmulqdq $16, %xmm12, %xmm6, %xmm5
vpternlogq $150, %xmm4, %xmm2, %xmm5
vpclmulqdq $0, %xmm12, %xmm6, %xmm2
vmovdqa 80(%rsp), %xmm7
vpclmulqdq $0, %xmm11, %xmm7, %xmm4
vpternlogq $150, %xmm0, %xmm2, %xmm4
vpclmulqdq $1, %xmm11, %xmm7, %xmm0
vpclmulqdq $16, %xmm11, %xmm7, %xmm2
vpternlogq $150, %xmm0, %xmm5, %xmm2
vpclmulqdq $17, %xmm12, %xmm6, %xmm0
vpclmulqdq $17, %xmm11, %xmm7, %xmm5
vpclmulqdq $17, %xmm13, %xmm3, %xmm6
vpternlogq $150, %xmm6, %xmm0, %xmm5
vmovdqa 48(%rsp), %xmm7
vpclmulqdq $1, %xmm10, %xmm7, %xmm0
vpclmulqdq $16, %xmm10, %xmm7, %xmm6
vpternlogq $150, %xmm0, %xmm2, %xmm6
vpclmulqdq $0, %xmm10, %xmm7, %xmm0
vpclmulqdq $0, %xmm9, %xmm15, %xmm2
vpternlogq $150, %xmm0, %xmm4, %xmm2
vpclmulqdq $1, %xmm9, %xmm15, %xmm0
vpclmulqdq $16, %xmm9, %xmm15, %xmm4
vpternlogq $150, %xmm0, %xmm6, %xmm4
vpclmulqdq $17, %xmm10, %xmm7, %xmm0
vpclmulqdq $17, %xmm9, %xmm15, %xmm6
vpxorq %xmm1, %xmm22, %xmm1
vpternlogq $150, %xmm0, %xmm5, %xmm6
vmovdqa 64(%rsp), %xmm7
vpclmulqdq $1, %xmm1, %xmm7, %xmm0
vpclmulqdq $16, %xmm1, %xmm7, %xmm5
vpternlogq $150, %xmm0, %xmm4, %xmm5
vpclmulqdq $0, %xmm1, %xmm7, %xmm0
vpslldq $8, %xmm5, %xmm4
vpternlogq $150, %xmm0, %xmm2, %xmm4
vpclmulqdq $17, %xmm1, %xmm7, %xmm0
vpclmulqdq $16, %xmm8, %xmm4, %xmm1
vpshufd $78, %xmm4, %xmm2
vpxor %xmm2, %xmm1, %xmm2
vpclmulqdq $16, %xmm8, %xmm2, %xmm1
vpternlogq $150, %xmm0, %xmm6, %xmm1
vpsrldq $8, %xmm5, %xmm0
vpshufd $78, %xmm2, %xmm2
vpternlogq $150, %xmm0, %xmm2, %xmm1
movq %rax, %rdx
movq %rcx, %r9
vmovdqa64 %xmm21, %xmm23
vmovdqa64 160(%rsp), %xmm21
vmovapd 144(%rsp), %xmm12
vmovapd 128(%rsp), %xmm10
vmovdqa 16(%rsp), %xmm8
vmovdqa -32(%rsp), %xmm7
vmovdqa -128(%rsp), %xmm6
vmovdqa %xmm14, %xmm5
.LBB2_13:
vmovdqa64 %xmm8, %xmm29
vmovapd %xmm10, %xmm26
vmovapd %xmm12, %xmm22
vpunpcklqdq %xmm17, %xmm18, %xmm17
cmpq $16, %r10
jb .LBB2_14
vpmovsxbq .LCPI2_23(%rip), %xmm30
vmovdqa64 -96(%rsp), %xmm16
vmovdqa64 -112(%rsp), %xmm19
vmovdqa -80(%rsp), %xmm15
vmovdqa 32(%rsp), %xmm9
vmovdqa -48(%rsp), %xmm11
vmovdqa64 %xmm31, %xmm18
vmovdqa (%rsp), %xmm13
vmovdqa64 %xmm21, %xmm12
vmovapd %xmm22, %xmm10
vmovapd %xmm26, %xmm8
vmovdqa64 %xmm29, %xmm2
vmovdqa64 %xmm27, %xmm0
vpbroadcastq .LCPI2_13(%rip), %xmm3
vmovdqa -64(%rsp), %xmm14
.p2align 4, 0x90
.LBB2_34:
vpxorq %xmm18, %xmm23, %xmm4
vaesenc %xmm11, %xmm4, %xmm4
vaesenc %xmm12, %xmm4, %xmm4
vaesenc %xmm10, %xmm4, %xmm4
vaesenc %xmm8, %xmm4, %xmm4
vaesenc %xmm2, %xmm4, %xmm4
vaesenc %xmm0, %xmm4, %xmm4
vaesenc %xmm7, %xmm4, %xmm4
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm5, %xmm4, %xmm4
vmovdqa64 %xmm16, %xmm6
vaesenc %xmm6, %xmm4, %xmm4
vmovdqa64 %xmm19, %xmm6
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm15, %xmm4, %xmm4
vaesenc %xmm9, %xmm4, %xmm4
vaesenclast %xmm13, %xmm4, %xmm4
vmovdqa64 %xmm5, %xmm24
vpxor (%r9), %xmm4, %xmm5
vpxor %xmm1, %xmm5, %xmm1
vpclmulqdq $1, %xmm1, %xmm14, %xmm4
vpclmulqdq $16, %xmm1, %xmm14, %xmm6
vpxor %xmm4, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm14, %xmm4
vpclmulqdq $17, %xmm1, %xmm14, %xmm1
vpslldq $8, %xmm6, %xmm7
vpxor %xmm7, %xmm4, %xmm4
vpclmulqdq $16, %xmm3, %xmm4, %xmm7
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm7, %xmm4
vpclmulqdq $16, %xmm3, %xmm4, %xmm7
vpxor %xmm1, %xmm7, %xmm1
vpshufd $78, %xmm4, %xmm7
leaq 16(%r9), %rcx
leaq 16(%rdx), %rax
addq $-16, %r10
vpaddd %xmm30, %xmm23, %xmm4
vmovdqu %xmm5, (%rdx)
vpsrldq $8, %xmm6, %xmm5
vmovdqa -128(%rsp), %xmm6
vpternlogq $150, %xmm5, %xmm7, %xmm1
vmovdqa64 %xmm24, %xmm5
vmovdqa -32(%rsp), %xmm7
movq %rax, %rdx
vmovdqa64 %xmm4, %xmm23
movq %rcx, %r9
cmpq $15, %r10
ja .LBB2_34
vpunpcklqdq %xmm28, %xmm25, %xmm18
vpsllq $3, %xmm17, %xmm17
testq %r10, %r10
je .LBB2_16
.LBB2_35:
movl $-1, %edx
bzhil %r10d, %edx, %edx
kmovd %edx, %k1
vmovdqa %xmm5, %xmm0
vmovdqu8 (%rcx), %xmm5 {%k1} {z}
vmovdqa64 %xmm31, %xmm2
vpxorq %xmm31, %xmm4, %xmm4
vmovdqa -48(%rsp), %xmm3
vmovdqa64 %xmm3, %xmm16
vaesenc %xmm3, %xmm4, %xmm4
vmovdqa64 %xmm21, %xmm12
vaesenc %xmm12, %xmm4, %xmm4
vmovapd %xmm22, %xmm14
vaesenc %xmm14, %xmm4, %xmm4
vmovapd %xmm26, %xmm10
vaesenc %xmm10, %xmm4, %xmm4
vmovdqa64 %xmm29, %xmm8
vaesenc %xmm8, %xmm4, %xmm4
vmovdqa64 %xmm27, %xmm11
vaesenc %xmm11, %xmm4, %xmm4
vaesenc %xmm7, %xmm4, %xmm4
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm0, %xmm4, %xmm4
vmovdqa -96(%rsp), %xmm3
vmovdqa64 %xmm3, %xmm23
vaesenc %xmm3, %xmm4, %xmm4
vmovdqa -112(%rsp), %xmm3
vmovdqa64 %xmm3, %xmm19
vaesenc %xmm3, %xmm4, %xmm4
vmovdqa -80(%rsp), %xmm15
vaesenc %xmm15, %xmm4, %xmm4
vmovdqa 32(%rsp), %xmm9
vaesenc %xmm9, %xmm4, %xmm4
vmovdqa (%rsp), %xmm3
vmovdqa64 %xmm3, %xmm20
vaesenclast %xmm3, %xmm4, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vmovdqu8 %xmm4, (%rax) {%k1}
vmovdqu8 (%rax), %xmm4 {%k1} {z}
vpxor %xmm4, %xmm1, %xmm1
vmovdqa -64(%rsp), %xmm3
vpclmulqdq $1, %xmm1, %xmm3, %xmm4
vpclmulqdq $16, %xmm1, %xmm3, %xmm5
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $0, %xmm1, %xmm3, %xmm5
vpclmulqdq $17, %xmm1, %xmm3, %xmm1
vpslldq $8, %xmm4, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vpshufd $78, %xmm5, %xmm6
vpbroadcastq .LCPI2_13(%rip), %xmm13
vpclmulqdq $16, %xmm13, %xmm5, %xmm5
vpxor %xmm6, %xmm5, %xmm5
vpshufd $78, %xmm5, %xmm6
vpclmulqdq $16, %xmm13, %xmm5, %xmm5
vpxor %xmm1, %xmm5, %xmm1
vmovdqa %xmm0, %xmm5
vpsrldq $8, %xmm4, %xmm4
vpternlogq $150, %xmm4, %xmm6, %xmm1
vmovdqa -128(%rsp), %xmm6
jmp .LBB2_36
.LBB2_14:
movq %rdx, %rax
movq %r9, %rcx
vmovdqa64 %xmm23, %xmm4
vpunpcklqdq %xmm28, %xmm25, %xmm18
vpsllq $3, %xmm17, %xmm17
testq %r10, %r10
jne .LBB2_35
.LBB2_16:
vmovdqa64 -96(%rsp), %xmm23
vmovdqa64 -112(%rsp), %xmm19
vmovdqa -80(%rsp), %xmm15
vmovdqa 32(%rsp), %xmm9
vmovdqa64 -48(%rsp), %xmm16
vmovdqa64 %xmm31, %xmm2
vmovdqa64 (%rsp), %xmm20
vmovdqa64 %xmm21, %xmm12
vmovapd %xmm22, %xmm14
vmovapd %xmm26, %xmm10
vmovdqa64 %xmm29, %xmm8
vmovdqa64 %xmm27, %xmm11
vpbroadcastq .LCPI2_13(%rip), %xmm13
vmovdqa -64(%rsp), %xmm3
.LBB2_36:
vpxorq %xmm17, %xmm1, %xmm0
vpclmulqdq $1, %xmm0, %xmm3, %xmm1
vpclmulqdq $16, %xmm0, %xmm3, %xmm4
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $0, %xmm0, %xmm3, %xmm4
vpclmulqdq $17, %xmm0, %xmm3, %xmm0
vpslldq $8, %xmm1, %xmm3
vpxor %xmm3, %xmm4, %xmm3
vpshufd $78, %xmm3, %xmm4
vpclmulqdq $16, %xmm13, %xmm3, %xmm3
vpxor %xmm4, %xmm3, %xmm3
vpclmulqdq $16, %xmm13, %xmm3, %xmm4
vpshufd $78, %xmm3, %xmm3
vpternlogq $150, %xmm18, %xmm0, %xmm4
vpsrldq $8, %xmm1, %xmm0
vpternlogq $150, %xmm0, %xmm3, %xmm4
vpternlogq $120, .LCPI2_21(%rip), %xmm4, %xmm2
vmovdqa64 %xmm16, %xmm0
vaesenc %xmm0, %xmm2, %xmm0
vaesenc %xmm12, %xmm0, %xmm0
vaesenc %xmm14, %xmm0, %xmm0
vaesenc %xmm10, %xmm0, %xmm0
vaesenc %xmm8, %xmm0, %xmm0
vaesenc %xmm11, %xmm0, %xmm0
vaesenc %xmm7, %xmm0, %xmm0
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm5, %xmm0, %xmm0
vmovdqa64 %xmm23, %xmm1
vaesenc %xmm1, %xmm0, %xmm0
vmovdqa64 %xmm19, %xmm1
vaesenc %xmm1, %xmm0, %xmm0
vaesenc %xmm15, %xmm0, %xmm0
vaesenc %xmm9, %xmm0, %xmm0
vmovdqa64 %xmm20, %xmm1
vaesenclast %xmm1, %xmm0, %xmm0
vpxor 240(%rsp), %xmm0, %xmm0
xorl %eax, %eax
vptest %xmm0, %xmm0
sete %al
.LBB2_37:
addq $264, %rsp
.cfi_def_cfa_offset 8
retq
.Lfunc_end2:
.size haberdashery_aes256gcmsiv_skylakex_decrypt, .Lfunc_end2-haberdashery_aes256gcmsiv_skylakex_decrypt
.cfi_endproc
.section .text.haberdashery_aes256gcmsiv_skylakex_is_supported,"ax",@progbits
.globl haberdashery_aes256gcmsiv_skylakex_is_supported
.p2align 4, 0x90
.type haberdashery_aes256gcmsiv_skylakex_is_supported,@function
haberdashery_aes256gcmsiv_skylakex_is_supported:
.cfi_startproc
movl $1, %eax
xorl %ecx, %ecx
#APP
movq %rbx, %rsi
cpuid
xchgq %rbx, %rsi
#NO_APP
movl %ecx, %esi
movl %edx, %edi
notl %edi
notl %esi
movl $7, %eax
xorl %ecx, %ecx
#APP
movq %rbx, %r8
cpuid
xchgq %rbx, %r8
#NO_APP
andl $1993871875, %esi
andl $125829120, %edi
orl %esi, %edi
notl %r8d
andl $-779157207, %r8d
xorl %eax, %eax
orl %edi, %r8d
sete %al
retq
.Lfunc_end3:
.size haberdashery_aes256gcmsiv_skylakex_is_supported, .Lfunc_end3-haberdashery_aes256gcmsiv_skylakex_is_supported
.cfi_endproc
.ident "rustc version 1.86.0-nightly (9cd60bd2c 2025-02-15)"
.section ".note.GNU-stack","",@progbits
|
ts-phantomnk90/haberdashery
| 71,836
|
asm/aes256gcm_streaming_skylake.s
|
# @generated
# https://github.com/facebookincubator/haberdashery/
.text
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI0_0:
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.LCPI0_1:
.quad 4294967297
.quad 4294967297
.LCPI0_8:
.quad 274877907008
.quad 274877907008
.LCPI0_9:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI0_10:
.zero 8
.quad -4467570830351532032
.section .rodata.cst4,"aM",@progbits,4
.p2align 2, 0x0
.LCPI0_2:
.long 0x00000002
.LCPI0_3:
.long 0x0c0f0e0d
.LCPI0_4:
.long 0x00000004
.LCPI0_5:
.long 0x00000008
.LCPI0_6:
.long 0x00000010
.LCPI0_7:
.long 0x00000020
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI0_11:
.quad -4467570830351532032
.section .text.haberdashery_aes256gcm_streaming_skylake_init_key,"ax",@progbits
.globl haberdashery_aes256gcm_streaming_skylake_init_key
.p2align 4, 0x90
.type haberdashery_aes256gcm_streaming_skylake_init_key,@function
haberdashery_aes256gcm_streaming_skylake_init_key:
.cfi_startproc
cmpq $32, %rdx
jne .LBB0_2
pushq %rax
.cfi_def_cfa_offset 16
vmovdqu (%rsi), %xmm5
vmovdqu 16(%rsi), %xmm4
vpslldq $4, %xmm5, %xmm0
vpslldq $8, %xmm5, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpslldq $12, %xmm5, %xmm1
vpbroadcastd .LCPI0_3(%rip), %xmm2
vpshufb %xmm2, %xmm4, %xmm3
vaesenclast .LCPI0_1(%rip), %xmm3, %xmm3
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm5, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm8
vmovdqa %xmm8, -16(%rsp)
vaesenc %xmm4, %xmm5, %xmm15
vpslldq $4, %xmm4, %xmm0
vpslldq $8, %xmm4, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpslldq $12, %xmm4, %xmm1
vpxor %xmm1, %xmm0, %xmm1
vpshufd $255, %xmm8, %xmm3
vpxor %xmm0, %xmm0, %xmm0
vaesenclast %xmm0, %xmm3, %xmm3
vpxor %xmm4, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm9
vmovdqa %xmm9, -32(%rsp)
vbroadcastss .LCPI0_2(%rip), %xmm3
vbroadcastss .LCPI0_3(%rip), %xmm1
#APP
vaesenc %xmm8, %xmm15, %xmm15
vpslldq $4, %xmm8, %xmm6
vpslldq $8, %xmm8, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpslldq $12, %xmm8, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpxor %xmm6, %xmm8, %xmm6
vpshufb %xmm1, %xmm9, %xmm10
vaesenclast %xmm3, %xmm10, %xmm10
vpxor %xmm6, %xmm10, %xmm10
#NO_APP
vmovaps %xmm10, %xmm8
vmovaps %xmm10, -48(%rsp)
#APP
vaesenc %xmm9, %xmm15, %xmm15
vpslldq $4, %xmm9, %xmm3
vpslldq $8, %xmm9, %xmm6
vpxor %xmm6, %xmm3, %xmm3
vpslldq $12, %xmm9, %xmm6
vpxor %xmm6, %xmm3, %xmm3
vpxor %xmm3, %xmm9, %xmm3
vpshufd $255, %xmm10, %xmm7
vaesenclast %xmm0, %xmm7, %xmm7
vpxor %xmm3, %xmm7, %xmm7
#NO_APP
vbroadcastss .LCPI0_4(%rip), %xmm3
vmovaps %xmm7, %xmm9
vmovaps %xmm7, -64(%rsp)
#APP
vaesenc %xmm8, %xmm15, %xmm15
vpslldq $4, %xmm8, %xmm6
vpslldq $8, %xmm8, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpslldq $12, %xmm8, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpxor %xmm6, %xmm8, %xmm6
vpshufb %xmm1, %xmm9, %xmm10
vaesenclast %xmm3, %xmm10, %xmm10
vpxor %xmm6, %xmm10, %xmm10
#NO_APP
vmovaps %xmm10, %xmm7
vmovaps %xmm10, -80(%rsp)
#APP
vaesenc %xmm9, %xmm15, %xmm15
vpslldq $4, %xmm9, %xmm3
vpslldq $8, %xmm9, %xmm6
vpxor %xmm6, %xmm3, %xmm3
vpslldq $12, %xmm9, %xmm6
vpxor %xmm6, %xmm3, %xmm3
vpxor %xmm3, %xmm9, %xmm3
vpshufd $255, %xmm10, %xmm8
vaesenclast %xmm0, %xmm8, %xmm8
vpxor %xmm3, %xmm8, %xmm8
#NO_APP
vmovaps %xmm8, -96(%rsp)
vbroadcastss .LCPI0_5(%rip), %xmm3
#APP
vaesenc %xmm7, %xmm15, %xmm15
vpslldq $4, %xmm7, %xmm6
vpslldq $8, %xmm7, %xmm9
vpxor %xmm6, %xmm9, %xmm6
vpslldq $12, %xmm7, %xmm9
vpxor %xmm6, %xmm9, %xmm6
vpxor %xmm7, %xmm6, %xmm6
vpshufb %xmm1, %xmm8, %xmm10
vaesenclast %xmm3, %xmm10, %xmm10
vpxor %xmm6, %xmm10, %xmm10
#NO_APP
vmovaps %xmm10, %xmm7
vmovaps %xmm10, -112(%rsp)
#APP
vaesenc %xmm8, %xmm15, %xmm15
vpslldq $4, %xmm8, %xmm3
vpslldq $8, %xmm8, %xmm6
vpxor %xmm6, %xmm3, %xmm3
vpslldq $12, %xmm8, %xmm6
vpxor %xmm6, %xmm3, %xmm3
vpxor %xmm3, %xmm8, %xmm3
vpshufd $255, %xmm10, %xmm9
vaesenclast %xmm0, %xmm9, %xmm9
vpxor %xmm3, %xmm9, %xmm9
#NO_APP
vbroadcastss .LCPI0_6(%rip), %xmm3
#APP
vaesenc %xmm7, %xmm15, %xmm15
vpslldq $4, %xmm7, %xmm6
vpslldq $8, %xmm7, %xmm11
vpxor %xmm6, %xmm11, %xmm6
vpslldq $12, %xmm7, %xmm11
vpxor %xmm6, %xmm11, %xmm6
vpxor %xmm7, %xmm6, %xmm6
vpshufb %xmm1, %xmm9, %xmm10
vaesenclast %xmm3, %xmm10, %xmm10
vpxor %xmm6, %xmm10, %xmm10
#NO_APP
#APP
vaesenc %xmm9, %xmm15, %xmm15
vpslldq $4, %xmm9, %xmm3
vpslldq $8, %xmm9, %xmm6
vpxor %xmm6, %xmm3, %xmm3
vpslldq $12, %xmm9, %xmm6
vpxor %xmm6, %xmm3, %xmm3
vpxor %xmm3, %xmm9, %xmm3
vpshufd $255, %xmm10, %xmm11
vaesenclast %xmm0, %xmm11, %xmm11
vpxor %xmm3, %xmm11, %xmm11
#NO_APP
vbroadcastss .LCPI0_7(%rip), %xmm3
#APP
vaesenc %xmm10, %xmm15, %xmm15
vpslldq $4, %xmm10, %xmm6
vpslldq $8, %xmm10, %xmm13
vpxor %xmm6, %xmm13, %xmm6
vpslldq $12, %xmm10, %xmm13
vpxor %xmm6, %xmm13, %xmm6
vpxor %xmm6, %xmm10, %xmm6
vpshufb %xmm1, %xmm11, %xmm12
vaesenclast %xmm3, %xmm12, %xmm12
vpxor %xmm6, %xmm12, %xmm12
#NO_APP
vpslldq $4, %xmm11, %xmm1
vpunpcklqdq %xmm11, %xmm0, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vinsertps $55, %xmm11, %xmm0, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpshufd $255, %xmm12, %xmm3
vaesenclast %xmm0, %xmm3, %xmm3
vpxor %xmm1, %xmm11, %xmm1
vpxor %xmm1, %xmm3, %xmm13
vpslldq $4, %xmm12, %xmm1
vpunpcklqdq %xmm12, %xmm0, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vinsertps $55, %xmm12, %xmm0, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpshufb %xmm2, %xmm13, %xmm2
vaesenclast .LCPI0_8(%rip), %xmm2, %xmm2
vpxor %xmm1, %xmm12, %xmm1
vpxor %xmm1, %xmm2, %xmm2
vmovdqa %xmm2, -128(%rsp)
vaesenc %xmm11, %xmm15, %xmm1
vaesenc %xmm12, %xmm1, %xmm1
vaesenc %xmm13, %xmm1, %xmm1
vaesenclast %xmm2, %xmm1, %xmm1
vpshufb .LCPI0_9(%rip), %xmm1, %xmm1
vpsrlq $63, %xmm1, %xmm2
vpaddq %xmm1, %xmm1, %xmm1
vpshufd $78, %xmm2, %xmm3
vpor %xmm3, %xmm1, %xmm1
vpblendd $12, %xmm2, %xmm0, %xmm0
vpsllq $63, %xmm0, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpsllq $62, %xmm0, %xmm2
vpsllq $57, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vpxor %xmm0, %xmm1, %xmm15
vpclmulqdq $0, %xmm15, %xmm15, %xmm0
vpbroadcastq .LCPI0_11(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm0, %xmm1
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpclmulqdq $17, %xmm15, %xmm15, %xmm1
vpshufd $78, %xmm0, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpclmulqdq $16, %xmm2, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm1
vpclmulqdq $16, %xmm15, %xmm1, %xmm0
vpclmulqdq $1, %xmm15, %xmm1, %xmm3
vpxor %xmm0, %xmm3, %xmm0
vpclmulqdq $0, %xmm15, %xmm1, %xmm3
vpslldq $8, %xmm0, %xmm6
vpxor %xmm6, %xmm3, %xmm3
vpclmulqdq $16, %xmm2, %xmm3, %xmm6
vpshufd $78, %xmm3, %xmm3
vpxor %xmm3, %xmm6, %xmm3
vpsrldq $8, %xmm0, %xmm0
vpclmulqdq $17, %xmm15, %xmm1, %xmm6
vpxor %xmm0, %xmm6, %xmm0
vpshufd $78, %xmm3, %xmm6
vpxor %xmm6, %xmm0, %xmm0
vpclmulqdq $16, %xmm2, %xmm3, %xmm3
vpxor %xmm3, %xmm0, %xmm3
vpclmulqdq $0, %xmm3, %xmm3, %xmm0
vpclmulqdq $16, %xmm2, %xmm0, %xmm6
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm6, %xmm0
vpclmulqdq $17, %xmm3, %xmm3, %xmm6
vpshufd $78, %xmm0, %xmm14
vpxor %xmm6, %xmm14, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm0
vpxor %xmm0, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm1, %xmm0
vpclmulqdq $16, %xmm2, %xmm0, %xmm14
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm14, %xmm0
vpclmulqdq $17, %xmm1, %xmm1, %xmm14
vpshufd $78, %xmm0, %xmm7
vpxor %xmm7, %xmm14, %xmm7
vpclmulqdq $16, %xmm2, %xmm0, %xmm0
vpxor %xmm0, %xmm7, %xmm0
vpclmulqdq $16, %xmm15, %xmm0, %xmm7
vpclmulqdq $1, %xmm15, %xmm0, %xmm14
vpxor %xmm7, %xmm14, %xmm7
vpclmulqdq $0, %xmm15, %xmm0, %xmm14
vpslldq $8, %xmm7, %xmm8
vpxor %xmm8, %xmm14, %xmm8
vpclmulqdq $16, %xmm2, %xmm8, %xmm14
vpshufd $78, %xmm8, %xmm8
vpxor %xmm8, %xmm14, %xmm8
vpsrldq $8, %xmm7, %xmm7
vpclmulqdq $17, %xmm15, %xmm0, %xmm14
vpxor %xmm7, %xmm14, %xmm7
vpclmulqdq $16, %xmm2, %xmm8, %xmm2
vpshufd $78, %xmm8, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpxor %xmm2, %xmm7, %xmm2
vmovdqa %xmm5, (%rdi)
vmovdqa %xmm4, 16(%rdi)
vmovaps -16(%rsp), %xmm4
vmovaps %xmm4, 32(%rdi)
vmovaps -32(%rsp), %xmm4
vmovaps %xmm4, 48(%rdi)
vmovaps -48(%rsp), %xmm4
vmovaps %xmm4, 64(%rdi)
vmovaps -64(%rsp), %xmm4
vmovaps %xmm4, 80(%rdi)
vmovaps -80(%rsp), %xmm4
vmovaps %xmm4, 96(%rdi)
vmovaps -96(%rsp), %xmm4
vmovaps %xmm4, 112(%rdi)
vmovaps -112(%rsp), %xmm4
vmovaps %xmm4, 128(%rdi)
vmovaps %xmm9, 144(%rdi)
vmovaps %xmm10, 160(%rdi)
vmovaps %xmm11, 176(%rdi)
vmovaps %xmm12, 192(%rdi)
vmovdqa %xmm13, 208(%rdi)
vmovaps -128(%rsp), %xmm4
vmovaps %xmm4, 224(%rdi)
vmovdqa %xmm15, 240(%rdi)
vmovdqa %xmm1, 256(%rdi)
vmovdqa %xmm3, 272(%rdi)
vmovdqa %xmm0, 288(%rdi)
vmovdqa %xmm2, 304(%rdi)
vmovdqa %xmm6, 320(%rdi)
addq $8, %rsp
.cfi_def_cfa_offset 8
.LBB0_2:
xorl %eax, %eax
cmpq $32, %rdx
sete %al
retq
.Lfunc_end0:
.size haberdashery_aes256gcm_streaming_skylake_init_key, .Lfunc_end0-haberdashery_aes256gcm_streaming_skylake_init_key
.cfi_endproc
.section .text.haberdashery_aes256gcm_streaming_skylake_is_supported,"ax",@progbits
.globl haberdashery_aes256gcm_streaming_skylake_is_supported
.p2align 4, 0x90
.type haberdashery_aes256gcm_streaming_skylake_is_supported,@function
haberdashery_aes256gcm_streaming_skylake_is_supported:
.cfi_startproc
movl $1, %eax
xorl %ecx, %ecx
#APP
movq %rbx, %rsi
cpuid
xchgq %rbx, %rsi
#NO_APP
movl %ecx, %esi
movl %edx, %edi
notl %edi
notl %esi
movl $7, %eax
xorl %ecx, %ecx
#APP
movq %rbx, %r8
cpuid
xchgq %rbx, %r8
#NO_APP
andl $1993871875, %esi
andl $125829120, %edi
orl %esi, %edi
notl %r8d
andl $9175337, %r8d
xorl %eax, %eax
orl %edi, %r8d
sete %al
retq
.Lfunc_end1:
.size haberdashery_aes256gcm_streaming_skylake_is_supported, .Lfunc_end1-haberdashery_aes256gcm_streaming_skylake_is_supported
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI2_0:
.byte 15
.byte 128
.byte 128
.byte 128
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI2_1:
.long 1
.long 0
.long 0
.long 0
.section .text.haberdashery_aes256gcm_streaming_skylake_init_state,"ax",@progbits
.globl haberdashery_aes256gcm_streaming_skylake_init_state
.p2align 4, 0x90
.type haberdashery_aes256gcm_streaming_skylake_init_state,@function
haberdashery_aes256gcm_streaming_skylake_init_state:
.cfi_startproc
cmpq $12, %rcx
jne .LBB2_2
vmovd (%rdx), %xmm0
vpinsrd $1, 4(%rdx), %xmm0, %xmm0
vpinsrd $2, 8(%rdx), %xmm0, %xmm0
movl $16777216, %eax
vpinsrd $3, %eax, %xmm0, %xmm0
vpshufb .LCPI2_0(%rip), %xmm0, %xmm1
vpaddd .LCPI2_1(%rip), %xmm1, %xmm1
vxorps %xmm2, %xmm2, %xmm2
vmovups %ymm2, -56(%rsp)
vmovups %ymm2, -88(%rsp)
movq $0, -24(%rsp)
vxorps %xmm2, %xmm2, %xmm2
vmovaps %xmm2, (%rdi)
vmovdqa %xmm0, 16(%rdi)
vmovdqa %xmm1, 32(%rdi)
vmovups -56(%rsp), %ymm0
vmovups -40(%rsp), %xmm1
movq -24(%rsp), %rax
movq -16(%rsp), %rdx
vmovups %ymm0, 48(%rdi)
vmovups %xmm1, 64(%rdi)
movq %rax, 80(%rdi)
movq %rdx, 88(%rdi)
vmovaps %xmm2, 96(%rdi)
.LBB2_2:
xorl %eax, %eax
cmpq $12, %rcx
sete %al
vzeroupper
retq
.Lfunc_end2:
.size haberdashery_aes256gcm_streaming_skylake_init_state, .Lfunc_end2-haberdashery_aes256gcm_streaming_skylake_init_state
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI3_0:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI3_1:
.zero 8
.quad -4467570830351532032
.LCPI3_2:
.zero 16
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI3_3:
.quad -4467570830351532032
.section .text.haberdashery_aes256gcm_streaming_skylake_aad_update,"ax",@progbits
.globl haberdashery_aes256gcm_streaming_skylake_aad_update
.p2align 4, 0x90
.type haberdashery_aes256gcm_streaming_skylake_aad_update,@function
haberdashery_aes256gcm_streaming_skylake_aad_update:
.cfi_startproc
movabsq $-2305843009213693951, %rax
leaq (%rcx,%rax), %r8
incq %rax
cmpq %rax, %r8
jae .LBB3_3
xorl %eax, %eax
retq
.LBB3_3:
pushq %rbp
.cfi_def_cfa_offset 16
pushq %r15
.cfi_def_cfa_offset 24
pushq %r14
.cfi_def_cfa_offset 32
pushq %r13
.cfi_def_cfa_offset 40
pushq %r12
.cfi_def_cfa_offset 48
pushq %rbx
.cfi_def_cfa_offset 56
subq $24, %rsp
.cfi_def_cfa_offset 80
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
.cfi_offset %rbp, -16
movq 96(%rdi), %r14
addq %rcx, %r14
xorl %eax, %eax
movabsq $2305843009213693950, %r8
cmpq %r8, %r14
ja .LBB3_26
cmpq $0, 104(%rdi)
jne .LBB3_26
movq 80(%rdi), %r8
testq %r8, %r8
je .LBB3_6
leaq (%r8,%rcx), %rbx
cmpq $15, %rbx
ja .LBB3_9
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, (%rsp)
leaq (%rsp,%r8), %rax
movq %rdi, %r15
movq %rax, %rdi
movq %rdx, %rsi
movq %rcx, %rdx
movq %rcx, %r12
callq *memcpy@GOTPCREL(%rip)
movq %r15, %rdi
movq %r12, %rcx
vmovdqa 64(%r15), %xmm0
vpxor (%rsp), %xmm0, %xmm0
jmp .LBB3_24
.LBB3_6:
movq %rcx, %rbx
cmpq $96, %rbx
jae .LBB3_11
jmp .LBB3_14
.LBB3_9:
vmovaps 64(%rdi), %xmm0
vmovaps %xmm0, (%rsp)
movl $16, %eax
subq %r8, %rax
addq %rsp, %r8
leaq (%rdx,%rax), %r15
movq %rcx, %rbx
subq %rax, %rbx
movq %rdi, %r12
movq %r8, %rdi
movq %rsi, %r13
movq %rdx, %rsi
movq %rax, %rdx
movq %rcx, %rbp
callq *memcpy@GOTPCREL(%rip)
movq %r13, %rsi
movq %r12, %rdi
movq %rbp, %rcx
movq $0, 80(%r12)
vmovdqa (%rsp), %xmm0
vmovdqa 240(%r13), %xmm1
vpshufb .LCPI3_0(%rip), %xmm0, %xmm0
vpxor (%r12), %xmm0, %xmm0
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI3_3(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vmovdqa %xmm0, (%r12)
movq %r15, %rdx
cmpq $96, %rbx
jb .LBB3_14
.LBB3_11:
vmovdqu 32(%rdx), %xmm1
vmovdqu 48(%rdx), %xmm2
vmovdqu 64(%rdx), %xmm3
vmovdqu 80(%rdx), %xmm4
vmovdqa .LCPI3_0(%rip), %xmm0
vpshufb %xmm0, %xmm1, %xmm6
vpshufb %xmm0, %xmm2, %xmm5
vpshufb %xmm0, %xmm3, %xmm7
vpshufb %xmm0, %xmm4, %xmm8
vmovdqa 240(%rsi), %xmm1
vmovdqa 256(%rsi), %xmm2
vmovdqa 272(%rsi), %xmm3
vmovdqa 288(%rsi), %xmm4
vpclmulqdq $0, %xmm8, %xmm1, %xmm9
vpclmulqdq $1, %xmm8, %xmm1, %xmm10
vpclmulqdq $16, %xmm8, %xmm1, %xmm11
vpxor %xmm10, %xmm11, %xmm10
vpclmulqdq $17, %xmm8, %xmm1, %xmm8
vpclmulqdq $0, %xmm7, %xmm2, %xmm11
vpxor %xmm9, %xmm11, %xmm9
vpclmulqdq $1, %xmm7, %xmm2, %xmm11
vpclmulqdq $16, %xmm7, %xmm2, %xmm12
vpxor %xmm12, %xmm11, %xmm11
vpxor %xmm11, %xmm10, %xmm10
vpclmulqdq $17, %xmm7, %xmm2, %xmm7
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $0, %xmm5, %xmm3, %xmm8
vpclmulqdq $1, %xmm5, %xmm3, %xmm11
vpclmulqdq $16, %xmm5, %xmm3, %xmm12
vpxor %xmm12, %xmm11, %xmm11
vpclmulqdq $0, %xmm6, %xmm4, %xmm12
vpxor %xmm12, %xmm8, %xmm8
vpxor %xmm8, %xmm9, %xmm8
vpclmulqdq $1, %xmm6, %xmm4, %xmm9
vpxor %xmm9, %xmm11, %xmm9
vmovdqu 16(%rdx), %xmm11
vpshufb %xmm0, %xmm11, %xmm11
vpclmulqdq $17, %xmm5, %xmm3, %xmm5
vpxor %xmm9, %xmm10, %xmm9
vpclmulqdq $17, %xmm6, %xmm4, %xmm10
vpxor %xmm5, %xmm10, %xmm10
vmovdqa 304(%rsi), %xmm5
vpclmulqdq $16, %xmm6, %xmm4, %xmm6
vpxor %xmm7, %xmm10, %xmm7
vpclmulqdq $0, %xmm11, %xmm5, %xmm10
vpxor %xmm10, %xmm8, %xmm8
vpclmulqdq $1, %xmm11, %xmm5, %xmm10
vpxor %xmm6, %xmm10, %xmm6
vpclmulqdq $16, %xmm11, %xmm5, %xmm10
vpxor %xmm6, %xmm10, %xmm6
vmovdqu (%rdx), %xmm10
vpshufb %xmm0, %xmm10, %xmm10
vpxor (%rdi), %xmm10, %xmm10
vpxor %xmm6, %xmm9, %xmm9
vmovdqa 320(%rsi), %xmm6
vpclmulqdq $17, %xmm11, %xmm5, %xmm11
vpxor %xmm7, %xmm11, %xmm7
vpclmulqdq $0, %xmm10, %xmm6, %xmm11
vpxor %xmm11, %xmm8, %xmm8
vpclmulqdq $1, %xmm10, %xmm6, %xmm11
vpxor %xmm11, %xmm9, %xmm9
vpclmulqdq $16, %xmm10, %xmm6, %xmm11
vpxor %xmm11, %xmm9, %xmm9
vpclmulqdq $17, %xmm10, %xmm6, %xmm10
vpxor %xmm7, %xmm10, %xmm10
addq $96, %rdx
addq $-96, %rbx
cmpq $96, %rbx
jb .LBB3_13
.p2align 4, 0x90
.LBB3_12:
vmovdqu (%rdx), %xmm11
vmovdqu 32(%rdx), %xmm12
vmovdqu 48(%rdx), %xmm13
vmovdqu 64(%rdx), %xmm14
vmovdqu 80(%rdx), %xmm15
vpslldq $8, %xmm9, %xmm7
vpxor %xmm7, %xmm8, %xmm7
vpsrldq $8, %xmm9, %xmm8
vpxor %xmm8, %xmm10, %xmm8
vpbroadcastq .LCPI3_3(%rip), %xmm10
vpclmulqdq $16, %xmm10, %xmm7, %xmm9
vpshufd $78, %xmm7, %xmm7
vpxor %xmm7, %xmm9, %xmm7
vpclmulqdq $16, %xmm10, %xmm7, %xmm9
vpshufd $78, %xmm7, %xmm7
vpxor %xmm7, %xmm8, %xmm7
vpshufb %xmm0, %xmm11, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpxor %xmm7, %xmm9, %xmm10
vpshufb %xmm0, %xmm12, %xmm8
vpshufb %xmm0, %xmm13, %xmm7
vpshufb %xmm0, %xmm14, %xmm9
vpshufb %xmm0, %xmm15, %xmm11
vpclmulqdq $0, %xmm11, %xmm1, %xmm12
vpclmulqdq $1, %xmm11, %xmm1, %xmm13
vpclmulqdq $16, %xmm11, %xmm1, %xmm14
vpxor %xmm13, %xmm14, %xmm13
vpclmulqdq $17, %xmm11, %xmm1, %xmm11
vpclmulqdq $0, %xmm9, %xmm2, %xmm14
vpxor %xmm12, %xmm14, %xmm12
vpclmulqdq $1, %xmm9, %xmm2, %xmm14
vpclmulqdq $16, %xmm9, %xmm2, %xmm15
vpxor %xmm15, %xmm14, %xmm14
vpxor %xmm14, %xmm13, %xmm13
vpclmulqdq $17, %xmm9, %xmm2, %xmm9
vpxor %xmm11, %xmm9, %xmm9
vpclmulqdq $0, %xmm7, %xmm3, %xmm11
vpclmulqdq $1, %xmm7, %xmm3, %xmm14
vpclmulqdq $16, %xmm7, %xmm3, %xmm15
vpxor %xmm15, %xmm14, %xmm14
vpclmulqdq $0, %xmm8, %xmm4, %xmm15
vpxor %xmm15, %xmm11, %xmm11
vpxor %xmm11, %xmm12, %xmm11
vpclmulqdq $1, %xmm8, %xmm4, %xmm12
vpxor %xmm12, %xmm14, %xmm12
vpclmulqdq $17, %xmm7, %xmm3, %xmm7
vpxor %xmm12, %xmm13, %xmm12
vpclmulqdq $17, %xmm8, %xmm4, %xmm13
vpxor %xmm7, %xmm13, %xmm7
vmovdqu 16(%rdx), %xmm13
vpshufb %xmm0, %xmm13, %xmm13
vpclmulqdq $16, %xmm8, %xmm4, %xmm8
vpxor %xmm7, %xmm9, %xmm7
vpclmulqdq $0, %xmm13, %xmm5, %xmm9
vpxor %xmm9, %xmm11, %xmm9
vpclmulqdq $1, %xmm13, %xmm5, %xmm11
vpxor %xmm11, %xmm8, %xmm8
vpclmulqdq $16, %xmm13, %xmm5, %xmm11
vpxor %xmm11, %xmm8, %xmm8
vpxor %xmm8, %xmm12, %xmm11
vpclmulqdq $17, %xmm13, %xmm5, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $0, %xmm10, %xmm6, %xmm8
vpxor %xmm8, %xmm9, %xmm8
vpclmulqdq $1, %xmm10, %xmm6, %xmm9
vpxor %xmm9, %xmm11, %xmm9
vpclmulqdq $16, %xmm10, %xmm6, %xmm11
vpxor %xmm11, %xmm9, %xmm9
vpclmulqdq $17, %xmm10, %xmm6, %xmm10
vpxor %xmm7, %xmm10, %xmm10
addq $96, %rdx
addq $-96, %rbx
cmpq $95, %rbx
ja .LBB3_12
.LBB3_13:
vpslldq $8, %xmm9, %xmm0
vpxor %xmm0, %xmm8, %xmm0
vpsrldq $8, %xmm9, %xmm1
vpxor %xmm1, %xmm10, %xmm1
vpbroadcastq .LCPI3_3(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm0, %xmm3
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm0
vpclmulqdq $16, %xmm2, %xmm0, %xmm2
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpxor %xmm2, %xmm0, %xmm0
vmovdqa %xmm0, (%rdi)
.LBB3_14:
cmpq $16, %rbx
jae .LBB3_15
testq %rbx, %rbx
jne .LBB3_23
jmp .LBB3_25
.LBB3_15:
vmovdqa (%rdi), %xmm1
vmovdqa 240(%rsi), %xmm0
leaq -16(%rbx), %rax
testb $16, %al
jne .LBB3_17
vmovdqu (%rdx), %xmm2
addq $16, %rdx
vpshufb .LCPI3_0(%rip), %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
vpslldq $8, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpsrldq $8, %xmm3, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpbroadcastq .LCPI3_3(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm2, %xmm4
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm4, %xmm2
vpclmulqdq $16, %xmm3, %xmm2, %xmm3
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
movq %rax, %rbx
.LBB3_17:
cmpq $16, %rax
jb .LBB3_21
vmovdqa .LCPI3_0(%rip), %xmm2
vpbroadcastq .LCPI3_3(%rip), %xmm3
.p2align 4, 0x90
.LBB3_19:
vmovdqu (%rdx), %xmm4
vmovdqu 16(%rdx), %xmm5
vpshufb %xmm2, %xmm4, %xmm4
vpxor %xmm4, %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm4
vpclmulqdq $1, %xmm1, %xmm0, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm7
vpxor %xmm6, %xmm7, %xmm6
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
vpslldq $8, %xmm6, %xmm7
vpxor %xmm7, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm1, %xmm1
vpclmulqdq $16, %xmm3, %xmm4, %xmm6
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm6, %xmm4
vpclmulqdq $16, %xmm3, %xmm4, %xmm6
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm1, %xmm1
addq $32, %rdx
addq $-32, %rbx
vpshufb %xmm2, %xmm5, %xmm4
vpxor %xmm4, %xmm1, %xmm1
vpxor %xmm1, %xmm6, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm4
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vpclmulqdq $16, %xmm1, %xmm0, %xmm6
vpxor %xmm5, %xmm6, %xmm5
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
vpslldq $8, %xmm5, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpsrldq $8, %xmm5, %xmm5
vpxor %xmm5, %xmm1, %xmm1
vpclmulqdq $16, %xmm3, %xmm4, %xmm5
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $16, %xmm3, %xmm4, %xmm5
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm1, %xmm1
vpxor %xmm1, %xmm5, %xmm1
cmpq $15, %rbx
ja .LBB3_19
movq %rbx, %rax
.LBB3_21:
vmovdqa %xmm1, (%rdi)
movq %rax, %rbx
testq %rbx, %rbx
je .LBB3_25
.LBB3_23:
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, (%rsp)
movq %rsp, %rax
movq %rdi, %r15
movq %rax, %rdi
movq %rdx, %rsi
movq %rbx, %rdx
movq %rcx, %r12
callq *memcpy@GOTPCREL(%rip)
movq %r15, %rdi
movq %r12, %rcx
vmovdqa (%rsp), %xmm0
vpxor %xmm1, %xmm1, %xmm1
vmovdqa %xmm1, 48(%r15)
.LBB3_24:
vmovdqa %xmm0, 64(%r15)
movq %rbx, 80(%r15)
.LBB3_25:
movq %r14, 96(%rdi)
movq %rcx, %rax
.LBB3_26:
addq $24, %rsp
.cfi_def_cfa_offset 56
popq %rbx
.cfi_def_cfa_offset 48
popq %r12
.cfi_def_cfa_offset 40
popq %r13
.cfi_def_cfa_offset 32
popq %r14
.cfi_def_cfa_offset 24
popq %r15
.cfi_def_cfa_offset 16
popq %rbp
.cfi_def_cfa_offset 8
.cfi_restore %rbx
.cfi_restore %r12
.cfi_restore %r13
.cfi_restore %r14
.cfi_restore %r15
.cfi_restore %rbp
retq
.Lfunc_end3:
.size haberdashery_aes256gcm_streaming_skylake_aad_update, .Lfunc_end3-haberdashery_aes256gcm_streaming_skylake_aad_update
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI4_0:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI4_1:
.zero 8
.quad -4467570830351532032
.LCPI4_2:
.long 1
.long 0
.long 0
.long 0
.LCPI4_3:
.long 2
.long 0
.long 0
.long 0
.LCPI4_4:
.long 3
.long 0
.long 0
.long 0
.LCPI4_5:
.long 4
.long 0
.long 0
.long 0
.LCPI4_6:
.long 5
.long 0
.long 0
.long 0
.LCPI4_7:
.long 6
.long 0
.long 0
.long 0
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI4_8:
.quad -4467570830351532032
.section .text.haberdashery_aes256gcm_streaming_skylake_encrypt_update,"ax",@progbits
.globl haberdashery_aes256gcm_streaming_skylake_encrypt_update
.p2align 4, 0x90
.type haberdashery_aes256gcm_streaming_skylake_encrypt_update,@function
haberdashery_aes256gcm_streaming_skylake_encrypt_update:
.cfi_startproc
cmpq %r9, %rcx
jne .LBB4_3
movq %rcx, %rax
movabsq $-68719476704, %rcx
leaq (%rax,%rcx), %r9
incq %rcx
cmpq %rcx, %r9
jb .LBB4_3
movq 104(%rdi), %rcx
leaq (%rcx,%rax), %r11
movq %r11, %r9
shrq $5, %r9
cmpq $2147483646, %r9
jbe .LBB4_6
.LBB4_3:
xorl %eax, %eax
retq
.LBB4_6:
pushq %rbp
.cfi_def_cfa_offset 16
pushq %r15
.cfi_def_cfa_offset 24
pushq %r14
.cfi_def_cfa_offset 32
pushq %r13
.cfi_def_cfa_offset 40
pushq %r12
.cfi_def_cfa_offset 48
pushq %rbx
.cfi_def_cfa_offset 56
subq $504, %rsp
.cfi_def_cfa_offset 560
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
.cfi_offset %rbp, -16
testq %rcx, %rcx
setne %r9b
movq 80(%rdi), %rcx
testq %rcx, %rcx
sete %r10b
orb %r9b, %r10b
je .LBB4_10
testq %rcx, %rcx
je .LBB4_11
movq %r11, 48(%rsp)
movq %rdi, %rbp
leaq (%rcx,%rax), %rbx
cmpq $15, %rbx
ja .LBB4_12
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, (%rsp)
leaq (%rsp,%rcx), %r14
movq memcpy@GOTPCREL(%rip), %r13
movq %r14, %rdi
movq %rdx, %rsi
movq %rax, %rdx
movq %rax, %r15
movq %r8, %r12
callq *%r13
vmovdqa (%rsp), %xmm0
vpxor 64(%rbp), %xmm0, %xmm0
vmovdqa %xmm0, 64(%rbp)
vmovdqa %xmm0, (%rsp)
movq %r12, %rdi
movq %r14, %rsi
movq %r15, %r12
movq %r15, %rdx
callq *%r13
movq %rbp, %rdi
jmp .LBB4_26
.LBB4_10:
vmovdqa 64(%rdi), %xmm0
vpshufb .LCPI4_0(%rip), %xmm0, %xmm0
vpxor (%rdi), %xmm0, %xmm0
vmovdqa 240(%rsi), %xmm1
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI4_8(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vmovdqa %xmm0, (%rdi)
vpxor %xmm0, %xmm0, %xmm0
vmovdqu %ymm0, 48(%rdi)
movq $0, 80(%rdi)
.LBB4_11:
movq %rax, %rbx
cmpq $96, %rbx
jb .LBB4_14
.LBB4_16:
vmovups (%rdx), %xmm0
vmovaps %xmm0, 48(%rsp)
vmovups 16(%rdx), %xmm0
vmovaps %xmm0, 32(%rsp)
vmovups 32(%rdx), %xmm0
vmovaps %xmm0, 16(%rsp)
vmovups 48(%rdx), %xmm0
vmovaps %xmm0, 64(%rsp)
vmovdqu 64(%rdx), %xmm3
vmovdqu 80(%rdx), %xmm6
vmovdqa 32(%rdi), %xmm1
vmovdqa .LCPI4_0(%rip), %xmm10
vpshufb %xmm10, %xmm1, %xmm7
vpaddd .LCPI4_2(%rip), %xmm1, %xmm8
vpshufb %xmm10, %xmm8, %xmm9
vpaddd .LCPI4_3(%rip), %xmm1, %xmm8
vpshufb %xmm10, %xmm8, %xmm14
vpaddd .LCPI4_4(%rip), %xmm1, %xmm8
vpshufb %xmm10, %xmm8, %xmm11
vpaddd .LCPI4_5(%rip), %xmm1, %xmm8
vpshufb %xmm10, %xmm8, %xmm12
vpaddd .LCPI4_6(%rip), %xmm1, %xmm8
vpshufb %xmm10, %xmm8, %xmm13
vpaddd .LCPI4_7(%rip), %xmm1, %xmm1
vmovdqa %xmm1, 32(%rdi)
vmovdqa (%rsi), %xmm15
vmovaps 16(%rsi), %xmm0
vmovdqa 32(%rsi), %xmm2
vpxor %xmm7, %xmm15, %xmm8
vpxor %xmm9, %xmm15, %xmm7
vpxor %xmm14, %xmm15, %xmm1
vpxor %xmm11, %xmm15, %xmm11
vpxor %xmm12, %xmm15, %xmm9
vpxor %xmm13, %xmm15, %xmm12
vmovdqa %xmm15, %xmm13
vmovaps %xmm0, 432(%rsp)
#APP
vaesenc %xmm0, %xmm8, %xmm8
vaesenc %xmm0, %xmm7, %xmm7
vaesenc %xmm0, %xmm1, %xmm1
vaesenc %xmm0, %xmm11, %xmm11
vaesenc %xmm0, %xmm9, %xmm9
vaesenc %xmm0, %xmm12, %xmm12
#NO_APP
vmovdqa %xmm2, %xmm0
#APP
vaesenc %xmm2, %xmm8, %xmm8
vaesenc %xmm2, %xmm7, %xmm7
vaesenc %xmm2, %xmm1, %xmm1
vaesenc %xmm2, %xmm11, %xmm11
vaesenc %xmm2, %xmm9, %xmm9
vaesenc %xmm2, %xmm12, %xmm12
#NO_APP
vmovdqa 48(%rsi), %xmm2
#APP
vaesenc %xmm2, %xmm8, %xmm8
vaesenc %xmm2, %xmm7, %xmm7
vaesenc %xmm2, %xmm1, %xmm1
vaesenc %xmm2, %xmm11, %xmm11
vaesenc %xmm2, %xmm9, %xmm9
vaesenc %xmm2, %xmm12, %xmm12
#NO_APP
vmovaps 64(%rsi), %xmm14
vmovaps %xmm14, 416(%rsp)
#APP
vaesenc %xmm14, %xmm8, %xmm8
vaesenc %xmm14, %xmm7, %xmm7
vaesenc %xmm14, %xmm1, %xmm1
vaesenc %xmm14, %xmm11, %xmm11
vaesenc %xmm14, %xmm9, %xmm9
vaesenc %xmm14, %xmm12, %xmm12
#NO_APP
vmovaps 80(%rsi), %xmm14
vmovaps %xmm14, 400(%rsp)
#APP
vaesenc %xmm14, %xmm8, %xmm8
vaesenc %xmm14, %xmm7, %xmm7
vaesenc %xmm14, %xmm1, %xmm1
vaesenc %xmm14, %xmm11, %xmm11
vaesenc %xmm14, %xmm9, %xmm9
vaesenc %xmm14, %xmm12, %xmm12
#NO_APP
vmovaps 96(%rsi), %xmm14
vmovaps %xmm14, 384(%rsp)
#APP
vaesenc %xmm14, %xmm8, %xmm8
vaesenc %xmm14, %xmm7, %xmm7
vaesenc %xmm14, %xmm1, %xmm1
vaesenc %xmm14, %xmm11, %xmm11
vaesenc %xmm14, %xmm9, %xmm9
vaesenc %xmm14, %xmm12, %xmm12
#NO_APP
vmovaps 112(%rsi), %xmm14
vmovaps %xmm14, 368(%rsp)
#APP
vaesenc %xmm14, %xmm8, %xmm8
vaesenc %xmm14, %xmm7, %xmm7
vaesenc %xmm14, %xmm1, %xmm1
vaesenc %xmm14, %xmm11, %xmm11
vaesenc %xmm14, %xmm9, %xmm9
vaesenc %xmm14, %xmm12, %xmm12
#NO_APP
vmovaps 128(%rsi), %xmm14
vmovaps %xmm14, 352(%rsp)
#APP
vaesenc %xmm14, %xmm8, %xmm8
vaesenc %xmm14, %xmm7, %xmm7
vaesenc %xmm14, %xmm1, %xmm1
vaesenc %xmm14, %xmm11, %xmm11
vaesenc %xmm14, %xmm9, %xmm9
vaesenc %xmm14, %xmm12, %xmm12
#NO_APP
vmovaps 144(%rsi), %xmm14
vmovaps %xmm14, 336(%rsp)
#APP
vaesenc %xmm14, %xmm8, %xmm8
vaesenc %xmm14, %xmm7, %xmm7
vaesenc %xmm14, %xmm1, %xmm1
vaesenc %xmm14, %xmm11, %xmm11
vaesenc %xmm14, %xmm9, %xmm9
vaesenc %xmm14, %xmm12, %xmm12
#NO_APP
vmovaps 160(%rsi), %xmm14
vmovaps %xmm14, 320(%rsp)
#APP
vaesenc %xmm14, %xmm8, %xmm8
vaesenc %xmm14, %xmm7, %xmm7
vaesenc %xmm14, %xmm1, %xmm1
vaesenc %xmm14, %xmm11, %xmm11
vaesenc %xmm14, %xmm9, %xmm9
vaesenc %xmm14, %xmm12, %xmm12
#NO_APP
vmovaps 176(%rsi), %xmm14
vmovaps %xmm14, 304(%rsp)
#APP
vaesenc %xmm14, %xmm8, %xmm8
vaesenc %xmm14, %xmm7, %xmm7
vaesenc %xmm14, %xmm1, %xmm1
vaesenc %xmm14, %xmm11, %xmm11
vaesenc %xmm14, %xmm9, %xmm9
vaesenc %xmm14, %xmm12, %xmm12
#NO_APP
vmovaps 192(%rsi), %xmm14
vmovaps %xmm14, 288(%rsp)
#APP
vaesenc %xmm14, %xmm8, %xmm8
vaesenc %xmm14, %xmm7, %xmm7
vaesenc %xmm14, %xmm1, %xmm1
vaesenc %xmm14, %xmm11, %xmm11
vaesenc %xmm14, %xmm9, %xmm9
vaesenc %xmm14, %xmm12, %xmm12
#NO_APP
vmovdqa 208(%rsi), %xmm14
vmovdqa %xmm14, %xmm4
#APP
vaesenc %xmm14, %xmm8, %xmm8
vaesenc %xmm14, %xmm7, %xmm7
vaesenc %xmm14, %xmm1, %xmm1
vaesenc %xmm14, %xmm11, %xmm11
vaesenc %xmm14, %xmm9, %xmm9
vaesenc %xmm14, %xmm12, %xmm12
#NO_APP
vmovdqa 224(%rsi), %xmm14
vmovdqa %xmm14, %xmm5
#APP
vaesenclast %xmm14, %xmm8, %xmm8
vaesenclast %xmm14, %xmm7, %xmm7
vaesenclast %xmm14, %xmm1, %xmm1
vaesenclast %xmm14, %xmm11, %xmm11
vaesenclast %xmm14, %xmm9, %xmm9
vaesenclast %xmm14, %xmm12, %xmm12
#NO_APP
vpxor %xmm6, %xmm12, %xmm14
vpxor %xmm3, %xmm9, %xmm9
vpxor 64(%rsp), %xmm11, %xmm12
vpxor 16(%rsp), %xmm1, %xmm6
vpxor 32(%rsp), %xmm7, %xmm1
vpxor 48(%rsp), %xmm8, %xmm15
addq $96, %rdx
leaq 96(%r8), %rcx
addq $-96, %rbx
vmovdqu %xmm15, (%r8)
vmovdqa %xmm1, %xmm11
vmovdqu %xmm1, 16(%r8)
vmovdqa %xmm6, %xmm3
vmovdqu %xmm6, 32(%r8)
vmovdqu %xmm12, 48(%r8)
vmovdqa %xmm9, %xmm6
vmovdqu %xmm9, 64(%r8)
vmovdqu %xmm14, 80(%r8)
vmovdqa (%rdi), %xmm8
cmpq $96, %rbx
jb .LBB4_20
vmovaps 240(%rsi), %xmm1
vmovaps %xmm1, 272(%rsp)
vmovaps 256(%rsi), %xmm1
vmovaps %xmm1, 256(%rsp)
vmovaps 272(%rsi), %xmm1
vmovaps %xmm1, 240(%rsp)
vmovaps 288(%rsi), %xmm1
vmovaps %xmm1, 224(%rsp)
vmovaps 304(%rsi), %xmm1
vmovaps %xmm1, 208(%rsp)
vmovdqa 320(%rsi), %xmm1
vmovdqa %xmm1, 192(%rsp)
vmovdqa %xmm0, 176(%rsp)
vmovdqa %xmm2, 144(%rsp)
vmovdqa %xmm4, 160(%rsp)
vmovdqa %xmm5, 128(%rsp)
vmovdqa %xmm6, %xmm5
.p2align 4, 0x90
.LBB4_18:
vmovdqa %xmm3, 448(%rsp)
vmovdqa %xmm5, 464(%rsp)
vmovdqa %xmm11, 480(%rsp)
vmovups (%rdx), %xmm0
vmovaps %xmm0, 48(%rsp)
vmovups 16(%rdx), %xmm0
vmovaps %xmm0, 32(%rsp)
vmovups 32(%rdx), %xmm0
vmovaps %xmm0, 16(%rsp)
vmovups 48(%rdx), %xmm0
vmovaps %xmm0, 64(%rsp)
vmovups 64(%rdx), %xmm0
vmovaps %xmm0, 80(%rsp)
vmovups 80(%rdx), %xmm0
vmovaps %xmm0, 112(%rsp)
vmovdqa 32(%rdi), %xmm0
vpaddd .LCPI4_2(%rip), %xmm0, %xmm4
vpshufb %xmm10, %xmm4, %xmm5
vpaddd .LCPI4_7(%rip), %xmm0, %xmm4
vmovdqa %xmm4, 32(%rdi)
vpaddd .LCPI4_3(%rip), %xmm0, %xmm4
vpshufb %xmm10, %xmm4, %xmm6
vpshufb %xmm10, %xmm15, %xmm4
vpxor %xmm4, %xmm8, %xmm1
vmovdqa %xmm1, 96(%rsp)
vpaddd .LCPI4_4(%rip), %xmm0, %xmm7
vpshufb %xmm10, %xmm7, %xmm7
vpaddd .LCPI4_5(%rip), %xmm0, %xmm8
vpshufb %xmm10, %xmm8, %xmm9
vpshufb %xmm10, %xmm0, %xmm8
vpaddd .LCPI4_6(%rip), %xmm0, %xmm0
vpshufb %xmm10, %xmm0, %xmm1
vmovdqa %xmm10, %xmm2
vpshufb %xmm10, %xmm14, %xmm10
vpxor %xmm8, %xmm13, %xmm8
vpxor %xmm5, %xmm13, %xmm15
vmovdqa %xmm13, %xmm4
vpxor %xmm6, %xmm13, %xmm13
vpxor %xmm7, %xmm4, %xmm0
vpxor %xmm4, %xmm9, %xmm5
vpxor %xmm1, %xmm4, %xmm14
vmovaps 432(%rsp), %xmm1
#APP
vaesenc %xmm1, %xmm8, %xmm8
vaesenc %xmm1, %xmm15, %xmm15
vaesenc %xmm1, %xmm13, %xmm13
vaesenc %xmm1, %xmm0, %xmm0
vaesenc %xmm1, %xmm5, %xmm5
vaesenc %xmm1, %xmm14, %xmm14
#NO_APP
vpxor %xmm6, %xmm6, %xmm6
vpxor %xmm7, %xmm7, %xmm7
vpxor %xmm9, %xmm9, %xmm9
vmovdqa %xmm12, %xmm11
vmovaps 272(%rsp), %xmm12
vmovaps 176(%rsp), %xmm3
#APP
vaesenc %xmm3, %xmm8, %xmm8
vaesenc %xmm3, %xmm15, %xmm15
vaesenc %xmm3, %xmm13, %xmm13
vaesenc %xmm3, %xmm0, %xmm0
vaesenc %xmm3, %xmm5, %xmm5
vaesenc %xmm3, %xmm14, %xmm14
vpclmulqdq $16, %xmm12, %xmm10, %xmm1
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm12, %xmm10, %xmm1
vpxor %xmm1, %xmm9, %xmm9
vpclmulqdq $17, %xmm12, %xmm10, %xmm1
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm12, %xmm10, %xmm1
vpxor %xmm1, %xmm6, %xmm6
#NO_APP
vmovdqa 464(%rsp), %xmm1
vpshufb %xmm2, %xmm1, %xmm1
vmovaps 144(%rsp), %xmm3
#APP
vaesenc %xmm3, %xmm8, %xmm8
vaesenc %xmm3, %xmm15, %xmm15
vaesenc %xmm3, %xmm13, %xmm13
vaesenc %xmm3, %xmm0, %xmm0
vaesenc %xmm3, %xmm5, %xmm5
vaesenc %xmm3, %xmm14, %xmm14
#NO_APP
vmovaps 256(%rsp), %xmm12
vmovaps 416(%rsp), %xmm3
#APP
vaesenc %xmm3, %xmm8, %xmm8
vaesenc %xmm3, %xmm15, %xmm15
vaesenc %xmm3, %xmm13, %xmm13
vaesenc %xmm3, %xmm0, %xmm0
vaesenc %xmm3, %xmm5, %xmm5
vaesenc %xmm3, %xmm14, %xmm14
vpclmulqdq $16, %xmm12, %xmm1, %xmm10
vpxor %xmm6, %xmm10, %xmm6
vpclmulqdq $0, %xmm12, %xmm1, %xmm10
vpxor %xmm10, %xmm9, %xmm9
vpclmulqdq $17, %xmm12, %xmm1, %xmm10
vpxor %xmm7, %xmm10, %xmm7
vpclmulqdq $1, %xmm12, %xmm1, %xmm10
vpxor %xmm6, %xmm10, %xmm6
#NO_APP
vpshufb %xmm2, %xmm11, %xmm1
vmovaps 400(%rsp), %xmm3
#APP
vaesenc %xmm3, %xmm8, %xmm8
vaesenc %xmm3, %xmm15, %xmm15
vaesenc %xmm3, %xmm13, %xmm13
vaesenc %xmm3, %xmm0, %xmm0
vaesenc %xmm3, %xmm5, %xmm5
vaesenc %xmm3, %xmm14, %xmm14
#NO_APP
vmovaps 240(%rsp), %xmm12
vmovaps 384(%rsp), %xmm3
#APP
vaesenc %xmm3, %xmm8, %xmm8
vaesenc %xmm3, %xmm15, %xmm15
vaesenc %xmm3, %xmm13, %xmm13
vaesenc %xmm3, %xmm0, %xmm0
vaesenc %xmm3, %xmm5, %xmm5
vaesenc %xmm3, %xmm14, %xmm14
vpclmulqdq $16, %xmm12, %xmm1, %xmm10
vpxor %xmm6, %xmm10, %xmm6
vpclmulqdq $0, %xmm12, %xmm1, %xmm10
vpxor %xmm10, %xmm9, %xmm9
vpclmulqdq $17, %xmm12, %xmm1, %xmm10
vpxor %xmm7, %xmm10, %xmm7
vpclmulqdq $1, %xmm12, %xmm1, %xmm10
vpxor %xmm6, %xmm10, %xmm6
#NO_APP
vmovdqa %xmm2, %xmm10
vmovdqa 448(%rsp), %xmm1
vpshufb %xmm2, %xmm1, %xmm1
vmovaps 368(%rsp), %xmm2
#APP
vaesenc %xmm2, %xmm8, %xmm8
vaesenc %xmm2, %xmm15, %xmm15
vaesenc %xmm2, %xmm13, %xmm13
vaesenc %xmm2, %xmm0, %xmm0
vaesenc %xmm2, %xmm5, %xmm5
vaesenc %xmm2, %xmm14, %xmm14
#NO_APP
vmovaps 224(%rsp), %xmm2
vmovaps 352(%rsp), %xmm11
#APP
vaesenc %xmm11, %xmm8, %xmm8
vaesenc %xmm11, %xmm15, %xmm15
vaesenc %xmm11, %xmm13, %xmm13
vaesenc %xmm11, %xmm0, %xmm0
vaesenc %xmm11, %xmm5, %xmm5
vaesenc %xmm11, %xmm14, %xmm14
vpclmulqdq $16, %xmm2, %xmm1, %xmm3
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm1, %xmm3
vpxor %xmm3, %xmm9, %xmm9
vpclmulqdq $17, %xmm2, %xmm1, %xmm3
vpxor %xmm3, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm1, %xmm3
vpxor %xmm3, %xmm6, %xmm6
#NO_APP
vmovdqa 480(%rsp), %xmm1
vpshufb %xmm10, %xmm1, %xmm1
vmovaps 336(%rsp), %xmm2
#APP
vaesenc %xmm2, %xmm8, %xmm8
vaesenc %xmm2, %xmm15, %xmm15
vaesenc %xmm2, %xmm13, %xmm13
vaesenc %xmm2, %xmm0, %xmm0
vaesenc %xmm2, %xmm5, %xmm5
vaesenc %xmm2, %xmm14, %xmm14
#NO_APP
vmovaps 208(%rsp), %xmm3
vmovaps 320(%rsp), %xmm11
#APP
vaesenc %xmm11, %xmm8, %xmm8
vaesenc %xmm11, %xmm15, %xmm15
vaesenc %xmm11, %xmm13, %xmm13
vaesenc %xmm11, %xmm0, %xmm0
vaesenc %xmm11, %xmm5, %xmm5
vaesenc %xmm11, %xmm14, %xmm14
vpclmulqdq $16, %xmm3, %xmm1, %xmm2
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm1, %xmm2
vpxor %xmm2, %xmm9, %xmm9
vpclmulqdq $17, %xmm3, %xmm1, %xmm2
vpxor %xmm2, %xmm7, %xmm7
vpclmulqdq $1, %xmm3, %xmm1, %xmm2
vpxor %xmm2, %xmm6, %xmm6
#NO_APP
vmovaps 304(%rsp), %xmm1
#APP
vaesenc %xmm1, %xmm8, %xmm8
vaesenc %xmm1, %xmm15, %xmm15
vaesenc %xmm1, %xmm13, %xmm13
vaesenc %xmm1, %xmm0, %xmm0
vaesenc %xmm1, %xmm5, %xmm5
vaesenc %xmm1, %xmm14, %xmm14
#NO_APP
vmovaps 192(%rsp), %xmm2
vmovaps 288(%rsp), %xmm3
vmovaps 96(%rsp), %xmm11
#APP
vaesenc %xmm3, %xmm8, %xmm8
vaesenc %xmm3, %xmm15, %xmm15
vaesenc %xmm3, %xmm13, %xmm13
vaesenc %xmm3, %xmm0, %xmm0
vaesenc %xmm3, %xmm5, %xmm5
vaesenc %xmm3, %xmm14, %xmm14
vpclmulqdq $16, %xmm2, %xmm11, %xmm1
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm11, %xmm1
vpxor %xmm1, %xmm9, %xmm9
vpclmulqdq $17, %xmm2, %xmm11, %xmm1
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm11, %xmm1
vpxor %xmm1, %xmm6, %xmm6
#NO_APP
vmovaps 160(%rsp), %xmm1
#APP
vaesenc %xmm1, %xmm8, %xmm8
vaesenc %xmm1, %xmm15, %xmm15
vaesenc %xmm1, %xmm13, %xmm13
vaesenc %xmm1, %xmm0, %xmm0
vaesenc %xmm1, %xmm5, %xmm5
vaesenc %xmm1, %xmm14, %xmm14
#NO_APP
vmovdqa 128(%rsp), %xmm1
#APP
vaesenclast %xmm1, %xmm8, %xmm8
vaesenclast %xmm1, %xmm15, %xmm15
vaesenclast %xmm1, %xmm13, %xmm13
vaesenclast %xmm1, %xmm0, %xmm0
vaesenclast %xmm1, %xmm5, %xmm5
vaesenclast %xmm1, %xmm14, %xmm14
#NO_APP
vpxor 112(%rsp), %xmm14, %xmm14
vpxor 80(%rsp), %xmm5, %xmm5
vpxor 64(%rsp), %xmm0, %xmm12
vpxor 16(%rsp), %xmm13, %xmm3
vmovdqa %xmm4, %xmm13
vpxor 32(%rsp), %xmm15, %xmm11
vpxor 48(%rsp), %xmm8, %xmm15
vpxor %xmm1, %xmm1, %xmm1
vpunpcklqdq %xmm6, %xmm1, %xmm0
vpxor %xmm0, %xmm9, %xmm0
vpunpckhqdq %xmm1, %xmm6, %xmm1
vpxor %xmm1, %xmm7, %xmm1
vpbroadcastq .LCPI4_8(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm0, %xmm4
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm4, %xmm0
vpshufd $78, %xmm0, %xmm4
vpxor %xmm4, %xmm1, %xmm1
vpclmulqdq $16, %xmm2, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm8
vmovdqu %xmm15, (%rcx)
vmovdqu %xmm11, 16(%rcx)
vmovdqu %xmm3, 32(%rcx)
vmovdqu %xmm12, 48(%rcx)
vmovdqu %xmm5, 64(%rcx)
addq $96, %rdx
vmovdqu %xmm14, 80(%rcx)
addq $96, %rcx
addq $-96, %rbx
cmpq $95, %rbx
ja .LBB4_18
vmovdqa %xmm3, %xmm2
vmovdqa %xmm5, %xmm6
jmp .LBB4_21
.LBB4_20:
vmovdqa %xmm3, %xmm2
.LBB4_21:
vpshufb %xmm10, %xmm15, %xmm0
vpxor %xmm0, %xmm8, %xmm0
vpshufb %xmm10, %xmm11, %xmm1
vpshufb %xmm10, %xmm2, %xmm4
vpshufb %xmm10, %xmm12, %xmm5
vpshufb %xmm10, %xmm6, %xmm6
vpshufb %xmm10, %xmm14, %xmm7
vmovdqa 240(%rsi), %xmm8
vmovdqa 256(%rsi), %xmm9
vmovdqa 272(%rsi), %xmm10
vmovdqa 288(%rsi), %xmm11
vmovdqa 304(%rsi), %xmm3
vmovdqa 320(%rsi), %xmm2
vpclmulqdq $0, %xmm7, %xmm8, %xmm12
vpclmulqdq $1, %xmm7, %xmm8, %xmm13
vpclmulqdq $16, %xmm7, %xmm8, %xmm14
vpxor %xmm13, %xmm14, %xmm13
vpclmulqdq $17, %xmm7, %xmm8, %xmm7
vpclmulqdq $0, %xmm6, %xmm9, %xmm8
vpxor %xmm12, %xmm8, %xmm8
vpclmulqdq $1, %xmm6, %xmm9, %xmm12
vpclmulqdq $16, %xmm6, %xmm9, %xmm14
vpxor %xmm14, %xmm12, %xmm12
vpxor %xmm12, %xmm13, %xmm12
vpclmulqdq $17, %xmm6, %xmm9, %xmm6
vpxor %xmm7, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm10, %xmm7
vpclmulqdq $1, %xmm5, %xmm10, %xmm9
vpclmulqdq $16, %xmm5, %xmm10, %xmm13
vpxor %xmm13, %xmm9, %xmm9
vpclmulqdq $17, %xmm5, %xmm10, %xmm5
vpclmulqdq $0, %xmm4, %xmm11, %xmm10
vpxor %xmm7, %xmm10, %xmm7
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $1, %xmm4, %xmm11, %xmm8
vpxor %xmm8, %xmm9, %xmm8
vpxor %xmm8, %xmm12, %xmm8
vpclmulqdq $16, %xmm4, %xmm11, %xmm9
vpclmulqdq $17, %xmm4, %xmm11, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpxor %xmm4, %xmm6, %xmm4
vpclmulqdq $0, %xmm1, %xmm3, %xmm5
vpxor %xmm5, %xmm7, %xmm5
vpclmulqdq $1, %xmm1, %xmm3, %xmm6
vpxor %xmm6, %xmm9, %xmm6
vpclmulqdq $16, %xmm1, %xmm3, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpxor %xmm6, %xmm8, %xmm6
vpclmulqdq $17, %xmm1, %xmm3, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $0, %xmm0, %xmm2, %xmm3
vpxor %xmm3, %xmm5, %xmm3
vpclmulqdq $1, %xmm0, %xmm2, %xmm4
vpxor %xmm4, %xmm6, %xmm4
vpclmulqdq $16, %xmm0, %xmm2, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpclmulqdq $17, %xmm0, %xmm2, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm4, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpsrldq $8, %xmm4, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI4_8(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm2, %xmm0, %xmm0
vmovdqa %xmm0, (%rdi)
movq %rcx, %r8
cmpq $16, %rbx
jae .LBB4_22
.LBB4_15:
testq %rbx, %rbx
jne .LBB4_25
jmp .LBB4_27
.LBB4_12:
movl $16, %r14d
subq %rcx, %r14
leaq (%rdx,%r14), %rdi
movq %rdi, 16(%rsp)
leaq (%r8,%r14), %rdi
movq %rdi, 64(%rsp)
movq %rax, %rbx
subq %r14, %rbx
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, (%rsp)
leaq (%rsp,%rcx), %r15
movq %r15, %rdi
movq %rsi, 32(%rsp)
movq %rdx, %rsi
movq %r14, %rdx
movq %rax, %r13
movq %r8, %r12
callq *memcpy@GOTPCREL(%rip)
vmovaps (%rsp), %xmm0
vxorps 64(%rbp), %xmm0, %xmm0
vmovaps %xmm0, 80(%rsp)
vmovaps %xmm0, 64(%rbp)
vmovaps %xmm0, (%rsp)
movq %r12, %rdi
movq %r15, %rsi
movq %r14, %rdx
callq *memcpy@GOTPCREL(%rip)
movq 32(%rsp), %rsi
movq %rbp, %rdi
movq %r13, %rax
movq $0, 80(%rbp)
vmovdqa 240(%rsi), %xmm0
vmovdqa 80(%rsp), %xmm1
vpshufb .LCPI4_0(%rip), %xmm1, %xmm1
vpxor (%rbp), %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm0, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI4_8(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vmovdqa %xmm0, (%rbp)
movq 64(%rsp), %r8
movq 16(%rsp), %rdx
movq 48(%rsp), %r11
cmpq $96, %rbx
jae .LBB4_16
.LBB4_14:
cmpq $16, %rbx
jb .LBB4_15
.LBB4_22:
vmovdqa (%rdi), %xmm14
vmovdqa 32(%rdi), %xmm0
vmovaps (%rsi), %xmm1
vmovaps %xmm1, 48(%rsp)
vmovaps 16(%rsi), %xmm1
vmovaps %xmm1, 32(%rsp)
vmovaps 32(%rsi), %xmm1
vmovaps %xmm1, 16(%rsp)
vmovaps 48(%rsi), %xmm1
vmovaps %xmm1, 64(%rsp)
vmovaps 64(%rsi), %xmm1
vmovaps %xmm1, 80(%rsp)
vmovaps 80(%rsi), %xmm1
vmovaps %xmm1, 112(%rsp)
vmovaps 96(%rsi), %xmm1
vmovaps %xmm1, 96(%rsp)
vmovdqa 112(%rsi), %xmm8
vmovdqa 128(%rsi), %xmm9
vmovdqa 144(%rsi), %xmm10
vmovdqa 160(%rsi), %xmm11
vmovdqa 176(%rsi), %xmm12
vmovdqa 192(%rsi), %xmm13
vmovdqa 208(%rsi), %xmm15
vmovdqa 224(%rsi), %xmm1
vmovdqa 240(%rsi), %xmm2
vmovdqa .LCPI4_0(%rip), %xmm3
vpbroadcastq .LCPI4_8(%rip), %xmm4
.p2align 4, 0x90
.LBB4_23:
vpshufb %xmm3, %xmm0, %xmm5
vpxor 48(%rsp), %xmm5, %xmm5
vaesenc 32(%rsp), %xmm5, %xmm5
vaesenc 16(%rsp), %xmm5, %xmm5
vaesenc 64(%rsp), %xmm5, %xmm5
vaesenc 80(%rsp), %xmm5, %xmm5
vaesenc 112(%rsp), %xmm5, %xmm5
vaesenc 96(%rsp), %xmm5, %xmm5
vaesenc %xmm8, %xmm5, %xmm5
vaesenc %xmm9, %xmm5, %xmm5
vaesenc %xmm10, %xmm5, %xmm5
vaesenc %xmm11, %xmm5, %xmm5
vaesenc %xmm12, %xmm5, %xmm5
vaesenc %xmm13, %xmm5, %xmm5
vaesenc %xmm15, %xmm5, %xmm5
vaesenclast %xmm1, %xmm5, %xmm5
vpxor (%rdx), %xmm5, %xmm5
vmovdqu %xmm5, (%r8)
vpshufb %xmm3, %xmm5, %xmm5
vpxor %xmm5, %xmm14, %xmm5
vpclmulqdq $0, %xmm5, %xmm2, %xmm14
vpclmulqdq $1, %xmm5, %xmm2, %xmm6
vpclmulqdq $16, %xmm5, %xmm2, %xmm7
vpxor %xmm6, %xmm7, %xmm6
vpslldq $8, %xmm6, %xmm7
vpxor %xmm7, %xmm14, %xmm7
vpclmulqdq $17, %xmm5, %xmm2, %xmm5
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vpclmulqdq $16, %xmm4, %xmm7, %xmm6
vpshufd $78, %xmm7, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpshufd $78, %xmm6, %xmm7
vpxor %xmm7, %xmm5, %xmm5
vpclmulqdq $16, %xmm4, %xmm6, %xmm6
vpxor %xmm5, %xmm6, %xmm14
addq $16, %rdx
addq $16, %r8
addq $-16, %rbx
vpaddd .LCPI4_2(%rip), %xmm0, %xmm0
cmpq $15, %rbx
ja .LBB4_23
vmovdqa %xmm0, 32(%rdi)
vmovdqa %xmm14, (%rdi)
testq %rbx, %rbx
je .LBB4_27
.LBB4_25:
movq %r11, 48(%rsp)
movq %rax, %r12
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, (%rsp)
movq %rsp, %rax
movq memcpy@GOTPCREL(%rip), %r15
movq %rdi, %rbp
movq %rax, %rdi
movq %rsi, %r13
movq %rdx, %rsi
movq %rbx, %rdx
movq %r8, %r14
vzeroupper
callq *%r15
vmovdqa 32(%rbp), %xmm0
vpshufb .LCPI4_0(%rip), %xmm0, %xmm1
vpaddd .LCPI4_2(%rip), %xmm0, %xmm0
vmovdqa %xmm0, 32(%rbp)
vpxor (%r13), %xmm1, %xmm0
vaesenc 16(%r13), %xmm0, %xmm0
vaesenc 32(%r13), %xmm0, %xmm0
vaesenc 48(%r13), %xmm0, %xmm0
vaesenc 64(%r13), %xmm0, %xmm0
vaesenc 80(%r13), %xmm0, %xmm0
vaesenc 96(%r13), %xmm0, %xmm0
vaesenc 112(%r13), %xmm0, %xmm0
vaesenc 128(%r13), %xmm0, %xmm0
vaesenc 144(%r13), %xmm0, %xmm0
vaesenc 160(%r13), %xmm0, %xmm0
vaesenc 176(%r13), %xmm0, %xmm0
vaesenc 192(%r13), %xmm0, %xmm0
vaesenc 208(%r13), %xmm0, %xmm0
vmovdqa (%rsp), %xmm1
vaesenclast 224(%r13), %xmm0, %xmm0
vmovdqa %xmm0, 32(%rsp)
vpxor %xmm1, %xmm0, %xmm0
vmovdqa %xmm0, 16(%rsp)
vmovdqa %xmm0, (%rsp)
movq %rsp, %rsi
movq %r14, %rdi
movq %rbx, %rdx
callq *%r15
movq %rbp, %rdi
vmovaps 32(%rsp), %xmm0
vmovaps %xmm0, 48(%rbp)
vmovdqa 16(%rsp), %xmm0
vmovdqa %xmm0, 64(%rbp)
.LBB4_26:
movq %rbx, 80(%rdi)
movq %r12, %rax
movq 48(%rsp), %r11
.LBB4_27:
movq %r11, 104(%rdi)
addq $504, %rsp
.cfi_def_cfa_offset 56
popq %rbx
.cfi_def_cfa_offset 48
popq %r12
.cfi_def_cfa_offset 40
popq %r13
.cfi_def_cfa_offset 32
popq %r14
.cfi_def_cfa_offset 24
popq %r15
.cfi_def_cfa_offset 16
popq %rbp
.cfi_def_cfa_offset 8
.cfi_restore %rbx
.cfi_restore %r12
.cfi_restore %r13
.cfi_restore %r14
.cfi_restore %r15
.cfi_restore %rbp
vzeroupper
retq
.Lfunc_end4:
.size haberdashery_aes256gcm_streaming_skylake_encrypt_update, .Lfunc_end4-haberdashery_aes256gcm_streaming_skylake_encrypt_update
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI5_0:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI5_1:
.zero 8
.quad -4467570830351532032
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI5_2:
.quad -4467570830351532032
.section .text.haberdashery_aes256gcm_streaming_skylake_encrypt_finalize,"ax",@progbits
.globl haberdashery_aes256gcm_streaming_skylake_encrypt_finalize
.p2align 4, 0x90
.type haberdashery_aes256gcm_streaming_skylake_encrypt_finalize,@function
haberdashery_aes256gcm_streaming_skylake_encrypt_finalize:
.cfi_startproc
pushq %rbp
.cfi_def_cfa_offset 16
pushq %r15
.cfi_def_cfa_offset 24
pushq %r14
.cfi_def_cfa_offset 32
pushq %r13
.cfi_def_cfa_offset 40
pushq %r12
.cfi_def_cfa_offset 48
pushq %rbx
.cfi_def_cfa_offset 56
subq $56, %rsp
.cfi_def_cfa_offset 112
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
.cfi_offset %rbp, -16
movq %rcx, %rbx
movq %rsi, %r15
movq %rdi, %r12
movq 104(%rdi), %rbp
testq %rbp, %rbp
je .LBB5_1
movq %rdx, 8(%rsp)
leaq 48(%r12), %r14
vmovaps 64(%r12), %xmm0
movq 80(%r12), %r13
vmovaps %xmm0, 32(%rsp)
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, 16(%rsp)
leaq 16(%rsp), %rdi
leaq 32(%rsp), %rsi
movq %r13, %rdx
callq *memcpy@GOTPCREL(%rip)
vmovdqa (%r12), %xmm0
testq %r13, %r13
je .LBB5_4
vmovdqa 16(%rsp), %xmm1
vpshufb .LCPI5_0(%rip), %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm2
vmovdqa 240(%r15), %xmm3
vpclmulqdq $0, %xmm2, %xmm3, %xmm0
vpclmulqdq $1, %xmm2, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm3, %xmm4
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $17, %xmm2, %xmm3, %xmm2
movq 8(%rsp), %rdx
jmp .LBB5_6
.LBB5_1:
cmpq $0, 80(%r12)
vmovdqa (%r12), %xmm0
je .LBB5_8
vmovdqa 240(%r15), %xmm2
leaq 48(%r12), %r14
vmovdqa 64(%r12), %xmm1
vpshufb .LCPI5_0(%rip), %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm3
vpclmulqdq $0, %xmm3, %xmm2, %xmm0
vpclmulqdq $1, %xmm3, %xmm2, %xmm1
vpclmulqdq $16, %xmm3, %xmm2, %xmm4
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $17, %xmm3, %xmm2, %xmm2
.LBB5_6:
vpslldq $8, %xmm1, %xmm3
vpxor %xmm3, %xmm0, %xmm0
vpsrldq $8, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpbroadcastq .LCPI5_2(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm0, %xmm3
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm0
vpclmulqdq $16, %xmm2, %xmm0, %xmm2
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpxor %xmm0, %xmm2, %xmm0
jmp .LBB5_7
.LBB5_4:
movq 8(%rsp), %rdx
.LBB5_7:
vpxor %xmm1, %xmm1, %xmm1
vmovdqu %ymm1, (%r14)
movq $0, 32(%r14)
.LBB5_8:
vmovdqa 240(%r15), %xmm1
vmovq 96(%r12), %xmm2
vmovq %rbp, %xmm3
vpunpcklqdq %xmm2, %xmm3, %xmm2
vpsllq $3, %xmm2, %xmm2
vpxor %xmm0, %xmm2, %xmm0
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI5_2(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vmovdqa %xmm0, (%r12)
testq %rbx, %rbx
je .LBB5_9
vmovdqa (%r15), %xmm1
vpxor 16(%r12), %xmm1, %xmm1
vaesenc 16(%r15), %xmm1, %xmm1
vaesenc 32(%r15), %xmm1, %xmm1
vaesenc 48(%r15), %xmm1, %xmm1
vaesenc 64(%r15), %xmm1, %xmm1
vaesenc 80(%r15), %xmm1, %xmm1
vaesenc 96(%r15), %xmm1, %xmm1
vaesenc 112(%r15), %xmm1, %xmm1
vaesenc 128(%r15), %xmm1, %xmm1
vaesenc 144(%r15), %xmm1, %xmm1
vaesenc 160(%r15), %xmm1, %xmm1
vaesenc 176(%r15), %xmm1, %xmm1
vaesenc 192(%r15), %xmm1, %xmm1
vaesenc 208(%r15), %xmm1, %xmm1
vaesenclast 224(%r15), %xmm1, %xmm1
vpshufb .LCPI5_0(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
cmpq $16, %rbx
jae .LBB5_11
vmovdqa %xmm0, 16(%rsp)
leaq 16(%rsp), %rsi
movq %rdx, %rdi
movq %rbx, %rdx
vzeroupper
callq *memcpy@GOTPCREL(%rip)
jmp .LBB5_13
.LBB5_9:
xorl %ebx, %ebx
jmp .LBB5_13
.LBB5_11:
vmovdqu %xmm0, (%rdx)
movl $16, %ebx
.LBB5_13:
movq %rbx, %rax
addq $56, %rsp
.cfi_def_cfa_offset 56
popq %rbx
.cfi_def_cfa_offset 48
popq %r12
.cfi_def_cfa_offset 40
popq %r13
.cfi_def_cfa_offset 32
popq %r14
.cfi_def_cfa_offset 24
popq %r15
.cfi_def_cfa_offset 16
popq %rbp
.cfi_def_cfa_offset 8
vzeroupper
retq
.Lfunc_end5:
.size haberdashery_aes256gcm_streaming_skylake_encrypt_finalize, .Lfunc_end5-haberdashery_aes256gcm_streaming_skylake_encrypt_finalize
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI6_0:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI6_1:
.zero 8
.quad -4467570830351532032
.LCPI6_2:
.long 1
.long 0
.long 0
.long 0
.LCPI6_3:
.long 2
.long 0
.long 0
.long 0
.LCPI6_4:
.long 3
.long 0
.long 0
.long 0
.LCPI6_5:
.long 4
.long 0
.long 0
.long 0
.LCPI6_6:
.long 5
.long 0
.long 0
.long 0
.LCPI6_7:
.long 6
.long 0
.long 0
.long 0
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI6_8:
.quad -4467570830351532032
.section .text.haberdashery_aes256gcm_streaming_skylake_decrypt_update,"ax",@progbits
.globl haberdashery_aes256gcm_streaming_skylake_decrypt_update
.p2align 4, 0x90
.type haberdashery_aes256gcm_streaming_skylake_decrypt_update,@function
haberdashery_aes256gcm_streaming_skylake_decrypt_update:
.cfi_startproc
cmpq %r9, %rcx
jne .LBB6_3
movq %rcx, %rax
movabsq $-68719476704, %rcx
leaq (%rax,%rcx), %r9
incq %rcx
cmpq %rcx, %r9
jb .LBB6_3
movq 104(%rdi), %rcx
leaq (%rcx,%rax), %r11
movq %r11, %r9
shrq $5, %r9
cmpq $2147483646, %r9
jbe .LBB6_6
.LBB6_3:
xorl %eax, %eax
retq
.LBB6_6:
pushq %rbp
.cfi_def_cfa_offset 16
pushq %r15
.cfi_def_cfa_offset 24
pushq %r14
.cfi_def_cfa_offset 32
pushq %r13
.cfi_def_cfa_offset 40
pushq %r12
.cfi_def_cfa_offset 48
pushq %rbx
.cfi_def_cfa_offset 56
subq $456, %rsp
.cfi_def_cfa_offset 512
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
.cfi_offset %rbp, -16
testq %rcx, %rcx
setne %r9b
movq 80(%rdi), %rcx
testq %rcx, %rcx
sete %r10b
orb %r9b, %r10b
je .LBB6_10
testq %rcx, %rcx
je .LBB6_11
movq %r11, 16(%rsp)
movq %rdi, %rbp
leaq (%rcx,%rax), %rbx
cmpq $15, %rbx
ja .LBB6_12
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, (%rsp)
leaq (%rsp,%rcx), %r14
movq memcpy@GOTPCREL(%rip), %r13
movq %r14, %rdi
movq %rdx, %rsi
movq %rax, %rdx
movq %rax, %r15
movq %r8, %r12
callq *%r13
vmovdqa (%rsp), %xmm0
vpxor 64(%rbp), %xmm0, %xmm0
vmovdqa %xmm0, 64(%rbp)
vmovdqa %xmm0, (%rsp)
movq %r12, %rdi
movq %r14, %rsi
movq %r15, %r12
movq %r15, %rdx
callq *%r13
movq %rbp, %rdi
jmp .LBB6_23
.LBB6_10:
vmovdqa 64(%rdi), %xmm0
vpshufb .LCPI6_0(%rip), %xmm0, %xmm0
vpxor (%rdi), %xmm0, %xmm0
vmovdqa 240(%rsi), %xmm1
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI6_8(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vmovdqa %xmm0, (%rdi)
vpxor %xmm0, %xmm0, %xmm0
vmovdqu %ymm0, 48(%rdi)
movq $0, 80(%rdi)
.LBB6_11:
movq %rax, %rbx
cmpq $96, %rbx
jb .LBB6_14
.LBB6_16:
vmovdqa (%rdi), %xmm7
vmovaps (%rsi), %xmm0
vmovaps %xmm0, 144(%rsp)
vmovaps 16(%rsi), %xmm0
vmovaps %xmm0, 112(%rsp)
vmovaps 32(%rsi), %xmm0
vmovaps %xmm0, 96(%rsp)
vmovaps 48(%rsi), %xmm0
vmovaps %xmm0, 432(%rsp)
vmovaps 64(%rsi), %xmm0
vmovaps %xmm0, 416(%rsp)
vmovaps 80(%rsi), %xmm0
vmovaps %xmm0, 400(%rsp)
vmovaps 96(%rsi), %xmm0
vmovaps %xmm0, 384(%rsp)
vmovaps 112(%rsi), %xmm0
vmovaps %xmm0, 368(%rsp)
vmovaps 128(%rsi), %xmm0
vmovaps %xmm0, 352(%rsp)
vmovaps 144(%rsi), %xmm0
vmovaps %xmm0, 336(%rsp)
vmovaps 160(%rsi), %xmm0
vmovaps %xmm0, 320(%rsp)
vmovaps 176(%rsi), %xmm0
vmovaps %xmm0, 304(%rsp)
vmovaps 192(%rsi), %xmm0
vmovaps %xmm0, 288(%rsp)
vmovaps 208(%rsi), %xmm0
vmovaps %xmm0, 272(%rsp)
vmovaps 224(%rsi), %xmm0
vmovaps %xmm0, 256(%rsp)
vmovaps 240(%rsi), %xmm0
vmovaps %xmm0, 240(%rsp)
vmovaps 256(%rsi), %xmm0
vmovaps %xmm0, 224(%rsp)
vmovaps 272(%rsi), %xmm0
vmovaps %xmm0, 208(%rsp)
vmovaps 288(%rsi), %xmm0
vmovaps %xmm0, 192(%rsp)
vmovaps 304(%rsi), %xmm0
vmovaps %xmm0, 176(%rsp)
vmovdqa 320(%rsi), %xmm0
vmovdqa %xmm0, 160(%rsp)
.p2align 4, 0x90
.LBB6_17:
vmovdqu (%rdx), %xmm9
vmovdqa %xmm9, 48(%rsp)
vmovups 16(%rdx), %xmm0
vmovaps %xmm0, 128(%rsp)
vmovups 32(%rdx), %xmm0
vmovaps %xmm0, 16(%rsp)
vmovdqu 48(%rdx), %xmm14
vmovdqu 64(%rdx), %xmm11
vmovdqa %xmm11, 64(%rsp)
vmovdqu 80(%rdx), %xmm10
vmovdqa %xmm10, 32(%rsp)
vmovdqa 32(%rdi), %xmm0
vmovdqa .LCPI6_0(%rip), %xmm6
vpshufb %xmm6, %xmm0, %xmm1
vpaddd .LCPI6_2(%rip), %xmm0, %xmm2
vpshufb %xmm6, %xmm2, %xmm2
vpaddd .LCPI6_3(%rip), %xmm0, %xmm3
vpshufb %xmm6, %xmm3, %xmm3
vpaddd .LCPI6_4(%rip), %xmm0, %xmm4
vpshufb %xmm6, %xmm4, %xmm4
vpaddd .LCPI6_5(%rip), %xmm0, %xmm5
vpshufb %xmm6, %xmm5, %xmm5
vpaddd .LCPI6_6(%rip), %xmm0, %xmm8
vpshufb %xmm6, %xmm8, %xmm8
vpaddd .LCPI6_7(%rip), %xmm0, %xmm0
vmovdqa %xmm0, 32(%rdi)
vpshufb %xmm6, %xmm9, %xmm0
vpxor %xmm0, %xmm7, %xmm0
vmovdqa %xmm0, 80(%rsp)
vpshufb %xmm6, %xmm10, %xmm10
vmovdqa 144(%rsp), %xmm0
vpxor %xmm1, %xmm0, %xmm15
vpxor %xmm2, %xmm0, %xmm1
vpxor %xmm3, %xmm0, %xmm2
vpxor %xmm4, %xmm0, %xmm3
vpxor %xmm5, %xmm0, %xmm4
vpxor %xmm0, %xmm8, %xmm5
vmovaps 112(%rsp), %xmm0
#APP
vaesenc %xmm0, %xmm15, %xmm15
vaesenc %xmm0, %xmm1, %xmm1
vaesenc %xmm0, %xmm2, %xmm2
vaesenc %xmm0, %xmm3, %xmm3
vaesenc %xmm0, %xmm4, %xmm4
vaesenc %xmm0, %xmm5, %xmm5
#NO_APP
vpxor %xmm8, %xmm8, %xmm8
vxorps %xmm0, %xmm0, %xmm0
vpxor %xmm9, %xmm9, %xmm9
vmovaps 96(%rsp), %xmm12
vmovaps 240(%rsp), %xmm13
#APP
vaesenc %xmm12, %xmm15, %xmm15
vaesenc %xmm12, %xmm1, %xmm1
vaesenc %xmm12, %xmm2, %xmm2
vaesenc %xmm12, %xmm3, %xmm3
vaesenc %xmm12, %xmm4, %xmm4
vaesenc %xmm12, %xmm5, %xmm5
vpclmulqdq $16, %xmm13, %xmm10, %xmm7
vpxor %xmm7, %xmm8, %xmm8
vpclmulqdq $0, %xmm13, %xmm10, %xmm7
vpxor %xmm7, %xmm9, %xmm9
vpclmulqdq $17, %xmm13, %xmm10, %xmm7
vpxor %xmm7, %xmm0, %xmm0
vpclmulqdq $1, %xmm13, %xmm10, %xmm7
vpxor %xmm7, %xmm8, %xmm8
#NO_APP
vmovaps 432(%rsp), %xmm7
#APP
vaesenc %xmm7, %xmm15, %xmm15
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm4, %xmm4
vaesenc %xmm7, %xmm5, %xmm5
#NO_APP
vpshufb %xmm6, %xmm11, %xmm7
vmovaps 416(%rsp), %xmm12
vmovaps 224(%rsp), %xmm13
#APP
vaesenc %xmm12, %xmm15, %xmm15
vaesenc %xmm12, %xmm1, %xmm1
vaesenc %xmm12, %xmm2, %xmm2
vaesenc %xmm12, %xmm3, %xmm3
vaesenc %xmm12, %xmm4, %xmm4
vaesenc %xmm12, %xmm5, %xmm5
vpclmulqdq $16, %xmm13, %xmm7, %xmm10
vpxor %xmm10, %xmm8, %xmm8
vpclmulqdq $0, %xmm13, %xmm7, %xmm10
vpxor %xmm10, %xmm9, %xmm9
vpclmulqdq $17, %xmm13, %xmm7, %xmm10
vpxor %xmm0, %xmm10, %xmm0
vpclmulqdq $1, %xmm13, %xmm7, %xmm10
vpxor %xmm10, %xmm8, %xmm8
#NO_APP
vmovaps 400(%rsp), %xmm7
#APP
vaesenc %xmm7, %xmm15, %xmm15
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm4, %xmm4
vaesenc %xmm7, %xmm5, %xmm5
#NO_APP
vpshufb %xmm6, %xmm14, %xmm7
vmovaps 384(%rsp), %xmm12
vmovaps 208(%rsp), %xmm13
#APP
vaesenc %xmm12, %xmm15, %xmm15
vaesenc %xmm12, %xmm1, %xmm1
vaesenc %xmm12, %xmm2, %xmm2
vaesenc %xmm12, %xmm3, %xmm3
vaesenc %xmm12, %xmm4, %xmm4
vaesenc %xmm12, %xmm5, %xmm5
vpclmulqdq $16, %xmm13, %xmm7, %xmm10
vpxor %xmm10, %xmm8, %xmm8
vpclmulqdq $0, %xmm13, %xmm7, %xmm10
vpxor %xmm10, %xmm9, %xmm9
vpclmulqdq $17, %xmm13, %xmm7, %xmm10
vpxor %xmm0, %xmm10, %xmm0
vpclmulqdq $1, %xmm13, %xmm7, %xmm10
vpxor %xmm10, %xmm8, %xmm8
#NO_APP
vmovaps 368(%rsp), %xmm7
#APP
vaesenc %xmm7, %xmm15, %xmm15
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm4, %xmm4
vaesenc %xmm7, %xmm5, %xmm5
#NO_APP
vmovdqa 16(%rsp), %xmm7
vpshufb %xmm6, %xmm7, %xmm7
vmovaps 352(%rsp), %xmm12
vmovaps 192(%rsp), %xmm13
#APP
vaesenc %xmm12, %xmm15, %xmm15
vaesenc %xmm12, %xmm1, %xmm1
vaesenc %xmm12, %xmm2, %xmm2
vaesenc %xmm12, %xmm3, %xmm3
vaesenc %xmm12, %xmm4, %xmm4
vaesenc %xmm12, %xmm5, %xmm5
vpclmulqdq $16, %xmm13, %xmm7, %xmm10
vpxor %xmm10, %xmm8, %xmm8
vpclmulqdq $0, %xmm13, %xmm7, %xmm10
vpxor %xmm10, %xmm9, %xmm9
vpclmulqdq $17, %xmm13, %xmm7, %xmm10
vpxor %xmm0, %xmm10, %xmm0
vpclmulqdq $1, %xmm13, %xmm7, %xmm10
vpxor %xmm10, %xmm8, %xmm8
#NO_APP
vmovaps 336(%rsp), %xmm7
#APP
vaesenc %xmm7, %xmm15, %xmm15
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm4, %xmm4
vaesenc %xmm7, %xmm5, %xmm5
#NO_APP
vmovdqa 128(%rsp), %xmm11
vpshufb %xmm6, %xmm11, %xmm7
vmovaps 320(%rsp), %xmm12
vmovdqa 176(%rsp), %xmm13
#APP
vaesenc %xmm12, %xmm15, %xmm15
vaesenc %xmm12, %xmm1, %xmm1
vaesenc %xmm12, %xmm2, %xmm2
vaesenc %xmm12, %xmm3, %xmm3
vaesenc %xmm12, %xmm4, %xmm4
vaesenc %xmm12, %xmm5, %xmm5
vpclmulqdq $16, %xmm13, %xmm7, %xmm10
vpxor %xmm10, %xmm8, %xmm8
vpclmulqdq $0, %xmm13, %xmm7, %xmm10
vpxor %xmm10, %xmm9, %xmm9
vpclmulqdq $17, %xmm13, %xmm7, %xmm10
vpxor %xmm0, %xmm10, %xmm0
vpclmulqdq $1, %xmm13, %xmm7, %xmm10
vpxor %xmm10, %xmm8, %xmm8
#NO_APP
vmovaps 304(%rsp), %xmm7
#APP
vaesenc %xmm7, %xmm15, %xmm15
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm4, %xmm4
vaesenc %xmm7, %xmm5, %xmm5
#NO_APP
vmovdqa 288(%rsp), %xmm10
vmovdqa 160(%rsp), %xmm12
vmovdqa 80(%rsp), %xmm6
#APP
vaesenc %xmm10, %xmm15, %xmm15
vaesenc %xmm10, %xmm1, %xmm1
vaesenc %xmm10, %xmm2, %xmm2
vaesenc %xmm10, %xmm3, %xmm3
vaesenc %xmm10, %xmm4, %xmm4
vaesenc %xmm10, %xmm5, %xmm5
vpclmulqdq $16, %xmm12, %xmm6, %xmm7
vpxor %xmm7, %xmm8, %xmm8
vpclmulqdq $0, %xmm12, %xmm6, %xmm7
vpxor %xmm7, %xmm9, %xmm9
vpclmulqdq $17, %xmm12, %xmm6, %xmm7
vpxor %xmm7, %xmm0, %xmm0
vpclmulqdq $1, %xmm12, %xmm6, %xmm7
vpxor %xmm7, %xmm8, %xmm8
#NO_APP
vpxor %xmm10, %xmm10, %xmm10
vpunpcklqdq %xmm8, %xmm10, %xmm7
vpxor %xmm7, %xmm9, %xmm7
vpunpckhqdq %xmm10, %xmm8, %xmm8
vpxor %xmm0, %xmm8, %xmm0
vpbroadcastq .LCPI6_8(%rip), %xmm9
vpclmulqdq $16, %xmm9, %xmm7, %xmm8
vpshufd $78, %xmm7, %xmm7
vpxor %xmm7, %xmm8, %xmm7
vpshufd $78, %xmm7, %xmm8
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $16, %xmm9, %xmm7, %xmm7
vpxor %xmm7, %xmm0, %xmm7
vmovaps 272(%rsp), %xmm0
#APP
vaesenc %xmm0, %xmm15, %xmm15
vaesenc %xmm0, %xmm1, %xmm1
vaesenc %xmm0, %xmm2, %xmm2
vaesenc %xmm0, %xmm3, %xmm3
vaesenc %xmm0, %xmm4, %xmm4
vaesenc %xmm0, %xmm5, %xmm5
#NO_APP
vmovaps 256(%rsp), %xmm0
#APP
vaesenclast %xmm0, %xmm15, %xmm15
vaesenclast %xmm0, %xmm1, %xmm1
vaesenclast %xmm0, %xmm2, %xmm2
vaesenclast %xmm0, %xmm3, %xmm3
vaesenclast %xmm0, %xmm4, %xmm4
vaesenclast %xmm0, %xmm5, %xmm5
#NO_APP
vpxor 48(%rsp), %xmm15, %xmm0
vpxor %xmm1, %xmm11, %xmm1
vpxor 16(%rsp), %xmm2, %xmm2
vpxor %xmm3, %xmm14, %xmm3
vpxor 64(%rsp), %xmm4, %xmm4
vpxor 32(%rsp), %xmm5, %xmm5
vmovdqu %xmm0, (%r8)
vmovdqu %xmm1, 16(%r8)
vmovdqu %xmm2, 32(%r8)
vmovdqu %xmm3, 48(%r8)
vmovdqu %xmm4, 64(%r8)
vmovdqu %xmm5, 80(%r8)
addq $96, %rdx
addq $96, %r8
addq $-96, %rbx
cmpq $95, %rbx
ja .LBB6_17
vmovdqa %xmm7, (%rdi)
cmpq $16, %rbx
jae .LBB6_19
.LBB6_15:
testq %rbx, %rbx
jne .LBB6_22
jmp .LBB6_24
.LBB6_12:
movl $16, %r14d
subq %rcx, %r14
leaq (%rdx,%r14), %rdi
movq %rdi, 32(%rsp)
leaq (%r8,%r14), %rdi
movq %rdi, 80(%rsp)
movq %rax, %rbx
subq %r14, %rbx
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, (%rsp)
leaq (%rsp,%rcx), %r15
movq %r15, %rdi
movq %rsi, 48(%rsp)
movq %rdx, %rsi
movq %r14, %rdx
movq %rax, %r13
movq %r8, %r12
callq *memcpy@GOTPCREL(%rip)
vmovaps (%rsp), %xmm0
vxorps 64(%rbp), %xmm0, %xmm0
vmovaps %xmm0, 64(%rsp)
vmovaps %xmm0, 64(%rbp)
vmovaps %xmm0, (%rsp)
movq %r12, %rdi
movq %r15, %rsi
movq %r14, %rdx
callq *memcpy@GOTPCREL(%rip)
movq 48(%rsp), %rsi
movq %rbp, %rdi
movq %r13, %rax
movq $0, 80(%rbp)
vmovdqa 64(%rsp), %xmm0
vpxor 48(%rbp), %xmm0, %xmm0
vpshufb .LCPI6_0(%rip), %xmm0, %xmm0
vmovdqa 240(%rsi), %xmm1
vpxor (%rbp), %xmm0, %xmm0
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI6_8(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vmovdqa %xmm0, (%rbp)
movq 80(%rsp), %r8
movq 32(%rsp), %rdx
movq 16(%rsp), %r11
cmpq $96, %rbx
jae .LBB6_16
.LBB6_14:
cmpq $16, %rbx
jb .LBB6_15
.LBB6_19:
vmovdqa (%rdi), %xmm5
vmovdqa 32(%rdi), %xmm0
vmovdqa 240(%rsi), %xmm1
vmovaps (%rsi), %xmm2
vmovaps %xmm2, 16(%rsp)
vmovaps 16(%rsi), %xmm2
vmovaps %xmm2, 48(%rsp)
vmovaps 32(%rsi), %xmm2
vmovaps %xmm2, 32(%rsp)
vmovaps 48(%rsi), %xmm2
vmovaps %xmm2, 80(%rsp)
vmovaps 64(%rsi), %xmm2
vmovaps %xmm2, 64(%rsp)
vmovaps 80(%rsi), %xmm2
vmovaps %xmm2, 128(%rsp)
vmovaps 96(%rsi), %xmm2
vmovaps %xmm2, 112(%rsp)
vmovaps 112(%rsi), %xmm2
vmovaps %xmm2, 96(%rsp)
vmovdqa 128(%rsi), %xmm10
vmovdqa 144(%rsi), %xmm11
vmovdqa 160(%rsi), %xmm12
vmovdqa 176(%rsi), %xmm13
vmovdqa 192(%rsi), %xmm14
vmovdqa 208(%rsi), %xmm15
vmovdqa 224(%rsi), %xmm2
vmovdqa .LCPI6_0(%rip), %xmm3
vpbroadcastq .LCPI6_8(%rip), %xmm4
.p2align 4, 0x90
.LBB6_20:
vmovdqu (%rdx), %xmm6
vpshufb %xmm3, %xmm6, %xmm7
vpxor %xmm7, %xmm5, %xmm5
vpclmulqdq $0, %xmm5, %xmm1, %xmm7
vpclmulqdq $1, %xmm5, %xmm1, %xmm8
vpclmulqdq $16, %xmm5, %xmm1, %xmm9
vpxor %xmm8, %xmm9, %xmm8
vpslldq $8, %xmm8, %xmm9
vpxor %xmm7, %xmm9, %xmm7
vpclmulqdq $17, %xmm5, %xmm1, %xmm5
vpsrldq $8, %xmm8, %xmm8
vpxor %xmm5, %xmm8, %xmm5
vpclmulqdq $16, %xmm4, %xmm7, %xmm8
vpshufd $78, %xmm7, %xmm7
vpxor %xmm7, %xmm8, %xmm7
vpshufd $78, %xmm7, %xmm8
vpxor %xmm5, %xmm8, %xmm5
vpshufb %xmm3, %xmm0, %xmm8
vpxor 16(%rsp), %xmm8, %xmm8
vaesenc 48(%rsp), %xmm8, %xmm8
vaesenc 32(%rsp), %xmm8, %xmm8
vaesenc 80(%rsp), %xmm8, %xmm8
vaesenc 64(%rsp), %xmm8, %xmm8
vaesenc 128(%rsp), %xmm8, %xmm8
vaesenc 112(%rsp), %xmm8, %xmm8
vaesenc 96(%rsp), %xmm8, %xmm8
vaesenc %xmm10, %xmm8, %xmm8
vaesenc %xmm11, %xmm8, %xmm8
vaesenc %xmm12, %xmm8, %xmm8
vaesenc %xmm13, %xmm8, %xmm8
vaesenc %xmm14, %xmm8, %xmm8
vaesenc %xmm15, %xmm8, %xmm8
vaesenclast %xmm2, %xmm8, %xmm8
vpxor %xmm6, %xmm8, %xmm6
vmovdqu %xmm6, (%r8)
vpclmulqdq $16, %xmm4, %xmm7, %xmm6
vpxor %xmm5, %xmm6, %xmm5
addq $16, %r8
addq $-16, %rbx
addq $16, %rdx
vpaddd .LCPI6_2(%rip), %xmm0, %xmm0
cmpq $15, %rbx
ja .LBB6_20
vmovdqa %xmm0, 32(%rdi)
vmovdqa %xmm5, (%rdi)
testq %rbx, %rbx
je .LBB6_24
.LBB6_22:
movq %r11, 16(%rsp)
movq %rax, %r12
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, (%rsp)
movq %rsp, %rax
movq memcpy@GOTPCREL(%rip), %r15
movq %rdi, %rbp
movq %rax, %rdi
movq %rsi, %r13
movq %rdx, %rsi
movq %rbx, %rdx
movq %r8, %r14
vzeroupper
callq *%r15
vmovdqa 32(%rbp), %xmm0
vpshufb .LCPI6_0(%rip), %xmm0, %xmm1
vpaddd .LCPI6_2(%rip), %xmm0, %xmm0
vmovdqa %xmm0, 32(%rbp)
vpxor (%r13), %xmm1, %xmm0
vaesenc 16(%r13), %xmm0, %xmm0
vaesenc 32(%r13), %xmm0, %xmm0
vaesenc 48(%r13), %xmm0, %xmm0
vaesenc 64(%r13), %xmm0, %xmm0
vaesenc 80(%r13), %xmm0, %xmm0
vaesenc 96(%r13), %xmm0, %xmm0
vaesenc 112(%r13), %xmm0, %xmm0
vaesenc 128(%r13), %xmm0, %xmm0
vaesenc 144(%r13), %xmm0, %xmm0
vaesenc 160(%r13), %xmm0, %xmm0
vaesenc 176(%r13), %xmm0, %xmm0
vaesenc 192(%r13), %xmm0, %xmm0
vaesenc 208(%r13), %xmm0, %xmm0
vmovdqa (%rsp), %xmm1
vaesenclast 224(%r13), %xmm0, %xmm0
vmovdqa %xmm0, 48(%rsp)
vpxor %xmm1, %xmm0, %xmm0
vmovdqa %xmm0, 32(%rsp)
vmovdqa %xmm0, (%rsp)
movq %rsp, %rsi
movq %r14, %rdi
movq %rbx, %rdx
callq *%r15
movq %rbp, %rdi
vmovaps 48(%rsp), %xmm0
vmovaps %xmm0, 48(%rbp)
vmovdqa 32(%rsp), %xmm0
vmovdqa %xmm0, 64(%rbp)
.LBB6_23:
movq %rbx, 80(%rdi)
movq %r12, %rax
movq 16(%rsp), %r11
.LBB6_24:
movq %r11, 104(%rdi)
addq $456, %rsp
.cfi_def_cfa_offset 56
popq %rbx
.cfi_def_cfa_offset 48
popq %r12
.cfi_def_cfa_offset 40
popq %r13
.cfi_def_cfa_offset 32
popq %r14
.cfi_def_cfa_offset 24
popq %r15
.cfi_def_cfa_offset 16
popq %rbp
.cfi_def_cfa_offset 8
.cfi_restore %rbx
.cfi_restore %r12
.cfi_restore %r13
.cfi_restore %r14
.cfi_restore %r15
.cfi_restore %rbp
vzeroupper
retq
.Lfunc_end6:
.size haberdashery_aes256gcm_streaming_skylake_decrypt_update, .Lfunc_end6-haberdashery_aes256gcm_streaming_skylake_decrypt_update
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI7_0:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI7_1:
.zero 8
.quad -4467570830351532032
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI7_2:
.quad -4467570830351532032
.section .text.haberdashery_aes256gcm_streaming_skylake_decrypt_finalize,"ax",@progbits
.globl haberdashery_aes256gcm_streaming_skylake_decrypt_finalize
.p2align 4, 0x90
.type haberdashery_aes256gcm_streaming_skylake_decrypt_finalize,@function
haberdashery_aes256gcm_streaming_skylake_decrypt_finalize:
.cfi_startproc
xorl %eax, %eax
cmpq $16, %rcx
jne .LBB7_10
pushq %r15
.cfi_def_cfa_offset 16
pushq %r14
.cfi_def_cfa_offset 24
pushq %r13
.cfi_def_cfa_offset 32
pushq %r12
.cfi_def_cfa_offset 40
pushq %rbx
.cfi_def_cfa_offset 48
subq $48, %rsp
.cfi_def_cfa_offset 96
.cfi_offset %rbx, -48
.cfi_offset %r12, -40
.cfi_offset %r13, -32
.cfi_offset %r14, -24
.cfi_offset %r15, -16
vmovdqu (%rdx), %xmm5
movq 104(%rdi), %r14
testq %r14, %r14
je .LBB7_2
vmovdqa %xmm5, (%rsp)
movq %rsi, %r12
leaq 48(%rdi), %r15
vmovaps 48(%rdi), %xmm0
vxorps 64(%rdi), %xmm0, %xmm0
movq 80(%rdi), %rbx
vmovaps %xmm0, 32(%rsp)
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, 16(%rsp)
leaq 16(%rsp), %rax
leaq 32(%rsp), %rsi
movq %rdi, %r13
movq %rax, %rdi
movq %rbx, %rdx
callq *memcpy@GOTPCREL(%rip)
movq %r13, %rdi
vmovdqa (%r13), %xmm0
testq %rbx, %rbx
je .LBB7_5
vmovdqa 16(%rsp), %xmm1
vpshufb .LCPI7_0(%rip), %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm2
movq %r12, %rsi
vmovdqa 240(%r12), %xmm3
vpclmulqdq $0, %xmm2, %xmm3, %xmm0
vpclmulqdq $1, %xmm2, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm3, %xmm4
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $17, %xmm2, %xmm3, %xmm2
vmovdqa (%rsp), %xmm5
jmp .LBB7_7
.LBB7_2:
cmpq $0, 80(%rdi)
vmovdqa (%rdi), %xmm0
je .LBB7_9
vmovdqa 240(%rsi), %xmm2
leaq 48(%rdi), %r15
vmovdqa 64(%rdi), %xmm1
vpshufb .LCPI7_0(%rip), %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm3
vpclmulqdq $0, %xmm3, %xmm2, %xmm0
vpclmulqdq $1, %xmm3, %xmm2, %xmm1
vpclmulqdq $16, %xmm3, %xmm2, %xmm4
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $17, %xmm3, %xmm2, %xmm2
.LBB7_7:
vpslldq $8, %xmm1, %xmm3
vpxor %xmm3, %xmm0, %xmm0
vpsrldq $8, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpbroadcastq .LCPI7_2(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm0, %xmm3
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm0
vpclmulqdq $16, %xmm2, %xmm0, %xmm2
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpxor %xmm2, %xmm0, %xmm0
jmp .LBB7_8
.LBB7_5:
movq %r12, %rsi
vmovdqa (%rsp), %xmm5
.LBB7_8:
vpxor %xmm1, %xmm1, %xmm1
vmovdqu %ymm1, (%r15)
movq $0, 32(%r15)
.LBB7_9:
vmovdqa 240(%rsi), %xmm1
vmovq 96(%rdi), %xmm2
vmovq %r14, %xmm3
vpunpcklqdq %xmm2, %xmm3, %xmm2
vpsllq $3, %xmm2, %xmm2
vpxor %xmm0, %xmm2, %xmm0
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI7_2(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vmovdqa %xmm0, (%rdi)
vmovdqa (%rsi), %xmm1
vpxor 16(%rdi), %xmm1, %xmm1
vaesenc 16(%rsi), %xmm1, %xmm1
vaesenc 32(%rsi), %xmm1, %xmm1
vaesenc 48(%rsi), %xmm1, %xmm1
vaesenc 64(%rsi), %xmm1, %xmm1
vaesenc 80(%rsi), %xmm1, %xmm1
vaesenc 96(%rsi), %xmm1, %xmm1
vaesenc 112(%rsi), %xmm1, %xmm1
vaesenc 128(%rsi), %xmm1, %xmm1
vaesenc 144(%rsi), %xmm1, %xmm1
vaesenc 160(%rsi), %xmm1, %xmm1
vaesenc 176(%rsi), %xmm1, %xmm1
vaesenc 192(%rsi), %xmm1, %xmm1
vaesenc 208(%rsi), %xmm1, %xmm1
vaesenclast 224(%rsi), %xmm1, %xmm1
vpshufb .LCPI7_0(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm5, %xmm0
vpxor %xmm1, %xmm0, %xmm0
xorl %eax, %eax
vptest %xmm0, %xmm0
sete %al
addq $48, %rsp
.cfi_def_cfa_offset 48
popq %rbx
.cfi_def_cfa_offset 40
popq %r12
.cfi_def_cfa_offset 32
popq %r13
.cfi_def_cfa_offset 24
popq %r14
.cfi_def_cfa_offset 16
popq %r15
.cfi_def_cfa_offset 8
.cfi_restore %rbx
.cfi_restore %r12
.cfi_restore %r13
.cfi_restore %r14
.cfi_restore %r15
.LBB7_10:
vzeroupper
retq
.Lfunc_end7:
.size haberdashery_aes256gcm_streaming_skylake_decrypt_finalize, .Lfunc_end7-haberdashery_aes256gcm_streaming_skylake_decrypt_finalize
.cfi_endproc
.ident "rustc version 1.86.0-nightly (9cd60bd2c 2025-02-15)"
.section ".note.GNU-stack","",@progbits
|
ts-phantomnk90/haberdashery
| 65,153
|
asm/aes128gcm_streaming_broadwell.s
|
# @generated
# https://github.com/facebookincubator/haberdashery/
.text
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI0_0:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI0_1:
.zero 8
.quad -4467570830351532032
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI0_2:
.quad -4467570830351532032
.section .text.haberdashery_aes128gcm_streaming_broadwell_init_key,"ax",@progbits
.globl haberdashery_aes128gcm_streaming_broadwell_init_key
.p2align 4, 0x90
.type haberdashery_aes128gcm_streaming_broadwell_init_key,@function
haberdashery_aes128gcm_streaming_broadwell_init_key:
.cfi_startproc
cmpq $16, %rdx
jne .LBB0_2
vmovdqu (%rsi), %xmm2
vpslldq $4, %xmm2, %xmm0
vpslldq $8, %xmm2, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpslldq $12, %xmm2, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vaeskeygenassist $1, %xmm2, %xmm1
vpshufd $255, %xmm1, %xmm1
vpxor %xmm2, %xmm0, %xmm0
vmovdqa %xmm2, %xmm10
vmovdqa %xmm2, -56(%rsp)
vpxor %xmm0, %xmm1, %xmm1
vpslldq $4, %xmm1, %xmm0
vpslldq $8, %xmm1, %xmm2
vaeskeygenassist $2, %xmm1, %xmm3
vpxor %xmm2, %xmm0, %xmm0
vpslldq $12, %xmm1, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpshufd $255, %xmm3, %xmm2
vpxor %xmm1, %xmm0, %xmm0
vmovdqa %xmm1, -24(%rsp)
vpxor %xmm0, %xmm2, %xmm2
vpslldq $4, %xmm2, %xmm0
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm0, %xmm0
vaeskeygenassist $4, %xmm2, %xmm3
vpslldq $12, %xmm2, %xmm4
vpxor %xmm4, %xmm0, %xmm0
vpshufd $255, %xmm3, %xmm3
vpxor %xmm2, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm3
vpslldq $4, %xmm3, %xmm0
vpslldq $8, %xmm3, %xmm4
vpxor %xmm4, %xmm0, %xmm0
vpslldq $12, %xmm3, %xmm4
vaeskeygenassist $8, %xmm3, %xmm5
vpxor %xmm4, %xmm0, %xmm0
vpshufd $255, %xmm5, %xmm4
vpxor %xmm3, %xmm0, %xmm0
vpxor %xmm0, %xmm4, %xmm4
vpslldq $4, %xmm4, %xmm0
vpslldq $8, %xmm4, %xmm5
vpxor %xmm5, %xmm0, %xmm0
vpslldq $12, %xmm4, %xmm5
vpxor %xmm5, %xmm0, %xmm0
vaeskeygenassist $16, %xmm4, %xmm5
vpshufd $255, %xmm5, %xmm5
vpxor %xmm4, %xmm0, %xmm0
vpxor %xmm0, %xmm5, %xmm5
vpslldq $4, %xmm5, %xmm0
vpslldq $8, %xmm5, %xmm6
vaeskeygenassist $32, %xmm5, %xmm7
vpxor %xmm6, %xmm0, %xmm0
vpslldq $12, %xmm5, %xmm6
vpxor %xmm6, %xmm0, %xmm0
vpshufd $255, %xmm7, %xmm6
vpxor %xmm5, %xmm0, %xmm0
vpxor %xmm0, %xmm6, %xmm6
vpslldq $4, %xmm6, %xmm0
vpslldq $8, %xmm6, %xmm7
vpxor %xmm7, %xmm0, %xmm0
vaeskeygenassist $64, %xmm6, %xmm7
vpslldq $12, %xmm6, %xmm8
vpxor %xmm0, %xmm8, %xmm0
vpshufd $255, %xmm7, %xmm7
vpxor %xmm6, %xmm0, %xmm0
vpxor %xmm0, %xmm7, %xmm7
vpslldq $4, %xmm7, %xmm0
vpslldq $8, %xmm7, %xmm8
vpxor %xmm0, %xmm8, %xmm0
vpslldq $12, %xmm7, %xmm8
vaeskeygenassist $128, %xmm7, %xmm9
vpxor %xmm0, %xmm8, %xmm0
vpshufd $255, %xmm9, %xmm8
vpxor %xmm7, %xmm0, %xmm0
vpxor %xmm0, %xmm8, %xmm8
vpslldq $4, %xmm8, %xmm0
vpslldq $8, %xmm8, %xmm9
vpxor %xmm0, %xmm9, %xmm0
vpslldq $12, %xmm8, %xmm9
vpxor %xmm0, %xmm9, %xmm0
vaeskeygenassist $27, %xmm8, %xmm9
vpshufd $255, %xmm9, %xmm9
vpxor %xmm0, %xmm8, %xmm0
vpxor %xmm0, %xmm9, %xmm9
vpslldq $4, %xmm9, %xmm0
vpslldq $8, %xmm9, %xmm11
vaeskeygenassist $54, %xmm9, %xmm12
vpxor %xmm0, %xmm11, %xmm0
vpslldq $12, %xmm9, %xmm11
vpxor %xmm0, %xmm11, %xmm0
vpshufd $255, %xmm12, %xmm11
vpxor %xmm0, %xmm9, %xmm0
vpxor %xmm0, %xmm11, %xmm11
vmovdqa %xmm11, -40(%rsp)
vaesenc %xmm1, %xmm10, %xmm0
vaesenc %xmm2, %xmm0, %xmm0
vaesenc %xmm3, %xmm0, %xmm0
vaesenc %xmm4, %xmm0, %xmm0
vaesenc %xmm5, %xmm0, %xmm0
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm7, %xmm0, %xmm0
vaesenc %xmm8, %xmm0, %xmm0
vaesenc %xmm9, %xmm0, %xmm0
vaesenclast %xmm11, %xmm0, %xmm0
vpshufb .LCPI0_0(%rip), %xmm0, %xmm0
vpsrlq $63, %xmm0, %xmm11
vpaddq %xmm0, %xmm0, %xmm0
vpshufd $78, %xmm11, %xmm12
vpor %xmm0, %xmm12, %xmm0
vpxor %xmm12, %xmm12, %xmm12
vpblendd $12, %xmm11, %xmm12, %xmm11
vpsllq $63, %xmm11, %xmm12
vpxor %xmm0, %xmm12, %xmm0
vpsllq $62, %xmm11, %xmm12
vpsllq $57, %xmm11, %xmm11
vpxor %xmm11, %xmm12, %xmm11
vpxor %xmm0, %xmm11, %xmm11
vpclmulqdq $0, %xmm11, %xmm11, %xmm0
vpbroadcastq .LCPI0_2(%rip), %xmm13
vpclmulqdq $16, %xmm13, %xmm0, %xmm12
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm12, %xmm0
vpclmulqdq $16, %xmm13, %xmm0, %xmm12
vpclmulqdq $17, %xmm11, %xmm11, %xmm14
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm14, %xmm0
vpxor %xmm0, %xmm12, %xmm12
vpclmulqdq $16, %xmm11, %xmm12, %xmm0
vpclmulqdq $1, %xmm11, %xmm12, %xmm14
vpxor %xmm0, %xmm14, %xmm0
vpclmulqdq $0, %xmm11, %xmm12, %xmm14
vpslldq $8, %xmm0, %xmm15
vpxor %xmm15, %xmm14, %xmm14
vpclmulqdq $16, %xmm13, %xmm14, %xmm15
vpshufd $78, %xmm14, %xmm14
vpxor %xmm14, %xmm15, %xmm14
vpsrldq $8, %xmm0, %xmm0
vpclmulqdq $17, %xmm11, %xmm12, %xmm15
vpxor %xmm0, %xmm15, %xmm0
vpshufd $78, %xmm14, %xmm15
vpxor %xmm0, %xmm15, %xmm0
vpclmulqdq $16, %xmm13, %xmm14, %xmm14
vpxor %xmm0, %xmm14, %xmm14
vpclmulqdq $0, %xmm14, %xmm14, %xmm0
vpclmulqdq $16, %xmm13, %xmm0, %xmm15
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm15, %xmm0
vpclmulqdq $17, %xmm14, %xmm14, %xmm15
vpshufd $78, %xmm0, %xmm10
vpxor %xmm10, %xmm15, %xmm10
vpclmulqdq $16, %xmm13, %xmm0, %xmm0
vpxor %xmm0, %xmm10, %xmm0
vmovdqa %xmm0, -72(%rsp)
vpclmulqdq $0, %xmm12, %xmm12, %xmm0
vpclmulqdq $16, %xmm13, %xmm0, %xmm10
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm10, %xmm0
vpclmulqdq $17, %xmm12, %xmm12, %xmm10
vpshufd $78, %xmm0, %xmm15
vpxor %xmm15, %xmm10, %xmm10
vpclmulqdq $16, %xmm13, %xmm0, %xmm0
vpxor %xmm0, %xmm10, %xmm0
vpclmulqdq $16, %xmm11, %xmm0, %xmm10
vpclmulqdq $1, %xmm11, %xmm0, %xmm15
vpxor %xmm10, %xmm15, %xmm10
vpclmulqdq $0, %xmm11, %xmm0, %xmm15
vpslldq $8, %xmm10, %xmm1
vpxor %xmm1, %xmm15, %xmm1
vpclmulqdq $16, %xmm13, %xmm1, %xmm15
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm15, %xmm1
vpsrldq $8, %xmm10, %xmm10
vpclmulqdq $17, %xmm11, %xmm0, %xmm15
vpxor %xmm10, %xmm15, %xmm10
vpclmulqdq $16, %xmm13, %xmm1, %xmm13
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm10, %xmm1
vpxor %xmm1, %xmm13, %xmm1
vmovaps -56(%rsp), %xmm10
vmovaps %xmm10, (%rdi)
vmovaps -24(%rsp), %xmm10
vmovaps %xmm10, 16(%rdi)
vmovdqa %xmm2, 32(%rdi)
vmovdqa %xmm3, 48(%rdi)
vmovdqa %xmm4, 64(%rdi)
vmovdqa %xmm5, 80(%rdi)
vmovdqa %xmm6, 96(%rdi)
vmovdqa %xmm7, 112(%rdi)
vmovdqa %xmm8, 128(%rdi)
vmovdqa %xmm9, 144(%rdi)
vmovaps -40(%rsp), %xmm2
vmovaps %xmm2, 160(%rdi)
vmovdqa %xmm11, 176(%rdi)
vmovdqa %xmm12, 192(%rdi)
vmovdqa %xmm14, 208(%rdi)
vmovdqa %xmm0, 224(%rdi)
vmovdqa %xmm1, 240(%rdi)
vmovaps -72(%rsp), %xmm0
vmovaps %xmm0, 256(%rdi)
.LBB0_2:
xorl %eax, %eax
cmpq $16, %rdx
sete %al
retq
.Lfunc_end0:
.size haberdashery_aes128gcm_streaming_broadwell_init_key, .Lfunc_end0-haberdashery_aes128gcm_streaming_broadwell_init_key
.cfi_endproc
.section .text.haberdashery_aes128gcm_streaming_broadwell_is_supported,"ax",@progbits
.globl haberdashery_aes128gcm_streaming_broadwell_is_supported
.p2align 4, 0x90
.type haberdashery_aes128gcm_streaming_broadwell_is_supported,@function
haberdashery_aes128gcm_streaming_broadwell_is_supported:
.cfi_startproc
movl $1, %eax
xorl %ecx, %ecx
#APP
movq %rbx, %rsi
cpuid
xchgq %rbx, %rsi
#NO_APP
movl %ecx, %esi
movl %edx, %edi
notl %edi
notl %esi
movl $7, %eax
xorl %ecx, %ecx
#APP
movq %rbx, %r8
cpuid
xchgq %rbx, %r8
#NO_APP
andl $1993871875, %esi
andl $125829120, %edi
orl %esi, %edi
notl %r8d
andl $786729, %r8d
xorl %eax, %eax
orl %edi, %r8d
sete %al
retq
.Lfunc_end1:
.size haberdashery_aes128gcm_streaming_broadwell_is_supported, .Lfunc_end1-haberdashery_aes128gcm_streaming_broadwell_is_supported
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI2_0:
.byte 15
.byte 128
.byte 128
.byte 128
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI2_1:
.long 1
.long 0
.long 0
.long 0
.section .text.haberdashery_aes128gcm_streaming_broadwell_init_state,"ax",@progbits
.globl haberdashery_aes128gcm_streaming_broadwell_init_state
.p2align 4, 0x90
.type haberdashery_aes128gcm_streaming_broadwell_init_state,@function
haberdashery_aes128gcm_streaming_broadwell_init_state:
.cfi_startproc
cmpq $12, %rcx
jne .LBB2_2
vmovd (%rdx), %xmm0
vpinsrd $1, 4(%rdx), %xmm0, %xmm0
vpinsrd $2, 8(%rdx), %xmm0, %xmm0
movl $16777216, %eax
vpinsrd $3, %eax, %xmm0, %xmm0
vpshufb .LCPI2_0(%rip), %xmm0, %xmm1
vpaddd .LCPI2_1(%rip), %xmm1, %xmm1
vxorps %xmm2, %xmm2, %xmm2
vmovups %ymm2, -56(%rsp)
vmovups %ymm2, -88(%rsp)
movq $0, -24(%rsp)
vxorps %xmm2, %xmm2, %xmm2
vmovaps %xmm2, (%rdi)
vmovdqa %xmm0, 16(%rdi)
vmovdqa %xmm1, 32(%rdi)
vmovups -56(%rsp), %ymm0
vmovups -40(%rsp), %xmm1
movq -24(%rsp), %rax
movq -16(%rsp), %rdx
vmovups %ymm0, 48(%rdi)
vmovups %xmm1, 64(%rdi)
movq %rax, 80(%rdi)
movq %rdx, 88(%rdi)
vmovaps %xmm2, 96(%rdi)
.LBB2_2:
xorl %eax, %eax
cmpq $12, %rcx
sete %al
vzeroupper
retq
.Lfunc_end2:
.size haberdashery_aes128gcm_streaming_broadwell_init_state, .Lfunc_end2-haberdashery_aes128gcm_streaming_broadwell_init_state
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI3_0:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI3_1:
.zero 8
.quad -4467570830351532032
.LCPI3_2:
.zero 16
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI3_3:
.quad -4467570830351532032
.section .text.haberdashery_aes128gcm_streaming_broadwell_aad_update,"ax",@progbits
.globl haberdashery_aes128gcm_streaming_broadwell_aad_update
.p2align 4, 0x90
.type haberdashery_aes128gcm_streaming_broadwell_aad_update,@function
haberdashery_aes128gcm_streaming_broadwell_aad_update:
.cfi_startproc
movabsq $-2305843009213693951, %rax
leaq (%rcx,%rax), %r8
incq %rax
cmpq %rax, %r8
jae .LBB3_3
xorl %eax, %eax
retq
.LBB3_3:
pushq %rbp
.cfi_def_cfa_offset 16
pushq %r15
.cfi_def_cfa_offset 24
pushq %r14
.cfi_def_cfa_offset 32
pushq %r13
.cfi_def_cfa_offset 40
pushq %r12
.cfi_def_cfa_offset 48
pushq %rbx
.cfi_def_cfa_offset 56
subq $24, %rsp
.cfi_def_cfa_offset 80
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
.cfi_offset %rbp, -16
movq 96(%rdi), %r14
addq %rcx, %r14
xorl %eax, %eax
movabsq $2305843009213693950, %r8
cmpq %r8, %r14
ja .LBB3_26
cmpq $0, 104(%rdi)
jne .LBB3_26
movq 80(%rdi), %r8
testq %r8, %r8
je .LBB3_6
leaq (%r8,%rcx), %rbx
cmpq $15, %rbx
ja .LBB3_9
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, (%rsp)
leaq (%rsp,%r8), %rax
movq %rdi, %r15
movq %rax, %rdi
movq %rdx, %rsi
movq %rcx, %rdx
movq %rcx, %r12
callq *memcpy@GOTPCREL(%rip)
movq %r15, %rdi
movq %r12, %rcx
vmovdqa 64(%r15), %xmm0
vpxor (%rsp), %xmm0, %xmm0
jmp .LBB3_24
.LBB3_6:
movq %rcx, %rbx
cmpq $96, %rbx
jae .LBB3_11
jmp .LBB3_14
.LBB3_9:
vmovaps 64(%rdi), %xmm0
vmovaps %xmm0, (%rsp)
movl $16, %eax
subq %r8, %rax
addq %rsp, %r8
leaq (%rdx,%rax), %r15
movq %rcx, %rbx
subq %rax, %rbx
movq %rdi, %r12
movq %r8, %rdi
movq %rsi, %r13
movq %rdx, %rsi
movq %rax, %rdx
movq %rcx, %rbp
callq *memcpy@GOTPCREL(%rip)
movq %r13, %rsi
movq %r12, %rdi
movq %rbp, %rcx
movq $0, 80(%r12)
vmovdqa (%rsp), %xmm0
vmovdqa 176(%r13), %xmm1
vpshufb .LCPI3_0(%rip), %xmm0, %xmm0
vpxor (%r12), %xmm0, %xmm0
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI3_3(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vmovdqa %xmm0, (%r12)
movq %r15, %rdx
cmpq $96, %rbx
jb .LBB3_14
.LBB3_11:
vmovdqu 32(%rdx), %xmm1
vmovdqu 48(%rdx), %xmm2
vmovdqu 64(%rdx), %xmm3
vmovdqu 80(%rdx), %xmm4
vmovdqa .LCPI3_0(%rip), %xmm0
vpshufb %xmm0, %xmm1, %xmm6
vpshufb %xmm0, %xmm2, %xmm5
vpshufb %xmm0, %xmm3, %xmm7
vpshufb %xmm0, %xmm4, %xmm8
vmovdqa 176(%rsi), %xmm1
vmovdqa 192(%rsi), %xmm2
vmovdqa 208(%rsi), %xmm3
vmovdqa 224(%rsi), %xmm4
vpclmulqdq $0, %xmm8, %xmm1, %xmm9
vpclmulqdq $1, %xmm8, %xmm1, %xmm10
vpclmulqdq $16, %xmm8, %xmm1, %xmm11
vpxor %xmm10, %xmm11, %xmm10
vpclmulqdq $17, %xmm8, %xmm1, %xmm8
vpclmulqdq $0, %xmm7, %xmm2, %xmm11
vpxor %xmm9, %xmm11, %xmm9
vpclmulqdq $1, %xmm7, %xmm2, %xmm11
vpclmulqdq $16, %xmm7, %xmm2, %xmm12
vpxor %xmm12, %xmm11, %xmm11
vpxor %xmm11, %xmm10, %xmm10
vpclmulqdq $17, %xmm7, %xmm2, %xmm7
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $0, %xmm5, %xmm3, %xmm8
vpclmulqdq $1, %xmm5, %xmm3, %xmm11
vpclmulqdq $16, %xmm5, %xmm3, %xmm12
vpxor %xmm12, %xmm11, %xmm11
vpclmulqdq $0, %xmm6, %xmm4, %xmm12
vpxor %xmm12, %xmm8, %xmm8
vmovdqu (%rdx), %xmm12
vpxor %xmm8, %xmm9, %xmm8
vpclmulqdq $1, %xmm6, %xmm4, %xmm9
vpxor %xmm9, %xmm11, %xmm9
vmovdqu 16(%rdx), %xmm11
vpshufb %xmm0, %xmm12, %xmm12
vpshufb %xmm0, %xmm11, %xmm11
vpxor (%rdi), %xmm12, %xmm12
vpclmulqdq $17, %xmm5, %xmm3, %xmm5
vpxor %xmm9, %xmm10, %xmm9
vpclmulqdq $17, %xmm6, %xmm4, %xmm10
vpxor %xmm5, %xmm10, %xmm10
vmovdqa 240(%rsi), %xmm5
vpclmulqdq $16, %xmm6, %xmm4, %xmm6
vpxor %xmm7, %xmm10, %xmm7
vpclmulqdq $0, %xmm11, %xmm5, %xmm10
vpxor %xmm10, %xmm8, %xmm8
vpclmulqdq $1, %xmm11, %xmm5, %xmm10
vpxor %xmm6, %xmm10, %xmm6
vpclmulqdq $16, %xmm11, %xmm5, %xmm10
vpxor %xmm6, %xmm10, %xmm6
vpxor %xmm6, %xmm9, %xmm9
vmovdqa 256(%rsi), %xmm6
vpclmulqdq $17, %xmm11, %xmm5, %xmm10
vpxor %xmm7, %xmm10, %xmm7
vpclmulqdq $0, %xmm12, %xmm6, %xmm10
vpxor %xmm10, %xmm8, %xmm8
vpclmulqdq $1, %xmm12, %xmm6, %xmm10
vpxor %xmm10, %xmm9, %xmm9
vpclmulqdq $16, %xmm12, %xmm6, %xmm10
vpxor %xmm10, %xmm9, %xmm9
vpclmulqdq $17, %xmm12, %xmm6, %xmm10
vpxor %xmm7, %xmm10, %xmm10
addq $96, %rdx
addq $-96, %rbx
cmpq $96, %rbx
jb .LBB3_13
.p2align 4, 0x90
.LBB3_12:
vmovdqu (%rdx), %xmm11
vmovdqu 32(%rdx), %xmm12
vmovdqu 48(%rdx), %xmm13
vmovdqu 64(%rdx), %xmm14
vmovdqu 80(%rdx), %xmm15
vpslldq $8, %xmm9, %xmm7
vpxor %xmm7, %xmm8, %xmm7
vpsrldq $8, %xmm9, %xmm8
vpxor %xmm8, %xmm10, %xmm8
vpbroadcastq .LCPI3_3(%rip), %xmm10
vpclmulqdq $16, %xmm10, %xmm7, %xmm9
vpshufd $78, %xmm7, %xmm7
vpxor %xmm7, %xmm9, %xmm7
vpclmulqdq $16, %xmm10, %xmm7, %xmm9
vpshufd $78, %xmm7, %xmm7
vpxor %xmm7, %xmm8, %xmm7
vpshufb %xmm0, %xmm11, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpxor %xmm7, %xmm9, %xmm10
vpshufb %xmm0, %xmm12, %xmm8
vpshufb %xmm0, %xmm13, %xmm7
vpshufb %xmm0, %xmm14, %xmm9
vpshufb %xmm0, %xmm15, %xmm11
vpclmulqdq $0, %xmm11, %xmm1, %xmm12
vpclmulqdq $1, %xmm11, %xmm1, %xmm13
vpclmulqdq $16, %xmm11, %xmm1, %xmm14
vpxor %xmm13, %xmm14, %xmm13
vpclmulqdq $17, %xmm11, %xmm1, %xmm11
vpclmulqdq $0, %xmm9, %xmm2, %xmm14
vpxor %xmm12, %xmm14, %xmm12
vpclmulqdq $1, %xmm9, %xmm2, %xmm14
vpclmulqdq $16, %xmm9, %xmm2, %xmm15
vpxor %xmm15, %xmm14, %xmm14
vpxor %xmm14, %xmm13, %xmm13
vpclmulqdq $17, %xmm9, %xmm2, %xmm9
vpxor %xmm11, %xmm9, %xmm9
vpclmulqdq $0, %xmm7, %xmm3, %xmm11
vpclmulqdq $1, %xmm7, %xmm3, %xmm14
vpclmulqdq $16, %xmm7, %xmm3, %xmm15
vpxor %xmm15, %xmm14, %xmm14
vpclmulqdq $0, %xmm8, %xmm4, %xmm15
vpxor %xmm15, %xmm11, %xmm11
vpxor %xmm11, %xmm12, %xmm11
vpclmulqdq $1, %xmm8, %xmm4, %xmm12
vpxor %xmm12, %xmm14, %xmm12
vpclmulqdq $17, %xmm7, %xmm3, %xmm7
vpxor %xmm12, %xmm13, %xmm12
vpclmulqdq $17, %xmm8, %xmm4, %xmm13
vpxor %xmm7, %xmm13, %xmm7
vmovdqu 16(%rdx), %xmm13
vpshufb %xmm0, %xmm13, %xmm13
vpclmulqdq $16, %xmm8, %xmm4, %xmm8
vpxor %xmm7, %xmm9, %xmm7
vpclmulqdq $0, %xmm13, %xmm5, %xmm9
vpxor %xmm9, %xmm11, %xmm9
vpclmulqdq $1, %xmm13, %xmm5, %xmm11
vpxor %xmm11, %xmm8, %xmm8
vpclmulqdq $16, %xmm13, %xmm5, %xmm11
vpxor %xmm11, %xmm8, %xmm8
vpxor %xmm8, %xmm12, %xmm11
vpclmulqdq $17, %xmm13, %xmm5, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $0, %xmm10, %xmm6, %xmm8
vpxor %xmm8, %xmm9, %xmm8
vpclmulqdq $1, %xmm10, %xmm6, %xmm9
vpxor %xmm9, %xmm11, %xmm9
vpclmulqdq $16, %xmm10, %xmm6, %xmm11
vpxor %xmm11, %xmm9, %xmm9
vpclmulqdq $17, %xmm10, %xmm6, %xmm10
vpxor %xmm7, %xmm10, %xmm10
addq $96, %rdx
addq $-96, %rbx
cmpq $95, %rbx
ja .LBB3_12
.LBB3_13:
vpslldq $8, %xmm9, %xmm0
vpxor %xmm0, %xmm8, %xmm0
vpsrldq $8, %xmm9, %xmm1
vpxor %xmm1, %xmm10, %xmm1
vpbroadcastq .LCPI3_3(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm0, %xmm3
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm0
vpclmulqdq $16, %xmm2, %xmm0, %xmm2
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpxor %xmm2, %xmm0, %xmm0
vmovdqa %xmm0, (%rdi)
.LBB3_14:
cmpq $16, %rbx
jae .LBB3_15
testq %rbx, %rbx
jne .LBB3_23
jmp .LBB3_25
.LBB3_15:
vmovdqa (%rdi), %xmm1
vmovdqa 176(%rsi), %xmm0
leaq -16(%rbx), %rax
testb $16, %al
jne .LBB3_17
vmovdqu (%rdx), %xmm2
vpshufb .LCPI3_0(%rip), %xmm2, %xmm2
addq $16, %rdx
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
vpslldq $8, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpsrldq $8, %xmm3, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpbroadcastq .LCPI3_3(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm2, %xmm4
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm4, %xmm2
vpclmulqdq $16, %xmm3, %xmm2, %xmm3
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
movq %rax, %rbx
.LBB3_17:
cmpq $16, %rax
jb .LBB3_21
vmovdqa .LCPI3_0(%rip), %xmm2
vpbroadcastq .LCPI3_3(%rip), %xmm3
.p2align 4, 0x90
.LBB3_19:
vmovdqu (%rdx), %xmm4
vmovdqu 16(%rdx), %xmm5
vpshufb %xmm2, %xmm4, %xmm4
vpxor %xmm4, %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm4
vpclmulqdq $1, %xmm1, %xmm0, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm7
vpxor %xmm6, %xmm7, %xmm6
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
vpslldq $8, %xmm6, %xmm7
vpxor %xmm7, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm1, %xmm1
vpclmulqdq $16, %xmm3, %xmm4, %xmm6
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm6, %xmm4
vpclmulqdq $16, %xmm3, %xmm4, %xmm6
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm1, %xmm1
addq $32, %rdx
addq $-32, %rbx
vpshufb %xmm2, %xmm5, %xmm4
vpxor %xmm4, %xmm1, %xmm1
vpxor %xmm1, %xmm6, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm4
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vpclmulqdq $16, %xmm1, %xmm0, %xmm6
vpxor %xmm5, %xmm6, %xmm5
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
vpslldq $8, %xmm5, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpsrldq $8, %xmm5, %xmm5
vpxor %xmm5, %xmm1, %xmm1
vpclmulqdq $16, %xmm3, %xmm4, %xmm5
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $16, %xmm3, %xmm4, %xmm5
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm1, %xmm1
vpxor %xmm1, %xmm5, %xmm1
cmpq $15, %rbx
ja .LBB3_19
movq %rbx, %rax
.LBB3_21:
vmovdqa %xmm1, (%rdi)
movq %rax, %rbx
testq %rbx, %rbx
je .LBB3_25
.LBB3_23:
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, (%rsp)
movq %rsp, %rax
movq %rdi, %r15
movq %rax, %rdi
movq %rdx, %rsi
movq %rbx, %rdx
movq %rcx, %r12
callq *memcpy@GOTPCREL(%rip)
movq %r15, %rdi
movq %r12, %rcx
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, 48(%r15)
vmovdqa (%rsp), %xmm0
.LBB3_24:
vmovdqa %xmm0, 64(%r15)
movq %rbx, 80(%r15)
.LBB3_25:
movq %r14, 96(%rdi)
movq %rcx, %rax
.LBB3_26:
addq $24, %rsp
.cfi_def_cfa_offset 56
popq %rbx
.cfi_def_cfa_offset 48
popq %r12
.cfi_def_cfa_offset 40
popq %r13
.cfi_def_cfa_offset 32
popq %r14
.cfi_def_cfa_offset 24
popq %r15
.cfi_def_cfa_offset 16
popq %rbp
.cfi_def_cfa_offset 8
.cfi_restore %rbx
.cfi_restore %r12
.cfi_restore %r13
.cfi_restore %r14
.cfi_restore %r15
.cfi_restore %rbp
retq
.Lfunc_end3:
.size haberdashery_aes128gcm_streaming_broadwell_aad_update, .Lfunc_end3-haberdashery_aes128gcm_streaming_broadwell_aad_update
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI4_0:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI4_1:
.zero 8
.quad -4467570830351532032
.LCPI4_2:
.long 1
.long 0
.long 0
.long 0
.LCPI4_3:
.long 2
.long 0
.long 0
.long 0
.LCPI4_4:
.long 3
.long 0
.long 0
.long 0
.LCPI4_5:
.long 4
.long 0
.long 0
.long 0
.LCPI4_6:
.long 5
.long 0
.long 0
.long 0
.LCPI4_7:
.long 6
.long 0
.long 0
.long 0
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI4_8:
.quad -4467570830351532032
.section .text.haberdashery_aes128gcm_streaming_broadwell_encrypt_update,"ax",@progbits
.globl haberdashery_aes128gcm_streaming_broadwell_encrypt_update
.p2align 4, 0x90
.type haberdashery_aes128gcm_streaming_broadwell_encrypt_update,@function
haberdashery_aes128gcm_streaming_broadwell_encrypt_update:
.cfi_startproc
cmpq %r9, %rcx
jne .LBB4_3
movq %rcx, %rax
movabsq $-68719476704, %rcx
leaq (%rax,%rcx), %r9
incq %rcx
cmpq %rcx, %r9
jb .LBB4_3
movq 104(%rdi), %rcx
leaq (%rcx,%rax), %r11
movq %r11, %r9
shrq $5, %r9
cmpq $2147483646, %r9
jbe .LBB4_6
.LBB4_3:
xorl %eax, %eax
retq
.LBB4_6:
pushq %rbp
.cfi_def_cfa_offset 16
pushq %r15
.cfi_def_cfa_offset 24
pushq %r14
.cfi_def_cfa_offset 32
pushq %r13
.cfi_def_cfa_offset 40
pushq %r12
.cfi_def_cfa_offset 48
pushq %rbx
.cfi_def_cfa_offset 56
subq $440, %rsp
.cfi_def_cfa_offset 496
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
.cfi_offset %rbp, -16
testq %rcx, %rcx
setne %r9b
movq 80(%rdi), %rcx
testq %rcx, %rcx
sete %r10b
orb %r9b, %r10b
je .LBB4_10
testq %rcx, %rcx
je .LBB4_11
movq %r11, 32(%rsp)
movq %rdi, %rbp
leaq (%rcx,%rax), %rbx
cmpq $15, %rbx
ja .LBB4_12
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, (%rsp)
leaq (%rsp,%rcx), %r14
movq memcpy@GOTPCREL(%rip), %r13
movq %r14, %rdi
movq %rdx, %rsi
movq %rax, %rdx
movq %rax, %r15
movq %r8, %r12
callq *%r13
vmovdqa (%rsp), %xmm0
vpxor 64(%rbp), %xmm0, %xmm0
vmovdqa %xmm0, 64(%rbp)
vmovdqa %xmm0, (%rsp)
movq %r12, %rdi
movq %r14, %rsi
movq %r15, %r12
movq %r15, %rdx
callq *%r13
movq %rbp, %rdi
jmp .LBB4_24
.LBB4_10:
vmovdqa 176(%rsi), %xmm0
vmovdqa 64(%rdi), %xmm1
vpshufb .LCPI4_0(%rip), %xmm1, %xmm1
vpxor (%rdi), %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm0, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI4_8(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vmovdqa %xmm0, (%rdi)
vpxor %xmm0, %xmm0, %xmm0
vmovdqu %ymm0, 48(%rdi)
movq $0, 80(%rdi)
.LBB4_11:
movq %rax, %rbx
cmpq $96, %rbx
jb .LBB4_14
.LBB4_16:
vmovups (%rdx), %xmm0
vmovaps %xmm0, 32(%rsp)
vmovups 16(%rdx), %xmm0
vmovaps %xmm0, 16(%rsp)
vmovdqu 32(%rdx), %xmm3
vmovdqu 48(%rdx), %xmm4
vmovdqu 64(%rdx), %xmm6
vmovdqu 80(%rdx), %xmm5
vmovdqa 32(%rdi), %xmm1
vmovdqa .LCPI4_0(%rip), %xmm8
vpaddd .LCPI4_2(%rip), %xmm1, %xmm7
vpshufb %xmm8, %xmm1, %xmm9
vpshufb %xmm8, %xmm7, %xmm10
vpaddd .LCPI4_3(%rip), %xmm1, %xmm7
vpshufb %xmm8, %xmm7, %xmm11
vpaddd .LCPI4_4(%rip), %xmm1, %xmm7
vpshufb %xmm8, %xmm7, %xmm12
vpaddd .LCPI4_5(%rip), %xmm1, %xmm7
vpaddd .LCPI4_6(%rip), %xmm1, %xmm13
vpshufb %xmm8, %xmm7, %xmm14
vpshufb %xmm8, %xmm13, %xmm15
vpaddd .LCPI4_7(%rip), %xmm1, %xmm1
vmovdqa %xmm1, 32(%rdi)
vmovdqa (%rsi), %xmm2
vmovaps 16(%rsi), %xmm0
vmovdqa 32(%rsi), %xmm1
vpxor %xmm2, %xmm9, %xmm7
vpxor %xmm2, %xmm10, %xmm10
vpxor %xmm2, %xmm11, %xmm11
vpxor %xmm2, %xmm12, %xmm12
vpxor %xmm2, %xmm14, %xmm13
vpxor %xmm2, %xmm15, %xmm9
vmovaps %xmm0, 352(%rsp)
#APP
vaesenc %xmm0, %xmm7, %xmm7
vaesenc %xmm0, %xmm10, %xmm10
vaesenc %xmm0, %xmm11, %xmm11
vaesenc %xmm0, %xmm12, %xmm12
vaesenc %xmm0, %xmm13, %xmm13
vaesenc %xmm0, %xmm9, %xmm9
#NO_APP
vmovdqa %xmm1, %xmm0
#APP
vaesenc %xmm1, %xmm7, %xmm7
vaesenc %xmm1, %xmm10, %xmm10
vaesenc %xmm1, %xmm11, %xmm11
vaesenc %xmm1, %xmm12, %xmm12
vaesenc %xmm1, %xmm13, %xmm13
vaesenc %xmm1, %xmm9, %xmm9
#NO_APP
vmovdqa 48(%rsi), %xmm1
#APP
vaesenc %xmm1, %xmm7, %xmm7
vaesenc %xmm1, %xmm10, %xmm10
vaesenc %xmm1, %xmm11, %xmm11
vaesenc %xmm1, %xmm12, %xmm12
vaesenc %xmm1, %xmm13, %xmm13
vaesenc %xmm1, %xmm9, %xmm9
#NO_APP
vmovaps 64(%rsi), %xmm14
vmovaps %xmm14, 336(%rsp)
#APP
vaesenc %xmm14, %xmm7, %xmm7
vaesenc %xmm14, %xmm10, %xmm10
vaesenc %xmm14, %xmm11, %xmm11
vaesenc %xmm14, %xmm12, %xmm12
vaesenc %xmm14, %xmm13, %xmm13
vaesenc %xmm14, %xmm9, %xmm9
#NO_APP
vmovaps 80(%rsi), %xmm14
vmovaps %xmm14, 320(%rsp)
#APP
vaesenc %xmm14, %xmm7, %xmm7
vaesenc %xmm14, %xmm10, %xmm10
vaesenc %xmm14, %xmm11, %xmm11
vaesenc %xmm14, %xmm12, %xmm12
vaesenc %xmm14, %xmm13, %xmm13
vaesenc %xmm14, %xmm9, %xmm9
#NO_APP
vmovaps 96(%rsi), %xmm14
vmovaps %xmm14, 304(%rsp)
#APP
vaesenc %xmm14, %xmm7, %xmm7
vaesenc %xmm14, %xmm10, %xmm10
vaesenc %xmm14, %xmm11, %xmm11
vaesenc %xmm14, %xmm12, %xmm12
vaesenc %xmm14, %xmm13, %xmm13
vaesenc %xmm14, %xmm9, %xmm9
#NO_APP
vmovaps 112(%rsi), %xmm14
vmovaps %xmm14, 288(%rsp)
#APP
vaesenc %xmm14, %xmm7, %xmm7
vaesenc %xmm14, %xmm10, %xmm10
vaesenc %xmm14, %xmm11, %xmm11
vaesenc %xmm14, %xmm12, %xmm12
vaesenc %xmm14, %xmm13, %xmm13
vaesenc %xmm14, %xmm9, %xmm9
#NO_APP
vmovaps 128(%rsi), %xmm14
vmovaps %xmm14, 272(%rsp)
#APP
vaesenc %xmm14, %xmm7, %xmm7
vaesenc %xmm14, %xmm10, %xmm10
vaesenc %xmm14, %xmm11, %xmm11
vaesenc %xmm14, %xmm12, %xmm12
vaesenc %xmm14, %xmm13, %xmm13
vaesenc %xmm14, %xmm9, %xmm9
#NO_APP
vmovaps 144(%rsi), %xmm14
vmovaps %xmm14, 256(%rsp)
#APP
vaesenc %xmm14, %xmm7, %xmm7
vaesenc %xmm14, %xmm10, %xmm10
vaesenc %xmm14, %xmm11, %xmm11
vaesenc %xmm14, %xmm12, %xmm12
vaesenc %xmm14, %xmm13, %xmm13
vaesenc %xmm14, %xmm9, %xmm9
#NO_APP
vmovaps 160(%rsi), %xmm14
vmovaps %xmm14, 240(%rsp)
#APP
vaesenclast %xmm14, %xmm7, %xmm7
vaesenclast %xmm14, %xmm10, %xmm10
vaesenclast %xmm14, %xmm11, %xmm11
vaesenclast %xmm14, %xmm12, %xmm12
vaesenclast %xmm14, %xmm13, %xmm13
vaesenclast %xmm14, %xmm9, %xmm9
#NO_APP
vpxor %xmm5, %xmm9, %xmm9
vpxor %xmm6, %xmm13, %xmm13
vpxor %xmm4, %xmm12, %xmm14
vpxor %xmm3, %xmm11, %xmm12
vpxor 16(%rsp), %xmm10, %xmm3
vpxor 32(%rsp), %xmm7, %xmm11
addq $96, %rdx
leaq 96(%r8), %rcx
addq $-96, %rbx
vmovdqu %xmm11, (%r8)
vmovdqu %xmm3, 16(%r8)
vmovdqu %xmm12, 32(%r8)
vmovdqu %xmm14, 48(%r8)
vmovdqu %xmm13, 64(%r8)
vmovdqu %xmm9, 80(%r8)
vmovdqa (%rdi), %xmm15
cmpq $96, %rbx
jb .LBB4_19
vmovaps 176(%rsi), %xmm4
vmovaps %xmm4, 224(%rsp)
vmovaps 192(%rsi), %xmm4
vmovaps %xmm4, 208(%rsp)
vmovaps 208(%rsi), %xmm4
vmovaps %xmm4, 192(%rsp)
vmovaps 224(%rsi), %xmm4
vmovaps %xmm4, 176(%rsp)
vmovaps 240(%rsi), %xmm4
vmovaps %xmm4, 160(%rsp)
vmovdqa 256(%rsi), %xmm4
vmovdqa %xmm4, 144(%rsp)
vmovdqa %xmm2, 112(%rsp)
vmovdqa %xmm0, 128(%rsp)
vmovdqa %xmm1, 96(%rsp)
.p2align 4, 0x90
.LBB4_18:
vmovdqa %xmm12, 368(%rsp)
vmovdqa %xmm3, 384(%rsp)
vmovups (%rdx), %xmm0
vmovaps %xmm0, 32(%rsp)
vmovups 16(%rdx), %xmm0
vmovaps %xmm0, 16(%rsp)
vmovups 32(%rdx), %xmm0
vmovaps %xmm0, 48(%rsp)
vmovups 48(%rdx), %xmm0
vmovaps %xmm0, 80(%rsp)
vmovups 64(%rdx), %xmm0
vmovaps %xmm0, 64(%rsp)
vmovups 80(%rdx), %xmm0
vmovaps %xmm0, 416(%rsp)
vmovdqa 32(%rdi), %xmm0
vpaddd .LCPI4_2(%rip), %xmm0, %xmm2
vpshufb %xmm8, %xmm2, %xmm3
vpaddd .LCPI4_7(%rip), %xmm0, %xmm2
vmovdqa %xmm2, 32(%rdi)
vpaddd .LCPI4_3(%rip), %xmm0, %xmm2
vpshufb %xmm8, %xmm2, %xmm4
vpshufb %xmm8, %xmm11, %xmm2
vpxor %xmm2, %xmm15, %xmm1
vmovdqa %xmm1, 400(%rsp)
vpaddd .LCPI4_4(%rip), %xmm0, %xmm5
vpshufb %xmm8, %xmm5, %xmm5
vpaddd .LCPI4_5(%rip), %xmm0, %xmm7
vpshufb %xmm8, %xmm7, %xmm7
vpshufb %xmm8, %xmm0, %xmm10
vpaddd .LCPI4_6(%rip), %xmm0, %xmm0
vmovdqa %xmm8, %xmm12
vpshufb %xmm8, %xmm0, %xmm8
vpshufb %xmm12, %xmm9, %xmm1
vmovdqa 112(%rsp), %xmm2
vpxor %xmm2, %xmm10, %xmm11
vpxor %xmm3, %xmm2, %xmm15
vpxor %xmm4, %xmm2, %xmm10
vpxor %xmm5, %xmm2, %xmm0
vpxor %xmm7, %xmm2, %xmm3
vpxor %xmm2, %xmm8, %xmm9
vmovaps 352(%rsp), %xmm2
#APP
vaesenc %xmm2, %xmm11, %xmm11
vaesenc %xmm2, %xmm15, %xmm15
vaesenc %xmm2, %xmm10, %xmm10
vaesenc %xmm2, %xmm0, %xmm0
vaesenc %xmm2, %xmm3, %xmm3
vaesenc %xmm2, %xmm9, %xmm9
#NO_APP
vpxor %xmm4, %xmm4, %xmm4
vpxor %xmm5, %xmm5, %xmm5
vpxor %xmm7, %xmm7, %xmm7
vmovdqa %xmm14, %xmm2
vmovaps 224(%rsp), %xmm14
vmovaps 128(%rsp), %xmm6
#APP
vaesenc %xmm6, %xmm11, %xmm11
vaesenc %xmm6, %xmm15, %xmm15
vaesenc %xmm6, %xmm10, %xmm10
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm9, %xmm9
vpclmulqdq $16, %xmm14, %xmm1, %xmm8
vpxor %xmm4, %xmm8, %xmm4
vpclmulqdq $0, %xmm14, %xmm1, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $17, %xmm14, %xmm1, %xmm8
vpxor %xmm5, %xmm8, %xmm5
vpclmulqdq $1, %xmm14, %xmm1, %xmm8
vpxor %xmm4, %xmm8, %xmm4
#NO_APP
vmovdqa %xmm12, %xmm8
vpshufb %xmm12, %xmm13, %xmm1
vmovaps 208(%rsp), %xmm12
vmovaps 96(%rsp), %xmm13
#APP
vaesenc %xmm13, %xmm11, %xmm11
vaesenc %xmm13, %xmm15, %xmm15
vaesenc %xmm13, %xmm10, %xmm10
vaesenc %xmm13, %xmm0, %xmm0
vaesenc %xmm13, %xmm3, %xmm3
vaesenc %xmm13, %xmm9, %xmm9
vpclmulqdq $16, %xmm12, %xmm1, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpclmulqdq $0, %xmm12, %xmm1, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpclmulqdq $17, %xmm12, %xmm1, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vpclmulqdq $1, %xmm12, %xmm1, %xmm6
vpxor %xmm6, %xmm4, %xmm4
#NO_APP
vpshufb %xmm8, %xmm2, %xmm1
vmovaps 192(%rsp), %xmm2
vmovaps 336(%rsp), %xmm12
#APP
vaesenc %xmm12, %xmm11, %xmm11
vaesenc %xmm12, %xmm15, %xmm15
vaesenc %xmm12, %xmm10, %xmm10
vaesenc %xmm12, %xmm0, %xmm0
vaesenc %xmm12, %xmm3, %xmm3
vaesenc %xmm12, %xmm9, %xmm9
vpclmulqdq $16, %xmm2, %xmm1, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpclmulqdq $0, %xmm2, %xmm1, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpclmulqdq $17, %xmm2, %xmm1, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vpclmulqdq $1, %xmm2, %xmm1, %xmm6
vpxor %xmm6, %xmm4, %xmm4
#NO_APP
vmovdqa 368(%rsp), %xmm1
vpshufb %xmm8, %xmm1, %xmm1
vmovaps 176(%rsp), %xmm2
vmovaps 320(%rsp), %xmm12
#APP
vaesenc %xmm12, %xmm11, %xmm11
vaesenc %xmm12, %xmm15, %xmm15
vaesenc %xmm12, %xmm10, %xmm10
vaesenc %xmm12, %xmm0, %xmm0
vaesenc %xmm12, %xmm3, %xmm3
vaesenc %xmm12, %xmm9, %xmm9
vpclmulqdq $16, %xmm2, %xmm1, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpclmulqdq $0, %xmm2, %xmm1, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpclmulqdq $17, %xmm2, %xmm1, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vpclmulqdq $1, %xmm2, %xmm1, %xmm6
vpxor %xmm6, %xmm4, %xmm4
#NO_APP
vmovdqa 384(%rsp), %xmm1
vpshufb %xmm8, %xmm1, %xmm1
vmovaps 160(%rsp), %xmm2
vmovaps 304(%rsp), %xmm12
#APP
vaesenc %xmm12, %xmm11, %xmm11
vaesenc %xmm12, %xmm15, %xmm15
vaesenc %xmm12, %xmm10, %xmm10
vaesenc %xmm12, %xmm0, %xmm0
vaesenc %xmm12, %xmm3, %xmm3
vaesenc %xmm12, %xmm9, %xmm9
vpclmulqdq $16, %xmm2, %xmm1, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpclmulqdq $0, %xmm2, %xmm1, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpclmulqdq $17, %xmm2, %xmm1, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vpclmulqdq $1, %xmm2, %xmm1, %xmm6
vpxor %xmm6, %xmm4, %xmm4
#NO_APP
vmovaps 288(%rsp), %xmm1
#APP
vaesenc %xmm1, %xmm11, %xmm11
vaesenc %xmm1, %xmm15, %xmm15
vaesenc %xmm1, %xmm10, %xmm10
vaesenc %xmm1, %xmm0, %xmm0
vaesenc %xmm1, %xmm3, %xmm3
vaesenc %xmm1, %xmm9, %xmm9
#NO_APP
vmovaps 144(%rsp), %xmm2
vmovdqa 272(%rsp), %xmm6
vmovaps 400(%rsp), %xmm12
#APP
vaesenc %xmm6, %xmm11, %xmm11
vaesenc %xmm6, %xmm15, %xmm15
vaesenc %xmm6, %xmm10, %xmm10
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm9, %xmm9
vpclmulqdq $16, %xmm2, %xmm12, %xmm1
vpxor %xmm1, %xmm4, %xmm4
vpclmulqdq $0, %xmm2, %xmm12, %xmm1
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $17, %xmm2, %xmm12, %xmm1
vpxor %xmm1, %xmm5, %xmm5
vpclmulqdq $1, %xmm2, %xmm12, %xmm1
vpxor %xmm1, %xmm4, %xmm4
#NO_APP
vmovaps 256(%rsp), %xmm1
#APP
vaesenc %xmm1, %xmm11, %xmm11
vaesenc %xmm1, %xmm15, %xmm15
vaesenc %xmm1, %xmm10, %xmm10
vaesenc %xmm1, %xmm0, %xmm0
vaesenc %xmm1, %xmm3, %xmm3
vaesenc %xmm1, %xmm9, %xmm9
#NO_APP
vmovdqa 240(%rsp), %xmm1
#APP
vaesenclast %xmm1, %xmm11, %xmm11
vaesenclast %xmm1, %xmm15, %xmm15
vaesenclast %xmm1, %xmm10, %xmm10
vaesenclast %xmm1, %xmm0, %xmm0
vaesenclast %xmm1, %xmm3, %xmm3
vaesenclast %xmm1, %xmm9, %xmm9
#NO_APP
vpxor 416(%rsp), %xmm9, %xmm9
vpxor 64(%rsp), %xmm3, %xmm13
vpxor 80(%rsp), %xmm0, %xmm14
vpxor 48(%rsp), %xmm10, %xmm12
vpxor 16(%rsp), %xmm15, %xmm3
vpxor 32(%rsp), %xmm11, %xmm11
vpxor %xmm1, %xmm1, %xmm1
vpunpcklqdq %xmm4, %xmm1, %xmm0
vpxor %xmm0, %xmm7, %xmm0
vpunpckhqdq %xmm1, %xmm4, %xmm1
vpxor %xmm1, %xmm5, %xmm1
vpbroadcastq .LCPI4_8(%rip), %xmm4
vpclmulqdq $16, %xmm4, %xmm0, %xmm2
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vpshufd $78, %xmm0, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $16, %xmm4, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm15
vmovdqu %xmm11, (%rcx)
vmovdqu %xmm3, 16(%rcx)
vmovdqu %xmm12, 32(%rcx)
vmovdqu %xmm14, 48(%rcx)
vmovdqu %xmm13, 64(%rcx)
vmovdqu %xmm9, 80(%rcx)
addq $96, %rdx
addq $96, %rcx
addq $-96, %rbx
cmpq $95, %rbx
ja .LBB4_18
.LBB4_19:
vpshufb %xmm8, %xmm11, %xmm0
vpxor %xmm0, %xmm15, %xmm0
vpshufb %xmm8, %xmm3, %xmm1
vpshufb %xmm8, %xmm12, %xmm4
vpshufb %xmm8, %xmm14, %xmm5
vpshufb %xmm8, %xmm13, %xmm6
vpshufb %xmm8, %xmm9, %xmm7
vmovdqa 176(%rsi), %xmm8
vmovdqa 192(%rsi), %xmm9
vmovdqa 208(%rsi), %xmm10
vmovdqa 224(%rsi), %xmm11
vmovdqa 240(%rsi), %xmm3
vmovdqa 256(%rsi), %xmm2
vpclmulqdq $0, %xmm7, %xmm8, %xmm12
vpclmulqdq $1, %xmm7, %xmm8, %xmm13
vpclmulqdq $16, %xmm7, %xmm8, %xmm14
vpxor %xmm13, %xmm14, %xmm13
vpclmulqdq $17, %xmm7, %xmm8, %xmm7
vpclmulqdq $0, %xmm6, %xmm9, %xmm8
vpxor %xmm12, %xmm8, %xmm8
vpclmulqdq $1, %xmm6, %xmm9, %xmm12
vpclmulqdq $16, %xmm6, %xmm9, %xmm14
vpxor %xmm14, %xmm12, %xmm12
vpxor %xmm12, %xmm13, %xmm12
vpclmulqdq $17, %xmm6, %xmm9, %xmm6
vpxor %xmm7, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm10, %xmm7
vpclmulqdq $1, %xmm5, %xmm10, %xmm9
vpclmulqdq $16, %xmm5, %xmm10, %xmm13
vpxor %xmm13, %xmm9, %xmm9
vpclmulqdq $17, %xmm5, %xmm10, %xmm5
vpclmulqdq $0, %xmm4, %xmm11, %xmm10
vpxor %xmm7, %xmm10, %xmm7
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $1, %xmm4, %xmm11, %xmm8
vpxor %xmm8, %xmm9, %xmm8
vpxor %xmm8, %xmm12, %xmm8
vpclmulqdq $16, %xmm4, %xmm11, %xmm9
vpclmulqdq $17, %xmm4, %xmm11, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpxor %xmm4, %xmm6, %xmm4
vpclmulqdq $0, %xmm1, %xmm3, %xmm5
vpxor %xmm5, %xmm7, %xmm5
vpclmulqdq $1, %xmm1, %xmm3, %xmm6
vpxor %xmm6, %xmm9, %xmm6
vpclmulqdq $16, %xmm1, %xmm3, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpxor %xmm6, %xmm8, %xmm6
vpclmulqdq $17, %xmm1, %xmm3, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $0, %xmm0, %xmm2, %xmm3
vpxor %xmm3, %xmm5, %xmm3
vpclmulqdq $1, %xmm0, %xmm2, %xmm4
vpxor %xmm4, %xmm6, %xmm4
vpclmulqdq $16, %xmm0, %xmm2, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpclmulqdq $17, %xmm0, %xmm2, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm4, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpsrldq $8, %xmm4, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI4_8(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm2, %xmm0, %xmm0
vmovdqa %xmm0, (%rdi)
movq %rcx, %r8
cmpq $16, %rbx
jae .LBB4_20
.LBB4_15:
testq %rbx, %rbx
jne .LBB4_23
jmp .LBB4_25
.LBB4_12:
movl $16, %r14d
subq %rcx, %r14
leaq (%rdx,%r14), %rdi
movq %rdi, 48(%rsp)
leaq (%r8,%r14), %rdi
movq %rdi, 80(%rsp)
movq %rax, %rbx
subq %r14, %rbx
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, (%rsp)
leaq (%rsp,%rcx), %r15
movq %r15, %rdi
movq %rsi, 16(%rsp)
movq %rdx, %rsi
movq %r14, %rdx
movq %rax, %r13
movq %r8, %r12
callq *memcpy@GOTPCREL(%rip)
vmovaps (%rsp), %xmm0
vxorps 64(%rbp), %xmm0, %xmm0
vmovaps %xmm0, 64(%rsp)
vmovaps %xmm0, 64(%rbp)
vmovaps %xmm0, (%rsp)
movq %r12, %rdi
movq %r15, %rsi
movq %r14, %rdx
callq *memcpy@GOTPCREL(%rip)
movq 16(%rsp), %rsi
movq %rbp, %rdi
movq %r13, %rax
movq $0, 80(%rbp)
vmovdqa 64(%rsp), %xmm0
vpshufb .LCPI4_0(%rip), %xmm0, %xmm0
vmovdqa 176(%rsi), %xmm1
vpxor (%rbp), %xmm0, %xmm0
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI4_8(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vmovdqa %xmm0, (%rbp)
movq 80(%rsp), %r8
movq 48(%rsp), %rdx
movq 32(%rsp), %r11
cmpq $96, %rbx
jae .LBB4_16
.LBB4_14:
cmpq $16, %rbx
jb .LBB4_15
.LBB4_20:
vmovdqa (%rdi), %xmm14
vmovdqa 32(%rdi), %xmm0
vmovaps (%rsi), %xmm1
vmovaps %xmm1, 32(%rsp)
vmovaps 16(%rsi), %xmm1
vmovaps %xmm1, 16(%rsp)
vmovdqa 32(%rsi), %xmm1
vmovdqa %xmm1, 48(%rsp)
vmovdqa 48(%rsi), %xmm4
vmovdqa 64(%rsi), %xmm5
vmovdqa 80(%rsi), %xmm6
vmovdqa 96(%rsi), %xmm7
vmovdqa 112(%rsi), %xmm8
vmovdqa 128(%rsi), %xmm9
vmovdqa 144(%rsi), %xmm10
vmovdqa 160(%rsi), %xmm11
vmovdqa 176(%rsi), %xmm12
vmovdqa .LCPI4_0(%rip), %xmm13
vpbroadcastq .LCPI4_8(%rip), %xmm15
.p2align 4, 0x90
.LBB4_21:
vpshufb %xmm13, %xmm0, %xmm1
vpxor 32(%rsp), %xmm1, %xmm1
vaesenc 16(%rsp), %xmm1, %xmm1
vaesenc 48(%rsp), %xmm1, %xmm1
vaesenc %xmm4, %xmm1, %xmm1
vaesenc %xmm5, %xmm1, %xmm1
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm8, %xmm1, %xmm1
vaesenc %xmm9, %xmm1, %xmm1
vaesenc %xmm10, %xmm1, %xmm1
vaesenclast %xmm11, %xmm1, %xmm1
vpxor (%rdx), %xmm1, %xmm1
vmovdqu %xmm1, (%r8)
vpshufb %xmm13, %xmm1, %xmm1
vpxor %xmm1, %xmm14, %xmm1
vpclmulqdq $0, %xmm1, %xmm12, %xmm14
vpclmulqdq $1, %xmm1, %xmm12, %xmm2
vpclmulqdq $16, %xmm1, %xmm12, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm14, %xmm3
vpclmulqdq $17, %xmm1, %xmm12, %xmm1
vpsrldq $8, %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $16, %xmm15, %xmm3, %xmm2
vpshufd $78, %xmm3, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vpshufd $78, %xmm2, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpclmulqdq $16, %xmm15, %xmm2, %xmm2
vpxor %xmm1, %xmm2, %xmm14
addq $16, %rdx
addq $16, %r8
addq $-16, %rbx
vpaddd .LCPI4_2(%rip), %xmm0, %xmm0
cmpq $15, %rbx
ja .LBB4_21
vmovdqa %xmm0, 32(%rdi)
vmovdqa %xmm14, (%rdi)
testq %rbx, %rbx
je .LBB4_25
.LBB4_23:
movq %r11, 32(%rsp)
movq %rax, %r12
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, (%rsp)
movq %rsp, %rax
movq memcpy@GOTPCREL(%rip), %r13
movq %rdi, %r15
movq %rax, %rdi
movq %rsi, %rbp
movq %rdx, %rsi
movq %rbx, %rdx
movq %r8, %r14
vzeroupper
callq *%r13
vmovdqa 32(%r15), %xmm0
vpshufb .LCPI4_0(%rip), %xmm0, %xmm1
vpaddd .LCPI4_2(%rip), %xmm0, %xmm0
vmovdqa %xmm0, 32(%r15)
vpxor (%rbp), %xmm1, %xmm0
vaesenc 16(%rbp), %xmm0, %xmm0
vaesenc 32(%rbp), %xmm0, %xmm0
vaesenc 48(%rbp), %xmm0, %xmm0
vaesenc 64(%rbp), %xmm0, %xmm0
vaesenc 80(%rbp), %xmm0, %xmm0
vaesenc 96(%rbp), %xmm0, %xmm0
vaesenc 112(%rbp), %xmm0, %xmm0
vaesenc 128(%rbp), %xmm0, %xmm0
vaesenc 144(%rbp), %xmm0, %xmm0
vaesenclast 160(%rbp), %xmm0, %xmm1
vmovdqa %xmm1, 16(%rsp)
vmovdqa (%rsp), %xmm0
vpxor %xmm0, %xmm1, %xmm0
vmovdqa %xmm0, 48(%rsp)
vmovdqa %xmm0, (%rsp)
movq %rsp, %rsi
movq %r14, %rdi
movq %rbx, %rdx
callq *%r13
movq %r15, %rdi
vmovaps 16(%rsp), %xmm0
vmovaps %xmm0, 48(%r15)
vmovdqa 48(%rsp), %xmm0
vmovdqa %xmm0, 64(%r15)
.LBB4_24:
movq %rbx, 80(%rdi)
movq %r12, %rax
movq 32(%rsp), %r11
.LBB4_25:
movq %r11, 104(%rdi)
addq $440, %rsp
.cfi_def_cfa_offset 56
popq %rbx
.cfi_def_cfa_offset 48
popq %r12
.cfi_def_cfa_offset 40
popq %r13
.cfi_def_cfa_offset 32
popq %r14
.cfi_def_cfa_offset 24
popq %r15
.cfi_def_cfa_offset 16
popq %rbp
.cfi_def_cfa_offset 8
.cfi_restore %rbx
.cfi_restore %r12
.cfi_restore %r13
.cfi_restore %r14
.cfi_restore %r15
.cfi_restore %rbp
vzeroupper
retq
.Lfunc_end4:
.size haberdashery_aes128gcm_streaming_broadwell_encrypt_update, .Lfunc_end4-haberdashery_aes128gcm_streaming_broadwell_encrypt_update
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI5_0:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI5_1:
.zero 8
.quad -4467570830351532032
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI5_2:
.quad -4467570830351532032
.section .text.haberdashery_aes128gcm_streaming_broadwell_encrypt_finalize,"ax",@progbits
.globl haberdashery_aes128gcm_streaming_broadwell_encrypt_finalize
.p2align 4, 0x90
.type haberdashery_aes128gcm_streaming_broadwell_encrypt_finalize,@function
haberdashery_aes128gcm_streaming_broadwell_encrypt_finalize:
.cfi_startproc
pushq %rbp
.cfi_def_cfa_offset 16
pushq %r15
.cfi_def_cfa_offset 24
pushq %r14
.cfi_def_cfa_offset 32
pushq %r13
.cfi_def_cfa_offset 40
pushq %r12
.cfi_def_cfa_offset 48
pushq %rbx
.cfi_def_cfa_offset 56
subq $56, %rsp
.cfi_def_cfa_offset 112
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
.cfi_offset %rbp, -16
movq %rcx, %rbx
movq %rsi, %r15
movq %rdi, %r12
movq 104(%rdi), %rbp
testq %rbp, %rbp
je .LBB5_1
movq %rdx, 8(%rsp)
leaq 48(%r12), %r14
vmovaps 64(%r12), %xmm0
vmovaps %xmm0, 32(%rsp)
movq 80(%r12), %r13
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, 16(%rsp)
leaq 16(%rsp), %rdi
leaq 32(%rsp), %rsi
movq %r13, %rdx
callq *memcpy@GOTPCREL(%rip)
vmovdqa (%r12), %xmm0
testq %r13, %r13
je .LBB5_4
vmovdqa 16(%rsp), %xmm1
vpshufb .LCPI5_0(%rip), %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm2
vmovdqa 176(%r15), %xmm3
vpclmulqdq $0, %xmm2, %xmm3, %xmm0
vpclmulqdq $1, %xmm2, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm3, %xmm4
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $17, %xmm2, %xmm3, %xmm2
movq 8(%rsp), %rdx
jmp .LBB5_6
.LBB5_1:
cmpq $0, 80(%r12)
vmovdqa (%r12), %xmm0
je .LBB5_8
vmovdqa 176(%r15), %xmm2
leaq 48(%r12), %r14
vmovdqa 64(%r12), %xmm1
vpshufb .LCPI5_0(%rip), %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm3
vpclmulqdq $0, %xmm3, %xmm2, %xmm0
vpclmulqdq $1, %xmm3, %xmm2, %xmm1
vpclmulqdq $16, %xmm3, %xmm2, %xmm4
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $17, %xmm3, %xmm2, %xmm2
.LBB5_6:
vpslldq $8, %xmm1, %xmm3
vpxor %xmm3, %xmm0, %xmm0
vpsrldq $8, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpbroadcastq .LCPI5_2(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm0, %xmm3
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm0
vpclmulqdq $16, %xmm2, %xmm0, %xmm2
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpxor %xmm0, %xmm2, %xmm0
jmp .LBB5_7
.LBB5_4:
movq 8(%rsp), %rdx
.LBB5_7:
vpxor %xmm1, %xmm1, %xmm1
vmovdqu %ymm1, (%r14)
movq $0, 32(%r14)
.LBB5_8:
vmovdqa 176(%r15), %xmm1
vmovq 96(%r12), %xmm2
vmovq %rbp, %xmm3
vpunpcklqdq %xmm2, %xmm3, %xmm2
vpsllq $3, %xmm2, %xmm2
vpxor %xmm0, %xmm2, %xmm0
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI5_2(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vmovdqa %xmm0, (%r12)
testq %rbx, %rbx
je .LBB5_9
vmovdqa (%r15), %xmm1
vpxor 16(%r12), %xmm1, %xmm1
vaesenc 16(%r15), %xmm1, %xmm1
vaesenc 32(%r15), %xmm1, %xmm1
vaesenc 48(%r15), %xmm1, %xmm1
vaesenc 64(%r15), %xmm1, %xmm1
vaesenc 80(%r15), %xmm1, %xmm1
vaesenc 96(%r15), %xmm1, %xmm1
vaesenc 112(%r15), %xmm1, %xmm1
vaesenc 128(%r15), %xmm1, %xmm1
vaesenc 144(%r15), %xmm1, %xmm1
vaesenclast 160(%r15), %xmm1, %xmm1
vpshufb .LCPI5_0(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
cmpq $16, %rbx
jae .LBB5_11
vmovdqa %xmm0, 16(%rsp)
leaq 16(%rsp), %rsi
movq %rdx, %rdi
movq %rbx, %rdx
vzeroupper
callq *memcpy@GOTPCREL(%rip)
jmp .LBB5_13
.LBB5_9:
xorl %ebx, %ebx
jmp .LBB5_13
.LBB5_11:
vmovdqu %xmm0, (%rdx)
movl $16, %ebx
.LBB5_13:
movq %rbx, %rax
addq $56, %rsp
.cfi_def_cfa_offset 56
popq %rbx
.cfi_def_cfa_offset 48
popq %r12
.cfi_def_cfa_offset 40
popq %r13
.cfi_def_cfa_offset 32
popq %r14
.cfi_def_cfa_offset 24
popq %r15
.cfi_def_cfa_offset 16
popq %rbp
.cfi_def_cfa_offset 8
vzeroupper
retq
.Lfunc_end5:
.size haberdashery_aes128gcm_streaming_broadwell_encrypt_finalize, .Lfunc_end5-haberdashery_aes128gcm_streaming_broadwell_encrypt_finalize
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI6_0:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI6_1:
.zero 8
.quad -4467570830351532032
.LCPI6_2:
.long 1
.long 0
.long 0
.long 0
.LCPI6_3:
.long 2
.long 0
.long 0
.long 0
.LCPI6_4:
.long 3
.long 0
.long 0
.long 0
.LCPI6_5:
.long 4
.long 0
.long 0
.long 0
.LCPI6_6:
.long 5
.long 0
.long 0
.long 0
.LCPI6_7:
.long 6
.long 0
.long 0
.long 0
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI6_8:
.quad -4467570830351532032
.section .text.haberdashery_aes128gcm_streaming_broadwell_decrypt_update,"ax",@progbits
.globl haberdashery_aes128gcm_streaming_broadwell_decrypt_update
.p2align 4, 0x90
.type haberdashery_aes128gcm_streaming_broadwell_decrypt_update,@function
haberdashery_aes128gcm_streaming_broadwell_decrypt_update:
.cfi_startproc
cmpq %r9, %rcx
jne .LBB6_2
movq %rcx, %rax
movabsq $-68719476704, %rcx
leaq (%rax,%rcx), %r9
incq %rcx
cmpq %rcx, %r9
jae .LBB6_3
.LBB6_2:
xorl %eax, %eax
retq
.LBB6_3:
pushq %rbp
.cfi_def_cfa_offset 16
pushq %r15
.cfi_def_cfa_offset 24
pushq %r14
.cfi_def_cfa_offset 32
pushq %r13
.cfi_def_cfa_offset 40
pushq %r12
.cfi_def_cfa_offset 48
pushq %rbx
.cfi_def_cfa_offset 56
subq $392, %rsp
.cfi_def_cfa_offset 448
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
.cfi_offset %rbp, -16
movq 104(%rdi), %rcx
leaq (%rcx,%rax), %r13
movq %r13, %r9
shrq $5, %r9
cmpq $2147483646, %r9
jbe .LBB6_5
xorl %eax, %eax
jmp .LBB6_24
.LBB6_5:
testq %rcx, %rcx
setne %r9b
movq 80(%rdi), %rcx
testq %rcx, %rcx
sete %r10b
orb %r9b, %r10b
je .LBB6_9
testq %rcx, %rcx
je .LBB6_10
movq %rdi, %rbp
leaq (%rcx,%rax), %rbx
cmpq $15, %rbx
movq %rax, 56(%rsp)
ja .LBB6_11
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, (%rsp)
leaq (%rsp,%rcx), %r14
movq %r14, %rdi
movq %rdx, %rsi
movq %rax, %rdx
movq %rax, %r15
movq %r8, %r12
callq *memcpy@GOTPCREL(%rip)
vmovdqa (%rsp), %xmm0
vpxor 64(%rbp), %xmm0, %xmm0
vmovdqa %xmm0, 64(%rbp)
vmovdqa %xmm0, (%rsp)
movq %r12, %rdi
movq %r14, %rsi
movq %r15, %rdx
callq *memcpy@GOTPCREL(%rip)
movq %rbp, %rdi
jmp .LBB6_22
.LBB6_9:
vmovdqa 176(%rsi), %xmm0
vmovdqa 64(%rdi), %xmm1
vpshufb .LCPI6_0(%rip), %xmm1, %xmm1
vpxor (%rdi), %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm0, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI6_8(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vmovdqa %xmm0, (%rdi)
vpxor %xmm0, %xmm0, %xmm0
vmovdqu %ymm0, 48(%rdi)
movq $0, 80(%rdi)
.LBB6_10:
movq %rax, %rbx
cmpq $96, %rbx
jb .LBB6_13
.LBB6_15:
vmovdqa (%rdi), %xmm3
vmovaps (%rsi), %xmm0
vmovaps %xmm0, 96(%rsp)
vmovaps 16(%rsi), %xmm0
vmovaps %xmm0, 352(%rsp)
vmovaps 32(%rsi), %xmm0
vmovaps %xmm0, 336(%rsp)
vmovaps 48(%rsi), %xmm0
vmovaps %xmm0, 320(%rsp)
vmovaps 64(%rsi), %xmm0
vmovaps %xmm0, 304(%rsp)
vmovaps 80(%rsi), %xmm0
vmovaps %xmm0, 288(%rsp)
vmovaps 96(%rsi), %xmm0
vmovaps %xmm0, 272(%rsp)
vmovaps 112(%rsi), %xmm0
vmovaps %xmm0, 256(%rsp)
vmovaps 128(%rsi), %xmm0
vmovaps %xmm0, 240(%rsp)
vmovaps 144(%rsi), %xmm0
vmovaps %xmm0, 224(%rsp)
vmovaps 160(%rsi), %xmm0
vmovaps %xmm0, 208(%rsp)
vmovaps 176(%rsi), %xmm0
vmovaps %xmm0, 192(%rsp)
vmovaps 192(%rsi), %xmm0
vmovaps %xmm0, 176(%rsp)
vmovaps 208(%rsi), %xmm0
vmovaps %xmm0, 160(%rsp)
vmovaps 224(%rsi), %xmm0
vmovaps %xmm0, 144(%rsp)
vmovaps 240(%rsi), %xmm0
vmovaps %xmm0, 128(%rsp)
vmovdqa 256(%rsi), %xmm0
vmovdqa %xmm0, 112(%rsp)
.p2align 4, 0x90
.LBB6_16:
vmovdqu (%rdx), %xmm7
vmovdqa %xmm7, 80(%rsp)
vmovups 16(%rdx), %xmm0
vmovaps %xmm0, 32(%rsp)
vmovups 32(%rdx), %xmm0
vmovaps %xmm0, 16(%rsp)
vmovdqu 48(%rdx), %xmm10
vmovdqu 64(%rdx), %xmm8
vmovdqu 80(%rdx), %xmm9
vmovdqa %xmm9, 64(%rsp)
vmovdqa 32(%rdi), %xmm0
vmovdqa .LCPI6_0(%rip), %xmm2
vpshufb %xmm2, %xmm0, %xmm1
vpaddd .LCPI6_2(%rip), %xmm0, %xmm4
vpshufb %xmm2, %xmm4, %xmm4
vpaddd .LCPI6_3(%rip), %xmm0, %xmm5
vpshufb %xmm2, %xmm5, %xmm5
vpaddd .LCPI6_4(%rip), %xmm0, %xmm11
vpshufb %xmm2, %xmm11, %xmm14
vpaddd .LCPI6_5(%rip), %xmm0, %xmm11
vpshufb %xmm2, %xmm11, %xmm15
vpaddd .LCPI6_6(%rip), %xmm0, %xmm11
vpshufb %xmm2, %xmm11, %xmm6
vpaddd .LCPI6_7(%rip), %xmm0, %xmm0
vmovdqa %xmm0, 32(%rdi)
vpshufb %xmm2, %xmm7, %xmm0
vpxor %xmm0, %xmm3, %xmm0
vmovdqa %xmm0, 368(%rsp)
vpshufb %xmm2, %xmm9, %xmm7
vmovdqa 96(%rsp), %xmm0
vpxor %xmm1, %xmm0, %xmm11
vpxor %xmm4, %xmm0, %xmm12
vpxor %xmm5, %xmm0, %xmm13
vpxor %xmm0, %xmm14, %xmm14
vpxor %xmm0, %xmm15, %xmm15
vpxor %xmm6, %xmm0, %xmm1
vmovaps 352(%rsp), %xmm0
#APP
vaesenc %xmm0, %xmm11, %xmm11
vaesenc %xmm0, %xmm12, %xmm12
vaesenc %xmm0, %xmm13, %xmm13
vaesenc %xmm0, %xmm14, %xmm14
vaesenc %xmm0, %xmm15, %xmm15
vaesenc %xmm0, %xmm1, %xmm1
#NO_APP
vpxor %xmm4, %xmm4, %xmm4
vxorps %xmm0, %xmm0, %xmm0
vpxor %xmm5, %xmm5, %xmm5
vmovaps 336(%rsp), %xmm3
vmovaps 192(%rsp), %xmm9
#APP
vaesenc %xmm3, %xmm11, %xmm11
vaesenc %xmm3, %xmm12, %xmm12
vaesenc %xmm3, %xmm13, %xmm13
vaesenc %xmm3, %xmm14, %xmm14
vaesenc %xmm3, %xmm15, %xmm15
vaesenc %xmm3, %xmm1, %xmm1
vpclmulqdq $16, %xmm9, %xmm7, %xmm6
vpxor %xmm6, %xmm0, %xmm0
vpclmulqdq $0, %xmm9, %xmm7, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpclmulqdq $17, %xmm9, %xmm7, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vpclmulqdq $1, %xmm9, %xmm7, %xmm6
vpxor %xmm6, %xmm0, %xmm0
#NO_APP
vpshufb %xmm2, %xmm8, %xmm6
vmovaps 320(%rsp), %xmm3
vmovaps 176(%rsp), %xmm9
#APP
vaesenc %xmm3, %xmm11, %xmm11
vaesenc %xmm3, %xmm12, %xmm12
vaesenc %xmm3, %xmm13, %xmm13
vaesenc %xmm3, %xmm14, %xmm14
vaesenc %xmm3, %xmm15, %xmm15
vaesenc %xmm3, %xmm1, %xmm1
vpclmulqdq $16, %xmm9, %xmm6, %xmm7
vpxor %xmm7, %xmm0, %xmm0
vpclmulqdq $0, %xmm9, %xmm6, %xmm7
vpxor %xmm7, %xmm4, %xmm4
vpclmulqdq $17, %xmm9, %xmm6, %xmm7
vpxor %xmm7, %xmm5, %xmm5
vpclmulqdq $1, %xmm9, %xmm6, %xmm7
vpxor %xmm7, %xmm0, %xmm0
#NO_APP
vpshufb %xmm2, %xmm10, %xmm6
vmovaps 304(%rsp), %xmm3
vmovaps 160(%rsp), %xmm9
#APP
vaesenc %xmm3, %xmm11, %xmm11
vaesenc %xmm3, %xmm12, %xmm12
vaesenc %xmm3, %xmm13, %xmm13
vaesenc %xmm3, %xmm14, %xmm14
vaesenc %xmm3, %xmm15, %xmm15
vaesenc %xmm3, %xmm1, %xmm1
vpclmulqdq $16, %xmm9, %xmm6, %xmm7
vpxor %xmm7, %xmm0, %xmm0
vpclmulqdq $0, %xmm9, %xmm6, %xmm7
vpxor %xmm7, %xmm4, %xmm4
vpclmulqdq $17, %xmm9, %xmm6, %xmm7
vpxor %xmm7, %xmm5, %xmm5
vpclmulqdq $1, %xmm9, %xmm6, %xmm7
vpxor %xmm7, %xmm0, %xmm0
#NO_APP
vmovdqa 16(%rsp), %xmm3
vpshufb %xmm2, %xmm3, %xmm6
vmovaps 288(%rsp), %xmm3
vmovaps 144(%rsp), %xmm9
#APP
vaesenc %xmm3, %xmm11, %xmm11
vaesenc %xmm3, %xmm12, %xmm12
vaesenc %xmm3, %xmm13, %xmm13
vaesenc %xmm3, %xmm14, %xmm14
vaesenc %xmm3, %xmm15, %xmm15
vaesenc %xmm3, %xmm1, %xmm1
vpclmulqdq $16, %xmm9, %xmm6, %xmm7
vpxor %xmm7, %xmm0, %xmm0
vpclmulqdq $0, %xmm9, %xmm6, %xmm7
vpxor %xmm7, %xmm4, %xmm4
vpclmulqdq $17, %xmm9, %xmm6, %xmm7
vpxor %xmm7, %xmm5, %xmm5
vpclmulqdq $1, %xmm9, %xmm6, %xmm7
vpxor %xmm7, %xmm0, %xmm0
#NO_APP
vmovdqa 32(%rsp), %xmm3
vpshufb %xmm2, %xmm3, %xmm6
vmovaps 272(%rsp), %xmm3
vmovdqa 128(%rsp), %xmm9
#APP
vaesenc %xmm3, %xmm11, %xmm11
vaesenc %xmm3, %xmm12, %xmm12
vaesenc %xmm3, %xmm13, %xmm13
vaesenc %xmm3, %xmm14, %xmm14
vaesenc %xmm3, %xmm15, %xmm15
vaesenc %xmm3, %xmm1, %xmm1
vpclmulqdq $16, %xmm9, %xmm6, %xmm7
vpxor %xmm7, %xmm0, %xmm0
vpclmulqdq $0, %xmm9, %xmm6, %xmm7
vpxor %xmm7, %xmm4, %xmm4
vpclmulqdq $17, %xmm9, %xmm6, %xmm7
vpxor %xmm7, %xmm5, %xmm5
vpclmulqdq $1, %xmm9, %xmm6, %xmm7
vpxor %xmm7, %xmm0, %xmm0
#NO_APP
vmovaps 256(%rsp), %xmm3
#APP
vaesenc %xmm3, %xmm11, %xmm11
vaesenc %xmm3, %xmm12, %xmm12
vaesenc %xmm3, %xmm13, %xmm13
vaesenc %xmm3, %xmm14, %xmm14
vaesenc %xmm3, %xmm15, %xmm15
vaesenc %xmm3, %xmm1, %xmm1
#NO_APP
vmovaps 240(%rsp), %xmm3
vmovaps 112(%rsp), %xmm7
vmovdqa 368(%rsp), %xmm2
#APP
vaesenc %xmm3, %xmm11, %xmm11
vaesenc %xmm3, %xmm12, %xmm12
vaesenc %xmm3, %xmm13, %xmm13
vaesenc %xmm3, %xmm14, %xmm14
vaesenc %xmm3, %xmm15, %xmm15
vaesenc %xmm3, %xmm1, %xmm1
vpclmulqdq $16, %xmm7, %xmm2, %xmm6
vpxor %xmm6, %xmm0, %xmm0
vpclmulqdq $0, %xmm7, %xmm2, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpclmulqdq $17, %xmm7, %xmm2, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vpclmulqdq $1, %xmm7, %xmm2, %xmm6
vpxor %xmm6, %xmm0, %xmm0
#NO_APP
vpxor %xmm6, %xmm6, %xmm6
vpunpcklqdq %xmm0, %xmm6, %xmm3
vpxor %xmm3, %xmm4, %xmm3
vpunpckhqdq %xmm6, %xmm0, %xmm0
vpxor %xmm0, %xmm5, %xmm0
vpbroadcastq .LCPI6_8(%rip), %xmm5
vpclmulqdq $16, %xmm5, %xmm3, %xmm4
vpshufd $78, %xmm3, %xmm3
vpxor %xmm3, %xmm4, %xmm3
vpshufd $78, %xmm3, %xmm4
vpxor %xmm4, %xmm0, %xmm0
vpclmulqdq $16, %xmm5, %xmm3, %xmm3
vpxor %xmm3, %xmm0, %xmm3
vmovaps 224(%rsp), %xmm0
#APP
vaesenc %xmm0, %xmm11, %xmm11
vaesenc %xmm0, %xmm12, %xmm12
vaesenc %xmm0, %xmm13, %xmm13
vaesenc %xmm0, %xmm14, %xmm14
vaesenc %xmm0, %xmm15, %xmm15
vaesenc %xmm0, %xmm1, %xmm1
#NO_APP
vmovaps 208(%rsp), %xmm0
#APP
vaesenclast %xmm0, %xmm11, %xmm11
vaesenclast %xmm0, %xmm12, %xmm12
vaesenclast %xmm0, %xmm13, %xmm13
vaesenclast %xmm0, %xmm14, %xmm14
vaesenclast %xmm0, %xmm15, %xmm15
vaesenclast %xmm0, %xmm1, %xmm1
#NO_APP
vpxor 80(%rsp), %xmm11, %xmm0
vpxor 32(%rsp), %xmm12, %xmm4
vpxor 16(%rsp), %xmm13, %xmm5
vpxor %xmm10, %xmm14, %xmm6
vpxor %xmm8, %xmm15, %xmm7
vpxor 64(%rsp), %xmm1, %xmm1
vmovdqu %xmm0, (%r8)
vmovdqu %xmm4, 16(%r8)
vmovdqu %xmm5, 32(%r8)
vmovdqu %xmm6, 48(%r8)
vmovdqu %xmm7, 64(%r8)
vmovdqu %xmm1, 80(%r8)
addq $96, %rdx
addq $96, %r8
addq $-96, %rbx
cmpq $95, %rbx
ja .LBB6_16
vmovdqa %xmm3, (%rdi)
cmpq $16, %rbx
jae .LBB6_18
.LBB6_14:
testq %rbx, %rbx
jne .LBB6_21
jmp .LBB6_23
.LBB6_11:
movl $16, %r14d
subq %rcx, %r14
leaq (%rdx,%r14), %rdi
movq %rdi, 16(%rsp)
leaq (%r8,%r14), %rdi
movq %rdi, 80(%rsp)
movq %rax, %rbx
subq %r14, %rbx
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, (%rsp)
leaq (%rsp,%rcx), %r15
movq %r15, %rdi
movq %rsi, 32(%rsp)
movq %rdx, %rsi
movq %r14, %rdx
movq %r8, %r12
callq *memcpy@GOTPCREL(%rip)
vmovaps (%rsp), %xmm0
vxorps 64(%rbp), %xmm0, %xmm0
vmovaps %xmm0, 64(%rsp)
vmovaps %xmm0, 64(%rbp)
vmovaps %xmm0, (%rsp)
movq %r12, %rdi
movq %r15, %rsi
movq %r14, %rdx
callq *memcpy@GOTPCREL(%rip)
movq 32(%rsp), %rsi
movq %rbp, %rdi
movq 56(%rsp), %rax
movq $0, 80(%rbp)
vmovdqa 64(%rsp), %xmm0
vpxor 48(%rbp), %xmm0, %xmm0
vpshufb .LCPI6_0(%rip), %xmm0, %xmm0
vmovdqa 176(%rsi), %xmm1
vpxor (%rbp), %xmm0, %xmm0
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI6_8(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vmovdqa %xmm0, (%rbp)
movq 80(%rsp), %r8
movq 16(%rsp), %rdx
cmpq $96, %rbx
jae .LBB6_15
.LBB6_13:
cmpq $16, %rbx
jb .LBB6_14
.LBB6_18:
vmovdqa (%rdi), %xmm14
vmovdqa 32(%rdi), %xmm0
vmovdqa 176(%rsi), %xmm1
vmovaps (%rsi), %xmm2
vmovaps %xmm2, 32(%rsp)
vmovaps 16(%rsi), %xmm2
vmovaps %xmm2, 16(%rsp)
vmovaps 32(%rsi), %xmm2
vmovaps %xmm2, 80(%rsp)
vmovdqa 48(%rsi), %xmm2
vmovdqa %xmm2, 64(%rsp)
vmovdqa 64(%rsi), %xmm6
vmovdqa 80(%rsi), %xmm7
vmovdqa 96(%rsi), %xmm8
vmovdqa 112(%rsi), %xmm9
vmovdqa 128(%rsi), %xmm10
vmovdqa 144(%rsi), %xmm11
vmovdqa 160(%rsi), %xmm12
vmovdqa .LCPI6_0(%rip), %xmm13
vpbroadcastq .LCPI6_8(%rip), %xmm15
.p2align 4, 0x90
.LBB6_19:
vmovdqu (%rdx), %xmm2
vpshufb %xmm13, %xmm2, %xmm3
vpxor %xmm3, %xmm14, %xmm3
vpclmulqdq $0, %xmm3, %xmm1, %xmm14
vpclmulqdq $1, %xmm3, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm1, %xmm5
vpxor %xmm4, %xmm5, %xmm4
vpslldq $8, %xmm4, %xmm5
vpxor %xmm5, %xmm14, %xmm5
vpclmulqdq $17, %xmm3, %xmm1, %xmm3
vpsrldq $8, %xmm4, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpclmulqdq $16, %xmm15, %xmm5, %xmm4
vpshufd $78, %xmm5, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpshufd $78, %xmm4, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpclmulqdq $16, %xmm15, %xmm4, %xmm4
vpxor %xmm3, %xmm4, %xmm14
vpshufb %xmm13, %xmm0, %xmm3
vpxor 32(%rsp), %xmm3, %xmm3
vaesenc 16(%rsp), %xmm3, %xmm3
vaesenc 80(%rsp), %xmm3, %xmm3
vaesenc 64(%rsp), %xmm3, %xmm3
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm8, %xmm3, %xmm3
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm10, %xmm3, %xmm3
vaesenc %xmm11, %xmm3, %xmm3
vaesenclast %xmm12, %xmm3, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vmovdqu %xmm2, (%r8)
addq $16, %r8
addq $-16, %rbx
addq $16, %rdx
vpaddd .LCPI6_2(%rip), %xmm0, %xmm0
cmpq $15, %rbx
ja .LBB6_19
vmovdqa %xmm0, 32(%rdi)
vmovdqa %xmm14, (%rdi)
testq %rbx, %rbx
je .LBB6_23
.LBB6_21:
movq %rax, 56(%rsp)
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, (%rsp)
movq %rsp, %rax
movq memcpy@GOTPCREL(%rip), %r12
movq %rdi, %r15
movq %rax, %rdi
movq %r13, %rbp
movq %rsi, %r13
movq %rdx, %rsi
movq %rbx, %rdx
movq %r8, %r14
vzeroupper
callq *%r12
vmovdqa 32(%r15), %xmm0
vpshufb .LCPI6_0(%rip), %xmm0, %xmm1
vpaddd .LCPI6_2(%rip), %xmm0, %xmm0
vmovdqa %xmm0, 32(%r15)
vpxor (%r13), %xmm1, %xmm0
vaesenc 16(%r13), %xmm0, %xmm0
vaesenc 32(%r13), %xmm0, %xmm0
vaesenc 48(%r13), %xmm0, %xmm0
vaesenc 64(%r13), %xmm0, %xmm0
vaesenc 80(%r13), %xmm0, %xmm0
vaesenc 96(%r13), %xmm0, %xmm0
vaesenc 112(%r13), %xmm0, %xmm0
vaesenc 128(%r13), %xmm0, %xmm0
vaesenc 144(%r13), %xmm0, %xmm0
vaesenclast 160(%r13), %xmm0, %xmm1
vmovdqa %xmm1, 32(%rsp)
movq %rbp, %r13
vmovdqa (%rsp), %xmm0
vpxor %xmm0, %xmm1, %xmm0
vmovdqa %xmm0, 16(%rsp)
vmovdqa %xmm0, (%rsp)
movq %rsp, %rsi
movq %r14, %rdi
movq %rbx, %rdx
callq *%r12
movq %r15, %rdi
vmovaps 32(%rsp), %xmm0
vmovaps %xmm0, 48(%r15)
vmovdqa 16(%rsp), %xmm0
vmovdqa %xmm0, 64(%r15)
.LBB6_22:
movq %rbx, 80(%rdi)
movq 56(%rsp), %rax
.LBB6_23:
movq %r13, 104(%rdi)
.LBB6_24:
addq $392, %rsp
.cfi_def_cfa_offset 56
popq %rbx
.cfi_def_cfa_offset 48
popq %r12
.cfi_def_cfa_offset 40
popq %r13
.cfi_def_cfa_offset 32
popq %r14
.cfi_def_cfa_offset 24
popq %r15
.cfi_def_cfa_offset 16
popq %rbp
.cfi_def_cfa_offset 8
.cfi_restore %rbx
.cfi_restore %r12
.cfi_restore %r13
.cfi_restore %r14
.cfi_restore %r15
.cfi_restore %rbp
vzeroupper
retq
.Lfunc_end6:
.size haberdashery_aes128gcm_streaming_broadwell_decrypt_update, .Lfunc_end6-haberdashery_aes128gcm_streaming_broadwell_decrypt_update
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI7_0:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI7_1:
.zero 8
.quad -4467570830351532032
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI7_2:
.quad -4467570830351532032
.section .text.haberdashery_aes128gcm_streaming_broadwell_decrypt_finalize,"ax",@progbits
.globl haberdashery_aes128gcm_streaming_broadwell_decrypt_finalize
.p2align 4, 0x90
.type haberdashery_aes128gcm_streaming_broadwell_decrypt_finalize,@function
haberdashery_aes128gcm_streaming_broadwell_decrypt_finalize:
.cfi_startproc
xorl %eax, %eax
cmpq $16, %rcx
jne .LBB7_10
pushq %r15
.cfi_def_cfa_offset 16
pushq %r14
.cfi_def_cfa_offset 24
pushq %r13
.cfi_def_cfa_offset 32
pushq %r12
.cfi_def_cfa_offset 40
pushq %rbx
.cfi_def_cfa_offset 48
subq $48, %rsp
.cfi_def_cfa_offset 96
.cfi_offset %rbx, -48
.cfi_offset %r12, -40
.cfi_offset %r13, -32
.cfi_offset %r14, -24
.cfi_offset %r15, -16
vmovdqu (%rdx), %xmm5
movq 104(%rdi), %r14
testq %r14, %r14
je .LBB7_2
vmovdqa %xmm5, (%rsp)
movq %rsi, %r12
leaq 48(%rdi), %r15
vmovaps 48(%rdi), %xmm0
vxorps 64(%rdi), %xmm0, %xmm0
vmovaps %xmm0, 32(%rsp)
movq 80(%rdi), %rbx
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, 16(%rsp)
leaq 16(%rsp), %rax
leaq 32(%rsp), %rsi
movq %rdi, %r13
movq %rax, %rdi
movq %rbx, %rdx
callq *memcpy@GOTPCREL(%rip)
movq %r13, %rdi
vmovdqa (%r13), %xmm0
testq %rbx, %rbx
je .LBB7_5
vmovdqa 16(%rsp), %xmm1
vpshufb .LCPI7_0(%rip), %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm2
movq %r12, %rsi
vmovdqa 176(%r12), %xmm3
vpclmulqdq $0, %xmm2, %xmm3, %xmm0
vpclmulqdq $1, %xmm2, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm3, %xmm4
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $17, %xmm2, %xmm3, %xmm2
vmovdqa (%rsp), %xmm5
jmp .LBB7_7
.LBB7_2:
cmpq $0, 80(%rdi)
vmovdqa (%rdi), %xmm0
je .LBB7_9
vmovdqa 176(%rsi), %xmm2
leaq 48(%rdi), %r15
vmovdqa 64(%rdi), %xmm1
vpshufb .LCPI7_0(%rip), %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm3
vpclmulqdq $0, %xmm3, %xmm2, %xmm0
vpclmulqdq $1, %xmm3, %xmm2, %xmm1
vpclmulqdq $16, %xmm3, %xmm2, %xmm4
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $17, %xmm3, %xmm2, %xmm2
.LBB7_7:
vpslldq $8, %xmm1, %xmm3
vpxor %xmm3, %xmm0, %xmm0
vpsrldq $8, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpbroadcastq .LCPI7_2(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm0, %xmm3
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm0
vpclmulqdq $16, %xmm2, %xmm0, %xmm2
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpxor %xmm2, %xmm0, %xmm0
jmp .LBB7_8
.LBB7_5:
movq %r12, %rsi
vmovdqa (%rsp), %xmm5
.LBB7_8:
vpxor %xmm1, %xmm1, %xmm1
vmovdqu %ymm1, (%r15)
movq $0, 32(%r15)
.LBB7_9:
vmovdqa 176(%rsi), %xmm1
vmovq 96(%rdi), %xmm2
vmovq %r14, %xmm3
vpunpcklqdq %xmm2, %xmm3, %xmm2
vpsllq $3, %xmm2, %xmm2
vpxor %xmm0, %xmm2, %xmm0
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI7_2(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vmovdqa %xmm0, (%rdi)
vmovdqa (%rsi), %xmm1
vpxor 16(%rdi), %xmm1, %xmm1
vaesenc 16(%rsi), %xmm1, %xmm1
vaesenc 32(%rsi), %xmm1, %xmm1
vaesenc 48(%rsi), %xmm1, %xmm1
vaesenc 64(%rsi), %xmm1, %xmm1
vaesenc 80(%rsi), %xmm1, %xmm1
vaesenc 96(%rsi), %xmm1, %xmm1
vaesenc 112(%rsi), %xmm1, %xmm1
vaesenc 128(%rsi), %xmm1, %xmm1
vaesenc 144(%rsi), %xmm1, %xmm1
vaesenclast 160(%rsi), %xmm1, %xmm1
vpshufb .LCPI7_0(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm5, %xmm0
vpxor %xmm1, %xmm0, %xmm0
xorl %eax, %eax
vptest %xmm0, %xmm0
sete %al
addq $48, %rsp
.cfi_def_cfa_offset 48
popq %rbx
.cfi_def_cfa_offset 40
popq %r12
.cfi_def_cfa_offset 32
popq %r13
.cfi_def_cfa_offset 24
popq %r14
.cfi_def_cfa_offset 16
popq %r15
.cfi_def_cfa_offset 8
.cfi_restore %rbx
.cfi_restore %r12
.cfi_restore %r13
.cfi_restore %r14
.cfi_restore %r15
.LBB7_10:
vzeroupper
retq
.Lfunc_end7:
.size haberdashery_aes128gcm_streaming_broadwell_decrypt_finalize, .Lfunc_end7-haberdashery_aes128gcm_streaming_broadwell_decrypt_finalize
.cfi_endproc
.ident "rustc version 1.86.0-nightly (9cd60bd2c 2025-02-15)"
.section ".note.GNU-stack","",@progbits
|
ts-phantomnk90/haberdashery
| 76,392
|
asm/aes256gcmsiv_skylake.s
|
# @generated
# https://github.com/facebookincubator/haberdashery/
.text
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI0_0:
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.LCPI0_1:
.quad 4294967297
.quad 4294967297
.LCPI0_2:
.quad 8589934594
.quad 8589934594
.LCPI0_3:
.quad 17179869188
.quad 17179869188
.LCPI0_4:
.quad 34359738376
.quad 34359738376
.LCPI0_5:
.quad 68719476752
.quad 68719476752
.LCPI0_6:
.quad 137438953504
.quad 137438953504
.LCPI0_7:
.quad 274877907008
.quad 274877907008
.section .rodata.cst4,"aM",@progbits,4
.p2align 2, 0x0
.LCPI0_8:
.byte 13
.byte 14
.byte 15
.byte 12
.section .text.haberdashery_aes256gcmsiv_skylake_init,"ax",@progbits
.globl haberdashery_aes256gcmsiv_skylake_init
.p2align 4, 0x90
.type haberdashery_aes256gcmsiv_skylake_init,@function
haberdashery_aes256gcmsiv_skylake_init:
.cfi_startproc
cmpq $32, %rdx
jne .LBB0_2
vmovdqu (%rsi), %xmm0
vmovdqu 16(%rsi), %xmm1
vpslldq $4, %xmm0, %xmm2
vpslldq $8, %xmm0, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vpslldq $12, %xmm0, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vpbroadcastd .LCPI0_8(%rip), %xmm3
vpshufb %xmm3, %xmm1, %xmm4
vaesenclast .LCPI0_1(%rip), %xmm4, %xmm4
vpxor %xmm0, %xmm2, %xmm2
vpxor %xmm2, %xmm4, %xmm2
vpslldq $4, %xmm1, %xmm4
vpslldq $8, %xmm1, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpslldq $12, %xmm1, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpshufd $255, %xmm2, %xmm5
vpxor %xmm6, %xmm6, %xmm6
vaesenclast %xmm6, %xmm5, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpslldq $4, %xmm2, %xmm5
vpslldq $8, %xmm2, %xmm7
vpxor %xmm7, %xmm5, %xmm5
vpslldq $12, %xmm2, %xmm7
vpxor %xmm7, %xmm5, %xmm5
vpshufb %xmm3, %xmm4, %xmm7
vaesenclast .LCPI0_2(%rip), %xmm7, %xmm7
vpxor %xmm2, %xmm5, %xmm5
vpxor %xmm5, %xmm7, %xmm5
vpslldq $4, %xmm4, %xmm7
vpslldq $8, %xmm4, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpslldq $12, %xmm4, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpshufd $255, %xmm5, %xmm8
vaesenclast %xmm6, %xmm8, %xmm8
vpxor %xmm4, %xmm7, %xmm7
vpxor %xmm7, %xmm8, %xmm7
vpslldq $4, %xmm5, %xmm8
vpslldq $8, %xmm5, %xmm9
vpxor %xmm9, %xmm8, %xmm8
vpslldq $12, %xmm5, %xmm9
vpxor %xmm9, %xmm8, %xmm8
vpshufb %xmm3, %xmm7, %xmm9
vaesenclast .LCPI0_3(%rip), %xmm9, %xmm9
vpxor %xmm5, %xmm8, %xmm8
vpxor %xmm8, %xmm9, %xmm8
vpslldq $4, %xmm7, %xmm9
vpslldq $8, %xmm7, %xmm10
vpxor %xmm10, %xmm9, %xmm9
vpslldq $12, %xmm7, %xmm10
vpxor %xmm10, %xmm9, %xmm9
vpshufd $255, %xmm8, %xmm10
vaesenclast %xmm6, %xmm10, %xmm10
vpxor %xmm7, %xmm9, %xmm9
vpxor %xmm9, %xmm10, %xmm9
vpslldq $4, %xmm8, %xmm10
vpslldq $8, %xmm8, %xmm11
vpxor %xmm11, %xmm10, %xmm10
vpslldq $12, %xmm8, %xmm11
vpshufb %xmm3, %xmm9, %xmm12
vaesenclast .LCPI0_4(%rip), %xmm12, %xmm12
vpxor %xmm11, %xmm10, %xmm10
vpxor %xmm8, %xmm10, %xmm10
vpxor %xmm10, %xmm12, %xmm10
vpslldq $4, %xmm9, %xmm11
vpslldq $8, %xmm9, %xmm12
vpxor %xmm12, %xmm11, %xmm11
vpslldq $12, %xmm9, %xmm12
vpxor %xmm12, %xmm11, %xmm11
vpshufd $255, %xmm10, %xmm12
vaesenclast %xmm6, %xmm12, %xmm12
vpxor %xmm9, %xmm11, %xmm11
vpxor %xmm11, %xmm12, %xmm11
vpslldq $4, %xmm10, %xmm12
vpslldq $8, %xmm10, %xmm13
vpxor %xmm13, %xmm12, %xmm12
vpslldq $12, %xmm10, %xmm13
vpxor %xmm13, %xmm12, %xmm12
vpshufb %xmm3, %xmm11, %xmm13
vaesenclast .LCPI0_5(%rip), %xmm13, %xmm13
vpxor %xmm10, %xmm12, %xmm12
vpxor %xmm12, %xmm13, %xmm12
vpslldq $4, %xmm11, %xmm13
vpslldq $8, %xmm11, %xmm14
vpxor %xmm14, %xmm13, %xmm13
vpslldq $12, %xmm11, %xmm14
vpxor %xmm14, %xmm13, %xmm13
vpshufd $255, %xmm12, %xmm14
vaesenclast %xmm6, %xmm14, %xmm14
vpxor %xmm11, %xmm13, %xmm13
vpxor %xmm13, %xmm14, %xmm13
vpslldq $4, %xmm12, %xmm14
vpslldq $8, %xmm12, %xmm15
vpxor %xmm15, %xmm14, %xmm14
vpslldq $12, %xmm12, %xmm15
vpxor %xmm15, %xmm14, %xmm14
vpshufb %xmm3, %xmm13, %xmm15
vaesenclast .LCPI0_6(%rip), %xmm15, %xmm15
vpxor %xmm12, %xmm14, %xmm14
vpxor %xmm14, %xmm15, %xmm14
vpslldq $4, %xmm13, %xmm15
vpslldq $8, %xmm13, %xmm3
vpxor %xmm3, %xmm15, %xmm3
vpslldq $12, %xmm13, %xmm15
vpxor %xmm3, %xmm15, %xmm3
vpshufd $255, %xmm14, %xmm15
vaesenclast %xmm6, %xmm15, %xmm6
vpxor %xmm3, %xmm13, %xmm3
vpxor %xmm3, %xmm6, %xmm3
vpslldq $4, %xmm14, %xmm6
vpslldq $8, %xmm14, %xmm15
vpxor %xmm6, %xmm15, %xmm6
vpslldq $12, %xmm14, %xmm15
vpxor %xmm6, %xmm15, %xmm6
vpshufb .LCPI0_0(%rip), %xmm3, %xmm15
vaesenclast .LCPI0_7(%rip), %xmm15, %xmm15
vpxor %xmm6, %xmm14, %xmm6
vpxor %xmm6, %xmm15, %xmm6
vmovdqa %xmm0, (%rdi)
vmovdqa %xmm1, 16(%rdi)
vmovdqa %xmm2, 32(%rdi)
vmovdqa %xmm4, 48(%rdi)
vmovdqa %xmm5, 64(%rdi)
vmovdqa %xmm7, 80(%rdi)
vmovdqa %xmm8, 96(%rdi)
vmovdqa %xmm9, 112(%rdi)
vmovdqa %xmm10, 128(%rdi)
vmovdqa %xmm11, 144(%rdi)
vmovdqa %xmm12, 160(%rdi)
vmovdqa %xmm13, 176(%rdi)
vmovdqa %xmm14, 192(%rdi)
vmovdqa %xmm3, 208(%rdi)
vmovdqa %xmm6, 224(%rdi)
.LBB0_2:
xorl %eax, %eax
cmpq $32, %rdx
sete %al
retq
.Lfunc_end0:
.size haberdashery_aes256gcmsiv_skylake_init, .Lfunc_end0-haberdashery_aes256gcmsiv_skylake_init
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI1_0:
.long 1
.long 0
.long 0
.long 0
.LCPI1_1:
.long 2
.long 0
.long 0
.long 0
.LCPI1_2:
.long 3
.long 0
.long 0
.long 0
.LCPI1_3:
.quad 4
.quad 0
.LCPI1_4:
.long 5
.long 0
.long 0
.long 0
.LCPI1_5:
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.LCPI1_6:
.quad 4294967297
.quad 4294967297
.LCPI1_7:
.quad 8589934594
.quad 8589934594
.LCPI1_8:
.quad 17179869188
.quad 17179869188
.LCPI1_9:
.quad 34359738376
.quad 34359738376
.LCPI1_10:
.quad 68719476752
.quad 68719476752
.LCPI1_11:
.quad 137438953504
.quad 137438953504
.LCPI1_12:
.quad 274877907008
.quad 274877907008
.LCPI1_13:
.zero 8
.quad -4467570830351532032
.LCPI1_14:
.quad -1
.quad 9223372036854775807
.LCPI1_15:
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 128
.LCPI1_16:
.long 6
.long 0
.long 0
.long 0
.LCPI1_17:
.long 7
.long 0
.long 0
.long 0
.LCPI1_18:
.long 8
.long 0
.long 0
.long 0
.section .rodata.cst4,"aM",@progbits,4
.p2align 2, 0x0
.LCPI1_19:
.byte 13
.byte 14
.byte 15
.byte 12
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI1_20:
.quad -4467570830351532032
.section .text.haberdashery_aes256gcmsiv_skylake_encrypt,"ax",@progbits
.globl haberdashery_aes256gcmsiv_skylake_encrypt
.p2align 4, 0x90
.type haberdashery_aes256gcmsiv_skylake_encrypt,@function
haberdashery_aes256gcmsiv_skylake_encrypt:
.cfi_startproc
pushq %rbp
.cfi_def_cfa_offset 16
pushq %r15
.cfi_def_cfa_offset 24
pushq %r14
.cfi_def_cfa_offset 32
pushq %rbx
.cfi_def_cfa_offset 40
subq $456, %rsp
.cfi_def_cfa_offset 496
.cfi_offset %rbx, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
.cfi_offset %rbp, -16
movq 496(%rsp), %r15
xorl %eax, %eax
cmpq 512(%rsp), %r15
jne .LBB1_45
movabsq $68719476737, %rax
cmpq %rax, %r8
setb %r10b
cmpq %rax, %r15
setb %al
andb %r10b, %al
cmpq $16, 528(%rsp)
sete %r10b
cmpq $12, %rdx
sete %bpl
andb %r10b, %bpl
andb %al, %bpl
cmpb $1, %bpl
jne .LBB1_44
vmovsd 4(%rsi), %xmm0
vmovss (%rsi), %xmm1
vshufps $65, %xmm0, %xmm1, %xmm0
vxorps (%rdi), %xmm0, %xmm0
vxorps .LCPI1_0(%rip), %xmm0, %xmm3
vxorps .LCPI1_1(%rip), %xmm0, %xmm2
vxorps .LCPI1_2(%rip), %xmm0, %xmm4
vxorps .LCPI1_3(%rip), %xmm0, %xmm1
vxorps .LCPI1_4(%rip), %xmm0, %xmm5
vmovaps 16(%rdi), %xmm6
vmovaps 32(%rdi), %xmm7
vmovaps 48(%rdi), %xmm8
vmovdqa 64(%rdi), %xmm9
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
#APP
vaesenc %xmm7, %xmm0, %xmm0
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm7, %xmm4, %xmm4
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm5, %xmm5
#NO_APP
#APP
vaesenc %xmm8, %xmm0, %xmm0
vaesenc %xmm8, %xmm3, %xmm3
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm8, %xmm4, %xmm4
vaesenc %xmm8, %xmm1, %xmm1
vaesenc %xmm8, %xmm5, %xmm5
#NO_APP
#APP
vaesenc %xmm9, %xmm0, %xmm0
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm9, %xmm4, %xmm4
vaesenc %xmm9, %xmm1, %xmm1
vaesenc %xmm9, %xmm5, %xmm5
#NO_APP
vmovaps 80(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 96(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 112(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 128(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 144(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 160(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 176(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 192(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 208(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 224(%rdi), %xmm6
#APP
vaesenclast %xmm6, %xmm0, %xmm0
vaesenclast %xmm6, %xmm3, %xmm3
vaesenclast %xmm6, %xmm2, %xmm2
vaesenclast %xmm6, %xmm4, %xmm4
vaesenclast %xmm6, %xmm1, %xmm1
vaesenclast %xmm6, %xmm5, %xmm5
#NO_APP
vmovlhps %xmm3, %xmm0, %xmm7
vpunpcklqdq %xmm4, %xmm2, %xmm6
vpunpcklqdq %xmm5, %xmm1, %xmm5
vpslldq $4, %xmm6, %xmm3
vpxor %xmm9, %xmm9, %xmm9
vpunpcklqdq %xmm2, %xmm9, %xmm4
vinsertps $55, %xmm2, %xmm0, %xmm2
vpxor %xmm2, %xmm4, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpbroadcastd .LCPI1_19(%rip), %xmm0
vpshufb %xmm0, %xmm5, %xmm3
vaesenclast .LCPI1_6(%rip), %xmm3, %xmm3
vmovdqa %xmm6, 336(%rsp)
vpxor %xmm6, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm12
vpslldq $4, %xmm5, %xmm2
vpunpcklqdq %xmm1, %xmm9, %xmm3
vinsertps $55, %xmm1, %xmm0, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpshufd $255, %xmm12, %xmm2
vaesenclast %xmm9, %xmm2, %xmm2
vmovdqa %xmm5, 240(%rsp)
vpxor %xmm5, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm3
vpslldq $4, %xmm12, %xmm1
vpslldq $8, %xmm12, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpslldq $12, %xmm12, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpshufb %xmm0, %xmm3, %xmm2
vaesenclast .LCPI1_7(%rip), %xmm2, %xmm2
vpxor %xmm1, %xmm12, %xmm1
vpxor %xmm1, %xmm2, %xmm4
vpslldq $4, %xmm3, %xmm1
vpslldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpslldq $12, %xmm3, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpshufd $255, %xmm4, %xmm2
vaesenclast %xmm9, %xmm2, %xmm2
vmovdqa %xmm3, 304(%rsp)
vpxor %xmm3, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm3
vpslldq $4, %xmm4, %xmm1
vpslldq $8, %xmm4, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpslldq $12, %xmm4, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpshufb %xmm0, %xmm3, %xmm2
vaesenclast .LCPI1_8(%rip), %xmm2, %xmm2
vmovdqa %xmm4, 288(%rsp)
vpxor %xmm4, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm4
vpslldq $4, %xmm3, %xmm1
vpslldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpslldq $12, %xmm3, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpshufd $255, %xmm4, %xmm2
vaesenclast %xmm9, %xmm2, %xmm2
vmovdqa %xmm3, 224(%rsp)
vpxor %xmm3, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm3
vpslldq $4, %xmm4, %xmm1
vpslldq $8, %xmm4, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpslldq $12, %xmm4, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpshufb %xmm0, %xmm3, %xmm2
vaesenclast .LCPI1_9(%rip), %xmm2, %xmm2
vmovdqa %xmm4, 208(%rsp)
vpxor %xmm4, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm10
vpslldq $4, %xmm3, %xmm1
vpslldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpslldq $12, %xmm3, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpshufd $255, %xmm10, %xmm2
vaesenclast %xmm9, %xmm2, %xmm2
vmovdqa %xmm3, 192(%rsp)
vpxor %xmm3, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm4
vpslldq $4, %xmm10, %xmm1
vpslldq $8, %xmm10, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpslldq $12, %xmm10, %xmm2
vpshufb %xmm0, %xmm4, %xmm3
vaesenclast .LCPI1_10(%rip), %xmm3, %xmm3
vpxor %xmm2, %xmm1, %xmm1
vpxor %xmm1, %xmm10, %xmm1
vpxor %xmm1, %xmm3, %xmm3
vpslldq $4, %xmm4, %xmm1
vpslldq $8, %xmm4, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpslldq $12, %xmm4, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpshufd $255, %xmm3, %xmm2
vaesenclast %xmm9, %xmm2, %xmm2
vmovdqa %xmm4, 160(%rsp)
vpxor %xmm4, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm6
vpslldq $4, %xmm3, %xmm1
vpslldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpslldq $12, %xmm3, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpshufb %xmm0, %xmm6, %xmm2
vaesenclast .LCPI1_11(%rip), %xmm2, %xmm2
vmovdqa %xmm3, 144(%rsp)
vpxor %xmm3, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm8
vpslldq $4, %xmm6, %xmm1
vpslldq $8, %xmm6, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpslldq $12, %xmm6, %xmm2
vpxor %xmm2, %xmm1, %xmm0
vmovdqa %xmm0, 32(%rsp)
vpclmulqdq $0, %xmm7, %xmm7, %xmm2
vpbroadcastq .LCPI1_20(%rip), %xmm0
vpclmulqdq $16, %xmm0, %xmm2, %xmm3
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $17, %xmm7, %xmm7, %xmm3
vpshufd $78, %xmm2, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpclmulqdq $16, %xmm0, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm1
vpclmulqdq $0, %xmm1, %xmm1, %xmm2
vpclmulqdq $16, %xmm0, %xmm2, %xmm3
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $17, %xmm1, %xmm1, %xmm3
vpshufd $78, %xmm2, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpclmulqdq $16, %xmm0, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm5
vpclmulqdq $0, %xmm5, %xmm5, %xmm2
vpclmulqdq $16, %xmm0, %xmm2, %xmm3
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $17, %xmm5, %xmm5, %xmm3
vpshufd $78, %xmm2, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpclmulqdq $16, %xmm0, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vmovdqa %xmm2, 48(%rsp)
vpclmulqdq $16, %xmm7, %xmm1, %xmm2
vpclmulqdq $1, %xmm7, %xmm1, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $0, %xmm7, %xmm1, %xmm3
vpslldq $8, %xmm2, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpclmulqdq $16, %xmm0, %xmm3, %xmm4
vpshufd $78, %xmm3, %xmm3
vpxor %xmm3, %xmm4, %xmm3
vpsrldq $8, %xmm2, %xmm2
vmovdqa %xmm1, 80(%rsp)
vpclmulqdq $17, %xmm7, %xmm1, %xmm4
vpxor %xmm2, %xmm4, %xmm2
vpshufd $78, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpclmulqdq $16, %xmm0, %xmm3, %xmm3
vpxor %xmm3, %xmm2, %xmm11
vpclmulqdq $0, %xmm11, %xmm11, %xmm2
vpclmulqdq $16, %xmm0, %xmm2, %xmm3
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $17, %xmm11, %xmm11, %xmm3
vpshufd $78, %xmm2, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpclmulqdq $16, %xmm0, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm13
vpclmulqdq $16, %xmm7, %xmm13, %xmm2
vpclmulqdq $1, %xmm7, %xmm13, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $0, %xmm7, %xmm13, %xmm3
vpslldq $8, %xmm2, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpclmulqdq $16, %xmm0, %xmm3, %xmm4
vpshufd $78, %xmm3, %xmm3
vpxor %xmm3, %xmm4, %xmm3
vpsrldq $8, %xmm2, %xmm2
vpclmulqdq $17, %xmm7, %xmm13, %xmm4
vpxor %xmm2, %xmm4, %xmm2
vpshufd $78, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpclmulqdq $16, %xmm0, %xmm3, %xmm3
vpxor %xmm3, %xmm2, %xmm14
vpclmulqdq $16, %xmm7, %xmm5, %xmm2
vpclmulqdq $1, %xmm7, %xmm5, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $0, %xmm7, %xmm5, %xmm3
vpslldq $8, %xmm2, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpclmulqdq $16, %xmm0, %xmm3, %xmm4
vpshufd $78, %xmm3, %xmm3
vpxor %xmm3, %xmm4, %xmm3
vpsrldq $8, %xmm2, %xmm2
vmovaps %xmm7, 112(%rsp)
vmovdqa %xmm5, 64(%rsp)
vpclmulqdq $17, %xmm7, %xmm5, %xmm4
vpxor %xmm2, %xmm4, %xmm2
vpshufd $78, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpclmulqdq $16, %xmm0, %xmm3, %xmm3
vpxor %xmm3, %xmm2, %xmm15
vpshufd $255, %xmm8, %xmm0
cmpq $128, %r8
vmovdqa %xmm8, 96(%rsp)
vmovdqa %xmm12, 320(%rsp)
vmovdqa %xmm10, 176(%rsp)
vmovdqa %xmm6, 128(%rsp)
jb .LBB1_6
vmovdqa %xmm0, 16(%rsp)
vpxor %xmm5, %xmm5, %xmm5
movq %r8, %rax
vmovdqa 112(%rsp), %xmm1
vmovdqa 80(%rsp), %xmm2
vmovdqa %xmm11, %xmm12
vmovdqa 64(%rsp), %xmm11
.p2align 4, 0x90
.LBB1_4:
vmovdqu 64(%rcx), %xmm3
vmovdqu 80(%rcx), %xmm4
vmovdqa %xmm5, %xmm0
vmovdqu 96(%rcx), %xmm5
vmovdqu 112(%rcx), %xmm6
vpclmulqdq $0, %xmm6, %xmm1, %xmm7
vpclmulqdq $1, %xmm6, %xmm1, %xmm8
vpclmulqdq $16, %xmm6, %xmm1, %xmm9
vpxor %xmm8, %xmm9, %xmm8
vpclmulqdq $17, %xmm6, %xmm1, %xmm6
vpclmulqdq $0, %xmm5, %xmm2, %xmm9
vpxor %xmm7, %xmm9, %xmm7
vpclmulqdq $1, %xmm5, %xmm2, %xmm9
vpclmulqdq $16, %xmm5, %xmm2, %xmm10
vpxor %xmm10, %xmm9, %xmm9
vpxor %xmm9, %xmm8, %xmm8
vpclmulqdq $17, %xmm5, %xmm2, %xmm5
vpxor %xmm6, %xmm5, %xmm5
vpclmulqdq $0, %xmm4, %xmm12, %xmm6
vpclmulqdq $1, %xmm4, %xmm12, %xmm9
vpclmulqdq $16, %xmm4, %xmm12, %xmm10
vpxor %xmm10, %xmm9, %xmm9
vpclmulqdq $0, %xmm3, %xmm11, %xmm10
vpxor %xmm6, %xmm10, %xmm6
vmovdqu 32(%rcx), %xmm10
vpxor %xmm6, %xmm7, %xmm6
vpclmulqdq $1, %xmm3, %xmm11, %xmm7
vpxor %xmm7, %xmm9, %xmm7
vmovdqu 48(%rcx), %xmm9
vpclmulqdq $17, %xmm4, %xmm12, %xmm4
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $16, %xmm3, %xmm11, %xmm8
vpclmulqdq $17, %xmm3, %xmm11, %xmm3
vpxor %xmm3, %xmm4, %xmm3
vpxor %xmm3, %xmm5, %xmm3
vpclmulqdq $0, %xmm9, %xmm15, %xmm4
vpclmulqdq $1, %xmm9, %xmm15, %xmm5
vpxor %xmm5, %xmm8, %xmm5
vpclmulqdq $16, %xmm9, %xmm15, %xmm8
vpxor %xmm5, %xmm8, %xmm5
vpclmulqdq $0, %xmm10, %xmm13, %xmm8
vpxor %xmm4, %xmm8, %xmm4
vpclmulqdq $1, %xmm10, %xmm13, %xmm8
vpxor %xmm5, %xmm8, %xmm5
vmovdqu 16(%rcx), %xmm8
vpclmulqdq $17, %xmm9, %xmm15, %xmm9
vpxor %xmm5, %xmm7, %xmm5
vpclmulqdq $17, %xmm10, %xmm13, %xmm7
vpxor %xmm7, %xmm9, %xmm7
vpclmulqdq $0, %xmm8, %xmm14, %xmm9
vpxor %xmm4, %xmm9, %xmm4
vpclmulqdq $16, %xmm10, %xmm13, %xmm9
vmovdqa 48(%rsp), %xmm10
vpxor %xmm4, %xmm6, %xmm4
vpclmulqdq $1, %xmm8, %xmm14, %xmm6
vpxor %xmm6, %xmm9, %xmm6
vpclmulqdq $16, %xmm8, %xmm14, %xmm9
vpxor %xmm6, %xmm9, %xmm6
vpclmulqdq $17, %xmm8, %xmm14, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpxor (%rcx), %xmm0, %xmm8
vpxor %xmm7, %xmm3, %xmm3
vpclmulqdq $0, %xmm8, %xmm10, %xmm7
vpxor %xmm7, %xmm4, %xmm4
vpclmulqdq $1, %xmm8, %xmm10, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpclmulqdq $16, %xmm8, %xmm10, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vpclmulqdq $17, %xmm8, %xmm10, %xmm6
vpxor %xmm6, %xmm3, %xmm3
vpslldq $8, %xmm5, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpsrldq $8, %xmm5, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpbroadcastq .LCPI1_20(%rip), %xmm0
vpclmulqdq $16, %xmm0, %xmm4, %xmm5
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpshufd $78, %xmm4, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpclmulqdq $16, %xmm0, %xmm4, %xmm4
vpxor %xmm4, %xmm3, %xmm5
addq $128, %rcx
addq $-128, %rax
cmpq $127, %rax
ja .LBB1_4
vmovdqa 96(%rsp), %xmm8
vmovdqa %xmm12, %xmm11
vmovdqa 128(%rsp), %xmm6
vpxor %xmm9, %xmm9, %xmm9
vmovdqa 16(%rsp), %xmm0
jmp .LBB1_7
.LBB1_6:
vpxor %xmm5, %xmm5, %xmm5
movq %r8, %rax
.LBB1_7:
vmovdqa %xmm14, 368(%rsp)
vmovdqa %xmm13, 384(%rsp)
vaesenclast %xmm9, %xmm0, %xmm0
vpxor 32(%rsp), %xmm6, %xmm2
vpslldq $4, %xmm8, %xmm1
vpslldq $8, %xmm8, %xmm3
cmpq $16, %rax
vmovdqa %xmm15, 352(%rsp)
jb .LBB1_13
leaq -16(%rax), %rdx
testb $16, %dl
jne .LBB1_10
vpxor (%rcx), %xmm5, %xmm4
addq $16, %rcx
vmovdqa 112(%rsp), %xmm9
vpclmulqdq $0, %xmm4, %xmm9, %xmm5
vpclmulqdq $1, %xmm4, %xmm9, %xmm6
vpclmulqdq $16, %xmm4, %xmm9, %xmm7
vpxor %xmm6, %xmm7, %xmm6
vpclmulqdq $17, %xmm4, %xmm9, %xmm4
vpslldq $8, %xmm6, %xmm7
vpxor %xmm7, %xmm5, %xmm5
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpbroadcastq .LCPI1_20(%rip), %xmm7
vpclmulqdq $16, %xmm7, %xmm5, %xmm6
vpshufd $78, %xmm5, %xmm5
vpxor %xmm5, %xmm6, %xmm5
vpclmulqdq $16, %xmm7, %xmm5, %xmm6
vpshufd $78, %xmm5, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpxor %xmm4, %xmm6, %xmm5
movq %rdx, %rax
.LBB1_10:
cmpq $16, %rdx
jb .LBB1_14
vmovdqa 112(%rsp), %xmm9
vpbroadcastq .LCPI1_20(%rip), %xmm10
.p2align 4, 0x90
.LBB1_12:
vpxor (%rcx), %xmm5, %xmm4
vpclmulqdq $0, %xmm4, %xmm9, %xmm5
vpclmulqdq $1, %xmm4, %xmm9, %xmm6
vpclmulqdq $16, %xmm4, %xmm9, %xmm7
vpxor %xmm6, %xmm7, %xmm6
vpclmulqdq $17, %xmm4, %xmm9, %xmm4
vpslldq $8, %xmm6, %xmm7
vpxor %xmm7, %xmm5, %xmm5
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpclmulqdq $16, %xmm10, %xmm5, %xmm6
vpshufd $78, %xmm5, %xmm5
vpxor %xmm5, %xmm6, %xmm5
vpclmulqdq $16, %xmm10, %xmm5, %xmm6
vpshufd $78, %xmm5, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpxor %xmm4, %xmm6, %xmm4
addq $-32, %rax
vpxor 16(%rcx), %xmm4, %xmm4
addq $32, %rcx
vpclmulqdq $0, %xmm4, %xmm9, %xmm5
vpclmulqdq $1, %xmm4, %xmm9, %xmm6
vpclmulqdq $16, %xmm4, %xmm9, %xmm7
vpxor %xmm6, %xmm7, %xmm6
vpclmulqdq $17, %xmm4, %xmm9, %xmm4
vpslldq $8, %xmm6, %xmm7
vpxor %xmm7, %xmm5, %xmm5
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpclmulqdq $16, %xmm10, %xmm5, %xmm6
vpshufd $78, %xmm5, %xmm5
vpxor %xmm5, %xmm6, %xmm5
vpclmulqdq $16, %xmm10, %xmm5, %xmm6
vpshufd $78, %xmm5, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpxor %xmm4, %xmm6, %xmm5
cmpq $15, %rax
ja .LBB1_12
.LBB1_13:
movq %rax, %rdx
.LBB1_14:
vmovdqa %xmm11, 400(%rsp)
vpxor %xmm2, %xmm0, %xmm4
vpxor %xmm3, %xmm1, %xmm1
vpslldq $12, %xmm8, %xmm2
vmovss 8(%rsi), %xmm0
vmovaps %xmm0, 432(%rsp)
vmovq (%rsi), %xmm0
vmovdqa %xmm0, 416(%rsp)
testq %rdx, %rdx
vmovdqa %xmm4, 16(%rsp)
je .LBB1_16
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, (%rsp)
movq %rsp, %rdi
movq %rcx, %rsi
movq %r9, %rbx
movq %r8, %r14
vmovdqa %xmm5, 32(%rsp)
vmovdqa %xmm1, 272(%rsp)
vmovdqa %xmm2, 256(%rsp)
callq *memcpy@GOTPCREL(%rip)
vmovdqa 16(%rsp), %xmm4
movq %r14, %r8
movq %rbx, %r9
vmovdqa 32(%rsp), %xmm0
vpxor (%rsp), %xmm0, %xmm0
vmovdqa 112(%rsp), %xmm12
vpclmulqdq $0, %xmm0, %xmm12, %xmm1
vpclmulqdq $1, %xmm0, %xmm12, %xmm2
vpclmulqdq $16, %xmm0, %xmm12, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $17, %xmm0, %xmm12, %xmm0
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpsrldq $8, %xmm2, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI1_20(%rip), %xmm7
vpclmulqdq $16, %xmm7, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpclmulqdq $16, %xmm7, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vmovdqa 272(%rsp), %xmm1
vpxor %xmm0, %xmm2, %xmm5
vmovdqa 256(%rsp), %xmm2
jmp .LBB1_17
.LBB1_16:
vmovdqa 112(%rsp), %xmm12
vpbroadcastq .LCPI1_20(%rip), %xmm7
.LBB1_17:
vmovdqa 80(%rsp), %xmm14
vmovdqa 64(%rsp), %xmm15
vpxor %xmm2, %xmm1, %xmm0
vpshufb .LCPI1_5(%rip), %xmm4, %xmm2
vmovq %r15, %xmm1
vmovq %r8, %xmm3
cmpq $128, %r15
jb .LBB1_21
vmovdqa %xmm3, 256(%rsp)
vmovdqa %xmm2, 272(%rsp)
vmovdqa %xmm1, 64(%rsp)
vmovdqa %xmm0, 80(%rsp)
movq %r9, %rsi
movq %r15, %rax
vmovdqa 48(%rsp), %xmm0
vmovdqa 400(%rsp), %xmm1
vmovdqa 384(%rsp), %xmm2
vmovdqa 368(%rsp), %xmm3
vmovdqa 352(%rsp), %xmm13
.p2align 4, 0x90
.LBB1_19:
vmovdqa %xmm5, 32(%rsp)
vmovdqu 64(%rsi), %xmm4
vmovdqu 80(%rsi), %xmm5
vmovdqu 96(%rsi), %xmm6
vmovdqu 112(%rsi), %xmm7
vpclmulqdq $0, %xmm7, %xmm12, %xmm8
vpclmulqdq $1, %xmm7, %xmm12, %xmm9
vpclmulqdq $16, %xmm7, %xmm12, %xmm10
vpxor %xmm9, %xmm10, %xmm9
vpclmulqdq $17, %xmm7, %xmm12, %xmm7
vpclmulqdq $0, %xmm6, %xmm14, %xmm10
vpxor %xmm8, %xmm10, %xmm8
vpclmulqdq $1, %xmm6, %xmm14, %xmm10
vpclmulqdq $16, %xmm6, %xmm14, %xmm11
vpxor %xmm11, %xmm10, %xmm10
vpxor %xmm10, %xmm9, %xmm9
vpclmulqdq $17, %xmm6, %xmm14, %xmm6
vpxor %xmm7, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm1, %xmm7
vpclmulqdq $1, %xmm5, %xmm1, %xmm10
vpclmulqdq $16, %xmm5, %xmm1, %xmm11
vpxor %xmm11, %xmm10, %xmm10
vpclmulqdq $0, %xmm4, %xmm15, %xmm11
vpxor %xmm7, %xmm11, %xmm7
vmovdqu 32(%rsi), %xmm11
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $1, %xmm4, %xmm15, %xmm8
vpxor %xmm8, %xmm10, %xmm8
vmovdqu 48(%rsi), %xmm10
vpclmulqdq $17, %xmm5, %xmm1, %xmm5
vpxor %xmm8, %xmm9, %xmm8
vpclmulqdq $16, %xmm4, %xmm15, %xmm9
vpclmulqdq $17, %xmm4, %xmm15, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpxor %xmm4, %xmm6, %xmm4
vpclmulqdq $0, %xmm10, %xmm13, %xmm5
vpclmulqdq $1, %xmm10, %xmm13, %xmm6
vpxor %xmm6, %xmm9, %xmm6
vpclmulqdq $16, %xmm10, %xmm13, %xmm9
vpxor %xmm6, %xmm9, %xmm6
vpclmulqdq $0, %xmm11, %xmm2, %xmm9
vpxor %xmm5, %xmm9, %xmm5
vpclmulqdq $1, %xmm11, %xmm2, %xmm9
vpxor %xmm6, %xmm9, %xmm6
vmovdqu 16(%rsi), %xmm9
vpclmulqdq $17, %xmm10, %xmm13, %xmm10
vpxor %xmm6, %xmm8, %xmm6
vpclmulqdq $17, %xmm11, %xmm2, %xmm8
vpxor %xmm8, %xmm10, %xmm8
vpclmulqdq $0, %xmm9, %xmm3, %xmm10
vpxor %xmm5, %xmm10, %xmm5
vpclmulqdq $16, %xmm11, %xmm2, %xmm10
vpxor %xmm5, %xmm7, %xmm5
vpclmulqdq $1, %xmm9, %xmm3, %xmm7
vpxor %xmm7, %xmm10, %xmm7
vpclmulqdq $16, %xmm9, %xmm3, %xmm10
vpxor %xmm7, %xmm10, %xmm7
vpclmulqdq $17, %xmm9, %xmm3, %xmm9
vpxor %xmm9, %xmm8, %xmm8
vmovdqa 32(%rsp), %xmm9
vpxor (%rsi), %xmm9, %xmm9
vpxor %xmm4, %xmm8, %xmm4
vpclmulqdq $0, %xmm9, %xmm0, %xmm8
vpxor %xmm5, %xmm8, %xmm5
vpclmulqdq $1, %xmm9, %xmm0, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $16, %xmm9, %xmm0, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpclmulqdq $17, %xmm9, %xmm0, %xmm7
vpxor %xmm7, %xmm4, %xmm4
vpslldq $8, %xmm6, %xmm7
vpxor %xmm7, %xmm5, %xmm5
vpbroadcastq .LCPI1_20(%rip), %xmm7
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpclmulqdq $16, %xmm7, %xmm5, %xmm6
vpshufd $78, %xmm5, %xmm5
vpxor %xmm5, %xmm6, %xmm5
vpshufd $78, %xmm5, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpclmulqdq $16, %xmm7, %xmm5, %xmm5
vpxor %xmm5, %xmm4, %xmm5
addq $128, %rsi
addq $-128, %rax
cmpq $127, %rax
ja .LBB1_19
vmovdqa 80(%rsp), %xmm0
vmovdqa 64(%rsp), %xmm1
vmovdqa 272(%rsp), %xmm2
vmovdqa 256(%rsp), %xmm3
jmp .LBB1_22
.LBB1_21:
movq %r15, %rax
movq %r9, %rsi
.LBB1_22:
vaesenclast .LCPI1_12(%rip), %xmm2, %xmm2
vmovdqa 96(%rsp), %xmm8
vpxor %xmm0, %xmm8, %xmm4
vpunpcklqdq %xmm1, %xmm3, %xmm0
cmpq $16, %rax
jb .LBB1_28
leaq -16(%rax), %rdx
testb $16, %dl
jne .LBB1_25
vpxor (%rsi), %xmm5, %xmm1
addq $16, %rsi
vpclmulqdq $0, %xmm1, %xmm12, %xmm3
vpclmulqdq $1, %xmm1, %xmm12, %xmm5
vpclmulqdq $16, %xmm1, %xmm12, %xmm6
vpxor %xmm5, %xmm6, %xmm5
vpclmulqdq $17, %xmm1, %xmm12, %xmm1
vpslldq $8, %xmm5, %xmm6
vpxor %xmm6, %xmm3, %xmm3
vpsrldq $8, %xmm5, %xmm5
vpxor %xmm5, %xmm1, %xmm1
vpclmulqdq $16, %xmm7, %xmm3, %xmm5
vpshufd $78, %xmm3, %xmm3
vpxor %xmm3, %xmm5, %xmm3
vpclmulqdq $16, %xmm7, %xmm3, %xmm5
vpshufd $78, %xmm3, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpxor %xmm1, %xmm5, %xmm5
movq %rdx, %rax
.LBB1_25:
cmpq $16, %rdx
jb .LBB1_29
.p2align 4, 0x90
.LBB1_26:
vpxor (%rsi), %xmm5, %xmm1
vpclmulqdq $0, %xmm1, %xmm12, %xmm3
vpclmulqdq $1, %xmm1, %xmm12, %xmm5
vpclmulqdq $16, %xmm1, %xmm12, %xmm6
vpxor %xmm5, %xmm6, %xmm5
vpclmulqdq $17, %xmm1, %xmm12, %xmm1
vpslldq $8, %xmm5, %xmm6
vpxor %xmm6, %xmm3, %xmm3
vpsrldq $8, %xmm5, %xmm5
vpxor %xmm5, %xmm1, %xmm1
vpclmulqdq $16, %xmm7, %xmm3, %xmm5
vpshufd $78, %xmm3, %xmm3
vpxor %xmm3, %xmm5, %xmm3
vpclmulqdq $16, %xmm7, %xmm3, %xmm5
vpshufd $78, %xmm3, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpxor %xmm1, %xmm5, %xmm1
addq $-32, %rax
vpxor 16(%rsi), %xmm1, %xmm1
addq $32, %rsi
vpclmulqdq $0, %xmm1, %xmm12, %xmm3
vpclmulqdq $1, %xmm1, %xmm12, %xmm5
vpclmulqdq $16, %xmm1, %xmm12, %xmm6
vpxor %xmm5, %xmm6, %xmm5
vpclmulqdq $17, %xmm1, %xmm12, %xmm1
vpslldq $8, %xmm5, %xmm6
vpxor %xmm6, %xmm3, %xmm3
vpsrldq $8, %xmm5, %xmm5
vpxor %xmm5, %xmm1, %xmm1
vpclmulqdq $16, %xmm7, %xmm3, %xmm5
vpshufd $78, %xmm3, %xmm3
vpxor %xmm3, %xmm5, %xmm3
vpclmulqdq $16, %xmm7, %xmm3, %xmm5
vpshufd $78, %xmm3, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpxor %xmm1, %xmm5, %xmm5
cmpq $15, %rax
ja .LBB1_26
.LBB1_28:
movq %rax, %rdx
.LBB1_29:
movq 520(%rsp), %rbx
vmovdqa 416(%rsp), %xmm1
vpunpcklqdq 432(%rsp), %xmm1, %xmm3
vpxor %xmm4, %xmm2, %xmm1
vmovdqa %xmm1, 48(%rsp)
vpsllq $3, %xmm0, %xmm0
testq %rdx, %rdx
je .LBB1_31
vmovdqa %xmm0, 64(%rsp)
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, (%rsp)
movq %rsp, %rdi
movq %r9, %r14
vmovdqa %xmm5, 32(%rsp)
vmovdqa %xmm3, 80(%rsp)
callq *memcpy@GOTPCREL(%rip)
vpbroadcastq .LCPI1_20(%rip), %xmm7
vmovdqa 112(%rsp), %xmm12
vmovdqa 96(%rsp), %xmm8
movq %r14, %r9
vmovdqa 32(%rsp), %xmm0
vpxor (%rsp), %xmm0, %xmm0
vpclmulqdq $0, %xmm0, %xmm12, %xmm1
vpclmulqdq $1, %xmm0, %xmm12, %xmm2
vpclmulqdq $16, %xmm0, %xmm12, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $17, %xmm0, %xmm12, %xmm0
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vmovdqa 80(%rsp), %xmm3
vpsrldq $8, %xmm2, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpclmulqdq $16, %xmm7, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpclmulqdq $16, %xmm7, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm5
vmovdqa 64(%rsp), %xmm0
.LBB1_31:
vpxor %xmm0, %xmm5, %xmm0
vpclmulqdq $1, %xmm0, %xmm12, %xmm1
vpclmulqdq $16, %xmm0, %xmm12, %xmm2
vpxor %xmm1, %xmm2, %xmm1
vpclmulqdq $0, %xmm0, %xmm12, %xmm2
vpclmulqdq $17, %xmm0, %xmm12, %xmm0
vpxor %xmm3, %xmm0, %xmm0
vpslldq $8, %xmm1, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vpsrldq $8, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpclmulqdq $16, %xmm7, %xmm2, %xmm1
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $16, %xmm7, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm2, %xmm0, %xmm0
movq 504(%rsp), %rcx
vpand .LCPI1_14(%rip), %xmm0, %xmm0
vmovdqa 336(%rsp), %xmm2
vpxor %xmm2, %xmm0, %xmm0
vmovdqa 240(%rsp), %xmm3
vaesenc %xmm3, %xmm0, %xmm0
vmovdqa 320(%rsp), %xmm5
vaesenc %xmm5, %xmm0, %xmm0
vmovdqa 304(%rsp), %xmm6
vaesenc %xmm6, %xmm0, %xmm0
vmovdqa 288(%rsp), %xmm7
vaesenc %xmm7, %xmm0, %xmm0
vmovdqa 224(%rsp), %xmm9
vaesenc %xmm9, %xmm0, %xmm0
vmovdqa 208(%rsp), %xmm10
vaesenc %xmm10, %xmm0, %xmm0
vmovdqa 192(%rsp), %xmm11
vaesenc %xmm11, %xmm0, %xmm0
vmovdqa 176(%rsp), %xmm12
vaesenc %xmm12, %xmm0, %xmm0
vmovdqa 160(%rsp), %xmm13
vaesenc %xmm13, %xmm0, %xmm0
vmovdqa 144(%rsp), %xmm4
vaesenc %xmm4, %xmm0, %xmm0
vmovdqa 128(%rsp), %xmm14
vaesenc %xmm14, %xmm0, %xmm0
vaesenc %xmm8, %xmm0, %xmm0
vaesenc 16(%rsp), %xmm0, %xmm0
vmovdqa 48(%rsp), %xmm1
vaesenclast %xmm1, %xmm0, %xmm0
vmovdqu %xmm0, (%rbx)
vpor .LCPI1_15(%rip), %xmm0, %xmm8
cmpq $128, %r15
jb .LBB1_35
vmovaps 96(%rsp), %xmm4
vmovaps 16(%rsp), %xmm3
.p2align 4, 0x90
.LBB1_33:
vpaddd .LCPI1_0(%rip), %xmm8, %xmm0
vpaddd .LCPI1_1(%rip), %xmm8, %xmm11
vpaddd .LCPI1_2(%rip), %xmm8, %xmm12
vpaddd .LCPI1_3(%rip), %xmm8, %xmm13
vpaddd .LCPI1_4(%rip), %xmm8, %xmm14
vpaddd .LCPI1_16(%rip), %xmm8, %xmm15
vpaddd .LCPI1_17(%rip), %xmm8, %xmm1
vpxor %xmm2, %xmm8, %xmm9
vpxor %xmm0, %xmm2, %xmm10
vpxor %xmm2, %xmm11, %xmm11
vpxor %xmm2, %xmm12, %xmm12
vpxor %xmm2, %xmm13, %xmm13
vpxor %xmm2, %xmm14, %xmm14
vpxor %xmm2, %xmm15, %xmm15
vpxor %xmm1, %xmm2, %xmm0
vmovaps 240(%rsp), %xmm1
#APP
vaesenc %xmm1, %xmm9, %xmm9
vaesenc %xmm1, %xmm10, %xmm10
vaesenc %xmm1, %xmm11, %xmm11
vaesenc %xmm1, %xmm12, %xmm12
vaesenc %xmm1, %xmm13, %xmm13
vaesenc %xmm1, %xmm14, %xmm14
vaesenc %xmm1, %xmm15, %xmm15
vaesenc %xmm1, %xmm0, %xmm0
#NO_APP
#APP
vaesenc %xmm5, %xmm9, %xmm9
vaesenc %xmm5, %xmm10, %xmm10
vaesenc %xmm5, %xmm11, %xmm11
vaesenc %xmm5, %xmm12, %xmm12
vaesenc %xmm5, %xmm13, %xmm13
vaesenc %xmm5, %xmm14, %xmm14
vaesenc %xmm5, %xmm15, %xmm15
vaesenc %xmm5, %xmm0, %xmm0
#NO_APP
#APP
vaesenc %xmm6, %xmm9, %xmm9
vaesenc %xmm6, %xmm10, %xmm10
vaesenc %xmm6, %xmm11, %xmm11
vaesenc %xmm6, %xmm12, %xmm12
vaesenc %xmm6, %xmm13, %xmm13
vaesenc %xmm6, %xmm14, %xmm14
vaesenc %xmm6, %xmm15, %xmm15
vaesenc %xmm6, %xmm0, %xmm0
#NO_APP
#APP
vaesenc %xmm7, %xmm9, %xmm9
vaesenc %xmm7, %xmm10, %xmm10
vaesenc %xmm7, %xmm11, %xmm11
vaesenc %xmm7, %xmm12, %xmm12
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm14, %xmm14
vaesenc %xmm7, %xmm15, %xmm15
vaesenc %xmm7, %xmm0, %xmm0
#NO_APP
vmovaps 224(%rsp), %xmm1
#APP
vaesenc %xmm1, %xmm9, %xmm9
vaesenc %xmm1, %xmm10, %xmm10
vaesenc %xmm1, %xmm11, %xmm11
vaesenc %xmm1, %xmm12, %xmm12
vaesenc %xmm1, %xmm13, %xmm13
vaesenc %xmm1, %xmm14, %xmm14
vaesenc %xmm1, %xmm15, %xmm15
vaesenc %xmm1, %xmm0, %xmm0
#NO_APP
vmovaps 208(%rsp), %xmm1
#APP
vaesenc %xmm1, %xmm9, %xmm9
vaesenc %xmm1, %xmm10, %xmm10
vaesenc %xmm1, %xmm11, %xmm11
vaesenc %xmm1, %xmm12, %xmm12
vaesenc %xmm1, %xmm13, %xmm13
vaesenc %xmm1, %xmm14, %xmm14
vaesenc %xmm1, %xmm15, %xmm15
vaesenc %xmm1, %xmm0, %xmm0
#NO_APP
vmovaps 192(%rsp), %xmm1
#APP
vaesenc %xmm1, %xmm9, %xmm9
vaesenc %xmm1, %xmm10, %xmm10
vaesenc %xmm1, %xmm11, %xmm11
vaesenc %xmm1, %xmm12, %xmm12
vaesenc %xmm1, %xmm13, %xmm13
vaesenc %xmm1, %xmm14, %xmm14
vaesenc %xmm1, %xmm15, %xmm15
vaesenc %xmm1, %xmm0, %xmm0
#NO_APP
vmovaps 176(%rsp), %xmm1
#APP
vaesenc %xmm1, %xmm9, %xmm9
vaesenc %xmm1, %xmm10, %xmm10
vaesenc %xmm1, %xmm11, %xmm11
vaesenc %xmm1, %xmm12, %xmm12
vaesenc %xmm1, %xmm13, %xmm13
vaesenc %xmm1, %xmm14, %xmm14
vaesenc %xmm1, %xmm15, %xmm15
vaesenc %xmm1, %xmm0, %xmm0
#NO_APP
vmovaps 160(%rsp), %xmm1
#APP
vaesenc %xmm1, %xmm9, %xmm9
vaesenc %xmm1, %xmm10, %xmm10
vaesenc %xmm1, %xmm11, %xmm11
vaesenc %xmm1, %xmm12, %xmm12
vaesenc %xmm1, %xmm13, %xmm13
vaesenc %xmm1, %xmm14, %xmm14
vaesenc %xmm1, %xmm15, %xmm15
vaesenc %xmm1, %xmm0, %xmm0
#NO_APP
vmovaps 144(%rsp), %xmm1
#APP
vaesenc %xmm1, %xmm9, %xmm9
vaesenc %xmm1, %xmm10, %xmm10
vaesenc %xmm1, %xmm11, %xmm11
vaesenc %xmm1, %xmm12, %xmm12
vaesenc %xmm1, %xmm13, %xmm13
vaesenc %xmm1, %xmm14, %xmm14
vaesenc %xmm1, %xmm15, %xmm15
vaesenc %xmm1, %xmm0, %xmm0
#NO_APP
vmovaps 128(%rsp), %xmm1
#APP
vaesenc %xmm1, %xmm9, %xmm9
vaesenc %xmm1, %xmm10, %xmm10
vaesenc %xmm1, %xmm11, %xmm11
vaesenc %xmm1, %xmm12, %xmm12
vaesenc %xmm1, %xmm13, %xmm13
vaesenc %xmm1, %xmm14, %xmm14
vaesenc %xmm1, %xmm15, %xmm15
vaesenc %xmm1, %xmm0, %xmm0
#NO_APP
#APP
vaesenc %xmm4, %xmm9, %xmm9
vaesenc %xmm4, %xmm10, %xmm10
vaesenc %xmm4, %xmm11, %xmm11
vaesenc %xmm4, %xmm12, %xmm12
vaesenc %xmm4, %xmm13, %xmm13
vaesenc %xmm4, %xmm14, %xmm14
vaesenc %xmm4, %xmm15, %xmm15
vaesenc %xmm4, %xmm0, %xmm0
#NO_APP
#APP
vaesenc %xmm3, %xmm9, %xmm9
vaesenc %xmm3, %xmm10, %xmm10
vaesenc %xmm3, %xmm11, %xmm11
vaesenc %xmm3, %xmm12, %xmm12
vaesenc %xmm3, %xmm13, %xmm13
vaesenc %xmm3, %xmm14, %xmm14
vaesenc %xmm3, %xmm15, %xmm15
vaesenc %xmm3, %xmm0, %xmm0
#NO_APP
vmovaps 48(%rsp), %xmm1
#APP
vaesenclast %xmm1, %xmm9, %xmm9
vaesenclast %xmm1, %xmm10, %xmm10
vaesenclast %xmm1, %xmm11, %xmm11
vaesenclast %xmm1, %xmm12, %xmm12
vaesenclast %xmm1, %xmm13, %xmm13
vaesenclast %xmm1, %xmm14, %xmm14
vaesenclast %xmm1, %xmm15, %xmm15
vaesenclast %xmm1, %xmm0, %xmm0
#NO_APP
vpxor (%r9), %xmm9, %xmm1
vpxor 16(%r9), %xmm10, %xmm9
vpxor 32(%r9), %xmm11, %xmm10
vpxor 48(%r9), %xmm12, %xmm11
vpxor 64(%r9), %xmm13, %xmm12
vpxor 80(%r9), %xmm14, %xmm13
vpxor 96(%r9), %xmm15, %xmm14
vpxor 112(%r9), %xmm0, %xmm0
vmovdqu %xmm1, (%rcx)
vmovdqu %xmm9, 16(%rcx)
vmovdqu %xmm10, 32(%rcx)
vmovdqu %xmm11, 48(%rcx)
vmovdqu %xmm12, 64(%rcx)
vmovdqu %xmm13, 80(%rcx)
vmovdqu %xmm14, 96(%rcx)
vmovdqu %xmm0, 112(%rcx)
addq $128, %r9
addq $128, %rcx
addq $-128, %r15
vpaddd .LCPI1_18(%rip), %xmm8, %xmm8
cmpq $127, %r15
ja .LBB1_33
vmovdqa 240(%rsp), %xmm3
vmovdqa 224(%rsp), %xmm9
vmovdqa 208(%rsp), %xmm10
vmovdqa 192(%rsp), %xmm11
vmovdqa 176(%rsp), %xmm12
vmovdqa 160(%rsp), %xmm13
vmovdqa 144(%rsp), %xmm4
vmovdqa 128(%rsp), %xmm14
vmovdqa 48(%rsp), %xmm1
.LBB1_35:
cmpq $16, %r15
jb .LBB1_41
leaq -16(%r15), %rbx
testb $16, %bl
jne .LBB1_38
leaq 16(%r9), %rsi
leaq 16(%rcx), %r14
vpaddd .LCPI1_0(%rip), %xmm8, %xmm15
vpxor %xmm2, %xmm8, %xmm0
vaesenc %xmm3, %xmm0, %xmm0
vaesenc %xmm5, %xmm0, %xmm0
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm7, %xmm0, %xmm0
vaesenc %xmm9, %xmm0, %xmm0
vaesenc %xmm10, %xmm0, %xmm0
vaesenc %xmm11, %xmm0, %xmm0
vaesenc %xmm12, %xmm0, %xmm0
vaesenc %xmm13, %xmm0, %xmm0
vaesenc %xmm4, %xmm0, %xmm0
vaesenc %xmm14, %xmm0, %xmm0
vaesenc 96(%rsp), %xmm0, %xmm0
vaesenc 16(%rsp), %xmm0, %xmm0
vaesenclast %xmm1, %xmm0, %xmm0
vpxor (%r9), %xmm0, %xmm0
vmovdqu %xmm0, (%rcx)
movq %r14, %rcx
vmovdqa %xmm15, %xmm8
movq %rbx, %r15
movq %rsi, %r9
cmpq $16, %rbx
jae .LBB1_39
jmp .LBB1_42
.LBB1_38:
cmpq $16, %rbx
jb .LBB1_42
.LBB1_39:
vmovdqa 336(%rsp), %xmm3
vmovdqa 240(%rsp), %xmm4
vmovdqa 320(%rsp), %xmm5
vmovdqa 304(%rsp), %xmm6
vmovdqa 288(%rsp), %xmm7
vmovdqa 224(%rsp), %xmm9
vmovdqa 208(%rsp), %xmm10
vmovdqa 192(%rsp), %xmm11
vmovdqa 176(%rsp), %xmm12
vmovdqa 160(%rsp), %xmm13
vmovdqa 144(%rsp), %xmm15
vmovdqa 128(%rsp), %xmm14
vmovdqa 96(%rsp), %xmm1
vmovdqa 48(%rsp), %xmm0
.p2align 4, 0x90
.LBB1_40:
vpxor %xmm3, %xmm8, %xmm2
vaesenc %xmm4, %xmm2, %xmm2
vaesenc %xmm5, %xmm2, %xmm2
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm10, %xmm2, %xmm2
vaesenc %xmm11, %xmm2, %xmm2
vaesenc %xmm12, %xmm2, %xmm2
vaesenc %xmm13, %xmm2, %xmm2
vaesenc %xmm15, %xmm2, %xmm2
vaesenc %xmm14, %xmm2, %xmm2
vaesenc %xmm1, %xmm2, %xmm2
vaesenc 16(%rsp), %xmm2, %xmm2
vaesenclast %xmm0, %xmm2, %xmm2
vpxor (%r9), %xmm2, %xmm2
vmovdqu %xmm2, (%rcx)
vpaddd .LCPI1_0(%rip), %xmm8, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vaesenc %xmm4, %xmm2, %xmm2
vaesenc %xmm5, %xmm2, %xmm2
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm10, %xmm2, %xmm2
vaesenc %xmm11, %xmm2, %xmm2
vaesenc %xmm12, %xmm2, %xmm2
vaesenc %xmm13, %xmm2, %xmm2
vaesenc %xmm15, %xmm2, %xmm2
vaesenc %xmm14, %xmm2, %xmm2
vaesenc %xmm1, %xmm2, %xmm2
vaesenc 16(%rsp), %xmm2, %xmm2
vaesenclast %xmm0, %xmm2, %xmm2
vpxor 16(%r9), %xmm2, %xmm2
vmovdqu %xmm2, 16(%rcx)
addq $32, %r9
addq $32, %rcx
addq $-32, %r15
vpaddd .LCPI1_1(%rip), %xmm8, %xmm8
cmpq $15, %r15
ja .LBB1_40
.LBB1_41:
movq %r9, %rsi
movq %rcx, %r14
movq %r15, %rbx
vmovdqa %xmm8, %xmm15
.LBB1_42:
testq %rbx, %rbx
je .LBB1_44
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, (%rsp)
movq %rsp, %rdi
movq memcpy@GOTPCREL(%rip), %r15
movq %rbx, %rdx
vmovdqa %xmm15, 32(%rsp)
callq *%r15
vmovdqa 32(%rsp), %xmm0
vpxor 336(%rsp), %xmm0, %xmm0
vaesenc 240(%rsp), %xmm0, %xmm0
vaesenc 320(%rsp), %xmm0, %xmm0
vaesenc 304(%rsp), %xmm0, %xmm0
vaesenc 288(%rsp), %xmm0, %xmm0
vaesenc 224(%rsp), %xmm0, %xmm0
vaesenc 208(%rsp), %xmm0, %xmm0
vaesenc 192(%rsp), %xmm0, %xmm0
vaesenc 176(%rsp), %xmm0, %xmm0
vaesenc 160(%rsp), %xmm0, %xmm0
vaesenc 144(%rsp), %xmm0, %xmm0
vaesenc 128(%rsp), %xmm0, %xmm0
vaesenc 96(%rsp), %xmm0, %xmm0
vaesenc 16(%rsp), %xmm0, %xmm0
vaesenclast 48(%rsp), %xmm0, %xmm0
vpxor (%rsp), %xmm0, %xmm0
vmovdqa %xmm0, (%rsp)
movq %rsp, %rsi
movq %r14, %rdi
movq %rbx, %rdx
callq *%r15
.LBB1_44:
movzbl %bpl, %eax
.LBB1_45:
addq $456, %rsp
.cfi_def_cfa_offset 40
popq %rbx
.cfi_def_cfa_offset 32
popq %r14
.cfi_def_cfa_offset 24
popq %r15
.cfi_def_cfa_offset 16
popq %rbp
.cfi_def_cfa_offset 8
retq
.Lfunc_end1:
.size haberdashery_aes256gcmsiv_skylake_encrypt, .Lfunc_end1-haberdashery_aes256gcmsiv_skylake_encrypt
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI2_0:
.long 1
.long 0
.long 0
.long 0
.LCPI2_1:
.long 2
.long 0
.long 0
.long 0
.LCPI2_2:
.long 3
.long 0
.long 0
.long 0
.LCPI2_3:
.quad 4
.quad 0
.LCPI2_4:
.long 5
.long 0
.long 0
.long 0
.LCPI2_5:
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.LCPI2_6:
.quad 4294967297
.quad 4294967297
.LCPI2_7:
.quad 8589934594
.quad 8589934594
.LCPI2_8:
.quad 17179869188
.quad 17179869188
.LCPI2_9:
.quad 34359738376
.quad 34359738376
.LCPI2_10:
.quad 68719476752
.quad 68719476752
.LCPI2_11:
.quad 137438953504
.quad 137438953504
.LCPI2_12:
.quad 274877907008
.quad 274877907008
.LCPI2_13:
.zero 8
.quad -4467570830351532032
.LCPI2_14:
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 128
.LCPI2_15:
.long 6
.long 0
.long 0
.long 0
.LCPI2_16:
.long 7
.long 0
.long 0
.long 0
.LCPI2_17:
.long 8
.long 0
.long 0
.long 0
.LCPI2_18:
.long 9
.long 0
.long 0
.long 0
.LCPI2_19:
.long 10
.long 0
.long 0
.long 0
.LCPI2_20:
.long 11
.long 0
.long 0
.long 0
.LCPI2_21:
.quad -1
.quad 9223372036854775807
.LCPI2_22:
.zero 16
.section .rodata.cst4,"aM",@progbits,4
.p2align 2, 0x0
.LCPI2_23:
.byte 13
.byte 14
.byte 15
.byte 12
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI2_24:
.quad -4467570830351532032
.section .text.haberdashery_aes256gcmsiv_skylake_decrypt,"ax",@progbits
.globl haberdashery_aes256gcmsiv_skylake_decrypt
.p2align 4, 0x90
.type haberdashery_aes256gcmsiv_skylake_decrypt,@function
haberdashery_aes256gcmsiv_skylake_decrypt:
.cfi_startproc
pushq %r15
.cfi_def_cfa_offset 16
pushq %r14
.cfi_def_cfa_offset 24
pushq %rbx
.cfi_def_cfa_offset 32
subq $480, %rsp
.cfi_def_cfa_offset 512
.cfi_offset %rbx, -32
.cfi_offset %r14, -24
.cfi_offset %r15, -16
movq 512(%rsp), %rbx
xorl %eax, %eax
cmpq 544(%rsp), %rbx
jne .LBB2_34
cmpq $12, %rdx
jne .LBB2_34
movabsq $68719476737, %rdx
cmpq %rdx, %r8
jae .LBB2_34
cmpq %rdx, %rbx
jae .LBB2_34
cmpq $16, 528(%rsp)
jb .LBB2_34
vmovsd 4(%rsi), %xmm0
vmovss (%rsi), %xmm1
vshufps $65, %xmm0, %xmm1, %xmm0
vxorps (%rdi), %xmm0, %xmm2
vxorps .LCPI2_0(%rip), %xmm2, %xmm3
vxorps .LCPI2_1(%rip), %xmm2, %xmm0
vxorps .LCPI2_2(%rip), %xmm2, %xmm4
vxorps .LCPI2_3(%rip), %xmm2, %xmm1
vxorps .LCPI2_4(%rip), %xmm2, %xmm5
vmovaps 16(%rdi), %xmm6
vmovaps 32(%rdi), %xmm7
vmovaps 48(%rdi), %xmm8
vmovaps 64(%rdi), %xmm9
#APP
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
#APP
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm0, %xmm0
vaesenc %xmm7, %xmm4, %xmm4
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm5, %xmm5
#NO_APP
#APP
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm8, %xmm3, %xmm3
vaesenc %xmm8, %xmm0, %xmm0
vaesenc %xmm8, %xmm4, %xmm4
vaesenc %xmm8, %xmm1, %xmm1
vaesenc %xmm8, %xmm5, %xmm5
#NO_APP
#APP
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm9, %xmm0, %xmm0
vaesenc %xmm9, %xmm4, %xmm4
vaesenc %xmm9, %xmm1, %xmm1
vaesenc %xmm9, %xmm5, %xmm5
#NO_APP
vmovaps 80(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 96(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 112(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 128(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 144(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 160(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 176(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 192(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 208(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovdqa 224(%rdi), %xmm6
#APP
vaesenclast %xmm6, %xmm2, %xmm2
vaesenclast %xmm6, %xmm3, %xmm3
vaesenclast %xmm6, %xmm0, %xmm0
vaesenclast %xmm6, %xmm4, %xmm4
vaesenclast %xmm6, %xmm1, %xmm1
vaesenclast %xmm6, %xmm5, %xmm5
#NO_APP
vpunpcklqdq %xmm3, %xmm2, %xmm13
vpunpcklqdq %xmm4, %xmm0, %xmm4
vpunpcklqdq %xmm5, %xmm1, %xmm10
vpslldq $4, %xmm4, %xmm2
vpxor %xmm6, %xmm6, %xmm6
vpunpcklqdq %xmm0, %xmm6, %xmm3
vinsertps $55, %xmm0, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm0
vpxor %xmm0, %xmm2, %xmm2
vpbroadcastd .LCPI2_23(%rip), %xmm7
vpshufb %xmm7, %xmm10, %xmm3
vaesenclast .LCPI2_6(%rip), %xmm3, %xmm3
vmovdqa %xmm4, 304(%rsp)
vpxor %xmm4, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm9
vpslldq $4, %xmm10, %xmm2
vpunpcklqdq %xmm1, %xmm6, %xmm3
vinsertps $55, %xmm1, %xmm0, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpshufd $255, %xmm9, %xmm2
vaesenclast %xmm6, %xmm2, %xmm2
vpxor %xmm1, %xmm10, %xmm1
vpxor %xmm1, %xmm2, %xmm11
vpslldq $4, %xmm9, %xmm1
vpslldq $8, %xmm9, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpslldq $12, %xmm9, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpshufb %xmm7, %xmm11, %xmm2
vaesenclast .LCPI2_7(%rip), %xmm2, %xmm2
vpxor %xmm1, %xmm9, %xmm1
vpxor %xmm1, %xmm2, %xmm3
vpslldq $4, %xmm11, %xmm1
vpslldq $8, %xmm11, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpslldq $12, %xmm11, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpshufd $255, %xmm3, %xmm2
vaesenclast %xmm6, %xmm2, %xmm2
vpxor %xmm1, %xmm11, %xmm1
vpxor %xmm1, %xmm2, %xmm4
vpslldq $4, %xmm3, %xmm1
vpslldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpslldq $12, %xmm3, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpshufb %xmm7, %xmm4, %xmm2
vaesenclast .LCPI2_8(%rip), %xmm2, %xmm2
vmovdqa %xmm3, 144(%rsp)
vpxor %xmm3, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm3
vpslldq $4, %xmm4, %xmm1
vpslldq $8, %xmm4, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpslldq $12, %xmm4, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpshufd $255, %xmm3, %xmm2
vaesenclast %xmm6, %xmm2, %xmm2
vmovdqa %xmm4, 128(%rsp)
vpxor %xmm4, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm4
vmovdqa %xmm4, 96(%rsp)
vpslldq $4, %xmm3, %xmm1
vpslldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpslldq $12, %xmm3, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpshufb %xmm7, %xmm4, %xmm2
vaesenclast .LCPI2_9(%rip), %xmm2, %xmm2
vmovdqa %xmm3, 112(%rsp)
vpxor %xmm3, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm5
vmovdqa %xmm5, 208(%rsp)
vpslldq $4, %xmm4, %xmm1
vpslldq $8, %xmm4, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpslldq $12, %xmm4, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpshufd $255, %xmm5, %xmm2
vaesenclast %xmm6, %xmm2, %xmm2
vpxor %xmm4, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm4
vmovdqa %xmm4, 192(%rsp)
vpslldq $4, %xmm5, %xmm1
vpslldq $8, %xmm5, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpslldq $12, %xmm5, %xmm2
vpshufb %xmm7, %xmm4, %xmm3
vaesenclast .LCPI2_10(%rip), %xmm3, %xmm3
vpxor %xmm2, %xmm1, %xmm1
vpxor %xmm5, %xmm1, %xmm1
vpxor %xmm5, %xmm5, %xmm5
vpxor %xmm1, %xmm3, %xmm0
vpslldq $4, %xmm4, %xmm1
vpslldq $8, %xmm4, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpslldq $12, %xmm4, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpshufd $255, %xmm0, %xmm2
vaesenclast %xmm5, %xmm2, %xmm2
vpxor %xmm4, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm3
vpslldq $4, %xmm0, %xmm1
vpslldq $8, %xmm0, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpslldq $12, %xmm0, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpshufb %xmm7, %xmm3, %xmm2
vaesenclast .LCPI2_11(%rip), %xmm2, %xmm2
vmovdqa %xmm0, 240(%rsp)
vpxor %xmm0, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm0
vpslldq $4, %xmm3, %xmm1
vpslldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpslldq $12, %xmm3, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpshufd $255, %xmm0, %xmm2
vaesenclast %xmm5, %xmm2, %xmm2
vmovdqa %xmm3, 288(%rsp)
vpxor %xmm3, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm14
vpslldq $4, %xmm0, %xmm1
vpslldq $8, %xmm0, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $0, %xmm13, %xmm13, %xmm2
vpbroadcastq .LCPI2_24(%rip), %xmm6
vpclmulqdq $16, %xmm6, %xmm2, %xmm3
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $17, %xmm13, %xmm13, %xmm3
vpshufd $78, %xmm2, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpclmulqdq $16, %xmm6, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm7
vpclmulqdq $16, %xmm13, %xmm7, %xmm2
vpclmulqdq $1, %xmm13, %xmm7, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $0, %xmm13, %xmm7, %xmm3
vpslldq $8, %xmm2, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpclmulqdq $16, %xmm6, %xmm3, %xmm4
vpshufd $78, %xmm3, %xmm3
vpxor %xmm3, %xmm4, %xmm3
vpsrldq $8, %xmm2, %xmm2
vpclmulqdq $17, %xmm13, %xmm7, %xmm4
vpxor %xmm2, %xmm4, %xmm2
vpshufd $78, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpclmulqdq $16, %xmm6, %xmm3, %xmm3
vpxor %xmm3, %xmm2, %xmm8
vpclmulqdq $0, %xmm8, %xmm8, %xmm2
vpclmulqdq $16, %xmm6, %xmm2, %xmm3
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $17, %xmm8, %xmm8, %xmm3
vpshufd $78, %xmm2, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpclmulqdq $16, %xmm6, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vmovdqa %xmm2, 256(%rsp)
vpclmulqdq $0, %xmm7, %xmm7, %xmm2
vpclmulqdq $16, %xmm6, %xmm2, %xmm3
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $17, %xmm7, %xmm7, %xmm3
vpshufd $78, %xmm2, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpclmulqdq $16, %xmm6, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm15
vpclmulqdq $16, %xmm13, %xmm15, %xmm2
vpclmulqdq $1, %xmm13, %xmm15, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $0, %xmm13, %xmm15, %xmm3
vpslldq $8, %xmm2, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpclmulqdq $16, %xmm6, %xmm3, %xmm4
vpshufd $78, %xmm3, %xmm3
vpxor %xmm3, %xmm4, %xmm3
vpsrldq $8, %xmm2, %xmm2
vpclmulqdq $17, %xmm13, %xmm15, %xmm4
vpxor %xmm2, %xmm4, %xmm2
vpshufd $78, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpclmulqdq $16, %xmm6, %xmm3, %xmm3
vpxor %xmm3, %xmm2, %xmm12
vmovdqa %xmm0, 80(%rsp)
vpslldq $12, %xmm0, %xmm0
cmpq $96, %r8
vmovdqa %xmm10, 64(%rsp)
vmovdqa %xmm9, 48(%rsp)
vmovdqa %xmm14, 224(%rsp)
jb .LBB2_9
vmovdqa %xmm0, 32(%rsp)
vmovdqa %xmm1, (%rsp)
movq %r8, %rax
vmovdqa %xmm15, %xmm2
vmovdqa 256(%rsp), %xmm15
vmovdqa %xmm7, %xmm1
vmovdqa %xmm8, %xmm0
.p2align 4, 0x90
.LBB2_7:
vmovdqu 32(%rcx), %xmm3
vmovdqu 48(%rcx), %xmm4
vmovdqa %xmm5, %xmm14
vmovdqu 64(%rcx), %xmm5
vmovdqu 80(%rcx), %xmm6
vpclmulqdq $0, %xmm6, %xmm13, %xmm7
vpclmulqdq $1, %xmm6, %xmm13, %xmm8
vpclmulqdq $16, %xmm6, %xmm13, %xmm9
vpxor %xmm8, %xmm9, %xmm8
vpclmulqdq $17, %xmm6, %xmm13, %xmm6
vpclmulqdq $0, %xmm5, %xmm1, %xmm9
vpxor %xmm7, %xmm9, %xmm7
vpclmulqdq $1, %xmm5, %xmm1, %xmm9
vpclmulqdq $16, %xmm5, %xmm1, %xmm10
vpxor %xmm10, %xmm9, %xmm9
vpxor %xmm9, %xmm8, %xmm8
vpclmulqdq $17, %xmm5, %xmm1, %xmm5
vpxor %xmm6, %xmm5, %xmm5
vpclmulqdq $0, %xmm4, %xmm0, %xmm6
vpclmulqdq $1, %xmm4, %xmm0, %xmm9
vpclmulqdq $16, %xmm4, %xmm0, %xmm10
vpxor %xmm10, %xmm9, %xmm9
vpclmulqdq $0, %xmm3, %xmm2, %xmm10
vpxor %xmm6, %xmm10, %xmm6
vpxor %xmm6, %xmm7, %xmm6
vpclmulqdq $1, %xmm3, %xmm2, %xmm7
vpxor %xmm7, %xmm9, %xmm7
vmovdqu 16(%rcx), %xmm9
vpxor (%rcx), %xmm14, %xmm10
vpclmulqdq $17, %xmm4, %xmm0, %xmm4
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $16, %xmm3, %xmm2, %xmm8
vpclmulqdq $17, %xmm3, %xmm2, %xmm3
vpxor %xmm3, %xmm4, %xmm3
vpxor %xmm3, %xmm5, %xmm3
vpclmulqdq $0, %xmm9, %xmm12, %xmm4
vpclmulqdq $1, %xmm9, %xmm12, %xmm5
vpxor %xmm5, %xmm8, %xmm5
vpclmulqdq $16, %xmm9, %xmm12, %xmm8
vpxor %xmm5, %xmm8, %xmm5
vpclmulqdq $0, %xmm10, %xmm15, %xmm8
vpxor %xmm4, %xmm8, %xmm4
vpxor %xmm4, %xmm6, %xmm4
vpclmulqdq $1, %xmm10, %xmm15, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vpxor %xmm5, %xmm7, %xmm5
vpclmulqdq $16, %xmm10, %xmm15, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vpclmulqdq $17, %xmm9, %xmm12, %xmm6
vpclmulqdq $17, %xmm10, %xmm15, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpxor %xmm6, %xmm3, %xmm3
vpslldq $8, %xmm5, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpbroadcastq .LCPI2_24(%rip), %xmm6
vpsrldq $8, %xmm5, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpclmulqdq $16, %xmm6, %xmm4, %xmm5
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpshufd $78, %xmm4, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpclmulqdq $16, %xmm6, %xmm4, %xmm4
vpxor %xmm4, %xmm3, %xmm5
addq $96, %rcx
addq $-96, %rax
cmpq $95, %rax
ja .LBB2_7
vmovdqa 64(%rsp), %xmm10
vmovdqa 48(%rsp), %xmm9
vmovdqa %xmm1, %xmm7
vmovdqa %xmm0, %xmm8
vmovdqa %xmm2, %xmm15
vmovdqa 224(%rsp), %xmm14
vmovdqa (%rsp), %xmm1
vmovdqa 32(%rsp), %xmm0
jmp .LBB2_10
.LBB2_9:
movq %r8, %rax
.LBB2_10:
vmovdqa %xmm12, 368(%rsp)
vpxor %xmm0, %xmm1, %xmm1
vpshufb .LCPI2_5(%rip), %xmm14, %xmm0
movq 520(%rsp), %rdi
cmpq $16, %rax
jb .LBB2_16
leaq -16(%rax), %rdx
testb $16, %dl
jne .LBB2_13
vpxor (%rcx), %xmm5, %xmm2
addq $16, %rcx
vpclmulqdq $0, %xmm2, %xmm13, %xmm3
vpclmulqdq $1, %xmm2, %xmm13, %xmm4
vpclmulqdq $16, %xmm2, %xmm13, %xmm5
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $17, %xmm2, %xmm13, %xmm2
vpslldq $8, %xmm4, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpsrldq $8, %xmm4, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpclmulqdq $16, %xmm6, %xmm3, %xmm4
vpshufd $78, %xmm3, %xmm3
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $16, %xmm6, %xmm3, %xmm4
vpshufd $78, %xmm3, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vpxor %xmm2, %xmm4, %xmm5
movq %rdx, %rax
.LBB2_13:
cmpq $16, %rdx
jb .LBB2_17
.p2align 4, 0x90
.LBB2_14:
vpxor (%rcx), %xmm5, %xmm2
vpclmulqdq $0, %xmm2, %xmm13, %xmm3
vpclmulqdq $1, %xmm2, %xmm13, %xmm4
vpclmulqdq $16, %xmm2, %xmm13, %xmm5
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $17, %xmm2, %xmm13, %xmm2
vpslldq $8, %xmm4, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpsrldq $8, %xmm4, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpclmulqdq $16, %xmm6, %xmm3, %xmm4
vpshufd $78, %xmm3, %xmm3
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $16, %xmm6, %xmm3, %xmm4
vpshufd $78, %xmm3, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vpxor %xmm2, %xmm4, %xmm2
addq $-32, %rax
vpxor 16(%rcx), %xmm2, %xmm2
addq $32, %rcx
vpclmulqdq $0, %xmm2, %xmm13, %xmm3
vpclmulqdq $1, %xmm2, %xmm13, %xmm4
vpclmulqdq $16, %xmm2, %xmm13, %xmm5
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $17, %xmm2, %xmm13, %xmm2
vpslldq $8, %xmm4, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpsrldq $8, %xmm4, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpclmulqdq $16, %xmm6, %xmm3, %xmm4
vpshufd $78, %xmm3, %xmm3
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $16, %xmm6, %xmm3, %xmm4
vpshufd $78, %xmm3, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vpxor %xmm2, %xmm4, %xmm5
cmpq $15, %rax
ja .LBB2_14
.LBB2_16:
movq %rax, %rdx
.LBB2_17:
vmovdqa %xmm15, 336(%rsp)
vmovdqa %xmm8, 384(%rsp)
vmovdqa %xmm7, 400(%rsp)
vmovss 8(%rsi), %xmm2
vmovaps %xmm2, 464(%rsp)
vmovq (%rsi), %xmm2
vmovdqa %xmm2, 448(%rsp)
vaesenclast .LCPI2_12(%rip), %xmm0, %xmm3
vmovdqa 80(%rsp), %xmm7
vpxor %xmm7, %xmm1, %xmm4
vmovdqu (%rdi), %xmm0
vmovdqa %xmm0, 352(%rsp)
testq %rdx, %rdx
vmovdqa %xmm13, 176(%rsp)
vmovdqa %xmm11, 160(%rsp)
vmovdqa 240(%rsp), %xmm15
je .LBB2_19
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, 16(%rsp)
leaq 16(%rsp), %rdi
movq %rcx, %rsi
movq %r9, %r14
movq %r8, %r15
vmovdqa %xmm5, (%rsp)
vmovdqa %xmm3, 32(%rsp)
vmovdqa %xmm4, 272(%rsp)
callq *memcpy@GOTPCREL(%rip)
vpbroadcastq .LCPI2_24(%rip), %xmm6
vmovdqa 224(%rsp), %xmm14
vmovdqa 240(%rsp), %xmm15
vmovdqa 160(%rsp), %xmm11
vmovdqa 176(%rsp), %xmm4
vmovdqa 48(%rsp), %xmm9
vmovdqa 64(%rsp), %xmm10
movq %r15, %r8
movq %r14, %r9
vmovdqa (%rsp), %xmm0
vpxor 16(%rsp), %xmm0, %xmm0
vpclmulqdq $0, %xmm0, %xmm4, %xmm1
vpclmulqdq $1, %xmm0, %xmm4, %xmm2
vpclmulqdq $16, %xmm0, %xmm4, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $17, %xmm0, %xmm4, %xmm0
vmovdqa 272(%rsp), %xmm4
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vmovdqa 32(%rsp), %xmm3
vpsrldq $8, %xmm2, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpclmulqdq $16, %xmm6, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpclmulqdq $16, %xmm6, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm5
.LBB2_19:
vmovq %rbx, %xmm1
vmovq %r8, %xmm2
movq 536(%rsp), %rdx
vpxor %xmm4, %xmm3, %xmm12
vmovdqa 352(%rsp), %xmm0
vpor .LCPI2_14(%rip), %xmm0, %xmm3
cmpq $96, %rbx
vmovdqa %xmm12, 320(%rsp)
jb .LBB2_26
vmovdqa %xmm2, 416(%rsp)
vmovdqa %xmm1, 432(%rsp)
vmovdqa %xmm5, (%rsp)
leaq 96(%r9), %rcx
leaq 96(%rdx), %rax
vpaddd .LCPI2_0(%rip), %xmm3, %xmm1
vpaddd .LCPI2_1(%rip), %xmm3, %xmm4
vpaddd .LCPI2_2(%rip), %xmm3, %xmm6
vpaddd .LCPI2_3(%rip), %xmm3, %xmm7
vpaddd .LCPI2_4(%rip), %xmm3, %xmm8
vmovdqa %xmm11, %xmm13
vmovdqa 304(%rsp), %xmm11
vpxor %xmm3, %xmm11, %xmm0
vpxor %xmm1, %xmm11, %xmm2
vpxor %xmm4, %xmm11, %xmm5
vpxor %xmm6, %xmm11, %xmm6
vpxor %xmm7, %xmm11, %xmm7
vpxor %xmm8, %xmm11, %xmm8
#APP
vaesenc %xmm10, %xmm0, %xmm0
vaesenc %xmm10, %xmm2, %xmm2
vaesenc %xmm10, %xmm5, %xmm5
vaesenc %xmm10, %xmm6, %xmm6
vaesenc %xmm10, %xmm7, %xmm7
vaesenc %xmm10, %xmm8, %xmm8
#NO_APP
#APP
vaesenc %xmm9, %xmm0, %xmm0
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm9, %xmm5, %xmm5
vaesenc %xmm9, %xmm6, %xmm6
vaesenc %xmm9, %xmm7, %xmm7
vaesenc %xmm9, %xmm8, %xmm8
#NO_APP
#APP
vaesenc %xmm13, %xmm0, %xmm0
vaesenc %xmm13, %xmm2, %xmm2
vaesenc %xmm13, %xmm5, %xmm5
vaesenc %xmm13, %xmm6, %xmm6
vaesenc %xmm13, %xmm7, %xmm7
vaesenc %xmm13, %xmm8, %xmm8
#NO_APP
vmovaps 144(%rsp), %xmm1
#APP
vaesenc %xmm1, %xmm0, %xmm0
vaesenc %xmm1, %xmm2, %xmm2
vaesenc %xmm1, %xmm5, %xmm5
vaesenc %xmm1, %xmm6, %xmm6
vaesenc %xmm1, %xmm7, %xmm7
vaesenc %xmm1, %xmm8, %xmm8
#NO_APP
vmovaps 128(%rsp), %xmm1
#APP
vaesenc %xmm1, %xmm0, %xmm0
vaesenc %xmm1, %xmm2, %xmm2
vaesenc %xmm1, %xmm5, %xmm5
vaesenc %xmm1, %xmm6, %xmm6
vaesenc %xmm1, %xmm7, %xmm7
vaesenc %xmm1, %xmm8, %xmm8
#NO_APP
vmovaps 112(%rsp), %xmm1
#APP
vaesenc %xmm1, %xmm0, %xmm0
vaesenc %xmm1, %xmm2, %xmm2
vaesenc %xmm1, %xmm5, %xmm5
vaesenc %xmm1, %xmm6, %xmm6
vaesenc %xmm1, %xmm7, %xmm7
vaesenc %xmm1, %xmm8, %xmm8
#NO_APP
vmovaps 96(%rsp), %xmm1
#APP
vaesenc %xmm1, %xmm0, %xmm0
vaesenc %xmm1, %xmm2, %xmm2
vaesenc %xmm1, %xmm5, %xmm5
vaesenc %xmm1, %xmm6, %xmm6
vaesenc %xmm1, %xmm7, %xmm7
vaesenc %xmm1, %xmm8, %xmm8
#NO_APP
vmovaps 208(%rsp), %xmm1
#APP
vaesenc %xmm1, %xmm0, %xmm0
vaesenc %xmm1, %xmm2, %xmm2
vaesenc %xmm1, %xmm5, %xmm5
vaesenc %xmm1, %xmm6, %xmm6
vaesenc %xmm1, %xmm7, %xmm7
vaesenc %xmm1, %xmm8, %xmm8
#NO_APP
vmovaps 192(%rsp), %xmm1
#APP
vaesenc %xmm1, %xmm0, %xmm0
vaesenc %xmm1, %xmm2, %xmm2
vaesenc %xmm1, %xmm5, %xmm5
vaesenc %xmm1, %xmm6, %xmm6
vaesenc %xmm1, %xmm7, %xmm7
vaesenc %xmm1, %xmm8, %xmm8
#NO_APP
#APP
vaesenc %xmm15, %xmm0, %xmm0
vaesenc %xmm15, %xmm2, %xmm2
vaesenc %xmm15, %xmm5, %xmm5
vaesenc %xmm15, %xmm6, %xmm6
vaesenc %xmm15, %xmm7, %xmm7
vaesenc %xmm15, %xmm8, %xmm8
#NO_APP
vmovaps 288(%rsp), %xmm1
#APP
vaesenc %xmm1, %xmm0, %xmm0
vaesenc %xmm1, %xmm2, %xmm2
vaesenc %xmm1, %xmm5, %xmm5
vaesenc %xmm1, %xmm6, %xmm6
vaesenc %xmm1, %xmm7, %xmm7
vaesenc %xmm1, %xmm8, %xmm8
#NO_APP
vmovaps 80(%rsp), %xmm1
#APP
vaesenc %xmm1, %xmm0, %xmm0
vaesenc %xmm1, %xmm2, %xmm2
vaesenc %xmm1, %xmm5, %xmm5
vaesenc %xmm1, %xmm6, %xmm6
vaesenc %xmm1, %xmm7, %xmm7
vaesenc %xmm1, %xmm8, %xmm8
#NO_APP
#APP
vaesenc %xmm14, %xmm0, %xmm0
vaesenc %xmm14, %xmm2, %xmm2
vaesenc %xmm14, %xmm5, %xmm5
vaesenc %xmm14, %xmm6, %xmm6
vaesenc %xmm14, %xmm7, %xmm7
vaesenc %xmm14, %xmm8, %xmm8
#NO_APP
#APP
vaesenclast %xmm12, %xmm0, %xmm0
vaesenclast %xmm12, %xmm2, %xmm2
vaesenclast %xmm12, %xmm5, %xmm5
vaesenclast %xmm12, %xmm6, %xmm6
vaesenclast %xmm12, %xmm7, %xmm7
vaesenclast %xmm12, %xmm8, %xmm8
#NO_APP
vpxor (%r9), %xmm0, %xmm1
vpxor 16(%r9), %xmm2, %xmm4
vpxor 32(%r9), %xmm5, %xmm5
vpxor 48(%r9), %xmm6, %xmm13
vpxor 64(%r9), %xmm7, %xmm14
vpxor 80(%r9), %xmm8, %xmm0
vmovdqu %xmm1, (%rdx)
vmovdqu %xmm4, 16(%rdx)
vmovdqu %xmm5, 32(%rdx)
vmovdqu %xmm13, 48(%rdx)
vmovdqu %xmm14, 64(%rdx)
addq $-96, %rbx
vmovdqu %xmm0, 80(%rdx)
vpaddd .LCPI2_15(%rip), %xmm3, %xmm2
cmpq $96, %rbx
jb .LBB2_24
vmovdqa (%rsp), %xmm6
.p2align 4, 0x90
.LBB2_22:
vmovdqa %xmm4, 272(%rsp)
vmovdqa %xmm2, (%rsp)
vpxor %xmm6, %xmm1, %xmm1
vmovdqa %xmm1, 32(%rsp)
vpaddd .LCPI2_16(%rip), %xmm3, %xmm6
vpaddd .LCPI2_17(%rip), %xmm3, %xmm7
vpaddd .LCPI2_18(%rip), %xmm3, %xmm8
vpaddd .LCPI2_19(%rip), %xmm3, %xmm9
vpaddd .LCPI2_20(%rip), %xmm3, %xmm10
vmovdqa 304(%rsp), %xmm11
vpxor %xmm2, %xmm11, %xmm1
vpxor %xmm6, %xmm11, %xmm6
vpxor %xmm7, %xmm11, %xmm7
vpxor %xmm8, %xmm11, %xmm8
vpxor %xmm9, %xmm11, %xmm3
vpxor %xmm10, %xmm11, %xmm15
vpxor %xmm9, %xmm9, %xmm9
vpxor %xmm10, %xmm10, %xmm10
vpxor %xmm11, %xmm11, %xmm11
vmovaps 64(%rsp), %xmm4
vmovaps 176(%rsp), %xmm2
#APP
vaesenc %xmm4, %xmm1, %xmm1
vaesenc %xmm4, %xmm6, %xmm6
vaesenc %xmm4, %xmm7, %xmm7
vaesenc %xmm4, %xmm8, %xmm8
vaesenc %xmm4, %xmm3, %xmm3
vaesenc %xmm4, %xmm15, %xmm15
vpclmulqdq $16, %xmm2, %xmm0, %xmm12
vpxor %xmm12, %xmm9, %xmm9
vpclmulqdq $0, %xmm2, %xmm0, %xmm12
vpxor %xmm12, %xmm11, %xmm11
vpclmulqdq $17, %xmm2, %xmm0, %xmm12
vpxor %xmm12, %xmm10, %xmm10
vpclmulqdq $1, %xmm2, %xmm0, %xmm12
vpxor %xmm12, %xmm9, %xmm9
#NO_APP
vmovdqa 256(%rsp), %xmm12
vmovaps 48(%rsp), %xmm0
#APP
vaesenc %xmm0, %xmm1, %xmm1
vaesenc %xmm0, %xmm6, %xmm6
vaesenc %xmm0, %xmm7, %xmm7
vaesenc %xmm0, %xmm8, %xmm8
vaesenc %xmm0, %xmm3, %xmm3
vaesenc %xmm0, %xmm15, %xmm15
#NO_APP
vmovaps 160(%rsp), %xmm2
vmovaps 400(%rsp), %xmm4
#APP
vaesenc %xmm2, %xmm1, %xmm1
vaesenc %xmm2, %xmm6, %xmm6
vaesenc %xmm2, %xmm7, %xmm7
vaesenc %xmm2, %xmm8, %xmm8
vaesenc %xmm2, %xmm3, %xmm3
vaesenc %xmm2, %xmm15, %xmm15
vpclmulqdq $16, %xmm4, %xmm14, %xmm0
vpxor %xmm0, %xmm9, %xmm9
vpclmulqdq $0, %xmm4, %xmm14, %xmm0
vpxor %xmm0, %xmm11, %xmm11
vpclmulqdq $17, %xmm4, %xmm14, %xmm0
vpxor %xmm0, %xmm10, %xmm10
vpclmulqdq $1, %xmm4, %xmm14, %xmm0
vpxor %xmm0, %xmm9, %xmm9
#NO_APP
vmovaps 144(%rsp), %xmm0
#APP
vaesenc %xmm0, %xmm1, %xmm1
vaesenc %xmm0, %xmm6, %xmm6
vaesenc %xmm0, %xmm7, %xmm7
vaesenc %xmm0, %xmm8, %xmm8
vaesenc %xmm0, %xmm3, %xmm3
vaesenc %xmm0, %xmm15, %xmm15
#NO_APP
vmovaps 128(%rsp), %xmm2
vmovaps 384(%rsp), %xmm4
#APP
vaesenc %xmm2, %xmm1, %xmm1
vaesenc %xmm2, %xmm6, %xmm6
vaesenc %xmm2, %xmm7, %xmm7
vaesenc %xmm2, %xmm8, %xmm8
vaesenc %xmm2, %xmm3, %xmm3
vaesenc %xmm2, %xmm15, %xmm15
vpclmulqdq $16, %xmm4, %xmm13, %xmm0
vpxor %xmm0, %xmm9, %xmm9
vpclmulqdq $0, %xmm4, %xmm13, %xmm0
vpxor %xmm0, %xmm11, %xmm11
vpclmulqdq $17, %xmm4, %xmm13, %xmm0
vpxor %xmm0, %xmm10, %xmm10
vpclmulqdq $1, %xmm4, %xmm13, %xmm0
vpxor %xmm0, %xmm9, %xmm9
#NO_APP
vmovaps 112(%rsp), %xmm0
#APP
vaesenc %xmm0, %xmm1, %xmm1
vaesenc %xmm0, %xmm6, %xmm6
vaesenc %xmm0, %xmm7, %xmm7
vaesenc %xmm0, %xmm8, %xmm8
vaesenc %xmm0, %xmm3, %xmm3
vaesenc %xmm0, %xmm15, %xmm15
#NO_APP
vmovaps 96(%rsp), %xmm0
#APP
vaesenc %xmm0, %xmm1, %xmm1
vaesenc %xmm0, %xmm6, %xmm6
vaesenc %xmm0, %xmm7, %xmm7
vaesenc %xmm0, %xmm8, %xmm8
vaesenc %xmm0, %xmm3, %xmm3
vaesenc %xmm0, %xmm15, %xmm15
#NO_APP
vmovaps 336(%rsp), %xmm4
vmovaps 208(%rsp), %xmm2
#APP
vaesenc %xmm2, %xmm1, %xmm1
vaesenc %xmm2, %xmm6, %xmm6
vaesenc %xmm2, %xmm7, %xmm7
vaesenc %xmm2, %xmm8, %xmm8
vaesenc %xmm2, %xmm3, %xmm3
vaesenc %xmm2, %xmm15, %xmm15
vpclmulqdq $16, %xmm4, %xmm5, %xmm0
vpxor %xmm0, %xmm9, %xmm9
vpclmulqdq $0, %xmm4, %xmm5, %xmm0
vpxor %xmm0, %xmm11, %xmm11
vpclmulqdq $17, %xmm4, %xmm5, %xmm0
vpxor %xmm0, %xmm10, %xmm10
vpclmulqdq $1, %xmm4, %xmm5, %xmm0
vpxor %xmm0, %xmm9, %xmm9
#NO_APP
vmovaps 192(%rsp), %xmm0
#APP
vaesenc %xmm0, %xmm1, %xmm1
vaesenc %xmm0, %xmm6, %xmm6
vaesenc %xmm0, %xmm7, %xmm7
vaesenc %xmm0, %xmm8, %xmm8
vaesenc %xmm0, %xmm3, %xmm3
vaesenc %xmm0, %xmm15, %xmm15
#NO_APP
vmovaps 240(%rsp), %xmm5
vmovaps 368(%rsp), %xmm2
vmovaps 272(%rsp), %xmm4
#APP
vaesenc %xmm5, %xmm1, %xmm1
vaesenc %xmm5, %xmm6, %xmm6
vaesenc %xmm5, %xmm7, %xmm7
vaesenc %xmm5, %xmm8, %xmm8
vaesenc %xmm5, %xmm3, %xmm3
vaesenc %xmm5, %xmm15, %xmm15
vpclmulqdq $16, %xmm2, %xmm4, %xmm0
vpxor %xmm0, %xmm9, %xmm9
vpclmulqdq $0, %xmm2, %xmm4, %xmm0
vpxor %xmm0, %xmm11, %xmm11
vpclmulqdq $17, %xmm2, %xmm4, %xmm0
vpxor %xmm0, %xmm10, %xmm10
vpclmulqdq $1, %xmm2, %xmm4, %xmm0
vpxor %xmm0, %xmm9, %xmm9
#NO_APP
vmovaps 288(%rsp), %xmm0
#APP
vaesenc %xmm0, %xmm1, %xmm1
vaesenc %xmm0, %xmm6, %xmm6
vaesenc %xmm0, %xmm7, %xmm7
vaesenc %xmm0, %xmm8, %xmm8
vaesenc %xmm0, %xmm3, %xmm3
vaesenc %xmm0, %xmm15, %xmm15
#NO_APP
vmovaps 80(%rsp), %xmm2
vmovdqa 32(%rsp), %xmm4
#APP
vaesenc %xmm2, %xmm1, %xmm1
vaesenc %xmm2, %xmm6, %xmm6
vaesenc %xmm2, %xmm7, %xmm7
vaesenc %xmm2, %xmm8, %xmm8
vaesenc %xmm2, %xmm3, %xmm3
vaesenc %xmm2, %xmm15, %xmm15
vpclmulqdq $16, %xmm12, %xmm4, %xmm0
vpxor %xmm0, %xmm9, %xmm9
vpclmulqdq $0, %xmm12, %xmm4, %xmm0
vpxor %xmm0, %xmm11, %xmm11
vpclmulqdq $17, %xmm12, %xmm4, %xmm0
vpxor %xmm0, %xmm10, %xmm10
vpclmulqdq $1, %xmm12, %xmm4, %xmm0
vpxor %xmm0, %xmm9, %xmm9
#NO_APP
vpxor %xmm4, %xmm4, %xmm4
vpunpcklqdq %xmm9, %xmm4, %xmm0
vpxor %xmm0, %xmm11, %xmm0
vmovaps 224(%rsp), %xmm2
#APP
vaesenc %xmm2, %xmm1, %xmm1
vaesenc %xmm2, %xmm6, %xmm6
vaesenc %xmm2, %xmm7, %xmm7
vaesenc %xmm2, %xmm8, %xmm8
vaesenc %xmm2, %xmm3, %xmm3
vaesenc %xmm2, %xmm15, %xmm15
#NO_APP
vmovaps 320(%rsp), %xmm2
#APP
vaesenclast %xmm2, %xmm1, %xmm1
vaesenclast %xmm2, %xmm6, %xmm6
vaesenclast %xmm2, %xmm7, %xmm7
vaesenclast %xmm2, %xmm8, %xmm8
vaesenclast %xmm2, %xmm3, %xmm3
vaesenclast %xmm2, %xmm15, %xmm15
#NO_APP
vpunpckhqdq %xmm4, %xmm9, %xmm4
vpxor %xmm4, %xmm10, %xmm9
vpbroadcastq .LCPI2_24(%rip), %xmm11
vpclmulqdq $16, %xmm11, %xmm0, %xmm4
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm4, %xmm10
vpshufd $78, %xmm10, %xmm0
vpxor (%rcx), %xmm1, %xmm1
vpxor 16(%rcx), %xmm6, %xmm4
vpxor 32(%rcx), %xmm7, %xmm5
vpxor 48(%rcx), %xmm8, %xmm13
vpxor %xmm0, %xmm9, %xmm6
vmovdqa (%rsp), %xmm2
vpxor 64(%rcx), %xmm3, %xmm14
vpxor 80(%rcx), %xmm15, %xmm0
addq $96, %rcx
vmovdqu %xmm1, (%rax)
vmovdqu %xmm4, 16(%rax)
vmovdqu %xmm5, 32(%rax)
vmovdqu %xmm13, 48(%rax)
vmovdqu %xmm14, 64(%rax)
vmovdqu %xmm0, 80(%rax)
addq $96, %rax
addq $-96, %rbx
vpclmulqdq $16, %xmm11, %xmm10, %xmm3
vpxor %xmm3, %xmm6, %xmm6
vmovdqa %xmm2, %xmm3
vpaddd .LCPI2_15(%rip), %xmm2, %xmm2
cmpq $95, %rbx
ja .LBB2_22
vmovdqa %xmm6, (%rsp)
jmp .LBB2_25
.LBB2_24:
vmovdqa 256(%rsp), %xmm12
.LBB2_25:
vmovdqa 336(%rsp), %xmm15
vpxor (%rsp), %xmm1, %xmm1
vmovdqa 176(%rsp), %xmm9
vpclmulqdq $0, %xmm0, %xmm9, %xmm3
vpclmulqdq $1, %xmm0, %xmm9, %xmm6
vpclmulqdq $16, %xmm0, %xmm9, %xmm7
vpxor %xmm6, %xmm7, %xmm6
vmovdqa 400(%rsp), %xmm10
vpclmulqdq $0, %xmm14, %xmm10, %xmm7
vpxor %xmm3, %xmm7, %xmm3
vpclmulqdq $1, %xmm14, %xmm10, %xmm7
vpclmulqdq $16, %xmm14, %xmm10, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpclmulqdq $17, %xmm0, %xmm9, %xmm0
vpclmulqdq $17, %xmm14, %xmm10, %xmm7
vpxor %xmm0, %xmm7, %xmm0
vmovdqa 384(%rsp), %xmm9
vpclmulqdq $1, %xmm13, %xmm9, %xmm7
vpclmulqdq $16, %xmm13, %xmm9, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $0, %xmm13, %xmm9, %xmm8
vpclmulqdq $17, %xmm13, %xmm9, %xmm9
vpclmulqdq $0, %xmm5, %xmm15, %xmm10
vpxor %xmm10, %xmm8, %xmm8
vpxor %xmm3, %xmm8, %xmm3
vpclmulqdq $1, %xmm5, %xmm15, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpclmulqdq $16, %xmm5, %xmm15, %xmm7
vpclmulqdq $17, %xmm5, %xmm15, %xmm5
vpxor %xmm5, %xmm9, %xmm5
vpxor %xmm5, %xmm0, %xmm0
vmovdqa 368(%rsp), %xmm8
vpclmulqdq $0, %xmm4, %xmm8, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpclmulqdq $1, %xmm4, %xmm8, %xmm5
vpxor %xmm5, %xmm7, %xmm5
vpclmulqdq $16, %xmm4, %xmm8, %xmm7
vpxor %xmm7, %xmm5, %xmm5
vpxor %xmm5, %xmm6, %xmm5
vpclmulqdq $17, %xmm4, %xmm8, %xmm4
vpxor %xmm4, %xmm0, %xmm0
vpclmulqdq $0, %xmm1, %xmm12, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpclmulqdq $1, %xmm1, %xmm12, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $16, %xmm1, %xmm12, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpclmulqdq $17, %xmm1, %xmm12, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpslldq $8, %xmm4, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpsrldq $8, %xmm4, %xmm3
vpxor %xmm3, %xmm0, %xmm0
vpbroadcastq .LCPI2_24(%rip), %xmm6
vpclmulqdq $16, %xmm6, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpshufd $78, %xmm1, %xmm3
vpxor %xmm3, %xmm0, %xmm0
vpclmulqdq $16, %xmm6, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm5
movq %rax, %rdx
movq %rcx, %r9
vmovdqa %xmm2, %xmm3
vmovdqa 432(%rsp), %xmm1
vmovdqa 416(%rsp), %xmm2
.LBB2_26:
vpunpcklqdq %xmm1, %xmm2, %xmm0
vmovdqa %xmm0, 32(%rsp)
cmpq $16, %rbx
jb .LBB2_29
vmovdqa 176(%rsp), %xmm7
vmovdqa 80(%rsp), %xmm13
vmovdqa 64(%rsp), %xmm9
vmovdqa 48(%rsp), %xmm1
vmovdqa 320(%rsp), %xmm11
vmovdqa 160(%rsp), %xmm8
vmovdqa 112(%rsp), %xmm0
vmovdqa 128(%rsp), %xmm14
vmovdqa 144(%rsp), %xmm12
vmovdqa 96(%rsp), %xmm15
.p2align 4, 0x90
.LBB2_28:
vpxor 304(%rsp), %xmm3, %xmm2
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm1, %xmm2, %xmm2
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm12, %xmm2, %xmm2
vaesenc %xmm14, %xmm2, %xmm2
vaesenc %xmm0, %xmm2, %xmm2
vaesenc %xmm15, %xmm2, %xmm2
vaesenc 208(%rsp), %xmm2, %xmm2
vaesenc 192(%rsp), %xmm2, %xmm2
vaesenc 240(%rsp), %xmm2, %xmm2
vaesenc 288(%rsp), %xmm2, %xmm2
vaesenc %xmm13, %xmm2, %xmm2
vaesenc 224(%rsp), %xmm2, %xmm2
vaesenclast %xmm11, %xmm2, %xmm2
vpxor (%r9), %xmm2, %xmm2
vmovdqu %xmm2, (%rdx)
vpxor %xmm5, %xmm2, %xmm2
vpclmulqdq $0, %xmm2, %xmm7, %xmm4
vpclmulqdq $1, %xmm2, %xmm7, %xmm5
vpclmulqdq $16, %xmm2, %xmm7, %xmm6
vpxor %xmm5, %xmm6, %xmm5
vpslldq $8, %xmm5, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpbroadcastq .LCPI2_24(%rip), %xmm6
vpclmulqdq $17, %xmm2, %xmm7, %xmm2
vpsrldq $8, %xmm5, %xmm5
vpxor %xmm5, %xmm2, %xmm2
vpclmulqdq $16, %xmm6, %xmm4, %xmm5
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpshufd $78, %xmm4, %xmm5
vpxor %xmm5, %xmm2, %xmm2
leaq 16(%r9), %rsi
leaq 16(%rdx), %r14
addq $-16, %rbx
vpaddd .LCPI2_0(%rip), %xmm3, %xmm10
vpclmulqdq $16, %xmm6, %xmm4, %xmm3
vpxor %xmm2, %xmm3, %xmm5
movq %r14, %rdx
vmovdqa %xmm10, %xmm3
movq %rsi, %r9
cmpq $15, %rbx
ja .LBB2_28
jmp .LBB2_30
.LBB2_29:
movq %rdx, %r14
movq %r9, %rsi
vmovdqa %xmm3, %xmm10
vmovdqa 176(%rsp), %xmm7
.LBB2_30:
vmovdqa %xmm5, (%rsp)
vmovdqa 448(%rsp), %xmm0
vpunpcklqdq 464(%rsp), %xmm0, %xmm3
vmovdqa 32(%rsp), %xmm0
vpsllq $3, %xmm0, %xmm1
testq %rbx, %rbx
je .LBB2_32
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, 16(%rsp)
leaq 16(%rsp), %rdi
movq memcpy@GOTPCREL(%rip), %r15
movq %rbx, %rdx
vmovdqa %xmm3, 32(%rsp)
vmovdqa %xmm1, 272(%rsp)
vmovdqa %xmm10, 256(%rsp)
callq *%r15
vmovdqa 256(%rsp), %xmm0
vpxor 304(%rsp), %xmm0, %xmm0
vaesenc 64(%rsp), %xmm0, %xmm0
vaesenc 48(%rsp), %xmm0, %xmm0
vaesenc 160(%rsp), %xmm0, %xmm0
vaesenc 144(%rsp), %xmm0, %xmm0
vaesenc 128(%rsp), %xmm0, %xmm0
vaesenc 112(%rsp), %xmm0, %xmm0
vaesenc 96(%rsp), %xmm0, %xmm0
vaesenc 208(%rsp), %xmm0, %xmm0
vaesenc 192(%rsp), %xmm0, %xmm0
vaesenc 240(%rsp), %xmm0, %xmm0
vaesenc 288(%rsp), %xmm0, %xmm0
vaesenc 80(%rsp), %xmm0, %xmm0
vaesenc 224(%rsp), %xmm0, %xmm0
vaesenclast 320(%rsp), %xmm0, %xmm0
vpxor 16(%rsp), %xmm0, %xmm0
vmovdqa %xmm0, 16(%rsp)
leaq 16(%rsp), %rsi
movq %r14, %rdi
movq %rbx, %rdx
callq *%r15
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, 16(%rsp)
leaq 16(%rsp), %rdi
movq %r14, %rsi
movq %rbx, %rdx
callq *%r15
vmovdqa 80(%rsp), %xmm15
vmovdqa 192(%rsp), %xmm14
vmovdqa 208(%rsp), %xmm13
vpbroadcastq .LCPI2_24(%rip), %xmm6
vmovdqa 96(%rsp), %xmm12
vmovdqa 112(%rsp), %xmm9
vmovdqa 128(%rsp), %xmm10
vmovdqa 144(%rsp), %xmm11
vmovdqa 160(%rsp), %xmm8
vmovdqa 176(%rsp), %xmm7
vmovdqa 48(%rsp), %xmm5
vmovdqa 64(%rsp), %xmm4
vmovdqa (%rsp), %xmm0
vpxor 16(%rsp), %xmm0, %xmm0
vpclmulqdq $0, %xmm0, %xmm7, %xmm1
vpclmulqdq $1, %xmm0, %xmm7, %xmm2
vpclmulqdq $16, %xmm0, %xmm7, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $17, %xmm0, %xmm7, %xmm0
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vmovdqa 32(%rsp), %xmm3
vpsrldq $8, %xmm2, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpclmulqdq $16, %xmm6, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpclmulqdq $16, %xmm6, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vmovdqa 272(%rsp), %xmm1
vpxor %xmm0, %xmm2, %xmm0
jmp .LBB2_33
.LBB2_32:
vmovdqa 208(%rsp), %xmm13
vmovdqa 192(%rsp), %xmm14
vmovdqa 80(%rsp), %xmm15
vmovdqa 64(%rsp), %xmm4
vmovdqa 48(%rsp), %xmm5
vmovdqa (%rsp), %xmm0
vmovdqa 160(%rsp), %xmm8
vmovdqa 112(%rsp), %xmm9
vmovdqa 128(%rsp), %xmm10
vmovdqa 144(%rsp), %xmm11
vmovdqa 96(%rsp), %xmm12
.LBB2_33:
vpxor %xmm1, %xmm0, %xmm0
vpclmulqdq $1, %xmm0, %xmm7, %xmm1
vpclmulqdq $16, %xmm0, %xmm7, %xmm2
vpxor %xmm1, %xmm2, %xmm1
vpclmulqdq $0, %xmm0, %xmm7, %xmm2
vpclmulqdq $17, %xmm0, %xmm7, %xmm0
vpxor %xmm3, %xmm0, %xmm0
vpslldq $8, %xmm1, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vpsrldq $8, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpclmulqdq $16, %xmm6, %xmm2, %xmm1
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $16, %xmm6, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm2, %xmm0, %xmm0
vpand .LCPI2_21(%rip), %xmm0, %xmm0
vpxor 304(%rsp), %xmm0, %xmm0
vaesenc %xmm4, %xmm0, %xmm0
vaesenc %xmm5, %xmm0, %xmm0
vaesenc %xmm8, %xmm0, %xmm0
vaesenc %xmm11, %xmm0, %xmm0
vaesenc %xmm10, %xmm0, %xmm0
vaesenc %xmm9, %xmm0, %xmm0
vaesenc %xmm12, %xmm0, %xmm0
vaesenc %xmm13, %xmm0, %xmm0
vaesenc %xmm14, %xmm0, %xmm0
vaesenc 240(%rsp), %xmm0, %xmm0
vaesenc 288(%rsp), %xmm0, %xmm0
vaesenc %xmm15, %xmm0, %xmm0
vaesenc 224(%rsp), %xmm0, %xmm0
vaesenclast 320(%rsp), %xmm0, %xmm0
vpxor 352(%rsp), %xmm0, %xmm0
xorl %eax, %eax
vptest %xmm0, %xmm0
sete %al
.LBB2_34:
addq $480, %rsp
.cfi_def_cfa_offset 32
popq %rbx
.cfi_def_cfa_offset 24
popq %r14
.cfi_def_cfa_offset 16
popq %r15
.cfi_def_cfa_offset 8
retq
.Lfunc_end2:
.size haberdashery_aes256gcmsiv_skylake_decrypt, .Lfunc_end2-haberdashery_aes256gcmsiv_skylake_decrypt
.cfi_endproc
.section .text.haberdashery_aes256gcmsiv_skylake_is_supported,"ax",@progbits
.globl haberdashery_aes256gcmsiv_skylake_is_supported
.p2align 4, 0x90
.type haberdashery_aes256gcmsiv_skylake_is_supported,@function
haberdashery_aes256gcmsiv_skylake_is_supported:
.cfi_startproc
movl $1, %eax
xorl %ecx, %ecx
#APP
movq %rbx, %rsi
cpuid
xchgq %rbx, %rsi
#NO_APP
movl %ecx, %esi
movl %edx, %edi
notl %edi
notl %esi
movl $7, %eax
xorl %ecx, %ecx
#APP
movq %rbx, %r8
cpuid
xchgq %rbx, %r8
#NO_APP
andl $1993871875, %esi
andl $125829120, %edi
orl %esi, %edi
notl %r8d
andl $9175337, %r8d
xorl %eax, %eax
orl %edi, %r8d
sete %al
retq
.Lfunc_end3:
.size haberdashery_aes256gcmsiv_skylake_is_supported, .Lfunc_end3-haberdashery_aes256gcmsiv_skylake_is_supported
.cfi_endproc
.ident "rustc version 1.86.0-nightly (9cd60bd2c 2025-02-15)"
.section ".note.GNU-stack","",@progbits
|
ts-phantomnk90/haberdashery
| 60,830
|
asm/aes128gcm_skylake.s
|
# @generated
# https://github.com/facebookincubator/haberdashery/
.text
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI0_0:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI0_1:
.zero 8
.quad -4467570830351532032
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI0_2:
.quad -4467570830351532032
.section .text.haberdashery_aes128gcm_skylake_init,"ax",@progbits
.globl haberdashery_aes128gcm_skylake_init
.p2align 4, 0x90
.type haberdashery_aes128gcm_skylake_init,@function
haberdashery_aes128gcm_skylake_init:
.cfi_startproc
cmpq $16, %rdx
jne .LBB0_2
vmovdqu (%rsi), %xmm3
vpslldq $4, %xmm3, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vaeskeygenassist $1, %xmm3, %xmm1
vpslldq $12, %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpshufd $255, %xmm1, %xmm1
vpxor %xmm3, %xmm0, %xmm0
vmovdqa %xmm3, %xmm10
vmovdqa %xmm3, -56(%rsp)
vpxor %xmm0, %xmm1, %xmm1
vpslldq $4, %xmm1, %xmm0
vpslldq $8, %xmm1, %xmm2
vaeskeygenassist $2, %xmm1, %xmm3
vpxor %xmm2, %xmm0, %xmm0
vpslldq $12, %xmm1, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpshufd $255, %xmm3, %xmm2
vpxor %xmm1, %xmm0, %xmm0
vmovdqa %xmm1, -24(%rsp)
vpxor %xmm0, %xmm2, %xmm2
vpslldq $4, %xmm2, %xmm0
vaeskeygenassist $4, %xmm2, %xmm3
vpslldq $8, %xmm2, %xmm4
vpxor %xmm4, %xmm0, %xmm0
vpslldq $12, %xmm2, %xmm4
vpxor %xmm4, %xmm0, %xmm0
vpshufd $255, %xmm3, %xmm3
vpxor %xmm2, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm3
vaeskeygenassist $8, %xmm3, %xmm0
vpslldq $4, %xmm3, %xmm4
vpslldq $8, %xmm3, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpslldq $12, %xmm3, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpshufd $255, %xmm0, %xmm0
vpxor %xmm3, %xmm4, %xmm4
vpxor %xmm4, %xmm0, %xmm4
vpslldq $4, %xmm4, %xmm0
vpslldq $8, %xmm4, %xmm5
vpxor %xmm5, %xmm0, %xmm0
vpslldq $12, %xmm4, %xmm5
vpxor %xmm5, %xmm0, %xmm0
vaeskeygenassist $16, %xmm4, %xmm5
vpshufd $255, %xmm5, %xmm5
vpxor %xmm4, %xmm0, %xmm0
vpxor %xmm0, %xmm5, %xmm5
vpslldq $4, %xmm5, %xmm0
vpslldq $8, %xmm5, %xmm6
vpxor %xmm6, %xmm0, %xmm0
vpslldq $12, %xmm5, %xmm6
vaeskeygenassist $32, %xmm5, %xmm7
vpxor %xmm6, %xmm0, %xmm0
vpshufd $255, %xmm7, %xmm6
vpxor %xmm5, %xmm0, %xmm0
vpxor %xmm0, %xmm6, %xmm6
vpslldq $4, %xmm6, %xmm0
vpslldq $8, %xmm6, %xmm7
vpxor %xmm7, %xmm0, %xmm0
vaeskeygenassist $64, %xmm6, %xmm7
vpslldq $12, %xmm6, %xmm8
vpxor %xmm0, %xmm8, %xmm0
vpshufd $255, %xmm7, %xmm7
vpxor %xmm6, %xmm0, %xmm0
vpxor %xmm0, %xmm7, %xmm7
vpslldq $4, %xmm7, %xmm0
vpslldq $8, %xmm7, %xmm8
vaeskeygenassist $128, %xmm7, %xmm9
vpxor %xmm0, %xmm8, %xmm0
vpslldq $12, %xmm7, %xmm8
vpxor %xmm0, %xmm8, %xmm0
vpshufd $255, %xmm9, %xmm8
vpxor %xmm7, %xmm0, %xmm0
vpxor %xmm0, %xmm8, %xmm8
vpslldq $4, %xmm8, %xmm0
vaeskeygenassist $27, %xmm8, %xmm9
vpslldq $8, %xmm8, %xmm11
vpxor %xmm0, %xmm11, %xmm0
vpslldq $12, %xmm8, %xmm11
vpxor %xmm0, %xmm11, %xmm0
vpshufd $255, %xmm9, %xmm9
vpxor %xmm0, %xmm8, %xmm0
vpxor %xmm0, %xmm9, %xmm9
vaeskeygenassist $54, %xmm9, %xmm0
vpslldq $4, %xmm9, %xmm11
vpslldq $8, %xmm9, %xmm12
vpxor %xmm12, %xmm11, %xmm11
vpslldq $12, %xmm9, %xmm12
vpxor %xmm12, %xmm11, %xmm11
vpshufd $255, %xmm0, %xmm0
vpxor %xmm9, %xmm11, %xmm11
vpxor %xmm0, %xmm11, %xmm11
vmovdqa %xmm11, -40(%rsp)
vaesenc %xmm1, %xmm10, %xmm0
vaesenc %xmm2, %xmm0, %xmm0
vaesenc %xmm3, %xmm0, %xmm0
vaesenc %xmm4, %xmm0, %xmm0
vaesenc %xmm5, %xmm0, %xmm0
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm7, %xmm0, %xmm0
vaesenc %xmm8, %xmm0, %xmm0
vaesenc %xmm9, %xmm0, %xmm0
vaesenclast %xmm11, %xmm0, %xmm0
vpshufb .LCPI0_0(%rip), %xmm0, %xmm0
vpsrlq $63, %xmm0, %xmm11
vpaddq %xmm0, %xmm0, %xmm0
vpshufd $78, %xmm11, %xmm12
vpor %xmm0, %xmm12, %xmm0
vpxor %xmm12, %xmm12, %xmm12
vpblendd $12, %xmm11, %xmm12, %xmm11
vpsllq $63, %xmm11, %xmm12
vpxor %xmm0, %xmm12, %xmm0
vpsllq $62, %xmm11, %xmm12
vpsllq $57, %xmm11, %xmm11
vpxor %xmm11, %xmm12, %xmm11
vpxor %xmm0, %xmm11, %xmm11
vpclmulqdq $0, %xmm11, %xmm11, %xmm0
vpbroadcastq .LCPI0_2(%rip), %xmm13
vpclmulqdq $16, %xmm13, %xmm0, %xmm12
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm12, %xmm0
vpclmulqdq $16, %xmm13, %xmm0, %xmm12
vpclmulqdq $17, %xmm11, %xmm11, %xmm14
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm14, %xmm0
vpxor %xmm0, %xmm12, %xmm12
vpclmulqdq $16, %xmm11, %xmm12, %xmm0
vpclmulqdq $1, %xmm11, %xmm12, %xmm14
vpxor %xmm0, %xmm14, %xmm0
vpclmulqdq $0, %xmm11, %xmm12, %xmm14
vpslldq $8, %xmm0, %xmm15
vpxor %xmm15, %xmm14, %xmm14
vpclmulqdq $16, %xmm13, %xmm14, %xmm15
vpshufd $78, %xmm14, %xmm14
vpxor %xmm14, %xmm15, %xmm14
vpsrldq $8, %xmm0, %xmm0
vpclmulqdq $17, %xmm11, %xmm12, %xmm15
vpxor %xmm0, %xmm15, %xmm0
vpshufd $78, %xmm14, %xmm15
vpxor %xmm0, %xmm15, %xmm0
vpclmulqdq $16, %xmm13, %xmm14, %xmm14
vpxor %xmm0, %xmm14, %xmm14
vpclmulqdq $0, %xmm14, %xmm14, %xmm0
vpclmulqdq $16, %xmm13, %xmm0, %xmm15
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm15, %xmm0
vpclmulqdq $17, %xmm14, %xmm14, %xmm15
vpshufd $78, %xmm0, %xmm10
vpxor %xmm10, %xmm15, %xmm10
vpclmulqdq $16, %xmm13, %xmm0, %xmm0
vpxor %xmm0, %xmm10, %xmm0
vmovdqa %xmm0, -72(%rsp)
vpclmulqdq $0, %xmm12, %xmm12, %xmm0
vpclmulqdq $16, %xmm13, %xmm0, %xmm10
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm10, %xmm0
vpclmulqdq $17, %xmm12, %xmm12, %xmm10
vpshufd $78, %xmm0, %xmm15
vpxor %xmm15, %xmm10, %xmm10
vpclmulqdq $16, %xmm13, %xmm0, %xmm0
vpxor %xmm0, %xmm10, %xmm0
vpclmulqdq $16, %xmm11, %xmm0, %xmm10
vpclmulqdq $1, %xmm11, %xmm0, %xmm15
vpxor %xmm10, %xmm15, %xmm10
vpclmulqdq $0, %xmm11, %xmm0, %xmm15
vpslldq $8, %xmm10, %xmm1
vpxor %xmm1, %xmm15, %xmm1
vpclmulqdq $16, %xmm13, %xmm1, %xmm15
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm15, %xmm1
vpsrldq $8, %xmm10, %xmm10
vpclmulqdq $17, %xmm11, %xmm0, %xmm15
vpxor %xmm10, %xmm15, %xmm10
vpclmulqdq $16, %xmm13, %xmm1, %xmm13
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm10, %xmm1
vpxor %xmm1, %xmm13, %xmm1
vmovaps -56(%rsp), %xmm10
vmovaps %xmm10, (%rdi)
vmovaps -24(%rsp), %xmm10
vmovaps %xmm10, 16(%rdi)
vmovdqa %xmm2, 32(%rdi)
vmovdqa %xmm3, 48(%rdi)
vmovdqa %xmm4, 64(%rdi)
vmovdqa %xmm5, 80(%rdi)
vmovdqa %xmm6, 96(%rdi)
vmovdqa %xmm7, 112(%rdi)
vmovdqa %xmm8, 128(%rdi)
vmovdqa %xmm9, 144(%rdi)
vmovaps -40(%rsp), %xmm2
vmovaps %xmm2, 160(%rdi)
vmovdqa %xmm11, 176(%rdi)
vmovdqa %xmm12, 192(%rdi)
vmovdqa %xmm14, 208(%rdi)
vmovdqa %xmm0, 224(%rdi)
vmovdqa %xmm1, 240(%rdi)
vmovaps -72(%rsp), %xmm0
vmovaps %xmm0, 256(%rdi)
.LBB0_2:
xorl %eax, %eax
cmpq $16, %rdx
sete %al
retq
.Lfunc_end0:
.size haberdashery_aes128gcm_skylake_init, .Lfunc_end0-haberdashery_aes128gcm_skylake_init
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI1_0:
.byte 15
.byte 128
.byte 128
.byte 128
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI1_1:
.long 1
.long 0
.long 0
.long 0
.LCPI1_2:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI1_3:
.zero 8
.quad -4467570830351532032
.LCPI1_4:
.long 2
.long 0
.long 0
.long 0
.LCPI1_5:
.long 3
.long 0
.long 0
.long 0
.LCPI1_6:
.long 4
.long 0
.long 0
.long 0
.LCPI1_7:
.long 5
.long 0
.long 0
.long 0
.LCPI1_8:
.long 6
.long 0
.long 0
.long 0
.LCPI1_9:
.long 7
.long 0
.long 0
.long 0
.LCPI1_10:
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.LCPI1_11:
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.LCPI1_12:
.zero 16
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI1_13:
.quad -4467570830351532032
.section .text.haberdashery_aes128gcm_skylake_encrypt,"ax",@progbits
.globl haberdashery_aes128gcm_skylake_encrypt
.p2align 4, 0x90
.type haberdashery_aes128gcm_skylake_encrypt,@function
haberdashery_aes128gcm_skylake_encrypt:
.cfi_startproc
pushq %rbp
.cfi_def_cfa_offset 16
pushq %r15
.cfi_def_cfa_offset 24
pushq %r14
.cfi_def_cfa_offset 32
pushq %r13
.cfi_def_cfa_offset 40
pushq %r12
.cfi_def_cfa_offset 48
pushq %rbx
.cfi_def_cfa_offset 56
subq $392, %rsp
.cfi_def_cfa_offset 448
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
.cfi_offset %rbp, -16
movq 448(%rsp), %r15
xorl %eax, %eax
cmpq 464(%rsp), %r15
jne .LBB1_40
cmpq $16, 480(%rsp)
setne %r10b
movabsq $2305843009213693950, %r11
cmpq %r11, %r8
seta %r11b
orb %r10b, %r11b
jne .LBB1_40
movq %r15, %r10
shrq $5, %r10
cmpq $2147483647, %r10
setae %r10b
cmpq $12, %rdx
setne %dl
orb %r10b, %dl
jne .LBB1_40
vmovd (%rsi), %xmm0
vpinsrd $1, 4(%rsi), %xmm0, %xmm0
vpinsrd $2, 8(%rsi), %xmm0, %xmm0
movl $16777216, %edx
vpinsrd $3, %edx, %xmm0, %xmm0
vmovdqa %xmm0, 64(%rsp)
vpxor %xmm13, %xmm13, %xmm13
testq %r8, %r8
je .LBB1_19
cmpq $96, %r8
jb .LBB1_5
vmovdqu (%rcx), %xmm1
vmovdqu 16(%rcx), %xmm2
vmovdqu 32(%rcx), %xmm3
vmovdqu 48(%rcx), %xmm4
vmovdqu 64(%rcx), %xmm5
vmovdqu 80(%rcx), %xmm6
vmovdqa .LCPI1_2(%rip), %xmm0
vpshufb %xmm0, %xmm1, %xmm7
vpshufb %xmm0, %xmm2, %xmm10
vpshufb %xmm0, %xmm3, %xmm8
vpshufb %xmm0, %xmm4, %xmm9
vpshufb %xmm0, %xmm5, %xmm5
vpshufb %xmm0, %xmm6, %xmm6
vmovdqa 176(%rdi), %xmm1
vmovdqa 192(%rdi), %xmm2
vmovdqa 208(%rdi), %xmm3
vmovdqa 224(%rdi), %xmm4
vpclmulqdq $0, %xmm6, %xmm1, %xmm11
vpclmulqdq $1, %xmm6, %xmm1, %xmm12
vpclmulqdq $16, %xmm6, %xmm1, %xmm13
vpxor %xmm12, %xmm13, %xmm12
vpclmulqdq $17, %xmm6, %xmm1, %xmm6
vpclmulqdq $0, %xmm5, %xmm2, %xmm13
vpxor %xmm11, %xmm13, %xmm11
vpclmulqdq $1, %xmm5, %xmm2, %xmm13
vpclmulqdq $16, %xmm5, %xmm2, %xmm14
vpxor %xmm14, %xmm13, %xmm13
vpxor %xmm13, %xmm12, %xmm12
vpclmulqdq $17, %xmm5, %xmm2, %xmm5
vpxor %xmm6, %xmm5, %xmm13
vpclmulqdq $0, %xmm9, %xmm3, %xmm5
vpclmulqdq $1, %xmm9, %xmm3, %xmm6
vpclmulqdq $16, %xmm9, %xmm3, %xmm14
vpxor %xmm6, %xmm14, %xmm6
vpclmulqdq $0, %xmm8, %xmm4, %xmm14
vpxor %xmm5, %xmm14, %xmm14
vmovdqa 240(%rdi), %xmm5
vpxor %xmm14, %xmm11, %xmm11
vpclmulqdq $1, %xmm8, %xmm4, %xmm14
vpxor %xmm6, %xmm14, %xmm14
vmovdqa 256(%rdi), %xmm6
vpclmulqdq $17, %xmm9, %xmm3, %xmm9
vpxor %xmm14, %xmm12, %xmm12
vpclmulqdq $16, %xmm8, %xmm4, %xmm14
vpclmulqdq $17, %xmm8, %xmm4, %xmm8
vpxor %xmm8, %xmm9, %xmm8
vpxor %xmm8, %xmm13, %xmm13
vpclmulqdq $0, %xmm10, %xmm5, %xmm8
vpclmulqdq $1, %xmm10, %xmm5, %xmm9
vpxor %xmm9, %xmm14, %xmm9
vpclmulqdq $16, %xmm10, %xmm5, %xmm14
vpxor %xmm14, %xmm9, %xmm9
vpclmulqdq $0, %xmm7, %xmm6, %xmm14
vpxor %xmm14, %xmm8, %xmm8
vpxor %xmm8, %xmm11, %xmm8
vpclmulqdq $1, %xmm7, %xmm6, %xmm11
vpxor %xmm11, %xmm9, %xmm9
vpxor %xmm9, %xmm12, %xmm9
vpclmulqdq $16, %xmm7, %xmm6, %xmm11
vpxor %xmm11, %xmm9, %xmm9
vpclmulqdq $17, %xmm10, %xmm5, %xmm10
vpclmulqdq $17, %xmm7, %xmm6, %xmm7
vpxor %xmm7, %xmm10, %xmm7
vpxor %xmm7, %xmm13, %xmm10
addq $96, %rcx
leaq -96(%r8), %rsi
cmpq $96, %rsi
jb .LBB1_18
.p2align 4, 0x90
.LBB1_17:
vmovdqu (%rcx), %xmm11
vmovdqu 32(%rcx), %xmm12
vmovdqu 48(%rcx), %xmm13
vmovdqu 64(%rcx), %xmm14
vmovdqu 80(%rcx), %xmm15
vpslldq $8, %xmm9, %xmm7
vpxor %xmm7, %xmm8, %xmm7
vpsrldq $8, %xmm9, %xmm8
vpxor %xmm8, %xmm10, %xmm8
vpbroadcastq .LCPI1_13(%rip), %xmm10
vpclmulqdq $16, %xmm10, %xmm7, %xmm9
vpshufd $78, %xmm7, %xmm7
vpxor %xmm7, %xmm9, %xmm7
vpclmulqdq $16, %xmm10, %xmm7, %xmm9
vpshufd $78, %xmm7, %xmm7
vpshufb %xmm0, %xmm11, %xmm10
vpxor %xmm10, %xmm8, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpxor %xmm7, %xmm9, %xmm10
vpshufb %xmm0, %xmm12, %xmm8
vpshufb %xmm0, %xmm13, %xmm7
vpshufb %xmm0, %xmm14, %xmm9
vpshufb %xmm0, %xmm15, %xmm11
vpclmulqdq $0, %xmm11, %xmm1, %xmm12
vpclmulqdq $1, %xmm11, %xmm1, %xmm13
vpclmulqdq $16, %xmm11, %xmm1, %xmm14
vpxor %xmm13, %xmm14, %xmm13
vpclmulqdq $17, %xmm11, %xmm1, %xmm11
vpclmulqdq $0, %xmm9, %xmm2, %xmm14
vpxor %xmm12, %xmm14, %xmm12
vpclmulqdq $1, %xmm9, %xmm2, %xmm14
vpclmulqdq $16, %xmm9, %xmm2, %xmm15
vpxor %xmm15, %xmm14, %xmm14
vpxor %xmm14, %xmm13, %xmm13
vpclmulqdq $17, %xmm9, %xmm2, %xmm9
vpxor %xmm11, %xmm9, %xmm9
vpclmulqdq $0, %xmm7, %xmm3, %xmm11
vpclmulqdq $1, %xmm7, %xmm3, %xmm14
vpclmulqdq $16, %xmm7, %xmm3, %xmm15
vpxor %xmm15, %xmm14, %xmm14
vpclmulqdq $0, %xmm8, %xmm4, %xmm15
vpxor %xmm15, %xmm11, %xmm11
vpxor %xmm11, %xmm12, %xmm11
vpclmulqdq $1, %xmm8, %xmm4, %xmm12
vpxor %xmm12, %xmm14, %xmm12
vpclmulqdq $17, %xmm7, %xmm3, %xmm7
vpxor %xmm12, %xmm13, %xmm12
vpclmulqdq $17, %xmm8, %xmm4, %xmm13
vpxor %xmm7, %xmm13, %xmm7
vmovdqu 16(%rcx), %xmm13
vpshufb %xmm0, %xmm13, %xmm13
vpclmulqdq $16, %xmm8, %xmm4, %xmm8
vpxor %xmm7, %xmm9, %xmm7
vpclmulqdq $0, %xmm13, %xmm5, %xmm9
vpxor %xmm9, %xmm11, %xmm9
vpclmulqdq $1, %xmm13, %xmm5, %xmm11
vpxor %xmm11, %xmm8, %xmm8
vpclmulqdq $16, %xmm13, %xmm5, %xmm11
vpxor %xmm11, %xmm8, %xmm8
vpxor %xmm8, %xmm12, %xmm11
vpclmulqdq $17, %xmm13, %xmm5, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $0, %xmm10, %xmm6, %xmm8
vpxor %xmm8, %xmm9, %xmm8
vpclmulqdq $1, %xmm10, %xmm6, %xmm9
vpxor %xmm9, %xmm11, %xmm9
vpclmulqdq $16, %xmm10, %xmm6, %xmm11
vpxor %xmm11, %xmm9, %xmm9
vpclmulqdq $17, %xmm10, %xmm6, %xmm10
vpxor %xmm7, %xmm10, %xmm10
addq $96, %rcx
addq $-96, %rsi
cmpq $95, %rsi
ja .LBB1_17
.LBB1_18:
vpslldq $8, %xmm9, %xmm0
vpxor %xmm0, %xmm8, %xmm0
vpsrldq $8, %xmm9, %xmm1
vpxor %xmm1, %xmm10, %xmm1
vpbroadcastq .LCPI1_13(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm0, %xmm3
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm0
vpclmulqdq $16, %xmm2, %xmm0, %xmm2
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpxor %xmm2, %xmm0, %xmm13
cmpq $16, %rsi
jae .LBB1_7
jmp .LBB1_12
.LBB1_19:
testq %r15, %r15
jne .LBB1_24
jmp .LBB1_39
.LBB1_5:
movq %r8, %rsi
cmpq $16, %rsi
jb .LBB1_12
.LBB1_7:
vmovdqa 176(%rdi), %xmm0
leaq -16(%rsi), %rdx
testb $16, %dl
je .LBB1_8
cmpq $16, %rdx
jae .LBB1_10
.LBB1_13:
testq %rdx, %rdx
je .LBB1_20
.LBB1_14:
vmovdqa %xmm13, 16(%rsp)
movq %r9, %r14
movq %r8, %rbx
movq %rdi, %r12
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, (%rsp)
movq %rsp, %rdi
movq %rcx, %rsi
callq *memcpy@GOTPCREL(%rip)
vmovdqa (%rsp), %xmm0
testq %r15, %r15
je .LBB1_15
movabsq $-68719476704, %rax
leaq (%r15,%rax), %rcx
incq %rax
cmpq %rax, %rcx
movl $0, %eax
vmovdqa 16(%rsp), %xmm2
jb .LBB1_40
movq %r12, %rdi
movq %rbx, %r8
movq %r14, %r9
vmovdqa 176(%r12), %xmm1
vpshufb .LCPI1_2(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI1_13(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm13
jmp .LBB1_24
.LBB1_8:
vmovdqu (%rcx), %xmm1
addq $16, %rcx
vpshufb .LCPI1_2(%rip), %xmm1, %xmm1
vpxor %xmm1, %xmm13, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
vpslldq $8, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpsrldq $8, %xmm3, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpbroadcastq .LCPI1_13(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm2, %xmm4
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm4, %xmm2
vpclmulqdq $16, %xmm3, %xmm2, %xmm3
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm13
movq %rdx, %rsi
cmpq $16, %rdx
jb .LBB1_13
.LBB1_10:
vmovdqa .LCPI1_2(%rip), %xmm1
vpbroadcastq .LCPI1_13(%rip), %xmm2
.p2align 4, 0x90
.LBB1_11:
vmovdqu (%rcx), %xmm3
vmovdqu 16(%rcx), %xmm4
vpshufb %xmm1, %xmm3, %xmm3
vpxor %xmm3, %xmm13, %xmm3
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpclmulqdq $1, %xmm3, %xmm0, %xmm6
vpclmulqdq $16, %xmm3, %xmm0, %xmm7
vpxor %xmm6, %xmm7, %xmm6
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
vpslldq $8, %xmm6, %xmm7
vpxor %xmm7, %xmm5, %xmm5
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm3, %xmm3
vpclmulqdq $16, %xmm2, %xmm5, %xmm6
vpshufd $78, %xmm5, %xmm5
vpxor %xmm5, %xmm6, %xmm5
vpclmulqdq $16, %xmm2, %xmm5, %xmm6
vpshufd $78, %xmm5, %xmm5
vpxor %xmm5, %xmm3, %xmm3
addq $32, %rcx
addq $-32, %rsi
vpshufb %xmm1, %xmm4, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpxor %xmm3, %xmm6, %xmm3
vpclmulqdq $0, %xmm3, %xmm0, %xmm4
vpclmulqdq $1, %xmm3, %xmm0, %xmm5
vpclmulqdq $16, %xmm3, %xmm0, %xmm6
vpxor %xmm5, %xmm6, %xmm5
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
vpslldq $8, %xmm5, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpsrldq $8, %xmm5, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpclmulqdq $16, %xmm2, %xmm4, %xmm5
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $16, %xmm2, %xmm4, %xmm5
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpxor %xmm3, %xmm5, %xmm13
cmpq $15, %rsi
ja .LBB1_11
.LBB1_12:
movq %rsi, %rdx
testq %rdx, %rdx
jne .LBB1_14
.LBB1_20:
testq %r15, %r15
je .LBB1_39
movabsq $-68719476704, %rcx
leaq (%r15,%rcx), %rdx
incq %rcx
cmpq %rcx, %rdx
jb .LBB1_40
.LBB1_24:
movq 456(%rsp), %rdx
vmovdqa 64(%rsp), %xmm0
vpshufb .LCPI1_0(%rip), %xmm0, %xmm1
vpaddd .LCPI1_1(%rip), %xmm1, %xmm15
cmpq $96, %r15
jb .LBB1_25
leaq 96(%r9), %rcx
leaq 96(%rdx), %rax
vmovdqa .LCPI1_2(%rip), %xmm0
vpshufb %xmm0, %xmm15, %xmm2
vpaddd .LCPI1_4(%rip), %xmm1, %xmm3
vpaddd .LCPI1_5(%rip), %xmm1, %xmm4
vpshufb %xmm0, %xmm3, %xmm3
vpshufb %xmm0, %xmm4, %xmm4
vpaddd .LCPI1_6(%rip), %xmm1, %xmm5
vpaddd .LCPI1_7(%rip), %xmm1, %xmm6
vpshufb %xmm0, %xmm5, %xmm5
vpshufb %xmm0, %xmm6, %xmm6
vpaddd .LCPI1_8(%rip), %xmm1, %xmm7
vpaddd .LCPI1_9(%rip), %xmm1, %xmm15
vpshufb %xmm0, %xmm7, %xmm7
vmovdqa (%rdi), %xmm1
vmovaps 16(%rdi), %xmm10
vmovdqa 32(%rdi), %xmm14
vmovaps 48(%rdi), %xmm8
vpxor %xmm2, %xmm1, %xmm2
vpxor %xmm3, %xmm1, %xmm3
vpxor %xmm4, %xmm1, %xmm4
vpxor %xmm5, %xmm1, %xmm5
vpxor %xmm6, %xmm1, %xmm6
vpxor %xmm7, %xmm1, %xmm9
vmovaps %xmm8, %xmm7
vmovaps %xmm10, 240(%rsp)
#APP
vaesenc %xmm10, %xmm2, %xmm2
vaesenc %xmm10, %xmm3, %xmm3
vaesenc %xmm10, %xmm4, %xmm4
vaesenc %xmm10, %xmm5, %xmm5
vaesenc %xmm10, %xmm6, %xmm6
vaesenc %xmm10, %xmm9, %xmm9
#NO_APP
#APP
vaesenc %xmm14, %xmm2, %xmm2
vaesenc %xmm14, %xmm3, %xmm3
vaesenc %xmm14, %xmm4, %xmm4
vaesenc %xmm14, %xmm5, %xmm5
vaesenc %xmm14, %xmm6, %xmm6
vaesenc %xmm14, %xmm9, %xmm9
#NO_APP
#APP
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm8, %xmm3, %xmm3
vaesenc %xmm8, %xmm4, %xmm4
vaesenc %xmm8, %xmm5, %xmm5
vaesenc %xmm8, %xmm6, %xmm6
vaesenc %xmm8, %xmm9, %xmm9
#NO_APP
vmovaps 64(%rdi), %xmm8
vmovaps %xmm8, 336(%rsp)
#APP
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm8, %xmm3, %xmm3
vaesenc %xmm8, %xmm4, %xmm4
vaesenc %xmm8, %xmm5, %xmm5
vaesenc %xmm8, %xmm6, %xmm6
vaesenc %xmm8, %xmm9, %xmm9
#NO_APP
vmovaps 80(%rdi), %xmm8
vmovaps %xmm8, 320(%rsp)
#APP
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm8, %xmm3, %xmm3
vaesenc %xmm8, %xmm4, %xmm4
vaesenc %xmm8, %xmm5, %xmm5
vaesenc %xmm8, %xmm6, %xmm6
vaesenc %xmm8, %xmm9, %xmm9
#NO_APP
vmovaps 96(%rdi), %xmm8
vmovaps %xmm8, 304(%rsp)
#APP
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm8, %xmm3, %xmm3
vaesenc %xmm8, %xmm4, %xmm4
vaesenc %xmm8, %xmm5, %xmm5
vaesenc %xmm8, %xmm6, %xmm6
vaesenc %xmm8, %xmm9, %xmm9
#NO_APP
vmovaps 112(%rdi), %xmm8
vmovaps %xmm8, 288(%rsp)
#APP
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm8, %xmm3, %xmm3
vaesenc %xmm8, %xmm4, %xmm4
vaesenc %xmm8, %xmm5, %xmm5
vaesenc %xmm8, %xmm6, %xmm6
vaesenc %xmm8, %xmm9, %xmm9
#NO_APP
vmovaps 128(%rdi), %xmm8
vmovaps %xmm8, 272(%rsp)
#APP
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm8, %xmm3, %xmm3
vaesenc %xmm8, %xmm4, %xmm4
vaesenc %xmm8, %xmm5, %xmm5
vaesenc %xmm8, %xmm6, %xmm6
vaesenc %xmm8, %xmm9, %xmm9
#NO_APP
vmovaps 144(%rdi), %xmm8
vmovaps %xmm8, 256(%rsp)
#APP
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm8, %xmm3, %xmm3
vaesenc %xmm8, %xmm4, %xmm4
vaesenc %xmm8, %xmm5, %xmm5
vaesenc %xmm8, %xmm6, %xmm6
vaesenc %xmm8, %xmm9, %xmm9
#NO_APP
vmovdqa 160(%rdi), %xmm8
vmovdqa %xmm8, %xmm12
#APP
vaesenclast %xmm8, %xmm2, %xmm2
vaesenclast %xmm8, %xmm3, %xmm3
vaesenclast %xmm8, %xmm4, %xmm4
vaesenclast %xmm8, %xmm5, %xmm5
vaesenclast %xmm8, %xmm6, %xmm6
vaesenclast %xmm8, %xmm9, %xmm9
#NO_APP
vpxor (%r9), %xmm2, %xmm11
vpxor 16(%r9), %xmm3, %xmm3
vpxor 32(%r9), %xmm4, %xmm4
vpxor 48(%r9), %xmm5, %xmm2
vmovdqa %xmm3, %xmm5
vpxor 64(%r9), %xmm6, %xmm8
vmovdqa %xmm4, %xmm6
vpxor 80(%r9), %xmm9, %xmm10
vmovdqu %xmm11, (%rdx)
vmovdqu %xmm3, 16(%rdx)
vmovdqu %xmm4, 32(%rdx)
vmovdqu %xmm2, 48(%rdx)
leaq -96(%r15), %rbx
vmovdqu %xmm8, 64(%rdx)
vmovdqu %xmm10, 80(%rdx)
cmpq $96, %rbx
jb .LBB1_34
vmovaps 176(%rdi), %xmm3
vmovaps %xmm3, 224(%rsp)
vmovaps 192(%rdi), %xmm3
vmovaps %xmm3, 208(%rsp)
vmovaps 208(%rdi), %xmm3
vmovaps %xmm3, 192(%rsp)
vmovaps 224(%rdi), %xmm3
vmovaps %xmm3, 176(%rsp)
vmovaps 240(%rdi), %xmm3
vmovaps %xmm3, 160(%rsp)
vmovdqa 256(%rdi), %xmm3
vmovdqa %xmm3, 144(%rsp)
vmovaps %xmm7, 128(%rsp)
vmovdqa %xmm1, 96(%rsp)
vmovdqa %xmm14, 112(%rsp)
vmovdqa %xmm12, 80(%rsp)
.p2align 4, 0x90
.LBB1_33:
vmovdqa %xmm6, 352(%rsp)
vmovdqa %xmm5, 48(%rsp)
vmovdqa %xmm15, 32(%rsp)
vpshufb %xmm0, %xmm15, %xmm3
vpaddd .LCPI1_1(%rip), %xmm15, %xmm4
vpshufb %xmm0, %xmm4, %xmm4
vpaddd .LCPI1_4(%rip), %xmm15, %xmm5
vpshufb %xmm0, %xmm5, %xmm5
vpaddd .LCPI1_5(%rip), %xmm15, %xmm6
vpshufb %xmm0, %xmm6, %xmm6
vpaddd .LCPI1_6(%rip), %xmm15, %xmm9
vpshufb %xmm0, %xmm9, %xmm9
vmovdqa %xmm13, %xmm1
vpaddd .LCPI1_7(%rip), %xmm15, %xmm13
vmovdqa %xmm0, %xmm12
vpshufb %xmm0, %xmm13, %xmm0
vpshufb %xmm12, %xmm11, %xmm11
vpxor %xmm1, %xmm11, %xmm1
vmovdqa %xmm1, 16(%rsp)
vpshufb %xmm12, %xmm10, %xmm1
vmovdqa 96(%rsp), %xmm7
vpxor %xmm3, %xmm7, %xmm10
vpxor %xmm4, %xmm7, %xmm13
vpxor %xmm5, %xmm7, %xmm14
vpxor %xmm6, %xmm7, %xmm15
vpxor %xmm7, %xmm9, %xmm3
vpxor %xmm0, %xmm7, %xmm4
vmovaps 240(%rsp), %xmm0
#APP
vaesenc %xmm0, %xmm10, %xmm10
vaesenc %xmm0, %xmm13, %xmm13
vaesenc %xmm0, %xmm14, %xmm14
vaesenc %xmm0, %xmm15, %xmm15
vaesenc %xmm0, %xmm3, %xmm3
vaesenc %xmm0, %xmm4, %xmm4
#NO_APP
vpxor %xmm5, %xmm5, %xmm5
vpxor %xmm6, %xmm6, %xmm6
vpxor %xmm9, %xmm9, %xmm9
vmovaps 224(%rsp), %xmm11
vmovdqa %xmm2, %xmm7
vmovaps 112(%rsp), %xmm2
#APP
vaesenc %xmm2, %xmm10, %xmm10
vaesenc %xmm2, %xmm13, %xmm13
vaesenc %xmm2, %xmm14, %xmm14
vaesenc %xmm2, %xmm15, %xmm15
vaesenc %xmm2, %xmm3, %xmm3
vaesenc %xmm2, %xmm4, %xmm4
vpclmulqdq $16, %xmm11, %xmm1, %xmm0
vpxor %xmm0, %xmm5, %xmm5
vpclmulqdq $0, %xmm11, %xmm1, %xmm0
vpxor %xmm0, %xmm9, %xmm9
vpclmulqdq $17, %xmm11, %xmm1, %xmm0
vpxor %xmm0, %xmm6, %xmm6
vpclmulqdq $1, %xmm11, %xmm1, %xmm0
vpxor %xmm0, %xmm5, %xmm5
#NO_APP
vpshufb %xmm12, %xmm8, %xmm0
vmovaps 208(%rsp), %xmm8
vmovaps 128(%rsp), %xmm11
#APP
vaesenc %xmm11, %xmm10, %xmm10
vaesenc %xmm11, %xmm13, %xmm13
vaesenc %xmm11, %xmm14, %xmm14
vaesenc %xmm11, %xmm15, %xmm15
vaesenc %xmm11, %xmm3, %xmm3
vaesenc %xmm11, %xmm4, %xmm4
vpclmulqdq $16, %xmm8, %xmm0, %xmm1
vpxor %xmm1, %xmm5, %xmm5
vpclmulqdq $0, %xmm8, %xmm0, %xmm1
vpxor %xmm1, %xmm9, %xmm9
vpclmulqdq $17, %xmm8, %xmm0, %xmm1
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm8, %xmm0, %xmm1
vpxor %xmm1, %xmm5, %xmm5
#NO_APP
vpshufb %xmm12, %xmm7, %xmm0
vmovaps 192(%rsp), %xmm2
vmovaps 336(%rsp), %xmm7
#APP
vaesenc %xmm7, %xmm10, %xmm10
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm14, %xmm14
vaesenc %xmm7, %xmm15, %xmm15
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm4, %xmm4
vpclmulqdq $16, %xmm2, %xmm0, %xmm1
vpxor %xmm1, %xmm5, %xmm5
vpclmulqdq $0, %xmm2, %xmm0, %xmm1
vpxor %xmm1, %xmm9, %xmm9
vpclmulqdq $17, %xmm2, %xmm0, %xmm1
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor %xmm1, %xmm5, %xmm5
#NO_APP
vmovdqa 352(%rsp), %xmm0
vpshufb %xmm12, %xmm0, %xmm0
vmovaps 176(%rsp), %xmm2
vmovaps 320(%rsp), %xmm8
#APP
vaesenc %xmm8, %xmm10, %xmm10
vaesenc %xmm8, %xmm13, %xmm13
vaesenc %xmm8, %xmm14, %xmm14
vaesenc %xmm8, %xmm15, %xmm15
vaesenc %xmm8, %xmm3, %xmm3
vaesenc %xmm8, %xmm4, %xmm4
vpclmulqdq $16, %xmm2, %xmm0, %xmm1
vpxor %xmm1, %xmm5, %xmm5
vpclmulqdq $0, %xmm2, %xmm0, %xmm1
vpxor %xmm1, %xmm9, %xmm9
vpclmulqdq $17, %xmm2, %xmm0, %xmm1
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor %xmm1, %xmm5, %xmm5
#NO_APP
vmovdqa 48(%rsp), %xmm0
vpshufb %xmm12, %xmm0, %xmm0
vmovaps 160(%rsp), %xmm2
vmovaps 304(%rsp), %xmm7
#APP
vaesenc %xmm7, %xmm10, %xmm10
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm14, %xmm14
vaesenc %xmm7, %xmm15, %xmm15
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm4, %xmm4
vpclmulqdq $16, %xmm2, %xmm0, %xmm1
vpxor %xmm1, %xmm5, %xmm5
vpclmulqdq $0, %xmm2, %xmm0, %xmm1
vpxor %xmm1, %xmm9, %xmm9
vpclmulqdq $17, %xmm2, %xmm0, %xmm1
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor %xmm1, %xmm5, %xmm5
#NO_APP
vmovaps 288(%rsp), %xmm0
#APP
vaesenc %xmm0, %xmm10, %xmm10
vaesenc %xmm0, %xmm13, %xmm13
vaesenc %xmm0, %xmm14, %xmm14
vaesenc %xmm0, %xmm15, %xmm15
vaesenc %xmm0, %xmm3, %xmm3
vaesenc %xmm0, %xmm4, %xmm4
#NO_APP
vmovdqa 144(%rsp), %xmm1
vmovaps 272(%rsp), %xmm2
vmovaps 16(%rsp), %xmm7
#APP
vaesenc %xmm2, %xmm10, %xmm10
vaesenc %xmm2, %xmm13, %xmm13
vaesenc %xmm2, %xmm14, %xmm14
vaesenc %xmm2, %xmm15, %xmm15
vaesenc %xmm2, %xmm3, %xmm3
vaesenc %xmm2, %xmm4, %xmm4
vpclmulqdq $16, %xmm1, %xmm7, %xmm0
vpxor %xmm0, %xmm5, %xmm5
vpclmulqdq $0, %xmm1, %xmm7, %xmm0
vpxor %xmm0, %xmm9, %xmm9
vpclmulqdq $17, %xmm1, %xmm7, %xmm0
vpxor %xmm0, %xmm6, %xmm6
vpclmulqdq $1, %xmm1, %xmm7, %xmm0
vpxor %xmm0, %xmm5, %xmm5
#NO_APP
vpxor %xmm1, %xmm1, %xmm1
vpunpcklqdq %xmm5, %xmm1, %xmm0
vpxor %xmm0, %xmm9, %xmm0
vpunpckhqdq %xmm1, %xmm5, %xmm1
vpxor %xmm1, %xmm6, %xmm1
vpbroadcastq .LCPI1_13(%rip), %xmm5
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vpshufd $78, %xmm0, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vmovaps 256(%rsp), %xmm2
#APP
vaesenc %xmm2, %xmm10, %xmm10
vaesenc %xmm2, %xmm13, %xmm13
vaesenc %xmm2, %xmm14, %xmm14
vaesenc %xmm2, %xmm15, %xmm15
vaesenc %xmm2, %xmm3, %xmm3
vaesenc %xmm2, %xmm4, %xmm4
#NO_APP
vmovaps 80(%rsp), %xmm2
#APP
vaesenclast %xmm2, %xmm10, %xmm10
vaesenclast %xmm2, %xmm13, %xmm13
vaesenclast %xmm2, %xmm14, %xmm14
vaesenclast %xmm2, %xmm15, %xmm15
vaesenclast %xmm2, %xmm3, %xmm3
vaesenclast %xmm2, %xmm4, %xmm4
#NO_APP
vpclmulqdq $16, %xmm5, %xmm0, %xmm0
vpxor (%rcx), %xmm10, %xmm11
vpxor 16(%rcx), %xmm13, %xmm5
vpxor 32(%rcx), %xmm14, %xmm6
vpxor 48(%rcx), %xmm15, %xmm2
vmovdqa 32(%rsp), %xmm15
vpxor 64(%rcx), %xmm3, %xmm8
vpxor 80(%rcx), %xmm4, %xmm10
vpxor %xmm0, %xmm1, %xmm13
vmovdqa %xmm12, %xmm0
addq $96, %rcx
vmovdqu %xmm11, (%rax)
vmovdqu %xmm5, 16(%rax)
vmovdqu %xmm6, 32(%rax)
vmovdqu %xmm2, 48(%rax)
vmovdqu %xmm8, 64(%rax)
vmovdqu %xmm10, 80(%rax)
addq $96, %rax
addq $-96, %rbx
vpaddd .LCPI1_8(%rip), %xmm15, %xmm15
cmpq $95, %rbx
ja .LBB1_33
.LBB1_34:
vpshufb %xmm0, %xmm11, %xmm1
vpxor %xmm1, %xmm13, %xmm1
vpshufb %xmm0, %xmm5, %xmm3
vpshufb %xmm0, %xmm6, %xmm4
vpshufb %xmm0, %xmm2, %xmm5
vpshufb %xmm0, %xmm8, %xmm6
vpshufb %xmm0, %xmm10, %xmm7
vmovdqa 176(%rdi), %xmm8
vmovdqa 192(%rdi), %xmm9
vmovdqa 208(%rdi), %xmm10
vmovdqa 224(%rdi), %xmm11
vmovdqa 240(%rdi), %xmm2
vmovdqa 256(%rdi), %xmm0
vpclmulqdq $0, %xmm7, %xmm8, %xmm12
vpclmulqdq $1, %xmm7, %xmm8, %xmm13
vpclmulqdq $16, %xmm7, %xmm8, %xmm14
vpxor %xmm13, %xmm14, %xmm13
vpclmulqdq $17, %xmm7, %xmm8, %xmm7
vpclmulqdq $0, %xmm6, %xmm9, %xmm8
vpxor %xmm12, %xmm8, %xmm8
vpclmulqdq $1, %xmm6, %xmm9, %xmm12
vpclmulqdq $16, %xmm6, %xmm9, %xmm14
vpxor %xmm14, %xmm12, %xmm12
vpxor %xmm12, %xmm13, %xmm12
vpclmulqdq $17, %xmm6, %xmm9, %xmm6
vpxor %xmm7, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm10, %xmm7
vpclmulqdq $1, %xmm5, %xmm10, %xmm9
vpclmulqdq $16, %xmm5, %xmm10, %xmm13
vpxor %xmm13, %xmm9, %xmm9
vpclmulqdq $17, %xmm5, %xmm10, %xmm5
vpclmulqdq $0, %xmm4, %xmm11, %xmm10
vpxor %xmm7, %xmm10, %xmm7
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $1, %xmm4, %xmm11, %xmm8
vpxor %xmm8, %xmm9, %xmm8
vpxor %xmm8, %xmm12, %xmm8
vpclmulqdq $16, %xmm4, %xmm11, %xmm9
vpclmulqdq $17, %xmm4, %xmm11, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpxor %xmm4, %xmm6, %xmm4
vpclmulqdq $0, %xmm3, %xmm2, %xmm5
vpxor %xmm5, %xmm7, %xmm5
vpclmulqdq $1, %xmm3, %xmm2, %xmm6
vpxor %xmm6, %xmm9, %xmm6
vpclmulqdq $16, %xmm3, %xmm2, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpxor %xmm6, %xmm8, %xmm6
vpclmulqdq $17, %xmm3, %xmm2, %xmm2
vpxor %xmm2, %xmm4, %xmm2
vpclmulqdq $0, %xmm1, %xmm0, %xmm3
vpxor %xmm3, %xmm5, %xmm3
vpclmulqdq $1, %xmm1, %xmm0, %xmm4
vpxor %xmm4, %xmm6, %xmm4
vpclmulqdq $16, %xmm1, %xmm0, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpclmulqdq $17, %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vpslldq $8, %xmm4, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpsrldq $8, %xmm4, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI1_13(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm2, %xmm0, %xmm13
movq %rax, %rdx
movq %rcx, %r9
cmpq $16, %rbx
jae .LBB1_35
.LBB1_27:
movq %rdx, %r14
movq %r9, %rsi
jmp .LBB1_28
.LBB1_25:
movq %r15, %rbx
cmpq $16, %rbx
jb .LBB1_27
.LBB1_35:
vmovaps (%rdi), %xmm0
vmovaps %xmm0, 32(%rsp)
vmovaps 16(%rdi), %xmm0
vmovaps %xmm0, 16(%rsp)
vmovdqa 32(%rdi), %xmm0
vmovdqa %xmm0, 48(%rsp)
vmovdqa 48(%rdi), %xmm3
vmovdqa 64(%rdi), %xmm4
vmovdqa 80(%rdi), %xmm5
vmovdqa 96(%rdi), %xmm6
vmovdqa 112(%rdi), %xmm7
vmovdqa 128(%rdi), %xmm8
vmovdqa 144(%rdi), %xmm9
vmovdqa 160(%rdi), %xmm10
vmovdqa 176(%rdi), %xmm11
vmovdqa .LCPI1_2(%rip), %xmm12
vpbroadcastq .LCPI1_13(%rip), %xmm14
.p2align 4, 0x90
.LBB1_36:
vmovdqa %xmm15, %xmm2
vpshufb %xmm12, %xmm15, %xmm15
vpxor 32(%rsp), %xmm15, %xmm15
vaesenc 16(%rsp), %xmm15, %xmm15
vaesenc 48(%rsp), %xmm15, %xmm15
vaesenc %xmm3, %xmm15, %xmm15
vaesenc %xmm4, %xmm15, %xmm15
vaesenc %xmm5, %xmm15, %xmm15
vaesenc %xmm6, %xmm15, %xmm15
vaesenc %xmm7, %xmm15, %xmm15
vaesenc %xmm8, %xmm15, %xmm15
vaesenc %xmm9, %xmm15, %xmm15
vaesenclast %xmm10, %xmm15, %xmm15
vpxor (%r9), %xmm15, %xmm15
vmovdqu %xmm15, (%rdx)
vpshufb %xmm12, %xmm15, %xmm15
vpxor %xmm15, %xmm13, %xmm15
vpclmulqdq $0, %xmm15, %xmm11, %xmm13
vpclmulqdq $1, %xmm15, %xmm11, %xmm0
vpclmulqdq $16, %xmm15, %xmm11, %xmm1
vpxor %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm0, %xmm1
vpxor %xmm1, %xmm13, %xmm1
vpclmulqdq $17, %xmm15, %xmm11, %xmm13
vpsrldq $8, %xmm0, %xmm0
vpxor %xmm0, %xmm13, %xmm0
vpclmulqdq $16, %xmm14, %xmm1, %xmm13
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm13, %xmm1
vpshufd $78, %xmm1, %xmm13
vpxor %xmm0, %xmm13, %xmm0
vpclmulqdq $16, %xmm14, %xmm1, %xmm1
vpxor %xmm0, %xmm1, %xmm13
leaq 16(%r9), %rsi
leaq 16(%rdx), %r14
addq $-16, %rbx
vpaddd .LCPI1_1(%rip), %xmm2, %xmm15
movq %r14, %rdx
movq %rsi, %r9
cmpq $15, %rbx
ja .LBB1_36
.LBB1_28:
testq %rbx, %rbx
je .LBB1_39
vmovdqa %xmm13, 16(%rsp)
movq %r8, 48(%rsp)
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, (%rsp)
movq %rsp, %rax
movq memcpy@GOTPCREL(%rip), %rbp
movq %rdi, %r13
movq %rax, %rdi
movq %rbx, %rdx
vmovdqa %xmm15, 32(%rsp)
callq *%rbp
vmovdqa 32(%rsp), %xmm0
vpshufb .LCPI1_2(%rip), %xmm0, %xmm0
vpxor (%r13), %xmm0, %xmm0
vaesenc 16(%r13), %xmm0, %xmm0
vaesenc 32(%r13), %xmm0, %xmm0
vaesenc 48(%r13), %xmm0, %xmm0
vaesenc 64(%r13), %xmm0, %xmm0
vaesenc 80(%r13), %xmm0, %xmm0
vaesenc 96(%r13), %xmm0, %xmm0
vaesenc 112(%r13), %xmm0, %xmm0
vaesenc 128(%r13), %xmm0, %xmm0
vaesenc 144(%r13), %xmm0, %xmm0
movq %r13, %r12
vaesenclast 160(%r13), %xmm0, %xmm0
vpxor (%rsp), %xmm0, %xmm0
vmovdqa %xmm0, 32(%rsp)
vmovdqa %xmm0, (%rsp)
movq %rsp, %rsi
movq %r14, %rdi
movq %rbx, %rdx
callq *%rbp
testq %r15, %r15
je .LBB1_30
vmovaps 32(%rsp), %xmm0
vmovaps %xmm0, 368(%rsp)
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, (%rsp)
movq %rsp, %rdi
leaq 368(%rsp), %rsi
movq %rbx, %rdx
callq *memcpy@GOTPCREL(%rip)
vmovdqa (%rsp), %xmm0
vpshufb .LCPI1_2(%rip), %xmm0, %xmm0
vpxor 16(%rsp), %xmm0, %xmm0
movq %r12, %rdi
vmovdqa 176(%r12), %xmm1
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
jmp .LBB1_38
.LBB1_15:
movq %r12, %rdi
vmovdqa 176(%r12), %xmm1
vpshufb .LCPI1_2(%rip), %xmm0, %xmm0
vpxor 16(%rsp), %xmm0, %xmm0
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI1_13(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm13
movq %rbx, %r8
jmp .LBB1_39
.LBB1_30:
movq %r12, %rdi
vmovdqa 176(%r12), %xmm0
vmovdqa 32(%rsp), %xmm1
vpshufb .LCPI1_2(%rip), %xmm1, %xmm1
vpxor 16(%rsp), %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm0, %xmm0
.LBB1_38:
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI1_13(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm13
movq 48(%rsp), %r8
.LBB1_39:
movq 472(%rsp), %rax
vmovdqa 176(%rdi), %xmm0
vmovq %r8, %xmm1
vmovq %r15, %xmm2
vpunpcklqdq %xmm1, %xmm2, %xmm1
vpsllq $3, %xmm1, %xmm1
vpxor %xmm1, %xmm13, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm0, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpbroadcastq .LCPI1_13(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm4
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpxor %xmm0, %xmm2, %xmm0
vmovdqa 64(%rsp), %xmm2
vpxor (%rdi), %xmm2, %xmm2
vaesenc 16(%rdi), %xmm2, %xmm2
vaesenc 32(%rdi), %xmm2, %xmm2
vaesenc 48(%rdi), %xmm2, %xmm2
vaesenc 64(%rdi), %xmm2, %xmm2
vaesenc 80(%rdi), %xmm2, %xmm2
vaesenc 96(%rdi), %xmm2, %xmm2
vaesenc 112(%rdi), %xmm2, %xmm2
vaesenc 128(%rdi), %xmm2, %xmm2
vaesenc 144(%rdi), %xmm2, %xmm2
vaesenclast 160(%rdi), %xmm2, %xmm2
vpshufb .LCPI1_2(%rip), %xmm0, %xmm0
vpshufb .LCPI1_10(%rip), %xmm3, %xmm3
vpshufb .LCPI1_11(%rip), %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vmovdqu %xmm0, (%rax)
movl $1, %eax
.LBB1_40:
addq $392, %rsp
.cfi_def_cfa_offset 56
popq %rbx
.cfi_def_cfa_offset 48
popq %r12
.cfi_def_cfa_offset 40
popq %r13
.cfi_def_cfa_offset 32
popq %r14
.cfi_def_cfa_offset 24
popq %r15
.cfi_def_cfa_offset 16
popq %rbp
.cfi_def_cfa_offset 8
retq
.Lfunc_end1:
.size haberdashery_aes128gcm_skylake_encrypt, .Lfunc_end1-haberdashery_aes128gcm_skylake_encrypt
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI2_0:
.byte 15
.byte 128
.byte 128
.byte 128
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI2_1:
.long 1
.long 0
.long 0
.long 0
.LCPI2_2:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI2_3:
.zero 8
.quad -4467570830351532032
.LCPI2_4:
.long 2
.long 0
.long 0
.long 0
.LCPI2_5:
.long 3
.long 0
.long 0
.long 0
.LCPI2_6:
.long 4
.long 0
.long 0
.long 0
.LCPI2_7:
.long 5
.long 0
.long 0
.long 0
.LCPI2_8:
.long 6
.long 0
.long 0
.long 0
.LCPI2_9:
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.LCPI2_10:
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI2_11:
.quad -4467570830351532032
.section .text.haberdashery_aes128gcm_skylake_decrypt,"ax",@progbits
.globl haberdashery_aes128gcm_skylake_decrypt
.p2align 4, 0x90
.type haberdashery_aes128gcm_skylake_decrypt,@function
haberdashery_aes128gcm_skylake_decrypt:
.cfi_startproc
pushq %rbp
.cfi_def_cfa_offset 16
pushq %r15
.cfi_def_cfa_offset 24
pushq %r14
.cfi_def_cfa_offset 32
pushq %r13
.cfi_def_cfa_offset 40
pushq %r12
.cfi_def_cfa_offset 48
pushq %rbx
.cfi_def_cfa_offset 56
subq $424, %rsp
.cfi_def_cfa_offset 480
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
.cfi_offset %rbp, -16
movq 480(%rsp), %r15
xorl %eax, %eax
cmpq 512(%rsp), %r15
jne .LBB2_38
cmpq $16, 496(%rsp)
setne %r10b
movabsq $2305843009213693950, %r11
cmpq %r11, %r8
seta %r11b
movq %r15, %rbx
shrq $5, %rbx
cmpq $2147483647, %rbx
setae %bl
orb %r10b, %r11b
orb %bl, %r11b
cmpq $12, %rdx
setne %dl
orb %r11b, %dl
jne .LBB2_38
movq 488(%rsp), %r12
vmovd (%rsi), %xmm0
vpinsrd $1, 4(%rsi), %xmm0, %xmm0
vpinsrd $2, 8(%rsi), %xmm0, %xmm0
movl $16777216, %edx
vpinsrd $3, %edx, %xmm0, %xmm0
vmovdqa %xmm0, 80(%rsp)
vpxor %xmm12, %xmm12, %xmm12
testq %r8, %r8
je .LBB2_3
cmpq $96, %r8
jb .LBB2_6
vmovdqu (%rcx), %xmm1
vmovdqu 16(%rcx), %xmm2
vmovdqu 32(%rcx), %xmm3
vmovdqu 48(%rcx), %xmm4
vmovdqu 64(%rcx), %xmm5
vmovdqu 80(%rcx), %xmm6
vmovdqa .LCPI2_2(%rip), %xmm0
vpshufb %xmm0, %xmm1, %xmm7
vpshufb %xmm0, %xmm2, %xmm10
vpshufb %xmm0, %xmm3, %xmm8
vpshufb %xmm0, %xmm4, %xmm9
vpshufb %xmm0, %xmm5, %xmm5
vpshufb %xmm0, %xmm6, %xmm6
vmovdqa 176(%rdi), %xmm1
vmovdqa 192(%rdi), %xmm2
vmovdqa 208(%rdi), %xmm3
vmovdqa 224(%rdi), %xmm4
vpclmulqdq $0, %xmm6, %xmm1, %xmm11
vpclmulqdq $1, %xmm6, %xmm1, %xmm12
vpclmulqdq $16, %xmm6, %xmm1, %xmm13
vpxor %xmm12, %xmm13, %xmm12
vpclmulqdq $17, %xmm6, %xmm1, %xmm6
vpclmulqdq $0, %xmm5, %xmm2, %xmm13
vpxor %xmm11, %xmm13, %xmm11
vpclmulqdq $1, %xmm5, %xmm2, %xmm13
vpclmulqdq $16, %xmm5, %xmm2, %xmm14
vpxor %xmm14, %xmm13, %xmm13
vpxor %xmm13, %xmm12, %xmm12
vpclmulqdq $17, %xmm5, %xmm2, %xmm5
vpxor %xmm6, %xmm5, %xmm13
vpclmulqdq $0, %xmm9, %xmm3, %xmm5
vpclmulqdq $1, %xmm9, %xmm3, %xmm6
vpclmulqdq $16, %xmm9, %xmm3, %xmm14
vpxor %xmm6, %xmm14, %xmm6
vpclmulqdq $0, %xmm8, %xmm4, %xmm14
vpxor %xmm5, %xmm14, %xmm14
vmovdqa 240(%rdi), %xmm5
vpxor %xmm14, %xmm11, %xmm11
vpclmulqdq $1, %xmm8, %xmm4, %xmm14
vpxor %xmm6, %xmm14, %xmm14
vmovdqa 256(%rdi), %xmm6
vpclmulqdq $17, %xmm9, %xmm3, %xmm9
vpxor %xmm14, %xmm12, %xmm12
vpclmulqdq $16, %xmm8, %xmm4, %xmm14
vpclmulqdq $17, %xmm8, %xmm4, %xmm8
vpxor %xmm8, %xmm9, %xmm8
vpxor %xmm8, %xmm13, %xmm13
vpclmulqdq $0, %xmm10, %xmm5, %xmm8
vpclmulqdq $1, %xmm10, %xmm5, %xmm9
vpxor %xmm9, %xmm14, %xmm9
vpclmulqdq $16, %xmm10, %xmm5, %xmm14
vpxor %xmm14, %xmm9, %xmm9
vpclmulqdq $0, %xmm7, %xmm6, %xmm14
vpxor %xmm14, %xmm8, %xmm8
vpxor %xmm8, %xmm11, %xmm8
vpclmulqdq $1, %xmm7, %xmm6, %xmm11
vpxor %xmm11, %xmm9, %xmm9
vpxor %xmm9, %xmm12, %xmm9
vpclmulqdq $16, %xmm7, %xmm6, %xmm11
vpxor %xmm11, %xmm9, %xmm9
vpclmulqdq $17, %xmm10, %xmm5, %xmm10
vpclmulqdq $17, %xmm7, %xmm6, %xmm7
vpxor %xmm7, %xmm10, %xmm7
vpxor %xmm7, %xmm13, %xmm10
addq $96, %rcx
leaq -96(%r8), %rsi
cmpq $96, %rsi
jb .LBB2_15
.p2align 4, 0x90
.LBB2_14:
vmovdqu (%rcx), %xmm11
vmovdqu 32(%rcx), %xmm12
vmovdqu 48(%rcx), %xmm13
vmovdqu 64(%rcx), %xmm14
vmovdqu 80(%rcx), %xmm15
vpslldq $8, %xmm9, %xmm7
vpxor %xmm7, %xmm8, %xmm7
vpsrldq $8, %xmm9, %xmm8
vpxor %xmm8, %xmm10, %xmm8
vpbroadcastq .LCPI2_11(%rip), %xmm10
vpclmulqdq $16, %xmm10, %xmm7, %xmm9
vpshufd $78, %xmm7, %xmm7
vpxor %xmm7, %xmm9, %xmm7
vpclmulqdq $16, %xmm10, %xmm7, %xmm9
vpshufd $78, %xmm7, %xmm7
vpshufb %xmm0, %xmm11, %xmm10
vpxor %xmm10, %xmm8, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpxor %xmm7, %xmm9, %xmm10
vpshufb %xmm0, %xmm12, %xmm8
vpshufb %xmm0, %xmm13, %xmm7
vpshufb %xmm0, %xmm14, %xmm9
vpshufb %xmm0, %xmm15, %xmm11
vpclmulqdq $0, %xmm11, %xmm1, %xmm12
vpclmulqdq $1, %xmm11, %xmm1, %xmm13
vpclmulqdq $16, %xmm11, %xmm1, %xmm14
vpxor %xmm13, %xmm14, %xmm13
vpclmulqdq $17, %xmm11, %xmm1, %xmm11
vpclmulqdq $0, %xmm9, %xmm2, %xmm14
vpxor %xmm12, %xmm14, %xmm12
vpclmulqdq $1, %xmm9, %xmm2, %xmm14
vpclmulqdq $16, %xmm9, %xmm2, %xmm15
vpxor %xmm15, %xmm14, %xmm14
vpxor %xmm14, %xmm13, %xmm13
vpclmulqdq $17, %xmm9, %xmm2, %xmm9
vpxor %xmm11, %xmm9, %xmm9
vpclmulqdq $0, %xmm7, %xmm3, %xmm11
vpclmulqdq $1, %xmm7, %xmm3, %xmm14
vpclmulqdq $16, %xmm7, %xmm3, %xmm15
vpxor %xmm15, %xmm14, %xmm14
vpclmulqdq $0, %xmm8, %xmm4, %xmm15
vpxor %xmm15, %xmm11, %xmm11
vpxor %xmm11, %xmm12, %xmm11
vpclmulqdq $1, %xmm8, %xmm4, %xmm12
vpxor %xmm12, %xmm14, %xmm12
vpclmulqdq $17, %xmm7, %xmm3, %xmm7
vpxor %xmm12, %xmm13, %xmm12
vpclmulqdq $17, %xmm8, %xmm4, %xmm13
vpxor %xmm7, %xmm13, %xmm7
vmovdqu 16(%rcx), %xmm13
vpshufb %xmm0, %xmm13, %xmm13
vpclmulqdq $16, %xmm8, %xmm4, %xmm8
vpxor %xmm7, %xmm9, %xmm7
vpclmulqdq $0, %xmm13, %xmm5, %xmm9
vpxor %xmm9, %xmm11, %xmm9
vpclmulqdq $1, %xmm13, %xmm5, %xmm11
vpxor %xmm11, %xmm8, %xmm8
vpclmulqdq $16, %xmm13, %xmm5, %xmm11
vpxor %xmm11, %xmm8, %xmm8
vpxor %xmm8, %xmm12, %xmm11
vpclmulqdq $17, %xmm13, %xmm5, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $0, %xmm10, %xmm6, %xmm8
vpxor %xmm8, %xmm9, %xmm8
vpclmulqdq $1, %xmm10, %xmm6, %xmm9
vpxor %xmm9, %xmm11, %xmm9
vpclmulqdq $16, %xmm10, %xmm6, %xmm11
vpxor %xmm11, %xmm9, %xmm9
vpclmulqdq $17, %xmm10, %xmm6, %xmm10
vpxor %xmm7, %xmm10, %xmm10
addq $96, %rcx
addq $-96, %rsi
cmpq $95, %rsi
ja .LBB2_14
.LBB2_15:
vpslldq $8, %xmm9, %xmm0
vpxor %xmm0, %xmm8, %xmm0
vpsrldq $8, %xmm9, %xmm1
vpxor %xmm1, %xmm10, %xmm1
vpbroadcastq .LCPI2_11(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm0, %xmm3
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm0
vpclmulqdq $16, %xmm2, %xmm0, %xmm2
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpxor %xmm2, %xmm0, %xmm12
cmpq $16, %rsi
jae .LBB2_16
jmp .LBB2_8
.LBB2_6:
movq %r8, %rsi
cmpq $16, %rsi
jb .LBB2_8
.LBB2_16:
vmovdqa 176(%rdi), %xmm0
leaq -16(%rsi), %rdx
testb $16, %dl
je .LBB2_17
cmpq $16, %rdx
jae .LBB2_19
.LBB2_9:
testq %rdx, %rdx
je .LBB2_3
.LBB2_10:
vmovdqa %xmm12, 16(%rsp)
movq %r9, %r14
movq %r8, %rbx
movq %rdi, %r13
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, 32(%rsp)
leaq 32(%rsp), %rdi
movq %rcx, %rsi
callq *memcpy@GOTPCREL(%rip)
vmovdqa 32(%rsp), %xmm0
testq %r15, %r15
je .LBB2_11
movabsq $-68719476704, %rax
leaq (%r15,%rax), %rcx
incq %rax
cmpq %rax, %rcx
movl $0, %eax
vmovdqa 16(%rsp), %xmm2
jb .LBB2_38
movq %r13, %rdi
movq %rbx, %r8
movq %r14, %r9
vmovdqa 176(%r13), %xmm1
vpshufb .LCPI2_2(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI2_11(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm12
jmp .LBB2_23
.LBB2_17:
vmovdqu (%rcx), %xmm1
addq $16, %rcx
vpshufb .LCPI2_2(%rip), %xmm1, %xmm1
vpxor %xmm1, %xmm12, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
vpslldq $8, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpsrldq $8, %xmm3, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpbroadcastq .LCPI2_11(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm2, %xmm4
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm4, %xmm2
vpclmulqdq $16, %xmm3, %xmm2, %xmm3
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm12
movq %rdx, %rsi
cmpq $16, %rdx
jb .LBB2_9
.LBB2_19:
vmovdqa .LCPI2_2(%rip), %xmm1
vpbroadcastq .LCPI2_11(%rip), %xmm2
.p2align 4, 0x90
.LBB2_20:
vmovdqu (%rcx), %xmm3
vmovdqu 16(%rcx), %xmm4
vpshufb %xmm1, %xmm3, %xmm3
vpxor %xmm3, %xmm12, %xmm3
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpclmulqdq $1, %xmm3, %xmm0, %xmm6
vpclmulqdq $16, %xmm3, %xmm0, %xmm7
vpxor %xmm6, %xmm7, %xmm6
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
vpslldq $8, %xmm6, %xmm7
vpxor %xmm7, %xmm5, %xmm5
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm3, %xmm3
vpclmulqdq $16, %xmm2, %xmm5, %xmm6
vpshufd $78, %xmm5, %xmm5
vpxor %xmm5, %xmm6, %xmm5
vpclmulqdq $16, %xmm2, %xmm5, %xmm6
vpshufd $78, %xmm5, %xmm5
vpxor %xmm5, %xmm3, %xmm3
addq $32, %rcx
addq $-32, %rsi
vpshufb %xmm1, %xmm4, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpxor %xmm3, %xmm6, %xmm3
vpclmulqdq $0, %xmm3, %xmm0, %xmm4
vpclmulqdq $1, %xmm3, %xmm0, %xmm5
vpclmulqdq $16, %xmm3, %xmm0, %xmm6
vpxor %xmm5, %xmm6, %xmm5
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
vpslldq $8, %xmm5, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpsrldq $8, %xmm5, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpclmulqdq $16, %xmm2, %xmm4, %xmm5
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $16, %xmm2, %xmm4, %xmm5
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpxor %xmm3, %xmm5, %xmm12
cmpq $15, %rsi
ja .LBB2_20
.LBB2_8:
movq %rsi, %rdx
testq %rdx, %rdx
jne .LBB2_10
.LBB2_3:
testq %r15, %r15
je .LBB2_12
movabsq $-68719476704, %rcx
leaq (%r15,%rcx), %rdx
incq %rcx
cmpq %rcx, %rdx
jb .LBB2_38
.LBB2_23:
movq 504(%rsp), %rax
vmovdqa 80(%rsp), %xmm0
vpshufb .LCPI2_0(%rip), %xmm0, %xmm0
vpaddd .LCPI2_1(%rip), %xmm0, %xmm14
cmpq $96, %r15
jb .LBB2_24
vmovaps (%rdi), %xmm0
vmovaps %xmm0, 96(%rsp)
vmovaps 16(%rdi), %xmm0
vmovaps %xmm0, 352(%rsp)
vmovaps 32(%rdi), %xmm0
vmovaps %xmm0, 336(%rsp)
vmovaps 48(%rdi), %xmm0
vmovaps %xmm0, 320(%rsp)
vmovaps 64(%rdi), %xmm0
vmovaps %xmm0, 304(%rsp)
vmovaps 80(%rdi), %xmm0
vmovaps %xmm0, 288(%rsp)
vmovaps 96(%rdi), %xmm0
vmovaps %xmm0, 272(%rsp)
vmovaps 112(%rdi), %xmm0
vmovaps %xmm0, 256(%rsp)
vmovaps 128(%rdi), %xmm0
vmovaps %xmm0, 240(%rsp)
vmovaps 144(%rdi), %xmm0
vmovaps %xmm0, 224(%rsp)
vmovaps 160(%rdi), %xmm0
vmovaps %xmm0, 208(%rsp)
vmovaps 176(%rdi), %xmm0
vmovaps %xmm0, 192(%rsp)
vmovaps 192(%rdi), %xmm0
vmovaps %xmm0, 176(%rsp)
vmovaps 208(%rdi), %xmm0
vmovaps %xmm0, 160(%rsp)
vmovaps 224(%rdi), %xmm0
vmovaps %xmm0, 144(%rsp)
vmovaps 240(%rdi), %xmm0
vmovaps %xmm0, 128(%rsp)
movq %r15, %rbx
vmovdqa 256(%rdi), %xmm0
vmovdqa %xmm0, 112(%rsp)
.p2align 4, 0x90
.LBB2_28:
vmovdqa %xmm14, (%rsp)
vmovdqu (%r9), %xmm9
vmovdqa %xmm9, 48(%rsp)
vmovups 32(%r9), %xmm0
vmovaps %xmm0, 16(%rsp)
vmovdqu 48(%r9), %xmm7
vmovdqu 64(%r9), %xmm6
vmovdqa %xmm6, 384(%rsp)
vmovdqu 80(%r9), %xmm8
vmovdqa %xmm8, 64(%rsp)
vmovdqa .LCPI2_2(%rip), %xmm2
vpshufb %xmm2, %xmm14, %xmm0
vpaddd .LCPI2_1(%rip), %xmm14, %xmm1
vpshufb %xmm2, %xmm1, %xmm1
vpaddd .LCPI2_4(%rip), %xmm14, %xmm3
vpshufb %xmm2, %xmm3, %xmm3
vpaddd .LCPI2_5(%rip), %xmm14, %xmm4
vpshufb %xmm2, %xmm4, %xmm4
vpaddd .LCPI2_6(%rip), %xmm14, %xmm10
vpshufb %xmm2, %xmm10, %xmm10
vpaddd .LCPI2_7(%rip), %xmm14, %xmm11
vpshufb %xmm2, %xmm11, %xmm5
vpshufb %xmm2, %xmm9, %xmm11
vpxor %xmm11, %xmm12, %xmm9
vmovdqa %xmm9, 368(%rsp)
vpshufb %xmm2, %xmm8, %xmm9
vmovdqa 96(%rsp), %xmm8
vpxor %xmm0, %xmm8, %xmm11
vpxor %xmm1, %xmm8, %xmm12
vpxor %xmm3, %xmm8, %xmm13
vpxor %xmm4, %xmm8, %xmm14
vpxor %xmm10, %xmm8, %xmm15
vpxor %xmm5, %xmm8, %xmm10
vmovaps 352(%rsp), %xmm0
#APP
vaesenc %xmm0, %xmm11, %xmm11
vaesenc %xmm0, %xmm12, %xmm12
vaesenc %xmm0, %xmm13, %xmm13
vaesenc %xmm0, %xmm14, %xmm14
vaesenc %xmm0, %xmm15, %xmm15
vaesenc %xmm0, %xmm10, %xmm10
#NO_APP
vpxor %xmm3, %xmm3, %xmm3
vpxor %xmm4, %xmm4, %xmm4
vxorps %xmm0, %xmm0, %xmm0
vmovaps 336(%rsp), %xmm5
vmovaps 192(%rsp), %xmm8
#APP
vaesenc %xmm5, %xmm11, %xmm11
vaesenc %xmm5, %xmm12, %xmm12
vaesenc %xmm5, %xmm13, %xmm13
vaesenc %xmm5, %xmm14, %xmm14
vaesenc %xmm5, %xmm15, %xmm15
vaesenc %xmm5, %xmm10, %xmm10
vpclmulqdq $16, %xmm8, %xmm9, %xmm1
vpxor %xmm1, %xmm3, %xmm3
vpclmulqdq $0, %xmm8, %xmm9, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpclmulqdq $17, %xmm8, %xmm9, %xmm1
vpxor %xmm1, %xmm4, %xmm4
vpclmulqdq $1, %xmm8, %xmm9, %xmm1
vpxor %xmm1, %xmm3, %xmm3
#NO_APP
vpshufb %xmm2, %xmm6, %xmm1
vmovaps 320(%rsp), %xmm6
vmovaps 176(%rsp), %xmm8
#APP
vaesenc %xmm6, %xmm11, %xmm11
vaesenc %xmm6, %xmm12, %xmm12
vaesenc %xmm6, %xmm13, %xmm13
vaesenc %xmm6, %xmm14, %xmm14
vaesenc %xmm6, %xmm15, %xmm15
vaesenc %xmm6, %xmm10, %xmm10
vpclmulqdq $16, %xmm8, %xmm1, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpclmulqdq $0, %xmm8, %xmm1, %xmm5
vpxor %xmm5, %xmm0, %xmm0
vpclmulqdq $17, %xmm8, %xmm1, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpclmulqdq $1, %xmm8, %xmm1, %xmm5
vpxor %xmm5, %xmm3, %xmm3
#NO_APP
vpshufb %xmm2, %xmm7, %xmm1
vmovaps 304(%rsp), %xmm6
vmovaps 160(%rsp), %xmm8
#APP
vaesenc %xmm6, %xmm11, %xmm11
vaesenc %xmm6, %xmm12, %xmm12
vaesenc %xmm6, %xmm13, %xmm13
vaesenc %xmm6, %xmm14, %xmm14
vaesenc %xmm6, %xmm15, %xmm15
vaesenc %xmm6, %xmm10, %xmm10
vpclmulqdq $16, %xmm8, %xmm1, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpclmulqdq $0, %xmm8, %xmm1, %xmm5
vpxor %xmm5, %xmm0, %xmm0
vpclmulqdq $17, %xmm8, %xmm1, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpclmulqdq $1, %xmm8, %xmm1, %xmm5
vpxor %xmm5, %xmm3, %xmm3
#NO_APP
vmovdqa 16(%rsp), %xmm1
vpshufb %xmm2, %xmm1, %xmm1
vmovaps 288(%rsp), %xmm6
vmovaps 144(%rsp), %xmm8
#APP
vaesenc %xmm6, %xmm11, %xmm11
vaesenc %xmm6, %xmm12, %xmm12
vaesenc %xmm6, %xmm13, %xmm13
vaesenc %xmm6, %xmm14, %xmm14
vaesenc %xmm6, %xmm15, %xmm15
vaesenc %xmm6, %xmm10, %xmm10
vpclmulqdq $16, %xmm8, %xmm1, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpclmulqdq $0, %xmm8, %xmm1, %xmm5
vpxor %xmm5, %xmm0, %xmm0
vpclmulqdq $17, %xmm8, %xmm1, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpclmulqdq $1, %xmm8, %xmm1, %xmm5
vpxor %xmm5, %xmm3, %xmm3
#NO_APP
vmovdqu 16(%r9), %xmm1
vpshufb %xmm2, %xmm1, %xmm5
vmovaps 272(%rsp), %xmm8
vmovaps 128(%rsp), %xmm9
#APP
vaesenc %xmm8, %xmm11, %xmm11
vaesenc %xmm8, %xmm12, %xmm12
vaesenc %xmm8, %xmm13, %xmm13
vaesenc %xmm8, %xmm14, %xmm14
vaesenc %xmm8, %xmm15, %xmm15
vaesenc %xmm8, %xmm10, %xmm10
vpclmulqdq $16, %xmm9, %xmm5, %xmm6
vpxor %xmm6, %xmm3, %xmm3
vpclmulqdq $0, %xmm9, %xmm5, %xmm6
vpxor %xmm6, %xmm0, %xmm0
vpclmulqdq $17, %xmm9, %xmm5, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpclmulqdq $1, %xmm9, %xmm5, %xmm6
vpxor %xmm6, %xmm3, %xmm3
#NO_APP
vmovaps 256(%rsp), %xmm5
#APP
vaesenc %xmm5, %xmm11, %xmm11
vaesenc %xmm5, %xmm12, %xmm12
vaesenc %xmm5, %xmm13, %xmm13
vaesenc %xmm5, %xmm14, %xmm14
vaesenc %xmm5, %xmm15, %xmm15
vaesenc %xmm5, %xmm10, %xmm10
#NO_APP
vmovdqa 240(%rsp), %xmm6
vmovaps 112(%rsp), %xmm8
vmovdqa 368(%rsp), %xmm2
#APP
vaesenc %xmm6, %xmm11, %xmm11
vaesenc %xmm6, %xmm12, %xmm12
vaesenc %xmm6, %xmm13, %xmm13
vaesenc %xmm6, %xmm14, %xmm14
vaesenc %xmm6, %xmm15, %xmm15
vaesenc %xmm6, %xmm10, %xmm10
vpclmulqdq $16, %xmm8, %xmm2, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpclmulqdq $0, %xmm8, %xmm2, %xmm5
vpxor %xmm5, %xmm0, %xmm0
vpclmulqdq $17, %xmm8, %xmm2, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpclmulqdq $1, %xmm8, %xmm2, %xmm5
vpxor %xmm5, %xmm3, %xmm3
#NO_APP
vpxor %xmm6, %xmm6, %xmm6
vpunpcklqdq %xmm3, %xmm6, %xmm5
vpxor %xmm5, %xmm0, %xmm0
vpunpckhqdq %xmm6, %xmm3, %xmm3
vpxor %xmm3, %xmm4, %xmm3
vpbroadcastq .LCPI2_11(%rip), %xmm9
vpclmulqdq $16, %xmm9, %xmm0, %xmm4
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm4, %xmm0
vpshufd $78, %xmm0, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vmovaps 224(%rsp), %xmm4
#APP
vaesenc %xmm4, %xmm11, %xmm11
vaesenc %xmm4, %xmm12, %xmm12
vaesenc %xmm4, %xmm13, %xmm13
vaesenc %xmm4, %xmm14, %xmm14
vaesenc %xmm4, %xmm15, %xmm15
vaesenc %xmm4, %xmm10, %xmm10
#NO_APP
vmovaps 208(%rsp), %xmm4
#APP
vaesenclast %xmm4, %xmm11, %xmm11
vaesenclast %xmm4, %xmm12, %xmm12
vaesenclast %xmm4, %xmm13, %xmm13
vaesenclast %xmm4, %xmm14, %xmm14
vaesenclast %xmm4, %xmm15, %xmm15
vaesenclast %xmm4, %xmm10, %xmm10
#NO_APP
vpxor 48(%rsp), %xmm11, %xmm4
vpxor %xmm1, %xmm12, %xmm1
vpxor 16(%rsp), %xmm13, %xmm5
vpxor %xmm7, %xmm14, %xmm6
vmovdqa (%rsp), %xmm14
vpxor 384(%rsp), %xmm15, %xmm8
vmovdqu %xmm4, (%rax)
vmovdqu %xmm1, 16(%rax)
vmovdqu %xmm5, 32(%rax)
vmovdqu %xmm6, 48(%rax)
vpxor 64(%rsp), %xmm10, %xmm1
vmovdqu %xmm8, 64(%rax)
vmovdqu %xmm1, 80(%rax)
vpclmulqdq $16, %xmm9, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm12
addq $96, %r9
addq $96, %rax
addq $-96, %rbx
vpaddd .LCPI2_8(%rip), %xmm14, %xmm14
cmpq $95, %rbx
ja .LBB2_28
vmovdqa %xmm12, %xmm1
cmpq $16, %rbx
jb .LBB2_26
.LBB2_29:
vmovdqa 176(%rdi), %xmm0
vmovaps (%rdi), %xmm2
vmovaps %xmm2, 16(%rsp)
vmovaps 16(%rdi), %xmm2
vmovaps %xmm2, (%rsp)
vmovaps 32(%rdi), %xmm2
vmovaps %xmm2, 64(%rsp)
vmovdqa 48(%rdi), %xmm2
vmovdqa %xmm2, 48(%rsp)
vmovdqa 64(%rdi), %xmm5
vmovdqa 80(%rdi), %xmm6
vmovdqa 96(%rdi), %xmm7
vmovdqa 112(%rdi), %xmm8
vmovdqa 128(%rdi), %xmm9
vmovdqa 144(%rdi), %xmm10
movq %rdi, %r13
vmovdqa 160(%rdi), %xmm11
vmovdqa .LCPI2_2(%rip), %xmm12
vpbroadcastq .LCPI2_11(%rip), %xmm13
.p2align 4, 0x90
.LBB2_30:
vmovdqu (%r9), %xmm15
vmovdqa %xmm14, %xmm4
vpshufb %xmm12, %xmm15, %xmm14
vpxor %xmm1, %xmm14, %xmm14
vpclmulqdq $0, %xmm14, %xmm0, %xmm1
vpclmulqdq $1, %xmm14, %xmm0, %xmm2
vpclmulqdq $16, %xmm14, %xmm0, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpclmulqdq $17, %xmm14, %xmm0, %xmm3
vpsrldq $8, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $16, %xmm13, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpshufd $78, %xmm1, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vpshufb %xmm12, %xmm4, %xmm3
vpxor 16(%rsp), %xmm3, %xmm3
vaesenc (%rsp), %xmm3, %xmm3
vaesenc 64(%rsp), %xmm3, %xmm3
vaesenc 48(%rsp), %xmm3, %xmm3
vaesenc %xmm5, %xmm3, %xmm3
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm8, %xmm3, %xmm3
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm10, %xmm3, %xmm3
vaesenclast %xmm11, %xmm3, %xmm3
vpxor %xmm3, %xmm15, %xmm3
vmovdqu %xmm3, (%rax)
vpclmulqdq $16, %xmm13, %xmm1, %xmm1
vpxor %xmm2, %xmm1, %xmm1
leaq 16(%rax), %r14
addq $-16, %rbx
addq $16, %r9
vpaddd .LCPI2_1(%rip), %xmm4, %xmm14
movq %r14, %rax
cmpq $15, %rbx
ja .LBB2_30
jmp .LBB2_31
.LBB2_24:
movq %r15, %rbx
vmovdqa %xmm12, %xmm1
cmpq $16, %rbx
jae .LBB2_29
.LBB2_26:
movq %rdi, %r13
movq %rax, %r14
.LBB2_31:
vmovdqa %xmm1, 16(%rsp)
movq %r8, %rbp
vpxor %xmm1, %xmm1, %xmm1
vpxor %xmm2, %xmm2, %xmm2
testq %rbx, %rbx
je .LBB2_33
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, 32(%rsp)
leaq 32(%rsp), %rdi
movq memcpy@GOTPCREL(%rip), %r12
movq %r9, %rsi
movq %rbx, %rdx
vmovdqa %xmm14, (%rsp)
callq *%r12
vmovdqa (%rsp), %xmm0
vpshufb .LCPI2_2(%rip), %xmm0, %xmm0
vpxor (%r13), %xmm0, %xmm0
vaesenc 16(%r13), %xmm0, %xmm0
vaesenc 32(%r13), %xmm0, %xmm0
vaesenc 48(%r13), %xmm0, %xmm0
vaesenc 64(%r13), %xmm0, %xmm0
vaesenc 80(%r13), %xmm0, %xmm0
vaesenc 96(%r13), %xmm0, %xmm0
vaesenc 112(%r13), %xmm0, %xmm0
vaesenc 128(%r13), %xmm0, %xmm0
vaesenc 144(%r13), %xmm0, %xmm0
vmovdqa 32(%rsp), %xmm1
vmovdqa %xmm1, (%rsp)
vaesenclast 160(%r13), %xmm0, %xmm0
vpxor %xmm1, %xmm0, %xmm0
vmovdqa %xmm0, 32(%rsp)
leaq 32(%rsp), %rsi
movq %r14, %rdi
movq %rbx, %rdx
callq *%r12
vmovdqa (%rsp), %xmm2
vpxor %xmm1, %xmm1, %xmm1
movq 488(%rsp), %r12
.LBB2_33:
vmovdqu (%r12), %xmm0
vmovdqa %xmm0, (%rsp)
vmovdqa %xmm2, 400(%rsp)
vmovdqa %xmm1, 32(%rsp)
leaq 32(%rsp), %rdi
leaq 400(%rsp), %rsi
movq %rbx, %rdx
callq *memcpy@GOTPCREL(%rip)
testq %rbx, %rbx
je .LBB2_34
vmovdqa 32(%rsp), %xmm0
vpshufb .LCPI2_2(%rip), %xmm0, %xmm0
vpxor 16(%rsp), %xmm0, %xmm0
movq %r13, %rdi
vmovdqa 176(%r13), %xmm1
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI2_11(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm12
movq %rbp, %r8
jmp .LBB2_36
.LBB2_11:
movq %r13, %rdi
vmovdqa 176(%r13), %xmm1
vpshufb .LCPI2_2(%rip), %xmm0, %xmm0
vpxor 16(%rsp), %xmm0, %xmm0
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI2_11(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm12
movq %rbx, %r8
.LBB2_12:
vmovdqu (%r12), %xmm5
jmp .LBB2_37
.LBB2_34:
movq %r13, %rdi
movq %rbp, %r8
vmovdqa 16(%rsp), %xmm12
.LBB2_36:
vmovdqa (%rsp), %xmm5
.LBB2_37:
vmovdqa 176(%rdi), %xmm0
vmovq %r8, %xmm1
vmovq %r15, %xmm2
vpunpcklqdq %xmm1, %xmm2, %xmm1
vpsllq $3, %xmm1, %xmm1
vpxor %xmm1, %xmm12, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm0, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpbroadcastq .LCPI2_11(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm4
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpxor %xmm0, %xmm2, %xmm0
vmovdqa 80(%rsp), %xmm2
vpxor (%rdi), %xmm2, %xmm2
vaesenc 16(%rdi), %xmm2, %xmm2
vaesenc 32(%rdi), %xmm2, %xmm2
vaesenc 48(%rdi), %xmm2, %xmm2
vaesenc 64(%rdi), %xmm2, %xmm2
vaesenc 80(%rdi), %xmm2, %xmm2
vaesenc 96(%rdi), %xmm2, %xmm2
vaesenc 112(%rdi), %xmm2, %xmm2
vaesenc 128(%rdi), %xmm2, %xmm2
vaesenc 144(%rdi), %xmm2, %xmm2
vaesenclast 160(%rdi), %xmm2, %xmm2
vpshufb .LCPI2_2(%rip), %xmm0, %xmm0
vpshufb .LCPI2_9(%rip), %xmm3, %xmm3
vpshufb .LCPI2_10(%rip), %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpxor %xmm1, %xmm5, %xmm1
vpxor %xmm0, %xmm1, %xmm0
vpxor %xmm2, %xmm0, %xmm0
xorl %eax, %eax
vptest %xmm0, %xmm0
sete %al
.LBB2_38:
addq $424, %rsp
.cfi_def_cfa_offset 56
popq %rbx
.cfi_def_cfa_offset 48
popq %r12
.cfi_def_cfa_offset 40
popq %r13
.cfi_def_cfa_offset 32
popq %r14
.cfi_def_cfa_offset 24
popq %r15
.cfi_def_cfa_offset 16
popq %rbp
.cfi_def_cfa_offset 8
retq
.Lfunc_end2:
.size haberdashery_aes128gcm_skylake_decrypt, .Lfunc_end2-haberdashery_aes128gcm_skylake_decrypt
.cfi_endproc
.section .text.haberdashery_aes128gcm_skylake_is_supported,"ax",@progbits
.globl haberdashery_aes128gcm_skylake_is_supported
.p2align 4, 0x90
.type haberdashery_aes128gcm_skylake_is_supported,@function
haberdashery_aes128gcm_skylake_is_supported:
.cfi_startproc
movl $1, %eax
xorl %ecx, %ecx
#APP
movq %rbx, %rsi
cpuid
xchgq %rbx, %rsi
#NO_APP
movl %ecx, %esi
movl %edx, %edi
notl %edi
notl %esi
movl $7, %eax
xorl %ecx, %ecx
#APP
movq %rbx, %r8
cpuid
xchgq %rbx, %r8
#NO_APP
andl $1993871875, %esi
andl $125829120, %edi
orl %esi, %edi
notl %r8d
andl $9175337, %r8d
xorl %eax, %eax
orl %edi, %r8d
sete %al
retq
.Lfunc_end3:
.size haberdashery_aes128gcm_skylake_is_supported, .Lfunc_end3-haberdashery_aes128gcm_skylake_is_supported
.cfi_endproc
.ident "rustc version 1.86.0-nightly (9cd60bd2c 2025-02-15)"
.section ".note.GNU-stack","",@progbits
|
ts-phantomnk90/haberdashery
| 65,592
|
asm/aes128gcm_streaming_haswell.s
|
# @generated
# https://github.com/facebookincubator/haberdashery/
.text
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI0_0:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI0_1:
.zero 8
.quad -4467570830351532032
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI0_2:
.quad -4467570830351532032
.section .text.haberdashery_aes128gcm_streaming_haswell_init_key,"ax",@progbits
.globl haberdashery_aes128gcm_streaming_haswell_init_key
.p2align 4, 0x90
.type haberdashery_aes128gcm_streaming_haswell_init_key,@function
haberdashery_aes128gcm_streaming_haswell_init_key:
.cfi_startproc
cmpq $16, %rdx
jne .LBB0_2
vmovdqu (%rsi), %xmm0
vpslldq $4, %xmm0, %xmm1
vpslldq $8, %xmm0, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vaeskeygenassist $1, %xmm0, %xmm2
vpslldq $12, %xmm0, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpshufd $255, %xmm2, %xmm2
vpxor %xmm0, %xmm1, %xmm1
vmovdqa %xmm0, %xmm13
vmovdqa %xmm0, -88(%rsp)
vpxor %xmm1, %xmm2, %xmm0
vpslldq $4, %xmm0, %xmm2
vpslldq $8, %xmm0, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vpslldq $12, %xmm0, %xmm3
vaeskeygenassist $2, %xmm0, %xmm4
vpxor %xmm3, %xmm2, %xmm2
vpshufd $255, %xmm4, %xmm3
vpxor %xmm0, %xmm2, %xmm2
vmovdqa %xmm0, %xmm1
vmovdqa %xmm0, -24(%rsp)
vpxor %xmm2, %xmm3, %xmm0
vpslldq $4, %xmm0, %xmm3
vpslldq $8, %xmm0, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpslldq $12, %xmm0, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vaeskeygenassist $4, %xmm0, %xmm4
vpshufd $255, %xmm4, %xmm4
vpxor %xmm0, %xmm3, %xmm3
vmovdqa %xmm0, %xmm2
vmovdqa %xmm0, -40(%rsp)
vpxor %xmm3, %xmm4, %xmm0
vpslldq $4, %xmm0, %xmm4
vpslldq $8, %xmm0, %xmm5
vaeskeygenassist $8, %xmm0, %xmm6
vpxor %xmm5, %xmm4, %xmm4
vpslldq $12, %xmm0, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpshufd $255, %xmm6, %xmm5
vpxor %xmm0, %xmm4, %xmm4
vmovdqa %xmm0, -56(%rsp)
vpxor %xmm4, %xmm5, %xmm4
vpslldq $4, %xmm4, %xmm5
vpslldq $8, %xmm4, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vaeskeygenassist $16, %xmm4, %xmm6
vpslldq $12, %xmm4, %xmm7
vpxor %xmm7, %xmm5, %xmm5
vpshufd $255, %xmm6, %xmm6
vpxor %xmm4, %xmm5, %xmm5
vpxor %xmm5, %xmm6, %xmm5
vpslldq $4, %xmm5, %xmm6
vpslldq $8, %xmm5, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpslldq $12, %xmm5, %xmm7
vaeskeygenassist $32, %xmm5, %xmm8
vpxor %xmm7, %xmm6, %xmm6
vpshufd $255, %xmm8, %xmm7
vpxor %xmm5, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm6
vpslldq $4, %xmm6, %xmm7
vpslldq $8, %xmm6, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpslldq $12, %xmm6, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vaeskeygenassist $64, %xmm6, %xmm8
vpshufd $255, %xmm8, %xmm8
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm7, %xmm8, %xmm7
vpslldq $4, %xmm7, %xmm8
vpslldq $8, %xmm7, %xmm9
vaeskeygenassist $128, %xmm7, %xmm10
vpxor %xmm9, %xmm8, %xmm8
vpslldq $12, %xmm7, %xmm9
vpxor %xmm9, %xmm8, %xmm8
vpshufd $255, %xmm10, %xmm9
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm8, %xmm9, %xmm8
vpslldq $4, %xmm8, %xmm9
vpslldq $8, %xmm8, %xmm10
vpxor %xmm10, %xmm9, %xmm9
vaeskeygenassist $27, %xmm8, %xmm10
vpslldq $12, %xmm8, %xmm11
vpxor %xmm11, %xmm9, %xmm9
vpshufd $255, %xmm10, %xmm10
vpxor %xmm8, %xmm9, %xmm9
vpxor %xmm9, %xmm10, %xmm9
vpslldq $4, %xmm9, %xmm10
vpslldq $8, %xmm9, %xmm11
vpxor %xmm11, %xmm10, %xmm10
vpslldq $12, %xmm9, %xmm11
vaeskeygenassist $54, %xmm9, %xmm12
vpxor %xmm11, %xmm10, %xmm10
vpshufd $255, %xmm12, %xmm11
vpxor %xmm9, %xmm10, %xmm10
vpxor %xmm10, %xmm11, %xmm3
vmovdqa %xmm3, -72(%rsp)
vaesenc %xmm1, %xmm13, %xmm11
vaesenc %xmm2, %xmm11, %xmm11
vaesenc %xmm0, %xmm11, %xmm11
vaesenc %xmm4, %xmm11, %xmm11
vaesenc %xmm5, %xmm11, %xmm11
vaesenc %xmm6, %xmm11, %xmm11
vaesenc %xmm7, %xmm11, %xmm11
vaesenc %xmm8, %xmm11, %xmm11
vaesenc %xmm9, %xmm11, %xmm11
vaesenclast %xmm3, %xmm11, %xmm11
vpshufb .LCPI0_0(%rip), %xmm11, %xmm11
vpsrlq $63, %xmm11, %xmm12
vpaddq %xmm11, %xmm11, %xmm11
vpshufd $78, %xmm12, %xmm13
vpor %xmm13, %xmm11, %xmm11
vpxor %xmm13, %xmm13, %xmm13
vpblendd $12, %xmm12, %xmm13, %xmm12
vpsllq $63, %xmm12, %xmm13
vpxor %xmm13, %xmm11, %xmm11
vpsllq $62, %xmm12, %xmm13
vpsllq $57, %xmm12, %xmm12
vpxor %xmm12, %xmm13, %xmm12
vpxor %xmm12, %xmm11, %xmm11
vpclmulqdq $0, %xmm11, %xmm11, %xmm12
vpbroadcastq .LCPI0_2(%rip), %xmm13
vpclmulqdq $16, %xmm13, %xmm12, %xmm14
vpshufd $78, %xmm12, %xmm12
vpxor %xmm12, %xmm14, %xmm12
vpclmulqdq $16, %xmm13, %xmm12, %xmm14
vpclmulqdq $17, %xmm11, %xmm11, %xmm15
vpshufd $78, %xmm12, %xmm12
vpxor %xmm12, %xmm15, %xmm12
vpxor %xmm14, %xmm12, %xmm12
vpclmulqdq $16, %xmm11, %xmm12, %xmm14
vpclmulqdq $1, %xmm11, %xmm12, %xmm15
vpxor %xmm14, %xmm15, %xmm14
vpclmulqdq $0, %xmm11, %xmm12, %xmm15
vpslldq $8, %xmm14, %xmm10
vpxor %xmm10, %xmm15, %xmm10
vpclmulqdq $16, %xmm13, %xmm10, %xmm15
vpshufd $78, %xmm10, %xmm10
vpclmulqdq $17, %xmm11, %xmm12, %xmm0
vpxor %xmm10, %xmm15, %xmm10
vpsrldq $8, %xmm14, %xmm14
vpxor %xmm0, %xmm14, %xmm0
vpshufd $78, %xmm10, %xmm14
vpxor %xmm0, %xmm14, %xmm0
vpclmulqdq $16, %xmm13, %xmm10, %xmm10
vpxor %xmm0, %xmm10, %xmm14
vpclmulqdq $0, %xmm14, %xmm14, %xmm0
vpclmulqdq $16, %xmm13, %xmm0, %xmm10
vpclmulqdq $0, %xmm12, %xmm12, %xmm15
vpclmulqdq $16, %xmm13, %xmm15, %xmm1
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm10, %xmm0
vpshufd $78, %xmm15, %xmm10
vpxor %xmm1, %xmm10, %xmm1
vpclmulqdq $17, %xmm12, %xmm12, %xmm10
vpshufd $78, %xmm1, %xmm15
vpxor %xmm15, %xmm10, %xmm10
vpclmulqdq $16, %xmm13, %xmm1, %xmm1
vpxor %xmm1, %xmm10, %xmm15
vpclmulqdq $17, %xmm14, %xmm14, %xmm2
vpshufd $78, %xmm0, %xmm10
vpclmulqdq $16, %xmm11, %xmm15, %xmm1
vpxor %xmm2, %xmm10, %xmm2
vpclmulqdq $1, %xmm11, %xmm15, %xmm10
vpxor %xmm1, %xmm10, %xmm1
vpclmulqdq $16, %xmm13, %xmm0, %xmm0
vpclmulqdq $0, %xmm11, %xmm15, %xmm10
vpslldq $8, %xmm1, %xmm3
vpxor %xmm3, %xmm10, %xmm3
vpclmulqdq $16, %xmm13, %xmm3, %xmm10
vpxor %xmm0, %xmm2, %xmm0
vpshufd $78, %xmm3, %xmm2
vpxor %xmm2, %xmm10, %xmm2
vpsrldq $8, %xmm1, %xmm1
vpclmulqdq $17, %xmm11, %xmm15, %xmm3
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm13, %xmm2, %xmm3
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpxor %xmm3, %xmm1, %xmm1
vmovaps -88(%rsp), %xmm2
vmovaps %xmm2, (%rdi)
vmovaps -24(%rsp), %xmm2
vmovaps %xmm2, 16(%rdi)
vmovaps -40(%rsp), %xmm2
vmovaps %xmm2, 32(%rdi)
vmovaps -56(%rsp), %xmm2
vmovaps %xmm2, 48(%rdi)
vmovdqa %xmm4, 64(%rdi)
vmovdqa %xmm5, 80(%rdi)
vmovdqa %xmm6, 96(%rdi)
vmovdqa %xmm7, 112(%rdi)
vmovdqa %xmm8, 128(%rdi)
vmovdqa %xmm9, 144(%rdi)
vmovaps -72(%rsp), %xmm2
vmovaps %xmm2, 160(%rdi)
vmovdqa %xmm11, 176(%rdi)
vmovdqa %xmm12, 192(%rdi)
vmovdqa %xmm14, 208(%rdi)
vmovdqa %xmm15, 224(%rdi)
vmovdqa %xmm1, 240(%rdi)
vmovdqa %xmm0, 256(%rdi)
.LBB0_2:
xorl %eax, %eax
cmpq $16, %rdx
sete %al
retq
.Lfunc_end0:
.size haberdashery_aes128gcm_streaming_haswell_init_key, .Lfunc_end0-haberdashery_aes128gcm_streaming_haswell_init_key
.cfi_endproc
.section .text.haberdashery_aes128gcm_streaming_haswell_is_supported,"ax",@progbits
.globl haberdashery_aes128gcm_streaming_haswell_is_supported
.p2align 4, 0x90
.type haberdashery_aes128gcm_streaming_haswell_is_supported,@function
haberdashery_aes128gcm_streaming_haswell_is_supported:
.cfi_startproc
movl $1, %eax
xorl %ecx, %ecx
#APP
movq %rbx, %rsi
cpuid
xchgq %rbx, %rsi
#NO_APP
movl %ecx, %esi
movl %edx, %edi
notl %edi
notl %esi
movl $7, %eax
xorl %ecx, %ecx
#APP
movq %rbx, %r8
cpuid
xchgq %rbx, %r8
#NO_APP
andl $1993871875, %esi
andl $125829120, %edi
orl %esi, %edi
notl %r8d
andl $297, %r8d
xorl %eax, %eax
orl %edi, %r8d
sete %al
retq
.Lfunc_end1:
.size haberdashery_aes128gcm_streaming_haswell_is_supported, .Lfunc_end1-haberdashery_aes128gcm_streaming_haswell_is_supported
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI2_0:
.byte 15
.byte 128
.byte 128
.byte 128
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI2_1:
.long 1
.long 0
.long 0
.long 0
.section .text.haberdashery_aes128gcm_streaming_haswell_init_state,"ax",@progbits
.globl haberdashery_aes128gcm_streaming_haswell_init_state
.p2align 4, 0x90
.type haberdashery_aes128gcm_streaming_haswell_init_state,@function
haberdashery_aes128gcm_streaming_haswell_init_state:
.cfi_startproc
cmpq $12, %rcx
jne .LBB2_2
vmovd (%rdx), %xmm0
vpinsrd $1, 4(%rdx), %xmm0, %xmm0
vpinsrd $2, 8(%rdx), %xmm0, %xmm0
movl $16777216, %eax
vpinsrd $3, %eax, %xmm0, %xmm0
vpshufb .LCPI2_0(%rip), %xmm0, %xmm1
vpaddd .LCPI2_1(%rip), %xmm1, %xmm1
vxorps %xmm2, %xmm2, %xmm2
vmovups %ymm2, -56(%rsp)
vmovups %ymm2, -88(%rsp)
movq $0, -24(%rsp)
vxorps %xmm2, %xmm2, %xmm2
vmovaps %xmm2, (%rdi)
vmovdqa %xmm0, 16(%rdi)
vmovdqa %xmm1, 32(%rdi)
vmovups -56(%rsp), %ymm0
vmovups -40(%rsp), %xmm1
movq -24(%rsp), %rax
movq -16(%rsp), %rdx
vmovups %ymm0, 48(%rdi)
vmovups %xmm1, 64(%rdi)
movq %rax, 80(%rdi)
movq %rdx, 88(%rdi)
vmovaps %xmm2, 96(%rdi)
.LBB2_2:
xorl %eax, %eax
cmpq $12, %rcx
sete %al
vzeroupper
retq
.Lfunc_end2:
.size haberdashery_aes128gcm_streaming_haswell_init_state, .Lfunc_end2-haberdashery_aes128gcm_streaming_haswell_init_state
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI3_0:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI3_1:
.zero 8
.quad -4467570830351532032
.LCPI3_2:
.zero 16
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI3_3:
.quad -4467570830351532032
.section .text.haberdashery_aes128gcm_streaming_haswell_aad_update,"ax",@progbits
.globl haberdashery_aes128gcm_streaming_haswell_aad_update
.p2align 4, 0x90
.type haberdashery_aes128gcm_streaming_haswell_aad_update,@function
haberdashery_aes128gcm_streaming_haswell_aad_update:
.cfi_startproc
movabsq $-2305843009213693951, %rax
leaq (%rcx,%rax), %r8
incq %rax
cmpq %rax, %r8
jae .LBB3_3
xorl %eax, %eax
retq
.LBB3_3:
pushq %rbp
.cfi_def_cfa_offset 16
pushq %r15
.cfi_def_cfa_offset 24
pushq %r14
.cfi_def_cfa_offset 32
pushq %r13
.cfi_def_cfa_offset 40
pushq %r12
.cfi_def_cfa_offset 48
pushq %rbx
.cfi_def_cfa_offset 56
subq $72, %rsp
.cfi_def_cfa_offset 128
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
.cfi_offset %rbp, -16
movq 96(%rdi), %r14
addq %rcx, %r14
xorl %eax, %eax
movabsq $2305843009213693950, %r8
cmpq %r8, %r14
ja .LBB3_27
cmpq $0, 104(%rdi)
jne .LBB3_27
movq 80(%rdi), %r8
testq %r8, %r8
je .LBB3_6
leaq (%r8,%rcx), %rbx
cmpq $15, %rbx
ja .LBB3_9
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, (%rsp)
leaq (%rsp,%r8), %rax
movq %rdi, %r15
movq %rax, %rdi
movq %rdx, %rsi
movq %rcx, %rdx
movq %rcx, %r12
callq *memcpy@GOTPCREL(%rip)
movq %r15, %rdi
movq %r12, %rcx
vmovdqa 64(%r15), %xmm0
vpxor (%rsp), %xmm0, %xmm0
jmp .LBB3_25
.LBB3_6:
movq %rcx, %rbx
cmpq $96, %rbx
jae .LBB3_11
jmp .LBB3_15
.LBB3_9:
vmovaps 64(%rdi), %xmm0
vmovaps %xmm0, (%rsp)
movl $16, %eax
subq %r8, %rax
addq %rsp, %r8
leaq (%rdx,%rax), %r15
movq %rcx, %rbx
subq %rax, %rbx
movq %rdi, %r12
movq %r8, %rdi
movq %rsi, %r13
movq %rdx, %rsi
movq %rax, %rdx
movq %rcx, %rbp
callq *memcpy@GOTPCREL(%rip)
movq %r13, %rsi
movq %r12, %rdi
movq %rbp, %rcx
movq $0, 80(%r12)
vmovdqa (%rsp), %xmm0
vpshufb .LCPI3_0(%rip), %xmm0, %xmm0
vpxor (%r12), %xmm0, %xmm0
vmovdqa 176(%r13), %xmm1
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpxor %xmm3, %xmm4, %xmm1
vpslldq $8, %xmm1, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vpbroadcastq .LCPI3_3(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm2, %xmm4
vpsrldq $8, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpshufd $78, %xmm2, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vmovdqa %xmm0, (%r12)
movq %r15, %rdx
cmpq $96, %rbx
jb .LBB3_15
.LBB3_11:
vmovdqu 16(%rdx), %xmm1
vmovdqu 32(%rdx), %xmm2
vmovdqu 48(%rdx), %xmm3
vmovdqu 64(%rdx), %xmm4
vmovdqu 80(%rdx), %xmm5
vmovdqa .LCPI3_0(%rip), %xmm11
vpshufb %xmm11, %xmm1, %xmm7
vpshufb %xmm11, %xmm2, %xmm6
vpshufb %xmm11, %xmm5, %xmm5
vmovdqa 176(%rsi), %xmm2
vpclmulqdq $0, %xmm5, %xmm2, %xmm8
vpshufb %xmm11, %xmm3, %xmm9
vpclmulqdq $1, %xmm5, %xmm2, %xmm10
vpshufb %xmm11, %xmm4, %xmm0
vpclmulqdq $16, %xmm5, %xmm2, %xmm4
vmovdqa 192(%rsi), %xmm3
vpclmulqdq $17, %xmm5, %xmm2, %xmm5
vmovdqa 208(%rsi), %xmm15
vpclmulqdq $0, %xmm0, %xmm3, %xmm12
vpxor %xmm4, %xmm10, %xmm10
vpclmulqdq $1, %xmm0, %xmm3, %xmm13
vpxor %xmm8, %xmm12, %xmm8
vpclmulqdq $16, %xmm0, %xmm3, %xmm12
vmovdqa 224(%rsi), %xmm4
vpclmulqdq $17, %xmm0, %xmm3, %xmm0
vpxor %xmm12, %xmm13, %xmm12
vpclmulqdq $0, %xmm9, %xmm15, %xmm13
vpxor %xmm12, %xmm10, %xmm10
vpclmulqdq $1, %xmm9, %xmm15, %xmm12
vpxor %xmm5, %xmm0, %xmm0
vpclmulqdq $16, %xmm9, %xmm15, %xmm5
vpxor %xmm5, %xmm12, %xmm5
vpclmulqdq $17, %xmm9, %xmm15, %xmm9
vpclmulqdq $0, %xmm6, %xmm4, %xmm12
vpxor %xmm12, %xmm13, %xmm12
vpxor %xmm12, %xmm8, %xmm8
vpclmulqdq $1, %xmm6, %xmm4, %xmm12
vpxor %xmm5, %xmm12, %xmm12
vpclmulqdq $16, %xmm6, %xmm4, %xmm13
vmovdqa 240(%rsi), %xmm5
vpclmulqdq $17, %xmm6, %xmm4, %xmm6
vpxor %xmm12, %xmm10, %xmm10
vpclmulqdq $0, %xmm7, %xmm5, %xmm12
vpxor %xmm6, %xmm9, %xmm6
vpclmulqdq $1, %xmm7, %xmm5, %xmm9
vpxor %xmm6, %xmm0, %xmm0
vpclmulqdq $16, %xmm7, %xmm5, %xmm6
vpxor %xmm12, %xmm8, %xmm8
vpxor %xmm9, %xmm13, %xmm9
vpxor %xmm6, %xmm9, %xmm6
vmovdqu (%rdx), %xmm9
vpshufb %xmm11, %xmm9, %xmm9
vpxor (%rdi), %xmm9, %xmm12
vpxor %xmm6, %xmm10, %xmm10
vmovdqa 256(%rsi), %xmm6
vpclmulqdq $17, %xmm7, %xmm5, %xmm7
vpxor %xmm7, %xmm0, %xmm7
vpclmulqdq $0, %xmm12, %xmm6, %xmm9
vpxor %xmm9, %xmm8, %xmm9
vpclmulqdq $1, %xmm12, %xmm6, %xmm8
vpxor %xmm8, %xmm10, %xmm8
vpclmulqdq $16, %xmm12, %xmm6, %xmm10
vpxor %xmm10, %xmm8, %xmm10
vpclmulqdq $17, %xmm12, %xmm6, %xmm8
vpxor %xmm7, %xmm8, %xmm8
addq $96, %rdx
addq $-96, %rbx
cmpq $96, %rbx
jb .LBB3_14
vmovdqa %xmm2, 32(%rsp)
vmovdqa %xmm3, 16(%rsp)
.p2align 4, 0x90
.LBB3_13:
vmovdqu (%rdx), %xmm12
vmovdqu 32(%rdx), %xmm13
vmovups 48(%rdx), %xmm0
vmovaps %xmm0, 48(%rsp)
vmovdqu 64(%rdx), %xmm14
vmovdqa %xmm6, %xmm3
vmovdqa %xmm5, %xmm6
vmovdqa %xmm4, %xmm5
vmovdqa %xmm15, %xmm4
vmovdqu 80(%rdx), %xmm15
vpslldq $8, %xmm10, %xmm7
vpxor %xmm7, %xmm9, %xmm7
vpsrldq $8, %xmm10, %xmm9
vpbroadcastq .LCPI3_3(%rip), %xmm1
vpclmulqdq $16, %xmm1, %xmm7, %xmm10
vpshufd $78, %xmm7, %xmm7
vpxor %xmm7, %xmm10, %xmm7
vpclmulqdq $16, %xmm1, %xmm7, %xmm10
vpxor %xmm9, %xmm8, %xmm8
vpshufd $78, %xmm7, %xmm7
vpxor %xmm7, %xmm8, %xmm7
vpshufb %xmm11, %xmm12, %xmm8
vpshufb %xmm11, %xmm15, %xmm12
vmovdqa 32(%rsp), %xmm0
vpclmulqdq $0, %xmm12, %xmm0, %xmm15
vpxor %xmm7, %xmm8, %xmm7
vmovdqa %xmm11, %xmm1
vpclmulqdq $1, %xmm12, %xmm0, %xmm11
vpxor %xmm7, %xmm10, %xmm8
vpclmulqdq $16, %xmm12, %xmm0, %xmm7
vpshufb %xmm1, %xmm13, %xmm9
vpclmulqdq $17, %xmm12, %xmm0, %xmm10
vpshufb %xmm1, %xmm14, %xmm12
vmovdqa 16(%rsp), %xmm0
vpclmulqdq $0, %xmm12, %xmm0, %xmm13
vpxor %xmm7, %xmm11, %xmm2
vpclmulqdq $1, %xmm12, %xmm0, %xmm7
vpxor %xmm15, %xmm13, %xmm13
vmovdqa %xmm4, %xmm15
vmovdqa %xmm5, %xmm4
vmovdqa %xmm6, %xmm5
vmovdqa %xmm3, %xmm6
vpclmulqdq $16, %xmm12, %xmm0, %xmm14
vmovdqa 48(%rsp), %xmm3
vpshufb %xmm1, %xmm3, %xmm11
vpclmulqdq $17, %xmm12, %xmm0, %xmm12
vpxor %xmm7, %xmm14, %xmm7
vpclmulqdq $0, %xmm11, %xmm15, %xmm14
vpxor %xmm7, %xmm2, %xmm0
vpclmulqdq $1, %xmm11, %xmm15, %xmm7
vpxor %xmm10, %xmm12, %xmm10
vpclmulqdq $16, %xmm11, %xmm15, %xmm12
vpxor %xmm7, %xmm12, %xmm7
vpclmulqdq $0, %xmm9, %xmm4, %xmm12
vpxor %xmm12, %xmm14, %xmm12
vpclmulqdq $17, %xmm11, %xmm15, %xmm11
vpxor %xmm12, %xmm13, %xmm12
vpclmulqdq $1, %xmm9, %xmm4, %xmm13
vpxor %xmm7, %xmm13, %xmm7
vpclmulqdq $17, %xmm9, %xmm4, %xmm13
vpxor %xmm7, %xmm0, %xmm0
vpxor %xmm13, %xmm11, %xmm7
vmovdqu 16(%rdx), %xmm11
vpshufb %xmm1, %xmm11, %xmm11
vpclmulqdq $16, %xmm9, %xmm4, %xmm9
vpxor %xmm7, %xmm10, %xmm7
vpclmulqdq $0, %xmm11, %xmm5, %xmm10
vpxor %xmm10, %xmm12, %xmm10
vpclmulqdq $1, %xmm11, %xmm5, %xmm12
vpxor %xmm12, %xmm9, %xmm9
vpclmulqdq $16, %xmm11, %xmm5, %xmm12
vpxor %xmm12, %xmm9, %xmm9
vpxor %xmm0, %xmm9, %xmm0
vpclmulqdq $17, %xmm11, %xmm5, %xmm9
vpxor %xmm7, %xmm9, %xmm7
vpclmulqdq $0, %xmm8, %xmm6, %xmm9
vpxor %xmm9, %xmm10, %xmm9
vpclmulqdq $1, %xmm8, %xmm6, %xmm10
vpxor %xmm0, %xmm10, %xmm0
vpclmulqdq $16, %xmm8, %xmm6, %xmm10
vpxor %xmm0, %xmm10, %xmm10
vpclmulqdq $17, %xmm8, %xmm6, %xmm0
vpxor %xmm0, %xmm7, %xmm8
vmovdqa %xmm1, %xmm11
addq $96, %rdx
addq $-96, %rbx
cmpq $95, %rbx
ja .LBB3_13
.LBB3_14:
vpslldq $8, %xmm10, %xmm0
vpxor %xmm0, %xmm9, %xmm0
vpbroadcastq .LCPI3_3(%rip), %xmm1
vpclmulqdq $16, %xmm1, %xmm0, %xmm2
vpsrldq $8, %xmm10, %xmm3
vpxor %xmm3, %xmm8, %xmm3
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vpclmulqdq $16, %xmm1, %xmm0, %xmm1
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm0
vpxor %xmm1, %xmm0, %xmm0
vmovdqa %xmm0, (%rdi)
.LBB3_15:
cmpq $16, %rbx
jae .LBB3_16
testq %rbx, %rbx
jne .LBB3_24
jmp .LBB3_26
.LBB3_16:
vmovdqa (%rdi), %xmm1
vmovdqa 176(%rsi), %xmm0
leaq -16(%rbx), %rax
testb $16, %al
jne .LBB3_18
vmovdqu (%rdx), %xmm2
vpshufb .LCPI3_0(%rip), %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpslldq $8, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpbroadcastq .LCPI3_3(%rip), %xmm4
vpclmulqdq $16, %xmm4, %xmm2, %xmm5
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm5, %xmm2
addq $16, %rdx
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
vpsrldq $8, %xmm3, %xmm3
vpclmulqdq $16, %xmm4, %xmm2, %xmm4
vpxor %xmm3, %xmm1, %xmm1
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
movq %rax, %rbx
.LBB3_18:
cmpq $16, %rax
jb .LBB3_22
vmovdqa .LCPI3_0(%rip), %xmm2
vpbroadcastq .LCPI3_3(%rip), %xmm3
.p2align 4, 0x90
.LBB3_20:
vmovdqu (%rdx), %xmm4
vpshufb %xmm2, %xmm4, %xmm4
vpxor %xmm4, %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm4
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vmovdqu 16(%rdx), %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm7
vpxor %xmm5, %xmm7, %xmm5
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
vpslldq $8, %xmm5, %xmm7
vpxor %xmm7, %xmm4, %xmm4
vpsrldq $8, %xmm5, %xmm5
vpxor %xmm5, %xmm1, %xmm1
vpclmulqdq $16, %xmm3, %xmm4, %xmm5
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $16, %xmm3, %xmm4, %xmm5
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm1, %xmm1
vpshufb %xmm2, %xmm6, %xmm4
vpxor %xmm4, %xmm1, %xmm1
vpxor %xmm1, %xmm5, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm4
addq $32, %rdx
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
addq $-32, %rbx
vpclmulqdq $16, %xmm1, %xmm0, %xmm6
vpxor %xmm5, %xmm6, %xmm5
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
vpslldq $8, %xmm5, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpsrldq $8, %xmm5, %xmm5
vpxor %xmm5, %xmm1, %xmm1
vpclmulqdq $16, %xmm3, %xmm4, %xmm5
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $16, %xmm3, %xmm4, %xmm5
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm1, %xmm1
vpxor %xmm1, %xmm5, %xmm1
cmpq $15, %rbx
ja .LBB3_20
movq %rbx, %rax
.LBB3_22:
vmovdqa %xmm1, (%rdi)
movq %rax, %rbx
testq %rbx, %rbx
je .LBB3_26
.LBB3_24:
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, (%rsp)
movq %rsp, %rax
movq %rdi, %r15
movq %rax, %rdi
movq %rdx, %rsi
movq %rbx, %rdx
movq %rcx, %r12
callq *memcpy@GOTPCREL(%rip)
movq %r15, %rdi
movq %r12, %rcx
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, 48(%r15)
vmovdqa (%rsp), %xmm0
.LBB3_25:
vmovdqa %xmm0, 64(%r15)
movq %rbx, 80(%r15)
.LBB3_26:
movq %r14, 96(%rdi)
movq %rcx, %rax
.LBB3_27:
addq $72, %rsp
.cfi_def_cfa_offset 56
popq %rbx
.cfi_def_cfa_offset 48
popq %r12
.cfi_def_cfa_offset 40
popq %r13
.cfi_def_cfa_offset 32
popq %r14
.cfi_def_cfa_offset 24
popq %r15
.cfi_def_cfa_offset 16
popq %rbp
.cfi_def_cfa_offset 8
.cfi_restore %rbx
.cfi_restore %r12
.cfi_restore %r13
.cfi_restore %r14
.cfi_restore %r15
.cfi_restore %rbp
retq
.Lfunc_end3:
.size haberdashery_aes128gcm_streaming_haswell_aad_update, .Lfunc_end3-haberdashery_aes128gcm_streaming_haswell_aad_update
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI4_0:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI4_1:
.zero 8
.quad -4467570830351532032
.LCPI4_2:
.long 1
.long 0
.long 0
.long 0
.LCPI4_3:
.long 2
.long 0
.long 0
.long 0
.LCPI4_4:
.long 3
.long 0
.long 0
.long 0
.LCPI4_5:
.long 4
.long 0
.long 0
.long 0
.LCPI4_6:
.long 5
.long 0
.long 0
.long 0
.LCPI4_7:
.long 6
.long 0
.long 0
.long 0
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI4_8:
.quad -4467570830351532032
.section .text.haberdashery_aes128gcm_streaming_haswell_encrypt_update,"ax",@progbits
.globl haberdashery_aes128gcm_streaming_haswell_encrypt_update
.p2align 4, 0x90
.type haberdashery_aes128gcm_streaming_haswell_encrypt_update,@function
haberdashery_aes128gcm_streaming_haswell_encrypt_update:
.cfi_startproc
cmpq %r9, %rcx
jne .LBB4_3
movq %rcx, %rax
movabsq $-68719476704, %rcx
leaq (%rax,%rcx), %r9
incq %rcx
cmpq %rcx, %r9
jb .LBB4_3
movq 104(%rdi), %rcx
leaq (%rcx,%rax), %r11
movq %r11, %r9
shrq $5, %r9
cmpq $2147483646, %r9
jbe .LBB4_6
.LBB4_3:
xorl %eax, %eax
retq
.LBB4_6:
pushq %rbp
.cfi_def_cfa_offset 16
pushq %r15
.cfi_def_cfa_offset 24
pushq %r14
.cfi_def_cfa_offset 32
pushq %r13
.cfi_def_cfa_offset 40
pushq %r12
.cfi_def_cfa_offset 48
pushq %rbx
.cfi_def_cfa_offset 56
subq $440, %rsp
.cfi_def_cfa_offset 496
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
.cfi_offset %rbp, -16
testq %rcx, %rcx
setne %r9b
movq 80(%rdi), %rcx
testq %rcx, %rcx
sete %r10b
orb %r9b, %r10b
je .LBB4_10
testq %rcx, %rcx
je .LBB4_11
movq %r11, 32(%rsp)
movq %rdi, %rbp
leaq (%rcx,%rax), %rbx
cmpq $15, %rbx
ja .LBB4_12
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, (%rsp)
leaq (%rsp,%rcx), %r14
movq memcpy@GOTPCREL(%rip), %r13
movq %r14, %rdi
movq %rdx, %rsi
movq %rax, %rdx
movq %rax, %r15
movq %r8, %r12
callq *%r13
vmovdqa (%rsp), %xmm0
vpxor 64(%rbp), %xmm0, %xmm0
vmovdqa %xmm0, 64(%rbp)
vmovdqa %xmm0, (%rsp)
movq %r12, %rdi
movq %r14, %rsi
movq %r15, %r12
movq %r15, %rdx
callq *%r13
movq %rbp, %rdi
jmp .LBB4_24
.LBB4_10:
vmovdqa 64(%rdi), %xmm0
vpshufb .LCPI4_0(%rip), %xmm0, %xmm0
vpxor (%rdi), %xmm0, %xmm0
vmovdqa 176(%rsi), %xmm1
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpxor %xmm3, %xmm4, %xmm1
vpslldq $8, %xmm1, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vpbroadcastq .LCPI4_8(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm2, %xmm4
vpsrldq $8, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpshufd $78, %xmm2, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vmovdqa %xmm0, (%rdi)
vpxor %xmm0, %xmm0, %xmm0
vmovdqu %ymm0, 48(%rdi)
movq $0, 80(%rdi)
.LBB4_11:
movq %rax, %rbx
cmpq $96, %rbx
jb .LBB4_14
.LBB4_16:
vmovups (%rdx), %xmm0
vmovaps %xmm0, 32(%rsp)
vmovups 16(%rdx), %xmm0
vmovaps %xmm0, 16(%rsp)
vmovdqu 32(%rdx), %xmm2
vmovdqu 48(%rdx), %xmm4
vmovdqu 64(%rdx), %xmm5
vmovdqu 80(%rdx), %xmm6
vmovdqa 32(%rdi), %xmm1
vmovdqa .LCPI4_0(%rip), %xmm8
vpaddd .LCPI4_2(%rip), %xmm1, %xmm7
vpshufb %xmm8, %xmm1, %xmm9
vpshufb %xmm8, %xmm7, %xmm10
vpaddd .LCPI4_3(%rip), %xmm1, %xmm7
vpshufb %xmm8, %xmm7, %xmm11
vpaddd .LCPI4_4(%rip), %xmm1, %xmm7
vpshufb %xmm8, %xmm7, %xmm12
vpaddd .LCPI4_5(%rip), %xmm1, %xmm7
vpaddd .LCPI4_6(%rip), %xmm1, %xmm13
vpshufb %xmm8, %xmm7, %xmm14
vpshufb %xmm8, %xmm13, %xmm15
vpaddd .LCPI4_7(%rip), %xmm1, %xmm1
vmovdqa %xmm1, 32(%rdi)
vmovdqa (%rsi), %xmm3
vmovaps 16(%rsi), %xmm0
vmovdqa 32(%rsi), %xmm1
vpxor %xmm3, %xmm9, %xmm7
vpxor %xmm3, %xmm10, %xmm10
vpxor %xmm3, %xmm11, %xmm11
vpxor %xmm3, %xmm12, %xmm12
vpxor %xmm3, %xmm14, %xmm13
vpxor %xmm3, %xmm15, %xmm9
vmovaps %xmm0, 352(%rsp)
#APP
vaesenc %xmm0, %xmm7, %xmm7
vaesenc %xmm0, %xmm10, %xmm10
vaesenc %xmm0, %xmm11, %xmm11
vaesenc %xmm0, %xmm12, %xmm12
vaesenc %xmm0, %xmm13, %xmm13
vaesenc %xmm0, %xmm9, %xmm9
#NO_APP
vmovdqa %xmm1, %xmm0
#APP
vaesenc %xmm1, %xmm7, %xmm7
vaesenc %xmm1, %xmm10, %xmm10
vaesenc %xmm1, %xmm11, %xmm11
vaesenc %xmm1, %xmm12, %xmm12
vaesenc %xmm1, %xmm13, %xmm13
vaesenc %xmm1, %xmm9, %xmm9
#NO_APP
vmovdqa 48(%rsi), %xmm1
#APP
vaesenc %xmm1, %xmm7, %xmm7
vaesenc %xmm1, %xmm10, %xmm10
vaesenc %xmm1, %xmm11, %xmm11
vaesenc %xmm1, %xmm12, %xmm12
vaesenc %xmm1, %xmm13, %xmm13
vaesenc %xmm1, %xmm9, %xmm9
#NO_APP
vmovaps 64(%rsi), %xmm14
vmovaps %xmm14, 336(%rsp)
#APP
vaesenc %xmm14, %xmm7, %xmm7
vaesenc %xmm14, %xmm10, %xmm10
vaesenc %xmm14, %xmm11, %xmm11
vaesenc %xmm14, %xmm12, %xmm12
vaesenc %xmm14, %xmm13, %xmm13
vaesenc %xmm14, %xmm9, %xmm9
#NO_APP
vmovaps 80(%rsi), %xmm14
vmovaps %xmm14, 320(%rsp)
#APP
vaesenc %xmm14, %xmm7, %xmm7
vaesenc %xmm14, %xmm10, %xmm10
vaesenc %xmm14, %xmm11, %xmm11
vaesenc %xmm14, %xmm12, %xmm12
vaesenc %xmm14, %xmm13, %xmm13
vaesenc %xmm14, %xmm9, %xmm9
#NO_APP
vmovaps 96(%rsi), %xmm14
vmovaps %xmm14, 304(%rsp)
#APP
vaesenc %xmm14, %xmm7, %xmm7
vaesenc %xmm14, %xmm10, %xmm10
vaesenc %xmm14, %xmm11, %xmm11
vaesenc %xmm14, %xmm12, %xmm12
vaesenc %xmm14, %xmm13, %xmm13
vaesenc %xmm14, %xmm9, %xmm9
#NO_APP
vmovaps 112(%rsi), %xmm14
vmovaps %xmm14, 288(%rsp)
#APP
vaesenc %xmm14, %xmm7, %xmm7
vaesenc %xmm14, %xmm10, %xmm10
vaesenc %xmm14, %xmm11, %xmm11
vaesenc %xmm14, %xmm12, %xmm12
vaesenc %xmm14, %xmm13, %xmm13
vaesenc %xmm14, %xmm9, %xmm9
#NO_APP
vmovaps 128(%rsi), %xmm14
vmovaps %xmm14, 272(%rsp)
#APP
vaesenc %xmm14, %xmm7, %xmm7
vaesenc %xmm14, %xmm10, %xmm10
vaesenc %xmm14, %xmm11, %xmm11
vaesenc %xmm14, %xmm12, %xmm12
vaesenc %xmm14, %xmm13, %xmm13
vaesenc %xmm14, %xmm9, %xmm9
#NO_APP
vmovaps 144(%rsi), %xmm14
vmovaps %xmm14, 256(%rsp)
#APP
vaesenc %xmm14, %xmm7, %xmm7
vaesenc %xmm14, %xmm10, %xmm10
vaesenc %xmm14, %xmm11, %xmm11
vaesenc %xmm14, %xmm12, %xmm12
vaesenc %xmm14, %xmm13, %xmm13
vaesenc %xmm14, %xmm9, %xmm9
#NO_APP
vmovaps 160(%rsi), %xmm14
vmovaps %xmm14, 240(%rsp)
#APP
vaesenclast %xmm14, %xmm7, %xmm7
vaesenclast %xmm14, %xmm10, %xmm10
vaesenclast %xmm14, %xmm11, %xmm11
vaesenclast %xmm14, %xmm12, %xmm12
vaesenclast %xmm14, %xmm13, %xmm13
vaesenclast %xmm14, %xmm9, %xmm9
#NO_APP
vpxor %xmm6, %xmm9, %xmm9
vpxor %xmm5, %xmm13, %xmm14
vpxor %xmm4, %xmm12, %xmm13
vpxor %xmm2, %xmm11, %xmm2
vpxor 16(%rsp), %xmm10, %xmm4
vmovdqa %xmm2, %xmm10
vpxor 32(%rsp), %xmm7, %xmm11
addq $96, %rdx
leaq 96(%r8), %rcx
addq $-96, %rbx
vmovdqu %xmm11, (%r8)
vmovdqu %xmm4, 16(%r8)
vmovdqu %xmm2, 32(%r8)
vmovdqu %xmm13, 48(%r8)
vmovdqu %xmm14, 64(%r8)
vmovdqu %xmm9, 80(%r8)
vmovdqa (%rdi), %xmm2
cmpq $96, %rbx
jb .LBB4_19
vmovaps 176(%rsi), %xmm5
vmovaps %xmm5, 224(%rsp)
vmovaps 192(%rsi), %xmm5
vmovaps %xmm5, 208(%rsp)
vmovaps 208(%rsi), %xmm5
vmovaps %xmm5, 192(%rsp)
vmovaps 224(%rsi), %xmm5
vmovaps %xmm5, 176(%rsp)
vmovaps 240(%rsi), %xmm5
vmovaps %xmm5, 160(%rsp)
vmovdqa 256(%rsi), %xmm5
vmovdqa %xmm5, 144(%rsp)
vmovdqa %xmm3, 128(%rsp)
vmovdqa %xmm0, 112(%rsp)
vmovdqa %xmm1, 96(%rsp)
vmovdqa 112(%rsp), %xmm15
.p2align 4, 0x90
.LBB4_18:
vmovdqa %xmm10, 368(%rsp)
vmovdqa %xmm4, 384(%rsp)
vmovups (%rdx), %xmm0
vmovaps %xmm0, 32(%rsp)
vmovups 16(%rdx), %xmm0
vmovaps %xmm0, 16(%rsp)
vmovups 32(%rdx), %xmm0
vmovaps %xmm0, 48(%rsp)
vmovups 48(%rdx), %xmm0
vmovaps %xmm0, 80(%rsp)
vmovups 64(%rdx), %xmm0
vmovaps %xmm0, 64(%rsp)
vmovups 80(%rdx), %xmm0
vmovaps %xmm0, 416(%rsp)
vmovdqa 32(%rdi), %xmm0
vpaddd .LCPI4_2(%rip), %xmm0, %xmm3
vpshufb %xmm8, %xmm3, %xmm4
vpaddd .LCPI4_7(%rip), %xmm0, %xmm3
vmovdqa %xmm3, 32(%rdi)
vpaddd .LCPI4_3(%rip), %xmm0, %xmm3
vpshufb %xmm8, %xmm3, %xmm5
vpshufb %xmm8, %xmm11, %xmm3
vpxor %xmm3, %xmm2, %xmm1
vmovdqa %xmm1, 400(%rsp)
vpaddd .LCPI4_4(%rip), %xmm0, %xmm2
vpshufb %xmm8, %xmm2, %xmm6
vpaddd .LCPI4_5(%rip), %xmm0, %xmm2
vpshufb %xmm8, %xmm2, %xmm7
vpshufb %xmm8, %xmm0, %xmm2
vpaddd .LCPI4_6(%rip), %xmm0, %xmm0
vmovdqa %xmm8, %xmm3
vpshufb %xmm8, %xmm0, %xmm8
vpshufb %xmm3, %xmm9, %xmm1
vmovdqa 128(%rsp), %xmm9
vpxor %xmm2, %xmm9, %xmm2
vpxor %xmm4, %xmm9, %xmm11
vpxor %xmm5, %xmm9, %xmm10
vpxor %xmm6, %xmm9, %xmm0
vpxor %xmm7, %xmm9, %xmm4
vpxor %xmm8, %xmm9, %xmm9
vmovaps 352(%rsp), %xmm5
#APP
vaesenc %xmm5, %xmm2, %xmm2
vaesenc %xmm5, %xmm11, %xmm11
vaesenc %xmm5, %xmm10, %xmm10
vaesenc %xmm5, %xmm0, %xmm0
vaesenc %xmm5, %xmm4, %xmm4
vaesenc %xmm5, %xmm9, %xmm9
#NO_APP
vxorps %xmm5, %xmm5, %xmm5
vpxor %xmm6, %xmm6, %xmm6
vpxor %xmm7, %xmm7, %xmm7
vmovdqa %xmm14, %xmm12
vmovaps 224(%rsp), %xmm14
#APP
vaesenc %xmm15, %xmm2, %xmm2
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm0, %xmm0
vaesenc %xmm15, %xmm4, %xmm4
vaesenc %xmm15, %xmm9, %xmm9
vpclmulqdq $16, %xmm14, %xmm1, %xmm8
vpxor %xmm5, %xmm8, %xmm5
vpclmulqdq $0, %xmm14, %xmm1, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $17, %xmm14, %xmm1, %xmm8
vpxor %xmm6, %xmm8, %xmm6
vpclmulqdq $1, %xmm14, %xmm1, %xmm8
vpxor %xmm5, %xmm8, %xmm5
#NO_APP
vpshufb %xmm3, %xmm12, %xmm1
vmovaps 208(%rsp), %xmm12
vmovaps 96(%rsp), %xmm14
#APP
vaesenc %xmm14, %xmm2, %xmm2
vaesenc %xmm14, %xmm11, %xmm11
vaesenc %xmm14, %xmm10, %xmm10
vaesenc %xmm14, %xmm0, %xmm0
vaesenc %xmm14, %xmm4, %xmm4
vaesenc %xmm14, %xmm9, %xmm9
vpclmulqdq $16, %xmm12, %xmm1, %xmm8
vpxor %xmm5, %xmm8, %xmm5
vpclmulqdq $0, %xmm12, %xmm1, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $17, %xmm12, %xmm1, %xmm8
vpxor %xmm6, %xmm8, %xmm6
vpclmulqdq $1, %xmm12, %xmm1, %xmm8
vpxor %xmm5, %xmm8, %xmm5
#NO_APP
vpshufb %xmm3, %xmm13, %xmm1
vmovaps 192(%rsp), %xmm12
vmovaps 336(%rsp), %xmm13
#APP
vaesenc %xmm13, %xmm2, %xmm2
vaesenc %xmm13, %xmm11, %xmm11
vaesenc %xmm13, %xmm10, %xmm10
vaesenc %xmm13, %xmm0, %xmm0
vaesenc %xmm13, %xmm4, %xmm4
vaesenc %xmm13, %xmm9, %xmm9
vpclmulqdq $16, %xmm12, %xmm1, %xmm8
vpxor %xmm5, %xmm8, %xmm5
vpclmulqdq $0, %xmm12, %xmm1, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $17, %xmm12, %xmm1, %xmm8
vpxor %xmm6, %xmm8, %xmm6
vpclmulqdq $1, %xmm12, %xmm1, %xmm8
vpxor %xmm5, %xmm8, %xmm5
#NO_APP
vmovdqa 368(%rsp), %xmm1
vpshufb %xmm3, %xmm1, %xmm1
vmovaps 176(%rsp), %xmm12
vmovaps 320(%rsp), %xmm13
#APP
vaesenc %xmm13, %xmm2, %xmm2
vaesenc %xmm13, %xmm11, %xmm11
vaesenc %xmm13, %xmm10, %xmm10
vaesenc %xmm13, %xmm0, %xmm0
vaesenc %xmm13, %xmm4, %xmm4
vaesenc %xmm13, %xmm9, %xmm9
vpclmulqdq $16, %xmm12, %xmm1, %xmm8
vpxor %xmm5, %xmm8, %xmm5
vpclmulqdq $0, %xmm12, %xmm1, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $17, %xmm12, %xmm1, %xmm8
vpxor %xmm6, %xmm8, %xmm6
vpclmulqdq $1, %xmm12, %xmm1, %xmm8
vpxor %xmm5, %xmm8, %xmm5
#NO_APP
vmovdqa 384(%rsp), %xmm1
vpshufb %xmm3, %xmm1, %xmm1
vmovaps 160(%rsp), %xmm12
vmovaps 304(%rsp), %xmm13
#APP
vaesenc %xmm13, %xmm2, %xmm2
vaesenc %xmm13, %xmm11, %xmm11
vaesenc %xmm13, %xmm10, %xmm10
vaesenc %xmm13, %xmm0, %xmm0
vaesenc %xmm13, %xmm4, %xmm4
vaesenc %xmm13, %xmm9, %xmm9
vpclmulqdq $16, %xmm12, %xmm1, %xmm8
vpxor %xmm5, %xmm8, %xmm5
vpclmulqdq $0, %xmm12, %xmm1, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $17, %xmm12, %xmm1, %xmm8
vpxor %xmm6, %xmm8, %xmm6
vpclmulqdq $1, %xmm12, %xmm1, %xmm8
vpxor %xmm5, %xmm8, %xmm5
#NO_APP
vmovdqa %xmm3, %xmm8
vmovaps 288(%rsp), %xmm1
#APP
vaesenc %xmm1, %xmm2, %xmm2
vaesenc %xmm1, %xmm11, %xmm11
vaesenc %xmm1, %xmm10, %xmm10
vaesenc %xmm1, %xmm0, %xmm0
vaesenc %xmm1, %xmm4, %xmm4
vaesenc %xmm1, %xmm9, %xmm9
#NO_APP
vmovaps 144(%rsp), %xmm3
vmovdqa 272(%rsp), %xmm12
vmovaps 400(%rsp), %xmm13
#APP
vaesenc %xmm12, %xmm2, %xmm2
vaesenc %xmm12, %xmm11, %xmm11
vaesenc %xmm12, %xmm10, %xmm10
vaesenc %xmm12, %xmm0, %xmm0
vaesenc %xmm12, %xmm4, %xmm4
vaesenc %xmm12, %xmm9, %xmm9
vpclmulqdq $16, %xmm3, %xmm13, %xmm1
vpxor %xmm1, %xmm5, %xmm5
vpclmulqdq $0, %xmm3, %xmm13, %xmm1
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $17, %xmm3, %xmm13, %xmm1
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm3, %xmm13, %xmm1
vpxor %xmm1, %xmm5, %xmm5
#NO_APP
vmovaps 256(%rsp), %xmm1
#APP
vaesenc %xmm1, %xmm2, %xmm2
vaesenc %xmm1, %xmm11, %xmm11
vaesenc %xmm1, %xmm10, %xmm10
vaesenc %xmm1, %xmm0, %xmm0
vaesenc %xmm1, %xmm4, %xmm4
vaesenc %xmm1, %xmm9, %xmm9
#NO_APP
vmovdqa 240(%rsp), %xmm1
#APP
vaesenclast %xmm1, %xmm2, %xmm2
vaesenclast %xmm1, %xmm11, %xmm11
vaesenclast %xmm1, %xmm10, %xmm10
vaesenclast %xmm1, %xmm0, %xmm0
vaesenclast %xmm1, %xmm4, %xmm4
vaesenclast %xmm1, %xmm9, %xmm9
#NO_APP
vpxor 416(%rsp), %xmm9, %xmm9
vpxor 64(%rsp), %xmm4, %xmm14
vpxor 80(%rsp), %xmm0, %xmm13
vpxor 48(%rsp), %xmm10, %xmm10
vpxor 16(%rsp), %xmm11, %xmm4
vpxor 32(%rsp), %xmm2, %xmm11
vpxor %xmm1, %xmm1, %xmm1
vpunpcklqdq %xmm5, %xmm1, %xmm0
vpxor %xmm0, %xmm7, %xmm0
vpunpckhqdq %xmm1, %xmm5, %xmm1
vpxor %xmm1, %xmm6, %xmm1
vpbroadcastq .LCPI4_8(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm0, %xmm2
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vpshufd $78, %xmm0, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $16, %xmm3, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm2
vmovdqu %xmm11, (%rcx)
vmovdqu %xmm4, 16(%rcx)
vmovdqu %xmm10, 32(%rcx)
vmovdqu %xmm13, 48(%rcx)
vmovdqu %xmm14, 64(%rcx)
vmovdqu %xmm9, 80(%rcx)
addq $96, %rdx
addq $96, %rcx
addq $-96, %rbx
cmpq $95, %rbx
ja .LBB4_18
.LBB4_19:
vpshufb %xmm8, %xmm11, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vpshufb %xmm8, %xmm4, %xmm1
vpshufb %xmm8, %xmm9, %xmm3
vmovdqa 176(%rsi), %xmm4
vpclmulqdq $0, %xmm3, %xmm4, %xmm5
vpshufb %xmm8, %xmm10, %xmm2
vpclmulqdq $1, %xmm3, %xmm4, %xmm6
vpshufb %xmm8, %xmm13, %xmm7
vpclmulqdq $16, %xmm3, %xmm4, %xmm9
vpshufb %xmm8, %xmm14, %xmm8
vpclmulqdq $17, %xmm3, %xmm4, %xmm4
vmovdqa 192(%rsi), %xmm3
vpclmulqdq $0, %xmm8, %xmm3, %xmm10
vmovdqa 208(%rsi), %xmm11
vpclmulqdq $1, %xmm8, %xmm3, %xmm12
vmovdqa 224(%rsi), %xmm13
vpclmulqdq $16, %xmm8, %xmm3, %xmm14
vpclmulqdq $17, %xmm8, %xmm3, %xmm8
vmovdqa 240(%rsi), %xmm15
vpxor %xmm6, %xmm9, %xmm6
vpclmulqdq $0, %xmm7, %xmm11, %xmm9
vpxor %xmm5, %xmm10, %xmm5
vpclmulqdq $1, %xmm7, %xmm11, %xmm10
vpxor %xmm14, %xmm12, %xmm12
vpclmulqdq $16, %xmm7, %xmm11, %xmm14
vpclmulqdq $17, %xmm7, %xmm11, %xmm7
vmovdqa 256(%rsi), %xmm3
vpxor %xmm6, %xmm12, %xmm6
vpclmulqdq $0, %xmm2, %xmm13, %xmm11
vpxor %xmm4, %xmm8, %xmm4
vpxor %xmm14, %xmm10, %xmm8
vpxor %xmm11, %xmm9, %xmm9
vpxor %xmm5, %xmm9, %xmm5
vpclmulqdq $1, %xmm2, %xmm13, %xmm9
vpxor %xmm9, %xmm8, %xmm8
vpxor %xmm6, %xmm8, %xmm6
vpclmulqdq $16, %xmm2, %xmm13, %xmm8
vpclmulqdq $17, %xmm2, %xmm13, %xmm2
vpxor %xmm2, %xmm7, %xmm2
vpxor %xmm2, %xmm4, %xmm2
vpclmulqdq $0, %xmm1, %xmm15, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $1, %xmm1, %xmm15, %xmm5
vpxor %xmm5, %xmm8, %xmm5
vpclmulqdq $16, %xmm1, %xmm15, %xmm7
vpxor %xmm7, %xmm5, %xmm5
vpclmulqdq $17, %xmm1, %xmm15, %xmm1
vpxor %xmm5, %xmm6, %xmm5
vpclmulqdq $0, %xmm0, %xmm3, %xmm6
vpxor %xmm1, %xmm2, %xmm1
vpclmulqdq $1, %xmm0, %xmm3, %xmm2
vpxor %xmm6, %xmm4, %xmm4
vpclmulqdq $16, %xmm0, %xmm3, %xmm6
vpxor %xmm2, %xmm5, %xmm2
vpclmulqdq $17, %xmm0, %xmm3, %xmm0
vpxor %xmm6, %xmm2, %xmm2
vpxor %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm2, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpbroadcastq .LCPI4_8(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm1, %xmm4
vpsrldq $8, %xmm2, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm2, %xmm0, %xmm0
vmovdqa %xmm0, (%rdi)
movq %rcx, %r8
cmpq $16, %rbx
jae .LBB4_20
.LBB4_15:
testq %rbx, %rbx
jne .LBB4_23
jmp .LBB4_25
.LBB4_12:
movl $16, %r14d
subq %rcx, %r14
leaq (%rdx,%r14), %rdi
movq %rdi, 48(%rsp)
leaq (%r8,%r14), %rdi
movq %rdi, 80(%rsp)
movq %rax, %rbx
subq %r14, %rbx
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, (%rsp)
leaq (%rsp,%rcx), %r15
movq %r15, %rdi
movq %rsi, 16(%rsp)
movq %rdx, %rsi
movq %r14, %rdx
movq %rax, %r13
movq %r8, %r12
callq *memcpy@GOTPCREL(%rip)
vmovaps (%rsp), %xmm0
vxorps 64(%rbp), %xmm0, %xmm0
vmovaps %xmm0, 64(%rsp)
vmovaps %xmm0, 64(%rbp)
vmovaps %xmm0, (%rsp)
movq %r12, %rdi
movq %r15, %rsi
movq %r14, %rdx
callq *memcpy@GOTPCREL(%rip)
movq 16(%rsp), %rsi
movq %rbp, %rdi
movq %r13, %rax
movq $0, 80(%rbp)
vmovdqa 64(%rsp), %xmm0
vpshufb .LCPI4_0(%rip), %xmm0, %xmm0
vpxor (%rbp), %xmm0, %xmm0
vmovdqa 176(%rsi), %xmm1
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpxor %xmm3, %xmm4, %xmm1
vpslldq $8, %xmm1, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vpbroadcastq .LCPI4_8(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm2, %xmm4
vpsrldq $8, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpshufd $78, %xmm2, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vmovdqa %xmm0, (%rbp)
movq 80(%rsp), %r8
movq 48(%rsp), %rdx
movq 32(%rsp), %r11
cmpq $96, %rbx
jae .LBB4_16
.LBB4_14:
cmpq $16, %rbx
jb .LBB4_15
.LBB4_20:
vmovdqa (%rdi), %xmm12
vmovdqa 32(%rdi), %xmm0
vmovaps (%rsi), %xmm1
vmovaps %xmm1, 32(%rsp)
vmovaps 16(%rsi), %xmm1
vmovaps %xmm1, 16(%rsp)
vmovdqa 32(%rsi), %xmm1
vmovdqa %xmm1, 48(%rsp)
vmovdqa 48(%rsi), %xmm4
vmovdqa 64(%rsi), %xmm5
vmovdqa 80(%rsi), %xmm6
vmovdqa 96(%rsi), %xmm7
vmovdqa 112(%rsi), %xmm8
vmovdqa 128(%rsi), %xmm9
vmovdqa 144(%rsi), %xmm10
vmovdqa 160(%rsi), %xmm11
vmovdqa 176(%rsi), %xmm13
vmovdqa .LCPI4_0(%rip), %xmm14
vpbroadcastq .LCPI4_8(%rip), %xmm15
.p2align 4, 0x90
.LBB4_21:
vpshufb %xmm14, %xmm0, %xmm1
vpxor 32(%rsp), %xmm1, %xmm1
vaesenc 16(%rsp), %xmm1, %xmm1
vaesenc 48(%rsp), %xmm1, %xmm1
vaesenc %xmm4, %xmm1, %xmm1
vaesenc %xmm5, %xmm1, %xmm1
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm8, %xmm1, %xmm1
vaesenc %xmm9, %xmm1, %xmm1
vaesenc %xmm10, %xmm1, %xmm1
vaesenclast %xmm11, %xmm1, %xmm1
vpxor (%rdx), %xmm1, %xmm1
vmovdqu %xmm1, (%r8)
vpshufb %xmm14, %xmm1, %xmm1
vpxor %xmm1, %xmm12, %xmm1
vpclmulqdq $0, %xmm1, %xmm13, %xmm12
vpclmulqdq $1, %xmm1, %xmm13, %xmm2
vpclmulqdq $16, %xmm1, %xmm13, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $17, %xmm1, %xmm13, %xmm1
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm12, %xmm3
vpsrldq $8, %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $16, %xmm15, %xmm3, %xmm2
vpshufd $78, %xmm3, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vpclmulqdq $16, %xmm15, %xmm2, %xmm3
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm12
addq $16, %rdx
addq $16, %r8
addq $-16, %rbx
vpaddd .LCPI4_2(%rip), %xmm0, %xmm0
cmpq $15, %rbx
ja .LBB4_21
vmovdqa %xmm0, 32(%rdi)
vmovdqa %xmm12, (%rdi)
testq %rbx, %rbx
je .LBB4_25
.LBB4_23:
movq %r11, 32(%rsp)
movq %rax, %r12
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, (%rsp)
movq %rsp, %rax
movq memcpy@GOTPCREL(%rip), %r13
movq %rdi, %r15
movq %rax, %rdi
movq %rsi, %rbp
movq %rdx, %rsi
movq %rbx, %rdx
movq %r8, %r14
vzeroupper
callq *%r13
vmovdqa 32(%r15), %xmm0
vpshufb .LCPI4_0(%rip), %xmm0, %xmm1
vpaddd .LCPI4_2(%rip), %xmm0, %xmm0
vmovdqa %xmm0, 32(%r15)
vpxor (%rbp), %xmm1, %xmm0
vaesenc 16(%rbp), %xmm0, %xmm0
vaesenc 32(%rbp), %xmm0, %xmm0
vaesenc 48(%rbp), %xmm0, %xmm0
vaesenc 64(%rbp), %xmm0, %xmm0
vaesenc 80(%rbp), %xmm0, %xmm0
vaesenc 96(%rbp), %xmm0, %xmm0
vaesenc 112(%rbp), %xmm0, %xmm0
vaesenc 128(%rbp), %xmm0, %xmm0
vaesenc 144(%rbp), %xmm0, %xmm0
vaesenclast 160(%rbp), %xmm0, %xmm1
vmovdqa %xmm1, 16(%rsp)
vmovdqa (%rsp), %xmm0
vpxor %xmm0, %xmm1, %xmm0
vmovdqa %xmm0, 48(%rsp)
vmovdqa %xmm0, (%rsp)
movq %rsp, %rsi
movq %r14, %rdi
movq %rbx, %rdx
callq *%r13
movq %r15, %rdi
vmovaps 16(%rsp), %xmm0
vmovaps %xmm0, 48(%r15)
vmovdqa 48(%rsp), %xmm0
vmovdqa %xmm0, 64(%r15)
.LBB4_24:
movq %rbx, 80(%rdi)
movq %r12, %rax
movq 32(%rsp), %r11
.LBB4_25:
movq %r11, 104(%rdi)
addq $440, %rsp
.cfi_def_cfa_offset 56
popq %rbx
.cfi_def_cfa_offset 48
popq %r12
.cfi_def_cfa_offset 40
popq %r13
.cfi_def_cfa_offset 32
popq %r14
.cfi_def_cfa_offset 24
popq %r15
.cfi_def_cfa_offset 16
popq %rbp
.cfi_def_cfa_offset 8
.cfi_restore %rbx
.cfi_restore %r12
.cfi_restore %r13
.cfi_restore %r14
.cfi_restore %r15
.cfi_restore %rbp
vzeroupper
retq
.Lfunc_end4:
.size haberdashery_aes128gcm_streaming_haswell_encrypt_update, .Lfunc_end4-haberdashery_aes128gcm_streaming_haswell_encrypt_update
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI5_0:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI5_1:
.zero 8
.quad -4467570830351532032
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI5_2:
.quad -4467570830351532032
.section .text.haberdashery_aes128gcm_streaming_haswell_encrypt_finalize,"ax",@progbits
.globl haberdashery_aes128gcm_streaming_haswell_encrypt_finalize
.p2align 4, 0x90
.type haberdashery_aes128gcm_streaming_haswell_encrypt_finalize,@function
haberdashery_aes128gcm_streaming_haswell_encrypt_finalize:
.cfi_startproc
pushq %rbp
.cfi_def_cfa_offset 16
pushq %r15
.cfi_def_cfa_offset 24
pushq %r14
.cfi_def_cfa_offset 32
pushq %r13
.cfi_def_cfa_offset 40
pushq %r12
.cfi_def_cfa_offset 48
pushq %rbx
.cfi_def_cfa_offset 56
subq $56, %rsp
.cfi_def_cfa_offset 112
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
.cfi_offset %rbp, -16
movq %rcx, %rbx
movq %rsi, %r15
movq %rdi, %r12
movq 104(%rdi), %rbp
testq %rbp, %rbp
je .LBB5_1
movq %rdx, 8(%rsp)
leaq 48(%r12), %r14
vmovaps 64(%r12), %xmm0
vmovaps %xmm0, 32(%rsp)
movq 80(%r12), %r13
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, 16(%rsp)
leaq 16(%rsp), %rdi
leaq 32(%rsp), %rsi
movq %r13, %rdx
callq *memcpy@GOTPCREL(%rip)
vmovdqa (%r12), %xmm0
testq %r13, %r13
je .LBB5_4
vmovdqa 16(%rsp), %xmm1
vpshufb .LCPI5_0(%rip), %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm2
vmovdqa 176(%r15), %xmm3
vpclmulqdq $0, %xmm2, %xmm3, %xmm1
vpclmulqdq $1, %xmm2, %xmm3, %xmm0
vpclmulqdq $16, %xmm2, %xmm3, %xmm4
vpxor %xmm0, %xmm4, %xmm0
vpclmulqdq $17, %xmm2, %xmm3, %xmm2
movq 8(%rsp), %rdx
jmp .LBB5_6
.LBB5_1:
cmpq $0, 80(%r12)
vmovdqa (%r12), %xmm0
je .LBB5_8
vmovdqa 176(%r15), %xmm2
vmovdqa 64(%r12), %xmm1
vpshufb .LCPI5_0(%rip), %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm3
vpclmulqdq $0, %xmm3, %xmm2, %xmm1
vpclmulqdq $1, %xmm3, %xmm2, %xmm0
leaq 48(%r12), %r14
vpclmulqdq $16, %xmm3, %xmm2, %xmm4
vpxor %xmm0, %xmm4, %xmm0
vpclmulqdq $17, %xmm3, %xmm2, %xmm2
.LBB5_6:
vpslldq $8, %xmm0, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpbroadcastq .LCPI5_2(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm1, %xmm4
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpsrldq $8, %xmm0, %xmm0
vpclmulqdq $16, %xmm3, %xmm1, %xmm3
vpxor %xmm0, %xmm2, %xmm0
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm0
jmp .LBB5_7
.LBB5_4:
movq 8(%rsp), %rdx
.LBB5_7:
vpxor %xmm1, %xmm1, %xmm1
vmovdqu %ymm1, (%r14)
movq $0, 32(%r14)
.LBB5_8:
vmovdqa 176(%r15), %xmm1
vmovq 96(%r12), %xmm2
vmovq %rbp, %xmm3
vpunpcklqdq %xmm2, %xmm3, %xmm2
vpsllq $3, %xmm2, %xmm2
vpxor %xmm0, %xmm2, %xmm0
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpxor %xmm3, %xmm4, %xmm1
vpslldq $8, %xmm1, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vpbroadcastq .LCPI5_2(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm2, %xmm4
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm4, %xmm2
vpclmulqdq $16, %xmm3, %xmm2, %xmm3
vpsrldq $8, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpshufd $78, %xmm2, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm0
vmovdqa %xmm0, (%r12)
testq %rbx, %rbx
je .LBB5_9
vmovdqa (%r15), %xmm1
vpxor 16(%r12), %xmm1, %xmm1
vaesenc 16(%r15), %xmm1, %xmm1
vaesenc 32(%r15), %xmm1, %xmm1
vaesenc 48(%r15), %xmm1, %xmm1
vaesenc 64(%r15), %xmm1, %xmm1
vaesenc 80(%r15), %xmm1, %xmm1
vaesenc 96(%r15), %xmm1, %xmm1
vaesenc 112(%r15), %xmm1, %xmm1
vaesenc 128(%r15), %xmm1, %xmm1
vaesenc 144(%r15), %xmm1, %xmm1
vaesenclast 160(%r15), %xmm1, %xmm1
vpshufb .LCPI5_0(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
cmpq $16, %rbx
jae .LBB5_11
vmovdqa %xmm0, 16(%rsp)
leaq 16(%rsp), %rsi
movq %rdx, %rdi
movq %rbx, %rdx
vzeroupper
callq *memcpy@GOTPCREL(%rip)
jmp .LBB5_13
.LBB5_9:
xorl %ebx, %ebx
jmp .LBB5_13
.LBB5_11:
vmovdqu %xmm0, (%rdx)
movl $16, %ebx
.LBB5_13:
movq %rbx, %rax
addq $56, %rsp
.cfi_def_cfa_offset 56
popq %rbx
.cfi_def_cfa_offset 48
popq %r12
.cfi_def_cfa_offset 40
popq %r13
.cfi_def_cfa_offset 32
popq %r14
.cfi_def_cfa_offset 24
popq %r15
.cfi_def_cfa_offset 16
popq %rbp
.cfi_def_cfa_offset 8
vzeroupper
retq
.Lfunc_end5:
.size haberdashery_aes128gcm_streaming_haswell_encrypt_finalize, .Lfunc_end5-haberdashery_aes128gcm_streaming_haswell_encrypt_finalize
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI6_0:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI6_1:
.zero 8
.quad -4467570830351532032
.LCPI6_2:
.long 1
.long 0
.long 0
.long 0
.LCPI6_3:
.long 2
.long 0
.long 0
.long 0
.LCPI6_4:
.long 3
.long 0
.long 0
.long 0
.LCPI6_5:
.long 4
.long 0
.long 0
.long 0
.LCPI6_6:
.long 5
.long 0
.long 0
.long 0
.LCPI6_7:
.long 6
.long 0
.long 0
.long 0
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI6_8:
.quad -4467570830351532032
.section .text.haberdashery_aes128gcm_streaming_haswell_decrypt_update,"ax",@progbits
.globl haberdashery_aes128gcm_streaming_haswell_decrypt_update
.p2align 4, 0x90
.type haberdashery_aes128gcm_streaming_haswell_decrypt_update,@function
haberdashery_aes128gcm_streaming_haswell_decrypt_update:
.cfi_startproc
cmpq %r9, %rcx
jne .LBB6_2
movq %rcx, %rax
movabsq $-68719476704, %rcx
leaq (%rax,%rcx), %r9
incq %rcx
cmpq %rcx, %r9
jae .LBB6_3
.LBB6_2:
xorl %eax, %eax
retq
.LBB6_3:
pushq %rbp
.cfi_def_cfa_offset 16
pushq %r15
.cfi_def_cfa_offset 24
pushq %r14
.cfi_def_cfa_offset 32
pushq %r13
.cfi_def_cfa_offset 40
pushq %r12
.cfi_def_cfa_offset 48
pushq %rbx
.cfi_def_cfa_offset 56
subq $392, %rsp
.cfi_def_cfa_offset 448
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
.cfi_offset %rbp, -16
movq 104(%rdi), %rcx
leaq (%rcx,%rax), %r13
movq %r13, %r9
shrq $5, %r9
cmpq $2147483646, %r9
jbe .LBB6_5
xorl %eax, %eax
jmp .LBB6_24
.LBB6_5:
testq %rcx, %rcx
setne %r9b
movq 80(%rdi), %rcx
testq %rcx, %rcx
sete %r10b
orb %r9b, %r10b
je .LBB6_9
testq %rcx, %rcx
je .LBB6_10
movq %rdi, %rbp
leaq (%rcx,%rax), %rbx
cmpq $15, %rbx
movq %rax, 56(%rsp)
ja .LBB6_11
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, (%rsp)
leaq (%rsp,%rcx), %r14
movq %r14, %rdi
movq %rdx, %rsi
movq %rax, %rdx
movq %rax, %r15
movq %r8, %r12
callq *memcpy@GOTPCREL(%rip)
vmovdqa (%rsp), %xmm0
vpxor 64(%rbp), %xmm0, %xmm0
vmovdqa %xmm0, 64(%rbp)
vmovdqa %xmm0, (%rsp)
movq %r12, %rdi
movq %r14, %rsi
movq %r15, %rdx
callq *memcpy@GOTPCREL(%rip)
movq %rbp, %rdi
jmp .LBB6_22
.LBB6_9:
vmovdqa 64(%rdi), %xmm0
vpshufb .LCPI6_0(%rip), %xmm0, %xmm0
vpxor (%rdi), %xmm0, %xmm0
vmovdqa 176(%rsi), %xmm1
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpxor %xmm3, %xmm4, %xmm1
vpslldq $8, %xmm1, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vpbroadcastq .LCPI6_8(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm2, %xmm4
vpsrldq $8, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpshufd $78, %xmm2, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vmovdqa %xmm0, (%rdi)
vpxor %xmm0, %xmm0, %xmm0
vmovdqu %ymm0, 48(%rdi)
movq $0, 80(%rdi)
.LBB6_10:
movq %rax, %rbx
cmpq $96, %rbx
jb .LBB6_13
.LBB6_15:
vmovdqa (%rdi), %xmm3
vmovaps (%rsi), %xmm0
vmovaps %xmm0, 96(%rsp)
vmovaps 16(%rsi), %xmm0
vmovaps %xmm0, 352(%rsp)
vmovaps 32(%rsi), %xmm0
vmovaps %xmm0, 336(%rsp)
vmovaps 48(%rsi), %xmm0
vmovaps %xmm0, 320(%rsp)
vmovaps 64(%rsi), %xmm0
vmovaps %xmm0, 304(%rsp)
vmovaps 80(%rsi), %xmm0
vmovaps %xmm0, 288(%rsp)
vmovaps 96(%rsi), %xmm0
vmovaps %xmm0, 272(%rsp)
vmovaps 112(%rsi), %xmm0
vmovaps %xmm0, 256(%rsp)
vmovaps 128(%rsi), %xmm0
vmovaps %xmm0, 240(%rsp)
vmovaps 144(%rsi), %xmm0
vmovaps %xmm0, 224(%rsp)
vmovaps 160(%rsi), %xmm0
vmovaps %xmm0, 208(%rsp)
vmovaps 176(%rsi), %xmm0
vmovaps %xmm0, 192(%rsp)
vmovaps 192(%rsi), %xmm0
vmovaps %xmm0, 176(%rsp)
vmovaps 208(%rsi), %xmm0
vmovaps %xmm0, 160(%rsp)
vmovaps 224(%rsi), %xmm0
vmovaps %xmm0, 144(%rsp)
vmovaps 240(%rsi), %xmm0
vmovaps %xmm0, 128(%rsp)
vmovdqa 256(%rsi), %xmm0
vmovdqa %xmm0, 112(%rsp)
.p2align 4, 0x90
.LBB6_16:
vmovdqu (%rdx), %xmm6
vmovdqa %xmm6, 80(%rsp)
vmovups 16(%rdx), %xmm0
vmovaps %xmm0, 32(%rsp)
vmovups 32(%rdx), %xmm0
vmovaps %xmm0, 16(%rsp)
vmovdqu 48(%rdx), %xmm10
vmovdqu 64(%rdx), %xmm7
vmovdqu 80(%rdx), %xmm8
vmovdqa %xmm8, 64(%rsp)
vmovdqa 32(%rdi), %xmm0
vmovdqa .LCPI6_0(%rip), %xmm2
vpshufb %xmm2, %xmm0, %xmm1
vpaddd .LCPI6_2(%rip), %xmm0, %xmm4
vpshufb %xmm2, %xmm4, %xmm4
vpaddd .LCPI6_3(%rip), %xmm0, %xmm5
vpshufb %xmm2, %xmm5, %xmm5
vpaddd .LCPI6_4(%rip), %xmm0, %xmm11
vpshufb %xmm2, %xmm11, %xmm14
vpaddd .LCPI6_5(%rip), %xmm0, %xmm11
vpshufb %xmm2, %xmm11, %xmm15
vpaddd .LCPI6_6(%rip), %xmm0, %xmm11
vpaddd .LCPI6_7(%rip), %xmm0, %xmm0
vmovdqa %xmm0, 32(%rdi)
vpshufb %xmm2, %xmm11, %xmm0
vpshufb %xmm2, %xmm6, %xmm11
vpxor %xmm3, %xmm11, %xmm3
vmovdqa %xmm3, 368(%rsp)
vpshufb %xmm2, %xmm8, %xmm6
vmovdqa 96(%rsp), %xmm3
vpxor %xmm1, %xmm3, %xmm11
vpxor %xmm4, %xmm3, %xmm12
vpxor %xmm5, %xmm3, %xmm13
vpxor %xmm3, %xmm14, %xmm14
vpxor %xmm3, %xmm15, %xmm15
vpxor %xmm0, %xmm3, %xmm1
vmovaps 352(%rsp), %xmm0
#APP
vaesenc %xmm0, %xmm11, %xmm11
vaesenc %xmm0, %xmm12, %xmm12
vaesenc %xmm0, %xmm13, %xmm13
vaesenc %xmm0, %xmm14, %xmm14
vaesenc %xmm0, %xmm15, %xmm15
vaesenc %xmm0, %xmm1, %xmm1
#NO_APP
vpxor %xmm4, %xmm4, %xmm4
vxorps %xmm0, %xmm0, %xmm0
vpxor %xmm5, %xmm5, %xmm5
vmovaps 336(%rsp), %xmm8
vmovaps 192(%rsp), %xmm9
#APP
vaesenc %xmm8, %xmm11, %xmm11
vaesenc %xmm8, %xmm12, %xmm12
vaesenc %xmm8, %xmm13, %xmm13
vaesenc %xmm8, %xmm14, %xmm14
vaesenc %xmm8, %xmm15, %xmm15
vaesenc %xmm8, %xmm1, %xmm1
vpclmulqdq $16, %xmm9, %xmm6, %xmm3
vpxor %xmm3, %xmm0, %xmm0
vpclmulqdq $0, %xmm9, %xmm6, %xmm3
vpxor %xmm3, %xmm4, %xmm4
vpclmulqdq $17, %xmm9, %xmm6, %xmm3
vpxor %xmm3, %xmm5, %xmm5
vpclmulqdq $1, %xmm9, %xmm6, %xmm3
vpxor %xmm3, %xmm0, %xmm0
#NO_APP
vpshufb %xmm2, %xmm7, %xmm3
vmovaps 320(%rsp), %xmm8
vmovaps 176(%rsp), %xmm9
#APP
vaesenc %xmm8, %xmm11, %xmm11
vaesenc %xmm8, %xmm12, %xmm12
vaesenc %xmm8, %xmm13, %xmm13
vaesenc %xmm8, %xmm14, %xmm14
vaesenc %xmm8, %xmm15, %xmm15
vaesenc %xmm8, %xmm1, %xmm1
vpclmulqdq $16, %xmm9, %xmm3, %xmm6
vpxor %xmm6, %xmm0, %xmm0
vpclmulqdq $0, %xmm9, %xmm3, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpclmulqdq $17, %xmm9, %xmm3, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vpclmulqdq $1, %xmm9, %xmm3, %xmm6
vpxor %xmm6, %xmm0, %xmm0
#NO_APP
vpshufb %xmm2, %xmm10, %xmm3
vmovaps 304(%rsp), %xmm8
vmovaps 160(%rsp), %xmm9
#APP
vaesenc %xmm8, %xmm11, %xmm11
vaesenc %xmm8, %xmm12, %xmm12
vaesenc %xmm8, %xmm13, %xmm13
vaesenc %xmm8, %xmm14, %xmm14
vaesenc %xmm8, %xmm15, %xmm15
vaesenc %xmm8, %xmm1, %xmm1
vpclmulqdq $16, %xmm9, %xmm3, %xmm6
vpxor %xmm6, %xmm0, %xmm0
vpclmulqdq $0, %xmm9, %xmm3, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpclmulqdq $17, %xmm9, %xmm3, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vpclmulqdq $1, %xmm9, %xmm3, %xmm6
vpxor %xmm6, %xmm0, %xmm0
#NO_APP
vmovdqa 16(%rsp), %xmm3
vpshufb %xmm2, %xmm3, %xmm3
vmovaps 288(%rsp), %xmm8
vmovaps 144(%rsp), %xmm9
#APP
vaesenc %xmm8, %xmm11, %xmm11
vaesenc %xmm8, %xmm12, %xmm12
vaesenc %xmm8, %xmm13, %xmm13
vaesenc %xmm8, %xmm14, %xmm14
vaesenc %xmm8, %xmm15, %xmm15
vaesenc %xmm8, %xmm1, %xmm1
vpclmulqdq $16, %xmm9, %xmm3, %xmm6
vpxor %xmm6, %xmm0, %xmm0
vpclmulqdq $0, %xmm9, %xmm3, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpclmulqdq $17, %xmm9, %xmm3, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vpclmulqdq $1, %xmm9, %xmm3, %xmm6
vpxor %xmm6, %xmm0, %xmm0
#NO_APP
vmovdqa 32(%rsp), %xmm3
vpshufb %xmm2, %xmm3, %xmm3
vmovaps 272(%rsp), %xmm8
vmovdqa 128(%rsp), %xmm9
#APP
vaesenc %xmm8, %xmm11, %xmm11
vaesenc %xmm8, %xmm12, %xmm12
vaesenc %xmm8, %xmm13, %xmm13
vaesenc %xmm8, %xmm14, %xmm14
vaesenc %xmm8, %xmm15, %xmm15
vaesenc %xmm8, %xmm1, %xmm1
vpclmulqdq $16, %xmm9, %xmm3, %xmm6
vpxor %xmm6, %xmm0, %xmm0
vpclmulqdq $0, %xmm9, %xmm3, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpclmulqdq $17, %xmm9, %xmm3, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vpclmulqdq $1, %xmm9, %xmm3, %xmm6
vpxor %xmm6, %xmm0, %xmm0
#NO_APP
vmovaps 256(%rsp), %xmm3
#APP
vaesenc %xmm3, %xmm11, %xmm11
vaesenc %xmm3, %xmm12, %xmm12
vaesenc %xmm3, %xmm13, %xmm13
vaesenc %xmm3, %xmm14, %xmm14
vaesenc %xmm3, %xmm15, %xmm15
vaesenc %xmm3, %xmm1, %xmm1
#NO_APP
vmovdqa 240(%rsp), %xmm6
vmovaps 112(%rsp), %xmm8
vmovdqa 368(%rsp), %xmm2
#APP
vaesenc %xmm6, %xmm11, %xmm11
vaesenc %xmm6, %xmm12, %xmm12
vaesenc %xmm6, %xmm13, %xmm13
vaesenc %xmm6, %xmm14, %xmm14
vaesenc %xmm6, %xmm15, %xmm15
vaesenc %xmm6, %xmm1, %xmm1
vpclmulqdq $16, %xmm8, %xmm2, %xmm3
vpxor %xmm3, %xmm0, %xmm0
vpclmulqdq $0, %xmm8, %xmm2, %xmm3
vpxor %xmm3, %xmm4, %xmm4
vpclmulqdq $17, %xmm8, %xmm2, %xmm3
vpxor %xmm3, %xmm5, %xmm5
vpclmulqdq $1, %xmm8, %xmm2, %xmm3
vpxor %xmm3, %xmm0, %xmm0
#NO_APP
vpxor %xmm6, %xmm6, %xmm6
vpunpcklqdq %xmm0, %xmm6, %xmm3
vpxor %xmm3, %xmm4, %xmm3
vpunpckhqdq %xmm6, %xmm0, %xmm0
vpxor %xmm0, %xmm5, %xmm0
vpbroadcastq .LCPI6_8(%rip), %xmm5
vpclmulqdq $16, %xmm5, %xmm3, %xmm4
vpshufd $78, %xmm3, %xmm3
vpxor %xmm3, %xmm4, %xmm3
vpshufd $78, %xmm3, %xmm4
vpxor %xmm4, %xmm0, %xmm0
vpclmulqdq $16, %xmm5, %xmm3, %xmm3
vpxor %xmm3, %xmm0, %xmm3
vmovaps 224(%rsp), %xmm0
#APP
vaesenc %xmm0, %xmm11, %xmm11
vaesenc %xmm0, %xmm12, %xmm12
vaesenc %xmm0, %xmm13, %xmm13
vaesenc %xmm0, %xmm14, %xmm14
vaesenc %xmm0, %xmm15, %xmm15
vaesenc %xmm0, %xmm1, %xmm1
#NO_APP
vmovaps 208(%rsp), %xmm0
#APP
vaesenclast %xmm0, %xmm11, %xmm11
vaesenclast %xmm0, %xmm12, %xmm12
vaesenclast %xmm0, %xmm13, %xmm13
vaesenclast %xmm0, %xmm14, %xmm14
vaesenclast %xmm0, %xmm15, %xmm15
vaesenclast %xmm0, %xmm1, %xmm1
#NO_APP
vpxor 80(%rsp), %xmm11, %xmm0
vpxor 32(%rsp), %xmm12, %xmm4
vpxor 16(%rsp), %xmm13, %xmm5
vpxor %xmm10, %xmm14, %xmm6
vpxor %xmm7, %xmm15, %xmm8
vpxor 64(%rsp), %xmm1, %xmm1
vmovdqu %xmm0, (%r8)
vmovdqu %xmm4, 16(%r8)
vmovdqu %xmm5, 32(%r8)
vmovdqu %xmm6, 48(%r8)
vmovdqu %xmm8, 64(%r8)
vmovdqu %xmm1, 80(%r8)
addq $96, %rdx
addq $96, %r8
addq $-96, %rbx
cmpq $95, %rbx
ja .LBB6_16
vmovdqa %xmm3, (%rdi)
cmpq $16, %rbx
jae .LBB6_18
.LBB6_14:
testq %rbx, %rbx
jne .LBB6_21
jmp .LBB6_23
.LBB6_11:
movl $16, %r14d
subq %rcx, %r14
leaq (%rdx,%r14), %rdi
movq %rdi, 16(%rsp)
leaq (%r8,%r14), %rdi
movq %rdi, 80(%rsp)
movq %rax, %rbx
subq %r14, %rbx
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, (%rsp)
leaq (%rsp,%rcx), %r15
movq %r15, %rdi
movq %rsi, 32(%rsp)
movq %rdx, %rsi
movq %r14, %rdx
movq %r8, %r12
callq *memcpy@GOTPCREL(%rip)
vmovaps (%rsp), %xmm0
vxorps 64(%rbp), %xmm0, %xmm0
vmovaps %xmm0, 64(%rsp)
vmovaps %xmm0, 64(%rbp)
vmovaps %xmm0, (%rsp)
movq %r12, %rdi
movq %r15, %rsi
movq %r14, %rdx
callq *memcpy@GOTPCREL(%rip)
movq 32(%rsp), %rsi
movq %rbp, %rdi
movq 56(%rsp), %rax
movq $0, 80(%rbp)
vmovdqa 64(%rsp), %xmm0
vpxor 48(%rbp), %xmm0, %xmm0
vpshufb .LCPI6_0(%rip), %xmm0, %xmm0
vpxor (%rbp), %xmm0, %xmm0
vmovdqa 176(%rsi), %xmm1
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpxor %xmm3, %xmm4, %xmm1
vpslldq $8, %xmm1, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vpbroadcastq .LCPI6_8(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm2, %xmm4
vpsrldq $8, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpshufd $78, %xmm2, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vmovdqa %xmm0, (%rbp)
movq 80(%rsp), %r8
movq 16(%rsp), %rdx
cmpq $96, %rbx
jae .LBB6_15
.LBB6_13:
cmpq $16, %rbx
jb .LBB6_14
.LBB6_18:
vmovdqa (%rdi), %xmm14
vmovdqa 32(%rdi), %xmm0
vmovdqa 176(%rsi), %xmm1
vmovaps (%rsi), %xmm2
vmovaps %xmm2, 32(%rsp)
vmovaps 16(%rsi), %xmm2
vmovaps %xmm2, 16(%rsp)
vmovaps 32(%rsi), %xmm2
vmovaps %xmm2, 80(%rsp)
vmovdqa 48(%rsi), %xmm2
vmovdqa %xmm2, 64(%rsp)
vmovdqa 64(%rsi), %xmm6
vmovdqa 80(%rsi), %xmm7
vmovdqa 96(%rsi), %xmm8
vmovdqa 112(%rsi), %xmm9
vmovdqa 128(%rsi), %xmm10
vmovdqa 144(%rsi), %xmm11
vmovdqa 160(%rsi), %xmm12
vmovdqa .LCPI6_0(%rip), %xmm13
vpbroadcastq .LCPI6_8(%rip), %xmm15
.p2align 4, 0x90
.LBB6_19:
vmovdqu (%rdx), %xmm2
vpshufb %xmm13, %xmm2, %xmm3
vpxor %xmm3, %xmm14, %xmm3
vpclmulqdq $0, %xmm3, %xmm1, %xmm14
vpclmulqdq $1, %xmm3, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm1, %xmm5
vpxor %xmm4, %xmm5, %xmm4
vpslldq $8, %xmm4, %xmm5
vpxor %xmm5, %xmm14, %xmm5
vpclmulqdq $17, %xmm3, %xmm1, %xmm3
vpsrldq $8, %xmm4, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpclmulqdq $16, %xmm15, %xmm5, %xmm4
vpshufd $78, %xmm5, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpshufd $78, %xmm4, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpclmulqdq $16, %xmm15, %xmm4, %xmm4
vpxor %xmm3, %xmm4, %xmm14
vpshufb %xmm13, %xmm0, %xmm3
vpxor 32(%rsp), %xmm3, %xmm3
vaesenc 16(%rsp), %xmm3, %xmm3
vaesenc 80(%rsp), %xmm3, %xmm3
vaesenc 64(%rsp), %xmm3, %xmm3
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm8, %xmm3, %xmm3
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm10, %xmm3, %xmm3
vaesenc %xmm11, %xmm3, %xmm3
vaesenclast %xmm12, %xmm3, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vmovdqu %xmm2, (%r8)
addq $16, %r8
addq $-16, %rbx
addq $16, %rdx
vpaddd .LCPI6_2(%rip), %xmm0, %xmm0
cmpq $15, %rbx
ja .LBB6_19
vmovdqa %xmm0, 32(%rdi)
vmovdqa %xmm14, (%rdi)
testq %rbx, %rbx
je .LBB6_23
.LBB6_21:
movq %rax, 56(%rsp)
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, (%rsp)
movq %rsp, %rax
movq memcpy@GOTPCREL(%rip), %r12
movq %rdi, %r15
movq %rax, %rdi
movq %r13, %rbp
movq %rsi, %r13
movq %rdx, %rsi
movq %rbx, %rdx
movq %r8, %r14
vzeroupper
callq *%r12
vmovdqa 32(%r15), %xmm0
vpshufb .LCPI6_0(%rip), %xmm0, %xmm1
vpaddd .LCPI6_2(%rip), %xmm0, %xmm0
vmovdqa %xmm0, 32(%r15)
vpxor (%r13), %xmm1, %xmm0
vaesenc 16(%r13), %xmm0, %xmm0
vaesenc 32(%r13), %xmm0, %xmm0
vaesenc 48(%r13), %xmm0, %xmm0
vaesenc 64(%r13), %xmm0, %xmm0
vaesenc 80(%r13), %xmm0, %xmm0
vaesenc 96(%r13), %xmm0, %xmm0
vaesenc 112(%r13), %xmm0, %xmm0
vaesenc 128(%r13), %xmm0, %xmm0
vaesenc 144(%r13), %xmm0, %xmm0
vaesenclast 160(%r13), %xmm0, %xmm1
vmovdqa %xmm1, 32(%rsp)
movq %rbp, %r13
vmovdqa (%rsp), %xmm0
vpxor %xmm0, %xmm1, %xmm0
vmovdqa %xmm0, 16(%rsp)
vmovdqa %xmm0, (%rsp)
movq %rsp, %rsi
movq %r14, %rdi
movq %rbx, %rdx
callq *%r12
movq %r15, %rdi
vmovaps 32(%rsp), %xmm0
vmovaps %xmm0, 48(%r15)
vmovdqa 16(%rsp), %xmm0
vmovdqa %xmm0, 64(%r15)
.LBB6_22:
movq %rbx, 80(%rdi)
movq 56(%rsp), %rax
.LBB6_23:
movq %r13, 104(%rdi)
.LBB6_24:
addq $392, %rsp
.cfi_def_cfa_offset 56
popq %rbx
.cfi_def_cfa_offset 48
popq %r12
.cfi_def_cfa_offset 40
popq %r13
.cfi_def_cfa_offset 32
popq %r14
.cfi_def_cfa_offset 24
popq %r15
.cfi_def_cfa_offset 16
popq %rbp
.cfi_def_cfa_offset 8
.cfi_restore %rbx
.cfi_restore %r12
.cfi_restore %r13
.cfi_restore %r14
.cfi_restore %r15
.cfi_restore %rbp
vzeroupper
retq
.Lfunc_end6:
.size haberdashery_aes128gcm_streaming_haswell_decrypt_update, .Lfunc_end6-haberdashery_aes128gcm_streaming_haswell_decrypt_update
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI7_0:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI7_1:
.zero 8
.quad -4467570830351532032
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI7_2:
.quad -4467570830351532032
.section .text.haberdashery_aes128gcm_streaming_haswell_decrypt_finalize,"ax",@progbits
.globl haberdashery_aes128gcm_streaming_haswell_decrypt_finalize
.p2align 4, 0x90
.type haberdashery_aes128gcm_streaming_haswell_decrypt_finalize,@function
haberdashery_aes128gcm_streaming_haswell_decrypt_finalize:
.cfi_startproc
xorl %eax, %eax
cmpq $16, %rcx
jne .LBB7_10
pushq %r15
.cfi_def_cfa_offset 16
pushq %r14
.cfi_def_cfa_offset 24
pushq %r13
.cfi_def_cfa_offset 32
pushq %r12
.cfi_def_cfa_offset 40
pushq %rbx
.cfi_def_cfa_offset 48
subq $48, %rsp
.cfi_def_cfa_offset 96
.cfi_offset %rbx, -48
.cfi_offset %r12, -40
.cfi_offset %r13, -32
.cfi_offset %r14, -24
.cfi_offset %r15, -16
vmovdqu (%rdx), %xmm5
movq 104(%rdi), %r14
testq %r14, %r14
je .LBB7_2
vmovdqa %xmm5, (%rsp)
movq %rsi, %r12
leaq 48(%rdi), %r15
vmovaps 48(%rdi), %xmm0
vxorps 64(%rdi), %xmm0, %xmm0
vmovaps %xmm0, 32(%rsp)
movq 80(%rdi), %rbx
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, 16(%rsp)
leaq 16(%rsp), %rax
leaq 32(%rsp), %rsi
movq %rdi, %r13
movq %rax, %rdi
movq %rbx, %rdx
callq *memcpy@GOTPCREL(%rip)
movq %r13, %rdi
vmovdqa (%r13), %xmm0
testq %rbx, %rbx
je .LBB7_5
vmovdqa 16(%rsp), %xmm1
vpshufb .LCPI7_0(%rip), %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm2
movq %r12, %rsi
vmovdqa 176(%r12), %xmm3
vpclmulqdq $0, %xmm2, %xmm3, %xmm1
vpclmulqdq $1, %xmm2, %xmm3, %xmm0
vpclmulqdq $16, %xmm2, %xmm3, %xmm4
vpxor %xmm0, %xmm4, %xmm0
vpclmulqdq $17, %xmm2, %xmm3, %xmm2
vmovdqa (%rsp), %xmm5
jmp .LBB7_7
.LBB7_2:
cmpq $0, 80(%rdi)
vmovdqa (%rdi), %xmm0
je .LBB7_9
vmovdqa 176(%rsi), %xmm2
vmovdqa 64(%rdi), %xmm1
vpshufb .LCPI7_0(%rip), %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm3
vpclmulqdq $0, %xmm3, %xmm2, %xmm1
vpclmulqdq $1, %xmm3, %xmm2, %xmm0
leaq 48(%rdi), %r15
vpclmulqdq $16, %xmm3, %xmm2, %xmm4
vpxor %xmm0, %xmm4, %xmm0
vpclmulqdq $17, %xmm3, %xmm2, %xmm2
.LBB7_7:
vpslldq $8, %xmm0, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpbroadcastq .LCPI7_2(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm1, %xmm4
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpsrldq $8, %xmm0, %xmm0
vpclmulqdq $16, %xmm3, %xmm1, %xmm3
vpxor %xmm0, %xmm2, %xmm0
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm3, %xmm0, %xmm0
jmp .LBB7_8
.LBB7_5:
movq %r12, %rsi
vmovdqa (%rsp), %xmm5
.LBB7_8:
vpxor %xmm1, %xmm1, %xmm1
vmovdqu %ymm1, (%r15)
movq $0, 32(%r15)
.LBB7_9:
vmovdqa 176(%rsi), %xmm1
vmovq 96(%rdi), %xmm2
vmovq %r14, %xmm3
vpunpcklqdq %xmm2, %xmm3, %xmm2
vpsllq $3, %xmm2, %xmm2
vpxor %xmm0, %xmm2, %xmm0
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpxor %xmm3, %xmm4, %xmm1
vpslldq $8, %xmm1, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vpbroadcastq .LCPI7_2(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm2, %xmm4
vpsrldq $8, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpshufd $78, %xmm2, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vmovdqa %xmm0, (%rdi)
vmovdqa (%rsi), %xmm1
vpxor 16(%rdi), %xmm1, %xmm1
vaesenc 16(%rsi), %xmm1, %xmm1
vaesenc 32(%rsi), %xmm1, %xmm1
vaesenc 48(%rsi), %xmm1, %xmm1
vaesenc 64(%rsi), %xmm1, %xmm1
vaesenc 80(%rsi), %xmm1, %xmm1
vaesenc 96(%rsi), %xmm1, %xmm1
vaesenc 112(%rsi), %xmm1, %xmm1
vaesenc 128(%rsi), %xmm1, %xmm1
vaesenc 144(%rsi), %xmm1, %xmm1
vaesenclast 160(%rsi), %xmm1, %xmm1
vpshufb .LCPI7_0(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm5, %xmm0
vpxor %xmm1, %xmm0, %xmm0
xorl %eax, %eax
vptest %xmm0, %xmm0
sete %al
addq $48, %rsp
.cfi_def_cfa_offset 48
popq %rbx
.cfi_def_cfa_offset 40
popq %r12
.cfi_def_cfa_offset 32
popq %r13
.cfi_def_cfa_offset 24
popq %r14
.cfi_def_cfa_offset 16
popq %r15
.cfi_def_cfa_offset 8
.cfi_restore %rbx
.cfi_restore %r12
.cfi_restore %r13
.cfi_restore %r14
.cfi_restore %r15
.LBB7_10:
vzeroupper
retq
.Lfunc_end7:
.size haberdashery_aes128gcm_streaming_haswell_decrypt_finalize, .Lfunc_end7-haberdashery_aes128gcm_streaming_haswell_decrypt_finalize
.cfi_endproc
.ident "rustc version 1.86.0-nightly (9cd60bd2c 2025-02-15)"
.section ".note.GNU-stack","",@progbits
|
ts-phantomnk90/haberdashery
| 50,151
|
asm/aes128gcm_tigerlake.s
|
# @generated
# https://github.com/facebookincubator/haberdashery/
.text
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI0_0:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI0_1:
.quad -4467570830351532032
.section .text.haberdashery_aes128gcm_tigerlake_init,"ax",@progbits
.globl haberdashery_aes128gcm_tigerlake_init
.p2align 4, 0x90
.type haberdashery_aes128gcm_tigerlake_init,@function
haberdashery_aes128gcm_tigerlake_init:
.cfi_startproc
cmpq $16, %rdx
jne .LBB0_2
vmovdqu (%rsi), %xmm0
vaeskeygenassist $1, %xmm0, %xmm1
vpslldq $4, %xmm0, %xmm2
vpslldq $8, %xmm0, %xmm3
vpslldq $12, %xmm0, %xmm4
vpternlogq $150, %xmm3, %xmm2, %xmm4
vpshufd $255, %xmm1, %xmm1
vpternlogq $150, %xmm4, %xmm0, %xmm1
vaeskeygenassist $2, %xmm1, %xmm2
vpslldq $4, %xmm1, %xmm3
vpslldq $8, %xmm1, %xmm4
vpslldq $12, %xmm1, %xmm5
vpternlogq $150, %xmm4, %xmm3, %xmm5
vpshufd $255, %xmm2, %xmm2
vpternlogq $150, %xmm5, %xmm1, %xmm2
vaeskeygenassist $4, %xmm2, %xmm3
vpslldq $4, %xmm2, %xmm4
vpslldq $8, %xmm2, %xmm5
vpslldq $12, %xmm2, %xmm6
vpternlogq $150, %xmm5, %xmm4, %xmm6
vpshufd $255, %xmm3, %xmm3
vpternlogq $150, %xmm6, %xmm2, %xmm3
vaeskeygenassist $8, %xmm3, %xmm4
vpslldq $4, %xmm3, %xmm5
vpslldq $8, %xmm3, %xmm6
vpslldq $12, %xmm3, %xmm7
vpternlogq $150, %xmm6, %xmm5, %xmm7
vpshufd $255, %xmm4, %xmm4
vpternlogq $150, %xmm7, %xmm3, %xmm4
vaeskeygenassist $16, %xmm4, %xmm5
vpslldq $4, %xmm4, %xmm6
vpslldq $8, %xmm4, %xmm7
vpslldq $12, %xmm4, %xmm8
vpternlogq $150, %xmm7, %xmm6, %xmm8
vpshufd $255, %xmm5, %xmm5
vpternlogq $150, %xmm8, %xmm4, %xmm5
vaeskeygenassist $32, %xmm5, %xmm6
vpslldq $4, %xmm5, %xmm7
vpslldq $8, %xmm5, %xmm8
vpslldq $12, %xmm5, %xmm9
vpternlogq $150, %xmm8, %xmm7, %xmm9
vpshufd $255, %xmm6, %xmm6
vpternlogq $150, %xmm9, %xmm5, %xmm6
vpslldq $4, %xmm6, %xmm7
vaeskeygenassist $64, %xmm6, %xmm8
vpslldq $8, %xmm6, %xmm9
vpslldq $12, %xmm6, %xmm10
vpternlogq $150, %xmm9, %xmm7, %xmm10
vpshufd $255, %xmm8, %xmm7
vpternlogq $150, %xmm10, %xmm6, %xmm7
vpslldq $4, %xmm7, %xmm8
vpslldq $8, %xmm7, %xmm9
vaeskeygenassist $128, %xmm7, %xmm10
vpslldq $12, %xmm7, %xmm11
vpternlogq $150, %xmm9, %xmm8, %xmm11
vpshufd $255, %xmm10, %xmm8
vpternlogq $150, %xmm11, %xmm7, %xmm8
vpslldq $4, %xmm8, %xmm9
vpslldq $8, %xmm8, %xmm10
vpslldq $12, %xmm8, %xmm11
vaeskeygenassist $27, %xmm8, %xmm12
vpternlogq $150, %xmm10, %xmm9, %xmm11
vpshufd $255, %xmm12, %xmm9
vpternlogq $150, %xmm11, %xmm8, %xmm9
vpslldq $4, %xmm9, %xmm10
vpslldq $8, %xmm9, %xmm11
vpslldq $12, %xmm9, %xmm12
vpternlogq $150, %xmm11, %xmm10, %xmm12
vaeskeygenassist $54, %xmm9, %xmm10
vpshufd $255, %xmm10, %xmm10
vpternlogq $150, %xmm12, %xmm9, %xmm10
vaesenc %xmm1, %xmm0, %xmm11
vaesenc %xmm2, %xmm11, %xmm11
vaesenc %xmm3, %xmm11, %xmm11
vaesenc %xmm4, %xmm11, %xmm11
vaesenc %xmm5, %xmm11, %xmm11
vaesenc %xmm6, %xmm11, %xmm11
vaesenc %xmm7, %xmm11, %xmm11
vaesenc %xmm8, %xmm11, %xmm11
vaesenc %xmm9, %xmm11, %xmm11
vaesenclast %xmm10, %xmm11, %xmm11
vpshufb .LCPI0_0(%rip), %xmm11, %xmm11
vpsrlq $63, %xmm11, %xmm12
vpaddq %xmm11, %xmm11, %xmm11
vpshufd $78, %xmm12, %xmm13
vpxor %xmm14, %xmm14, %xmm14
vpblendd $12, %xmm12, %xmm14, %xmm12
vpsllq $63, %xmm12, %xmm14
vpternlogq $30, %xmm13, %xmm11, %xmm14
vpsllq $62, %xmm12, %xmm13
vpsllq $57, %xmm12, %xmm11
vpternlogq $150, %xmm13, %xmm14, %xmm11
vpclmulqdq $0, %xmm11, %xmm11, %xmm12
vpbroadcastq .LCPI0_1(%rip), %xmm13
vpclmulqdq $16, %xmm13, %xmm12, %xmm14
vpshufd $78, %xmm12, %xmm12
vpxor %xmm12, %xmm14, %xmm12
vpclmulqdq $16, %xmm13, %xmm12, %xmm14
vpclmulqdq $17, %xmm11, %xmm11, %xmm15
vpshufd $78, %xmm12, %xmm12
vpternlogq $150, %xmm14, %xmm15, %xmm12
vpclmulqdq $0, %xmm11, %xmm12, %xmm14
vpclmulqdq $16, %xmm11, %xmm12, %xmm15
vpclmulqdq $1, %xmm11, %xmm12, %xmm16
vpxorq %xmm15, %xmm16, %xmm15
vpslldq $8, %xmm15, %xmm16
vpxorq %xmm16, %xmm14, %xmm14
vpclmulqdq $16, %xmm13, %xmm14, %xmm16
vpshufd $78, %xmm14, %xmm14
vpxorq %xmm14, %xmm16, %xmm14
vpclmulqdq $16, %xmm13, %xmm14, %xmm16
vpclmulqdq $17, %xmm11, %xmm12, %xmm17
vpxorq %xmm16, %xmm17, %xmm16
vpsrldq $8, %xmm15, %xmm15
vpshufd $78, %xmm14, %xmm14
vpternlogq $150, %xmm15, %xmm16, %xmm14
vpclmulqdq $0, %xmm14, %xmm14, %xmm15
vpclmulqdq $16, %xmm13, %xmm15, %xmm16
vpshufd $78, %xmm15, %xmm15
vpxorq %xmm15, %xmm16, %xmm15
vpclmulqdq $16, %xmm13, %xmm15, %xmm16
vpclmulqdq $17, %xmm14, %xmm14, %xmm17
vpshufd $78, %xmm15, %xmm15
vpternlogq $150, %xmm16, %xmm17, %xmm15
vpclmulqdq $0, %xmm12, %xmm12, %xmm16
vpclmulqdq $16, %xmm13, %xmm16, %xmm17
vpshufd $78, %xmm16, %xmm16
vpxorq %xmm16, %xmm17, %xmm16
vpclmulqdq $16, %xmm13, %xmm16, %xmm17
vpclmulqdq $17, %xmm12, %xmm12, %xmm18
vpshufd $78, %xmm16, %xmm16
vpternlogq $150, %xmm17, %xmm18, %xmm16
vpclmulqdq $0, %xmm11, %xmm16, %xmm17
vpclmulqdq $16, %xmm11, %xmm16, %xmm18
vpclmulqdq $1, %xmm11, %xmm16, %xmm19
vpxorq %xmm18, %xmm19, %xmm18
vpslldq $8, %xmm18, %xmm19
vpxorq %xmm19, %xmm17, %xmm17
vpclmulqdq $16, %xmm13, %xmm17, %xmm19
vpshufd $78, %xmm17, %xmm17
vpxorq %xmm17, %xmm19, %xmm17
vpclmulqdq $16, %xmm13, %xmm17, %xmm13
vpclmulqdq $17, %xmm11, %xmm16, %xmm19
vpxorq %xmm13, %xmm19, %xmm13
vpsrldq $8, %xmm18, %xmm18
vpshufd $78, %xmm17, %xmm17
vpternlogq $150, %xmm18, %xmm13, %xmm17
vmovdqa %xmm0, (%rdi)
vmovdqa %xmm1, 16(%rdi)
vmovdqa %xmm2, 32(%rdi)
vmovdqa %xmm3, 48(%rdi)
vmovdqa %xmm4, 64(%rdi)
vmovdqa %xmm5, 80(%rdi)
vmovdqa %xmm6, 96(%rdi)
vmovdqa %xmm7, 112(%rdi)
vmovdqa %xmm8, 128(%rdi)
vmovdqa %xmm9, 144(%rdi)
vmovdqa %xmm10, 160(%rdi)
vmovdqa %xmm11, 176(%rdi)
vmovdqa %xmm12, 192(%rdi)
vmovdqa %xmm14, 208(%rdi)
vmovdqa64 %xmm16, 224(%rdi)
vmovdqa64 %xmm17, 240(%rdi)
vmovdqa %xmm15, 256(%rdi)
.LBB0_2:
xorl %eax, %eax
cmpq $16, %rdx
sete %al
retq
.Lfunc_end0:
.size haberdashery_aes128gcm_tigerlake_init, .Lfunc_end0-haberdashery_aes128gcm_tigerlake_init
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI1_0:
.byte 15
.byte 128
.byte 128
.byte 128
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI1_1:
.long 1
.long 0
.long 0
.long 0
.LCPI1_2:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI1_4:
.long 2
.long 0
.long 0
.long 0
.LCPI1_5:
.long 3
.long 0
.long 0
.long 0
.LCPI1_6:
.long 4
.long 0
.long 0
.long 0
.LCPI1_7:
.long 5
.long 0
.long 0
.long 0
.LCPI1_8:
.long 6
.long 0
.long 0
.long 0
.LCPI1_9:
.long 7
.long 0
.long 0
.long 0
.LCPI1_10:
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.LCPI1_11:
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI1_3:
.quad -4467570830351532032
.section .rodata,"a",@progbits
.LCPI1_12:
.byte 1
.byte 0
.section .text.haberdashery_aes128gcm_tigerlake_encrypt,"ax",@progbits
.globl haberdashery_aes128gcm_tigerlake_encrypt
.p2align 4, 0x90
.type haberdashery_aes128gcm_tigerlake_encrypt,@function
haberdashery_aes128gcm_tigerlake_encrypt:
.cfi_startproc
pushq %rbx
.cfi_def_cfa_offset 16
subq $48, %rsp
.cfi_def_cfa_offset 64
.cfi_offset %rbx, -16
movq 64(%rsp), %r10
xorl %eax, %eax
cmpq 80(%rsp), %r10
jne .LBB1_22
cmpq $16, 96(%rsp)
setne %r11b
movabsq $2305843009213693950, %rbx
cmpq %rbx, %r8
seta %bl
orb %r11b, %bl
jne .LBB1_22
movq %r10, %r11
shrq $5, %r11
cmpq $2147483647, %r11
setae %r11b
cmpq $12, %rdx
setne %dl
orb %r11b, %dl
jne .LBB1_22
vmovd (%rsi), %xmm0
vpinsrd $1, 4(%rsi), %xmm0, %xmm0
vpinsrd $2, 8(%rsi), %xmm0, %xmm0
movl $16777216, %edx
vpinsrd $3, %edx, %xmm0, %xmm21
vpxor %xmm1, %xmm1, %xmm1
testq %r8, %r8
je .LBB1_18
cmpq $96, %r8
jb .LBB1_5
vmovdqa 176(%rdi), %xmm0
vmovdqa 192(%rdi), %xmm2
vmovdqa 208(%rdi), %xmm3
vmovdqa 224(%rdi), %xmm4
vmovdqa 240(%rdi), %xmm5
vmovdqa 256(%rdi), %xmm6
vmovdqa .LCPI1_2(%rip), %xmm7
vpbroadcastq .LCPI1_3(%rip), %xmm8
movq %r8, %rdx
.p2align 4, 0x90
.LBB1_17:
vmovdqu (%rcx), %xmm9
vmovdqu 16(%rcx), %xmm10
vmovdqu 32(%rcx), %xmm11
vmovdqu 48(%rcx), %xmm12
vmovdqu 64(%rcx), %xmm13
vmovdqu 80(%rcx), %xmm14
addq $96, %rcx
addq $-96, %rdx
vpshufb %xmm7, %xmm9, %xmm9
vpxor %xmm1, %xmm9, %xmm1
vpshufb %xmm7, %xmm10, %xmm9
vpshufb %xmm7, %xmm11, %xmm10
vpshufb %xmm7, %xmm12, %xmm11
vpshufb %xmm7, %xmm13, %xmm12
vpshufb %xmm7, %xmm14, %xmm13
vpclmulqdq $0, %xmm13, %xmm0, %xmm14
vpclmulqdq $1, %xmm13, %xmm0, %xmm15
vpclmulqdq $16, %xmm13, %xmm0, %xmm17
vpxorq %xmm15, %xmm17, %xmm15
vpclmulqdq $17, %xmm13, %xmm0, %xmm13
vpclmulqdq $0, %xmm12, %xmm2, %xmm17
vpclmulqdq $1, %xmm12, %xmm2, %xmm18
vpclmulqdq $16, %xmm12, %xmm2, %xmm19
vpternlogq $150, %xmm18, %xmm15, %xmm19
vpclmulqdq $17, %xmm12, %xmm2, %xmm12
vpclmulqdq $0, %xmm11, %xmm3, %xmm15
vpternlogq $150, %xmm14, %xmm17, %xmm15
vpclmulqdq $1, %xmm11, %xmm3, %xmm14
vpclmulqdq $16, %xmm11, %xmm3, %xmm17
vpternlogq $150, %xmm14, %xmm19, %xmm17
vpclmulqdq $17, %xmm11, %xmm3, %xmm11
vpternlogq $150, %xmm13, %xmm12, %xmm11
vpclmulqdq $0, %xmm10, %xmm4, %xmm12
vpclmulqdq $1, %xmm10, %xmm4, %xmm13
vpclmulqdq $16, %xmm10, %xmm4, %xmm14
vpternlogq $150, %xmm13, %xmm17, %xmm14
vpclmulqdq $17, %xmm10, %xmm4, %xmm10
vpclmulqdq $0, %xmm9, %xmm5, %xmm13
vpternlogq $150, %xmm12, %xmm15, %xmm13
vpclmulqdq $1, %xmm9, %xmm5, %xmm12
vpclmulqdq $16, %xmm9, %xmm5, %xmm15
vpternlogq $150, %xmm12, %xmm14, %xmm15
vpclmulqdq $17, %xmm9, %xmm5, %xmm9
vpternlogq $150, %xmm10, %xmm11, %xmm9
vpclmulqdq $0, %xmm1, %xmm6, %xmm10
vpclmulqdq $1, %xmm1, %xmm6, %xmm11
vpclmulqdq $16, %xmm1, %xmm6, %xmm12
vpternlogq $150, %xmm11, %xmm15, %xmm12
vpclmulqdq $17, %xmm1, %xmm6, %xmm1
vpslldq $8, %xmm12, %xmm11
vpternlogq $150, %xmm10, %xmm13, %xmm11
vpsrldq $8, %xmm12, %xmm10
vpclmulqdq $16, %xmm8, %xmm11, %xmm12
vpshufd $78, %xmm11, %xmm11
vpxor %xmm11, %xmm12, %xmm11
vpclmulqdq $16, %xmm8, %xmm11, %xmm12
vpternlogq $150, %xmm1, %xmm9, %xmm12
vpshufd $78, %xmm11, %xmm1
vpternlogq $150, %xmm10, %xmm12, %xmm1
cmpq $95, %rdx
ja .LBB1_17
cmpq $16, %rdx
jae .LBB1_11
jmp .LBB1_7
.LBB1_18:
testq %r10, %r10
jne .LBB1_25
jmp .LBB1_19
.LBB1_5:
movq %r8, %rdx
cmpq $16, %rdx
jb .LBB1_7
.LBB1_11:
vmovdqa 176(%rdi), %xmm0
leaq -16(%rdx), %rsi
testb $16, %sil
je .LBB1_12
cmpq $16, %rsi
jae .LBB1_14
.LBB1_8:
testq %rsi, %rsi
je .LBB1_20
.LBB1_9:
movl $-1, %edx
bzhil %esi, %edx, %edx
kmovd %edx, %k1
vmovdqu8 (%rcx), %xmm0 {%k1} {z}
testq %r10, %r10
je .LBB1_10
movabsq $-68719476704, %rcx
leaq (%r10,%rcx), %rdx
incq %rcx
cmpq %rcx, %rdx
jb .LBB1_22
vmovdqa 176(%rdi), %xmm2
vpshufb .LCPI1_2(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpclmulqdq $0, %xmm0, %xmm2, %xmm1
vpclmulqdq $1, %xmm0, %xmm2, %xmm3
vpclmulqdq $16, %xmm0, %xmm2, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm2, %xmm0
vpslldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpbroadcastq .LCPI1_3(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm1, %xmm4
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm3
vpxor %xmm0, %xmm3, %xmm0
vpshufd $78, %xmm1, %xmm1
vpternlogq $150, %xmm2, %xmm0, %xmm1
jmp .LBB1_25
.LBB1_12:
vmovdqu (%rcx), %xmm2
addq $16, %rcx
vpshufb .LCPI1_2(%rip), %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
vpslldq $8, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpsrldq $8, %xmm3, %xmm3
vpbroadcastq .LCPI1_3(%rip), %xmm4
vpclmulqdq $16, %xmm4, %xmm2, %xmm5
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm5, %xmm2
vpclmulqdq $16, %xmm4, %xmm2, %xmm4
vpxor %xmm1, %xmm4, %xmm4
vpshufd $78, %xmm2, %xmm1
vpternlogq $150, %xmm3, %xmm4, %xmm1
movq %rsi, %rdx
cmpq $16, %rsi
jb .LBB1_8
.LBB1_14:
vmovdqa .LCPI1_2(%rip), %xmm2
vpbroadcastq .LCPI1_3(%rip), %xmm3
.p2align 4, 0x90
.LBB1_15:
vmovdqu (%rcx), %xmm4
vmovdqu 16(%rcx), %xmm5
vpshufb %xmm2, %xmm4, %xmm4
vpxor %xmm4, %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm4
vpclmulqdq $1, %xmm1, %xmm0, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm7
vpxor %xmm6, %xmm7, %xmm6
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
vpslldq $8, %xmm6, %xmm7
vpxor %xmm7, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm4, %xmm7
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm7, %xmm4
vpclmulqdq $16, %xmm3, %xmm4, %xmm7
vpternlogq $150, %xmm1, %xmm6, %xmm7
vpshufd $78, %xmm4, %xmm1
addq $32, %rcx
addq $-32, %rdx
vpshufb %xmm2, %xmm5, %xmm4
vpternlogq $150, %xmm1, %xmm7, %xmm4
vpclmulqdq $0, %xmm4, %xmm0, %xmm1
vpclmulqdq $1, %xmm4, %xmm0, %xmm5
vpclmulqdq $16, %xmm4, %xmm0, %xmm6
vpxor %xmm5, %xmm6, %xmm5
vpclmulqdq $17, %xmm4, %xmm0, %xmm4
vpslldq $8, %xmm5, %xmm6
vpxor %xmm6, %xmm1, %xmm1
vpsrldq $8, %xmm5, %xmm5
vpclmulqdq $16, %xmm3, %xmm1, %xmm6
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm6, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm6
vpxor %xmm4, %xmm6, %xmm4
vpshufd $78, %xmm1, %xmm1
vpternlogq $150, %xmm5, %xmm4, %xmm1
cmpq $15, %rdx
ja .LBB1_15
.LBB1_7:
movq %rdx, %rsi
testq %rsi, %rsi
jne .LBB1_9
.LBB1_20:
testq %r10, %r10
je .LBB1_19
movabsq $-68719476704, %rcx
leaq (%r10,%rcx), %rdx
incq %rcx
cmpq %rcx, %rdx
jb .LBB1_22
.LBB1_25:
movq 72(%rsp), %rsi
vpshufb .LCPI1_0(%rip), %xmm21, %xmm0
vpaddd .LCPI1_1(%rip), %xmm0, %xmm2
cmpq $96, %r10
jb .LBB1_26
leaq 96(%r9), %rdx
leaq 96(%rsi), %rax
vmovdqa64 .LCPI1_2(%rip), %xmm31
vpshufb %xmm31, %xmm2, %xmm5
vpaddd .LCPI1_4(%rip), %xmm0, %xmm2
vpshufb %xmm31, %xmm2, %xmm6
vpaddd .LCPI1_5(%rip), %xmm0, %xmm2
vpshufb %xmm31, %xmm2, %xmm7
vpaddd .LCPI1_6(%rip), %xmm0, %xmm2
vpshufb %xmm31, %xmm2, %xmm8
vpaddd .LCPI1_7(%rip), %xmm0, %xmm2
vpshufb %xmm31, %xmm2, %xmm9
vpaddd .LCPI1_8(%rip), %xmm0, %xmm2
vpshufb %xmm31, %xmm2, %xmm10
vpaddd .LCPI1_9(%rip), %xmm0, %xmm2
vmovdqa64 (%rdi), %xmm24
vmovaps 16(%rdi), %xmm4
vmovdqa 32(%rdi), %xmm12
vmovdqa 48(%rdi), %xmm13
vpxorq %xmm5, %xmm24, %xmm0
vpxorq %xmm6, %xmm24, %xmm5
vpxorq %xmm7, %xmm24, %xmm6
vpxorq %xmm8, %xmm24, %xmm7
vpxorq %xmm9, %xmm24, %xmm8
vpxorq %xmm10, %xmm24, %xmm9
#APP
vaesenc %xmm4, %xmm0, %xmm0
vaesenc %xmm4, %xmm5, %xmm5
vaesenc %xmm4, %xmm6, %xmm6
vaesenc %xmm4, %xmm7, %xmm7
vaesenc %xmm4, %xmm8, %xmm8
vaesenc %xmm4, %xmm9, %xmm9
#NO_APP
#APP
vaesenc %xmm12, %xmm0, %xmm0
vaesenc %xmm12, %xmm5, %xmm5
vaesenc %xmm12, %xmm6, %xmm6
vaesenc %xmm12, %xmm7, %xmm7
vaesenc %xmm12, %xmm8, %xmm8
vaesenc %xmm12, %xmm9, %xmm9
#NO_APP
#APP
vaesenc %xmm13, %xmm0, %xmm0
vaesenc %xmm13, %xmm5, %xmm5
vaesenc %xmm13, %xmm6, %xmm6
vaesenc %xmm13, %xmm7, %xmm7
vaesenc %xmm13, %xmm8, %xmm8
vaesenc %xmm13, %xmm9, %xmm9
#NO_APP
vmovdqa 64(%rdi), %xmm10
#APP
vaesenc %xmm10, %xmm0, %xmm0
vaesenc %xmm10, %xmm5, %xmm5
vaesenc %xmm10, %xmm6, %xmm6
vaesenc %xmm10, %xmm7, %xmm7
vaesenc %xmm10, %xmm8, %xmm8
vaesenc %xmm10, %xmm9, %xmm9
#NO_APP
vmovdqa 80(%rdi), %xmm14
#APP
vaesenc %xmm14, %xmm0, %xmm0
vaesenc %xmm14, %xmm5, %xmm5
vaesenc %xmm14, %xmm6, %xmm6
vaesenc %xmm14, %xmm7, %xmm7
vaesenc %xmm14, %xmm8, %xmm8
vaesenc %xmm14, %xmm9, %xmm9
#NO_APP
vmovaps 96(%rdi), %xmm15
vmovaps %xmm15, -96(%rsp)
#APP
vaesenc %xmm15, %xmm0, %xmm0
vaesenc %xmm15, %xmm5, %xmm5
vaesenc %xmm15, %xmm6, %xmm6
vaesenc %xmm15, %xmm7, %xmm7
vaesenc %xmm15, %xmm8, %xmm8
vaesenc %xmm15, %xmm9, %xmm9
#NO_APP
vmovaps 112(%rdi), %xmm15
vmovaps %xmm15, -112(%rsp)
#APP
vaesenc %xmm15, %xmm0, %xmm0
vaesenc %xmm15, %xmm5, %xmm5
vaesenc %xmm15, %xmm6, %xmm6
vaesenc %xmm15, %xmm7, %xmm7
vaesenc %xmm15, %xmm8, %xmm8
vaesenc %xmm15, %xmm9, %xmm9
#NO_APP
vmovaps 128(%rdi), %xmm15
vmovaps %xmm15, %xmm25
#APP
vaesenc %xmm15, %xmm0, %xmm0
vaesenc %xmm15, %xmm5, %xmm5
vaesenc %xmm15, %xmm6, %xmm6
vaesenc %xmm15, %xmm7, %xmm7
vaesenc %xmm15, %xmm8, %xmm8
vaesenc %xmm15, %xmm9, %xmm9
#NO_APP
vmovdqa 144(%rdi), %xmm15
vmovdqa64 %xmm15, %xmm20
#APP
vaesenc %xmm15, %xmm0, %xmm0
vaesenc %xmm15, %xmm5, %xmm5
vaesenc %xmm15, %xmm6, %xmm6
vaesenc %xmm15, %xmm7, %xmm7
vaesenc %xmm15, %xmm8, %xmm8
vaesenc %xmm15, %xmm9, %xmm9
#NO_APP
vmovaps 160(%rdi), %xmm15
vmovaps %xmm15, %xmm23
#APP
vaesenclast %xmm15, %xmm0, %xmm0
vaesenclast %xmm15, %xmm5, %xmm5
vaesenclast %xmm15, %xmm6, %xmm6
vaesenclast %xmm15, %xmm7, %xmm7
vaesenclast %xmm15, %xmm8, %xmm8
vaesenclast %xmm15, %xmm9, %xmm9
#NO_APP
vpxor (%r9), %xmm0, %xmm15
vpxorq 16(%r9), %xmm5, %xmm22
vpxorq 32(%r9), %xmm6, %xmm26
vpxorq 48(%r9), %xmm7, %xmm27
vpxorq 64(%r9), %xmm8, %xmm28
vpxorq 80(%r9), %xmm9, %xmm29
vmovdqu %xmm15, (%rsi)
vmovdqu64 %xmm22, 16(%rsi)
vmovdqu64 %xmm26, 32(%rsi)
vmovdqu64 %xmm27, 48(%rsi)
leaq -96(%r10), %rcx
vmovdqu64 %xmm28, 64(%rsi)
vmovdqu64 %xmm29, 80(%rsi)
cmpq $96, %rcx
jb .LBB1_37
vmovdqa64 %xmm21, -128(%rsp)
vmovaps 176(%rdi), %xmm0
vmovaps %xmm0, 32(%rsp)
vmovaps 192(%rdi), %xmm0
vmovaps %xmm0, 16(%rsp)
vmovaps 208(%rdi), %xmm0
vmovaps %xmm0, (%rsp)
vmovaps 224(%rdi), %xmm0
vmovaps %xmm0, -16(%rsp)
vmovaps 240(%rdi), %xmm0
vmovaps %xmm0, -32(%rsp)
vmovdqa 256(%rdi), %xmm0
vmovdqa %xmm0, -48(%rsp)
vmovaps %xmm4, -64(%rsp)
vmovdqa %xmm12, -80(%rsp)
vmovdqa64 %xmm13, %xmm21
vmovdqa64 %xmm10, %xmm16
vmovdqa64 %xmm14, %xmm18
vmovdqa64 -96(%rsp), %xmm17
vmovdqa64 -112(%rsp), %xmm19
.p2align 4, 0x90
.LBB1_35:
vpshufb %xmm31, %xmm2, %xmm0
vpaddd .LCPI1_1(%rip), %xmm2, %xmm5
vpshufb %xmm31, %xmm5, %xmm5
vpaddd .LCPI1_4(%rip), %xmm2, %xmm6
vpshufb %xmm31, %xmm6, %xmm6
vpaddd .LCPI1_5(%rip), %xmm2, %xmm7
vpshufb %xmm31, %xmm7, %xmm7
vpaddd .LCPI1_6(%rip), %xmm2, %xmm8
vpshufb %xmm31, %xmm8, %xmm14
vpaddd .LCPI1_7(%rip), %xmm2, %xmm8
vpshufb %xmm31, %xmm8, %xmm30
vpshufb %xmm31, %xmm29, %xmm8
vpxorq %xmm0, %xmm24, %xmm10
vpxorq %xmm5, %xmm24, %xmm11
vpxorq %xmm6, %xmm24, %xmm12
vpxorq %xmm7, %xmm24, %xmm13
vpxorq %xmm14, %xmm24, %xmm14
vpxorq %xmm30, %xmm24, %xmm0
vmovaps -64(%rsp), %xmm3
#APP
vaesenc %xmm3, %xmm10, %xmm10
vaesenc %xmm3, %xmm11, %xmm11
vaesenc %xmm3, %xmm12, %xmm12
vaesenc %xmm3, %xmm13, %xmm13
vaesenc %xmm3, %xmm14, %xmm14
vaesenc %xmm3, %xmm0, %xmm0
#NO_APP
vpxor %xmm6, %xmm6, %xmm6
vpxor %xmm7, %xmm7, %xmm7
vpxor %xmm5, %xmm5, %xmm5
vmovaps 32(%rsp), %xmm3
vmovaps -80(%rsp), %xmm4
#APP
vaesenc %xmm4, %xmm10, %xmm10
vaesenc %xmm4, %xmm11, %xmm11
vaesenc %xmm4, %xmm12, %xmm12
vaesenc %xmm4, %xmm13, %xmm13
vaesenc %xmm4, %xmm14, %xmm14
vaesenc %xmm4, %xmm0, %xmm0
vpclmulqdq $16, %xmm3, %xmm8, %xmm9
vpxor %xmm7, %xmm9, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm9
vpxor %xmm6, %xmm9, %xmm6
vpclmulqdq $17, %xmm3, %xmm8, %xmm9
vpxor %xmm5, %xmm9, %xmm5
vpclmulqdq $1, %xmm3, %xmm8, %xmm9
vpxor %xmm7, %xmm9, %xmm7
#NO_APP
vpshufb %xmm31, %xmm28, %xmm8
vmovaps 16(%rsp), %xmm3
vmovdqa64 %xmm21, %xmm4
#APP
vaesenc %xmm4, %xmm10, %xmm10
vaesenc %xmm4, %xmm11, %xmm11
vaesenc %xmm4, %xmm12, %xmm12
vaesenc %xmm4, %xmm13, %xmm13
vaesenc %xmm4, %xmm14, %xmm14
vaesenc %xmm4, %xmm0, %xmm0
vpclmulqdq $16, %xmm3, %xmm8, %xmm9
vpxor %xmm7, %xmm9, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm9
vpxor %xmm6, %xmm9, %xmm6
vpclmulqdq $17, %xmm3, %xmm8, %xmm9
vpxor %xmm5, %xmm9, %xmm5
vpclmulqdq $1, %xmm3, %xmm8, %xmm9
vpxor %xmm7, %xmm9, %xmm7
#NO_APP
vpshufb %xmm31, %xmm27, %xmm8
vmovaps (%rsp), %xmm3
vmovdqa64 %xmm16, %xmm4
#APP
vaesenc %xmm4, %xmm10, %xmm10
vaesenc %xmm4, %xmm11, %xmm11
vaesenc %xmm4, %xmm12, %xmm12
vaesenc %xmm4, %xmm13, %xmm13
vaesenc %xmm4, %xmm14, %xmm14
vaesenc %xmm4, %xmm0, %xmm0
vpclmulqdq $16, %xmm3, %xmm8, %xmm9
vpxor %xmm7, %xmm9, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm9
vpxor %xmm6, %xmm9, %xmm6
vpclmulqdq $17, %xmm3, %xmm8, %xmm9
vpxor %xmm5, %xmm9, %xmm5
vpclmulqdq $1, %xmm3, %xmm8, %xmm9
vpxor %xmm7, %xmm9, %xmm7
#NO_APP
vpshufb %xmm31, %xmm26, %xmm8
vmovdqa64 %xmm18, %xmm4
vmovaps -16(%rsp), %xmm3
#APP
vaesenc %xmm4, %xmm10, %xmm10
vaesenc %xmm4, %xmm11, %xmm11
vaesenc %xmm4, %xmm12, %xmm12
vaesenc %xmm4, %xmm13, %xmm13
vaesenc %xmm4, %xmm14, %xmm14
vaesenc %xmm4, %xmm0, %xmm0
vpclmulqdq $16, %xmm3, %xmm8, %xmm9
vpxor %xmm7, %xmm9, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm9
vpxor %xmm6, %xmm9, %xmm6
vpclmulqdq $17, %xmm3, %xmm8, %xmm9
vpxor %xmm5, %xmm9, %xmm5
vpclmulqdq $1, %xmm3, %xmm8, %xmm9
vpxor %xmm7, %xmm9, %xmm7
#NO_APP
vpshufb %xmm31, %xmm22, %xmm8
vmovaps -32(%rsp), %xmm3
vmovdqa64 %xmm17, %xmm4
#APP
vaesenc %xmm4, %xmm10, %xmm10
vaesenc %xmm4, %xmm11, %xmm11
vaesenc %xmm4, %xmm12, %xmm12
vaesenc %xmm4, %xmm13, %xmm13
vaesenc %xmm4, %xmm14, %xmm14
vaesenc %xmm4, %xmm0, %xmm0
vpclmulqdq $16, %xmm3, %xmm8, %xmm9
vpxor %xmm7, %xmm9, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm9
vpxor %xmm6, %xmm9, %xmm6
vpclmulqdq $17, %xmm3, %xmm8, %xmm9
vpxor %xmm5, %xmm9, %xmm5
vpclmulqdq $1, %xmm3, %xmm8, %xmm9
vpxor %xmm7, %xmm9, %xmm7
#NO_APP
vpshufb %xmm31, %xmm15, %xmm8
vpxor %xmm1, %xmm8, %xmm1
vmovdqa64 %xmm19, %xmm3
#APP
vaesenc %xmm3, %xmm10, %xmm10
vaesenc %xmm3, %xmm11, %xmm11
vaesenc %xmm3, %xmm12, %xmm12
vaesenc %xmm3, %xmm13, %xmm13
vaesenc %xmm3, %xmm14, %xmm14
vaesenc %xmm3, %xmm0, %xmm0
#NO_APP
vmovdqa -48(%rsp), %xmm3
vmovaps %xmm25, %xmm4
#APP
vaesenc %xmm4, %xmm10, %xmm10
vaesenc %xmm4, %xmm11, %xmm11
vaesenc %xmm4, %xmm12, %xmm12
vaesenc %xmm4, %xmm13, %xmm13
vaesenc %xmm4, %xmm14, %xmm14
vaesenc %xmm4, %xmm0, %xmm0
vpclmulqdq $16, %xmm3, %xmm1, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $0, %xmm3, %xmm1, %xmm8
vpxor %xmm6, %xmm8, %xmm6
vpclmulqdq $17, %xmm3, %xmm1, %xmm8
vpxor %xmm5, %xmm8, %xmm5
vpclmulqdq $1, %xmm3, %xmm1, %xmm8
vpxor %xmm7, %xmm8, %xmm7
#NO_APP
vpxor %xmm3, %xmm3, %xmm3
vpunpcklqdq %xmm7, %xmm3, %xmm1
vpxor %xmm1, %xmm6, %xmm6
vpunpckhqdq %xmm3, %xmm7, %xmm1
vmovdqa64 %xmm20, %xmm3
#APP
vaesenc %xmm3, %xmm10, %xmm10
vaesenc %xmm3, %xmm11, %xmm11
vaesenc %xmm3, %xmm12, %xmm12
vaesenc %xmm3, %xmm13, %xmm13
vaesenc %xmm3, %xmm14, %xmm14
vaesenc %xmm3, %xmm0, %xmm0
#NO_APP
vmovaps %xmm23, %xmm3
#APP
vaesenclast %xmm3, %xmm10, %xmm10
vaesenclast %xmm3, %xmm11, %xmm11
vaesenclast %xmm3, %xmm12, %xmm12
vaesenclast %xmm3, %xmm13, %xmm13
vaesenclast %xmm3, %xmm14, %xmm14
vaesenclast %xmm3, %xmm0, %xmm0
#NO_APP
vpxor (%rdx), %xmm10, %xmm15
vpxorq 16(%rdx), %xmm11, %xmm22
vpxorq 32(%rdx), %xmm12, %xmm26
vpxorq 48(%rdx), %xmm13, %xmm27
vpxorq 64(%rdx), %xmm14, %xmm28
vpxorq 80(%rdx), %xmm0, %xmm29
vpxor %xmm1, %xmm5, %xmm1
vpbroadcastq .LCPI1_3(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm6, %xmm0
vpshufd $78, %xmm6, %xmm5
vpxor %xmm5, %xmm0, %xmm0
vpclmulqdq $16, %xmm3, %xmm0, %xmm5
vpshufd $78, %xmm0, %xmm0
vpternlogq $150, %xmm5, %xmm0, %xmm1
addq $96, %rdx
vmovdqu %xmm15, (%rax)
vmovdqu64 %xmm22, 16(%rax)
vmovdqu64 %xmm26, 32(%rax)
vmovdqu64 %xmm27, 48(%rax)
vmovdqu64 %xmm28, 64(%rax)
vmovdqu64 %xmm29, 80(%rax)
addq $96, %rax
addq $-96, %rcx
vpaddd .LCPI1_8(%rip), %xmm2, %xmm2
cmpq $95, %rcx
ja .LBB1_35
vmovdqa64 -128(%rsp), %xmm21
.LBB1_37:
vpshufb %xmm31, %xmm15, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpshufb %xmm31, %xmm22, %xmm1
vpshufb %xmm31, %xmm26, %xmm4
vpshufb %xmm31, %xmm27, %xmm5
vpshufb %xmm31, %xmm28, %xmm6
vpshufb %xmm31, %xmm29, %xmm3
vmovdqa 176(%rdi), %xmm7
vmovdqa 192(%rdi), %xmm8
vmovdqa 208(%rdi), %xmm9
vmovdqa 224(%rdi), %xmm10
vmovdqa 240(%rdi), %xmm11
vmovdqa 256(%rdi), %xmm12
vpclmulqdq $0, %xmm3, %xmm7, %xmm13
vpclmulqdq $1, %xmm3, %xmm7, %xmm14
vpclmulqdq $16, %xmm3, %xmm7, %xmm15
vpxor %xmm14, %xmm15, %xmm14
vpclmulqdq $17, %xmm3, %xmm7, %xmm3
vpclmulqdq $0, %xmm6, %xmm8, %xmm7
vpclmulqdq $1, %xmm6, %xmm8, %xmm15
vpclmulqdq $16, %xmm6, %xmm8, %xmm17
vpternlogq $150, %xmm15, %xmm14, %xmm17
vpclmulqdq $17, %xmm6, %xmm8, %xmm6
vpclmulqdq $0, %xmm5, %xmm9, %xmm8
vpternlogq $150, %xmm13, %xmm7, %xmm8
vpclmulqdq $1, %xmm5, %xmm9, %xmm7
vpclmulqdq $16, %xmm5, %xmm9, %xmm13
vpternlogq $150, %xmm7, %xmm17, %xmm13
vpclmulqdq $17, %xmm5, %xmm9, %xmm5
vpternlogq $150, %xmm3, %xmm6, %xmm5
vpclmulqdq $0, %xmm4, %xmm10, %xmm3
vpclmulqdq $1, %xmm4, %xmm10, %xmm6
vpclmulqdq $16, %xmm4, %xmm10, %xmm7
vpternlogq $150, %xmm6, %xmm13, %xmm7
vpclmulqdq $17, %xmm4, %xmm10, %xmm4
vpclmulqdq $0, %xmm1, %xmm11, %xmm6
vpternlogq $150, %xmm3, %xmm8, %xmm6
vpclmulqdq $1, %xmm1, %xmm11, %xmm3
vpclmulqdq $16, %xmm1, %xmm11, %xmm8
vpternlogq $150, %xmm3, %xmm7, %xmm8
vpclmulqdq $17, %xmm1, %xmm11, %xmm1
vpternlogq $150, %xmm4, %xmm5, %xmm1
vpclmulqdq $0, %xmm0, %xmm12, %xmm3
vpclmulqdq $1, %xmm0, %xmm12, %xmm4
vpclmulqdq $16, %xmm0, %xmm12, %xmm5
vpternlogq $150, %xmm4, %xmm8, %xmm5
vpclmulqdq $17, %xmm0, %xmm12, %xmm0
vpslldq $8, %xmm5, %xmm4
vpternlogq $150, %xmm3, %xmm6, %xmm4
vpsrldq $8, %xmm5, %xmm3
vpbroadcastq .LCPI1_3(%rip), %xmm5
vpclmulqdq $16, %xmm5, %xmm4, %xmm6
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm6, %xmm4
vpclmulqdq $16, %xmm5, %xmm4, %xmm5
vpternlogq $150, %xmm0, %xmm1, %xmm5
vpshufd $78, %xmm4, %xmm1
vpternlogq $150, %xmm3, %xmm5, %xmm1
movq %rax, %rsi
movq %rdx, %r9
cmpq $16, %rcx
jae .LBB1_38
.LBB1_28:
movq %rsi, %rax
movq %r9, %rdx
jmp .LBB1_29
.LBB1_26:
movq %r10, %rcx
cmpq $16, %rcx
jb .LBB1_28
.LBB1_38:
vmovdqa (%rdi), %xmm0
vmovdqa 16(%rdi), %xmm3
vmovdqa 32(%rdi), %xmm4
vmovdqa 48(%rdi), %xmm5
vmovdqa 64(%rdi), %xmm6
vmovdqa 80(%rdi), %xmm7
vmovdqa 96(%rdi), %xmm8
vmovdqa 112(%rdi), %xmm9
vmovdqa 128(%rdi), %xmm10
vmovdqa 144(%rdi), %xmm11
vmovdqa 160(%rdi), %xmm12
vmovdqa 176(%rdi), %xmm13
vmovdqa .LCPI1_2(%rip), %xmm14
vpmovsxbq .LCPI1_12(%rip), %xmm15
vpbroadcastq .LCPI1_3(%rip), %xmm17
.p2align 4, 0x90
.LBB1_39:
leaq 16(%r9), %rdx
leaq 16(%rsi), %rax
addq $-16, %rcx
vpshufb %xmm14, %xmm2, %xmm18
vpxorq %xmm18, %xmm0, %xmm18
vaesenc %xmm3, %xmm18, %xmm18
vaesenc %xmm4, %xmm18, %xmm18
vaesenc %xmm5, %xmm18, %xmm18
vaesenc %xmm6, %xmm18, %xmm18
vaesenc %xmm7, %xmm18, %xmm18
vaesenc %xmm8, %xmm18, %xmm18
vaesenc %xmm9, %xmm18, %xmm18
vaesenc %xmm10, %xmm18, %xmm18
vaesenc %xmm11, %xmm18, %xmm18
vaesenclast %xmm12, %xmm18, %xmm18
vpaddd %xmm2, %xmm15, %xmm2
vpxorq (%r9), %xmm18, %xmm18
vmovdqu64 %xmm18, (%rsi)
vpshufb %xmm14, %xmm18, %xmm18
vpxorq %xmm18, %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm13, %xmm18
vpclmulqdq $1, %xmm1, %xmm13, %xmm19
vpclmulqdq $16, %xmm1, %xmm13, %xmm20
vpxorq %xmm19, %xmm20, %xmm19
vpclmulqdq $17, %xmm1, %xmm13, %xmm1
vpslldq $8, %xmm19, %xmm20
vpxorq %xmm20, %xmm18, %xmm18
vpsrldq $8, %xmm19, %xmm19
vpclmulqdq $16, %xmm17, %xmm18, %xmm20
vpshufd $78, %xmm18, %xmm18
vpxorq %xmm18, %xmm20, %xmm18
vpclmulqdq $16, %xmm17, %xmm18, %xmm20
vpxorq %xmm1, %xmm20, %xmm20
vpshufd $78, %xmm18, %xmm1
vpternlogq $150, %xmm19, %xmm20, %xmm1
movq %rax, %rsi
movq %rdx, %r9
cmpq $15, %rcx
ja .LBB1_39
.LBB1_29:
testq %rcx, %rcx
je .LBB1_19
movl $-1, %esi
bzhil %ecx, %esi, %ecx
kmovd %ecx, %k1
vmovdqu8 (%rdx), %xmm0 {%k1} {z}
vpshufb .LCPI1_2(%rip), %xmm2, %xmm2
vpxor (%rdi), %xmm2, %xmm2
vaesenc 16(%rdi), %xmm2, %xmm2
vaesenc 32(%rdi), %xmm2, %xmm2
vaesenc 48(%rdi), %xmm2, %xmm2
vaesenc 64(%rdi), %xmm2, %xmm2
vaesenc 80(%rdi), %xmm2, %xmm2
vaesenc 96(%rdi), %xmm2, %xmm2
vaesenc 112(%rdi), %xmm2, %xmm2
vaesenc 128(%rdi), %xmm2, %xmm2
vaesenc 144(%rdi), %xmm2, %xmm2
vaesenclast 160(%rdi), %xmm2, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vmovdqu8 %xmm0, (%rax) {%k1}
testq %r10, %r10
je .LBB1_10
vmovdqu8 %xmm0, %xmm0 {%k1} {z}
vpshufb .LCPI1_2(%rip), %xmm0, %xmm0
vmovdqa 176(%rdi), %xmm2
jmp .LBB1_32
.LBB1_10:
vmovdqa 176(%rdi), %xmm2
vpshufb .LCPI1_2(%rip), %xmm0, %xmm0
.LBB1_32:
vpxor %xmm0, %xmm1, %xmm3
vpclmulqdq $0, %xmm3, %xmm2, %xmm0
vpclmulqdq $1, %xmm3, %xmm2, %xmm1
vpclmulqdq $16, %xmm3, %xmm2, %xmm4
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $17, %xmm3, %xmm2, %xmm2
vpslldq $8, %xmm1, %xmm3
vpxor %xmm3, %xmm0, %xmm0
vpsrldq $8, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm2
vpbroadcastq .LCPI1_3(%rip), %xmm1
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm0
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vpshufd $78, %xmm0, %xmm1
vpternlogq $150, %xmm3, %xmm2, %xmm1
.LBB1_19:
movq 88(%rsp), %rax
vmovdqa 176(%rdi), %xmm0
vmovq %r8, %xmm2
vmovq %r10, %xmm3
vpunpcklqdq %xmm2, %xmm3, %xmm2
vpsllq $3, %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm0, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpbroadcastq .LCPI1_3(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm4
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpxorq (%rdi), %xmm21, %xmm4
vaesenc 16(%rdi), %xmm4, %xmm4
vaesenc 32(%rdi), %xmm4, %xmm4
vaesenc 48(%rdi), %xmm4, %xmm4
vaesenc 64(%rdi), %xmm4, %xmm4
vaesenc 80(%rdi), %xmm4, %xmm4
vaesenc 96(%rdi), %xmm4, %xmm4
vaesenc 112(%rdi), %xmm4, %xmm4
vaesenc 128(%rdi), %xmm4, %xmm4
vaesenc 144(%rdi), %xmm4, %xmm4
vaesenclast 160(%rdi), %xmm4, %xmm4
vpxor %xmm0, %xmm2, %xmm0
vpshufb .LCPI1_2(%rip), %xmm0, %xmm0
vpshufb .LCPI1_10(%rip), %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpshufb .LCPI1_11(%rip), %xmm1, %xmm1
vpternlogq $150, %xmm0, %xmm4, %xmm1
vmovdqu %xmm1, (%rax)
movl $1, %eax
.LBB1_22:
addq $48, %rsp
.cfi_def_cfa_offset 16
popq %rbx
.cfi_def_cfa_offset 8
retq
.Lfunc_end1:
.size haberdashery_aes128gcm_tigerlake_encrypt, .Lfunc_end1-haberdashery_aes128gcm_tigerlake_encrypt
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI2_0:
.byte 15
.byte 128
.byte 128
.byte 128
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI2_1:
.long 1
.long 0
.long 0
.long 0
.LCPI2_2:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI2_4:
.long 2
.long 0
.long 0
.long 0
.LCPI2_5:
.long 3
.long 0
.long 0
.long 0
.LCPI2_6:
.long 4
.long 0
.long 0
.long 0
.LCPI2_7:
.long 5
.long 0
.long 0
.long 0
.LCPI2_8:
.long 6
.long 0
.long 0
.long 0
.LCPI2_9:
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.LCPI2_10:
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI2_3:
.quad -4467570830351532032
.section .rodata,"a",@progbits
.LCPI2_11:
.byte 1
.byte 0
.section .text.haberdashery_aes128gcm_tigerlake_decrypt,"ax",@progbits
.globl haberdashery_aes128gcm_tigerlake_decrypt
.p2align 4, 0x90
.type haberdashery_aes128gcm_tigerlake_decrypt,@function
haberdashery_aes128gcm_tigerlake_decrypt:
.cfi_startproc
pushq %rbp
.cfi_def_cfa_offset 16
pushq %r14
.cfi_def_cfa_offset 24
pushq %rbx
.cfi_def_cfa_offset 32
subq $32, %rsp
.cfi_def_cfa_offset 64
.cfi_offset %rbx, -32
.cfi_offset %r14, -24
.cfi_offset %rbp, -16
movq 64(%rsp), %r10
xorl %eax, %eax
cmpq 96(%rsp), %r10
jne .LBB2_5
cmpq $16, 80(%rsp)
setne %r11b
movabsq $2305843009213693950, %rbx
cmpq %rbx, %r8
seta %bl
movq %r10, %r14
shrq $5, %r14
cmpq $2147483647, %r14
setae %bpl
orb %r11b, %bl
orb %bpl, %bl
cmpq $12, %rdx
setne %dl
orb %bl, %dl
jne .LBB2_5
vmovd (%rsi), %xmm0
vpinsrd $1, 4(%rsi), %xmm0, %xmm0
vpinsrd $2, 8(%rsi), %xmm0, %xmm0
movl $16777216, %edx
vpinsrd $3, %edx, %xmm0, %xmm16
vpxor %xmm1, %xmm1, %xmm1
testq %r8, %r8
je .LBB2_3
cmpq $96, %r8
jb .LBB2_7
vmovdqa 176(%rdi), %xmm0
vmovdqa 192(%rdi), %xmm2
vmovdqa 208(%rdi), %xmm3
vmovdqa 224(%rdi), %xmm4
vmovdqa 240(%rdi), %xmm5
vmovdqa 256(%rdi), %xmm6
vmovdqa .LCPI2_2(%rip), %xmm7
vpbroadcastq .LCPI2_3(%rip), %xmm8
movq %r8, %rdx
.p2align 4, 0x90
.LBB2_19:
vmovdqu (%rcx), %xmm9
vmovdqu 16(%rcx), %xmm10
vmovdqu 32(%rcx), %xmm11
vmovdqu 48(%rcx), %xmm12
vmovdqu 64(%rcx), %xmm13
vmovdqu 80(%rcx), %xmm14
addq $96, %rcx
addq $-96, %rdx
vpshufb %xmm7, %xmm9, %xmm9
vpxor %xmm1, %xmm9, %xmm1
vpshufb %xmm7, %xmm10, %xmm9
vpshufb %xmm7, %xmm11, %xmm10
vpshufb %xmm7, %xmm12, %xmm11
vpshufb %xmm7, %xmm13, %xmm12
vpshufb %xmm7, %xmm14, %xmm13
vpclmulqdq $0, %xmm13, %xmm0, %xmm14
vpclmulqdq $1, %xmm13, %xmm0, %xmm15
vpclmulqdq $16, %xmm13, %xmm0, %xmm17
vpxorq %xmm15, %xmm17, %xmm15
vpclmulqdq $17, %xmm13, %xmm0, %xmm13
vpclmulqdq $0, %xmm12, %xmm2, %xmm17
vpclmulqdq $1, %xmm12, %xmm2, %xmm18
vpclmulqdq $16, %xmm12, %xmm2, %xmm19
vpternlogq $150, %xmm18, %xmm15, %xmm19
vpclmulqdq $17, %xmm12, %xmm2, %xmm12
vpclmulqdq $0, %xmm11, %xmm3, %xmm15
vpternlogq $150, %xmm14, %xmm17, %xmm15
vpclmulqdq $1, %xmm11, %xmm3, %xmm14
vpclmulqdq $16, %xmm11, %xmm3, %xmm17
vpternlogq $150, %xmm14, %xmm19, %xmm17
vpclmulqdq $17, %xmm11, %xmm3, %xmm11
vpternlogq $150, %xmm13, %xmm12, %xmm11
vpclmulqdq $0, %xmm10, %xmm4, %xmm12
vpclmulqdq $1, %xmm10, %xmm4, %xmm13
vpclmulqdq $16, %xmm10, %xmm4, %xmm14
vpternlogq $150, %xmm13, %xmm17, %xmm14
vpclmulqdq $17, %xmm10, %xmm4, %xmm10
vpclmulqdq $0, %xmm9, %xmm5, %xmm13
vpternlogq $150, %xmm12, %xmm15, %xmm13
vpclmulqdq $1, %xmm9, %xmm5, %xmm12
vpclmulqdq $16, %xmm9, %xmm5, %xmm15
vpternlogq $150, %xmm12, %xmm14, %xmm15
vpclmulqdq $17, %xmm9, %xmm5, %xmm9
vpternlogq $150, %xmm10, %xmm11, %xmm9
vpclmulqdq $0, %xmm1, %xmm6, %xmm10
vpclmulqdq $1, %xmm1, %xmm6, %xmm11
vpclmulqdq $16, %xmm1, %xmm6, %xmm12
vpternlogq $150, %xmm11, %xmm15, %xmm12
vpclmulqdq $17, %xmm1, %xmm6, %xmm1
vpslldq $8, %xmm12, %xmm11
vpternlogq $150, %xmm10, %xmm13, %xmm11
vpsrldq $8, %xmm12, %xmm10
vpclmulqdq $16, %xmm8, %xmm11, %xmm12
vpshufd $78, %xmm11, %xmm11
vpxor %xmm11, %xmm12, %xmm11
vpclmulqdq $16, %xmm8, %xmm11, %xmm12
vpternlogq $150, %xmm1, %xmm9, %xmm12
vpshufd $78, %xmm11, %xmm1
vpternlogq $150, %xmm10, %xmm12, %xmm1
cmpq $95, %rdx
ja .LBB2_19
cmpq $16, %rdx
jae .LBB2_13
jmp .LBB2_9
.LBB2_7:
movq %r8, %rdx
cmpq $16, %rdx
jb .LBB2_9
.LBB2_13:
vmovdqa 176(%rdi), %xmm0
leaq -16(%rdx), %rsi
testb $16, %sil
je .LBB2_14
cmpq $16, %rsi
jae .LBB2_16
.LBB2_10:
testq %rsi, %rsi
je .LBB2_3
.LBB2_11:
movl $-1, %edx
bzhil %esi, %edx, %edx
kmovd %edx, %k1
vmovdqu8 (%rcx), %xmm0 {%k1} {z}
testq %r10, %r10
je .LBB2_12
movabsq $-68719476704, %rcx
leaq (%r10,%rcx), %rdx
incq %rcx
cmpq %rcx, %rdx
jb .LBB2_5
vmovdqa 176(%rdi), %xmm2
vpshufb .LCPI2_2(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpclmulqdq $0, %xmm0, %xmm2, %xmm1
vpclmulqdq $1, %xmm0, %xmm2, %xmm3
vpclmulqdq $16, %xmm0, %xmm2, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm2, %xmm0
vpslldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpbroadcastq .LCPI2_3(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm1, %xmm4
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm3
vpxor %xmm0, %xmm3, %xmm0
vpshufd $78, %xmm1, %xmm1
vpternlogq $150, %xmm2, %xmm0, %xmm1
jmp .LBB2_22
.LBB2_14:
vmovdqu (%rcx), %xmm2
addq $16, %rcx
vpshufb .LCPI2_2(%rip), %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
vpslldq $8, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpsrldq $8, %xmm3, %xmm3
vpbroadcastq .LCPI2_3(%rip), %xmm4
vpclmulqdq $16, %xmm4, %xmm2, %xmm5
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm5, %xmm2
vpclmulqdq $16, %xmm4, %xmm2, %xmm4
vpxor %xmm1, %xmm4, %xmm4
vpshufd $78, %xmm2, %xmm1
vpternlogq $150, %xmm3, %xmm4, %xmm1
movq %rsi, %rdx
cmpq $16, %rsi
jb .LBB2_10
.LBB2_16:
vmovdqa .LCPI2_2(%rip), %xmm2
vpbroadcastq .LCPI2_3(%rip), %xmm3
.p2align 4, 0x90
.LBB2_17:
vmovdqu (%rcx), %xmm4
vmovdqu 16(%rcx), %xmm5
vpshufb %xmm2, %xmm4, %xmm4
vpxor %xmm4, %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm4
vpclmulqdq $1, %xmm1, %xmm0, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm7
vpxor %xmm6, %xmm7, %xmm6
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
vpslldq $8, %xmm6, %xmm7
vpxor %xmm7, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm4, %xmm7
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm7, %xmm4
vpclmulqdq $16, %xmm3, %xmm4, %xmm7
vpternlogq $150, %xmm1, %xmm6, %xmm7
vpshufd $78, %xmm4, %xmm1
addq $32, %rcx
addq $-32, %rdx
vpshufb %xmm2, %xmm5, %xmm4
vpternlogq $150, %xmm1, %xmm7, %xmm4
vpclmulqdq $0, %xmm4, %xmm0, %xmm1
vpclmulqdq $1, %xmm4, %xmm0, %xmm5
vpclmulqdq $16, %xmm4, %xmm0, %xmm6
vpxor %xmm5, %xmm6, %xmm5
vpclmulqdq $17, %xmm4, %xmm0, %xmm4
vpslldq $8, %xmm5, %xmm6
vpxor %xmm6, %xmm1, %xmm1
vpsrldq $8, %xmm5, %xmm5
vpclmulqdq $16, %xmm3, %xmm1, %xmm6
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm6, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm6
vpxor %xmm4, %xmm6, %xmm4
vpshufd $78, %xmm1, %xmm1
vpternlogq $150, %xmm5, %xmm4, %xmm1
cmpq $15, %rdx
ja .LBB2_17
.LBB2_9:
movq %rdx, %rsi
testq %rsi, %rsi
jne .LBB2_11
.LBB2_3:
testq %r10, %r10
je .LBB2_29
movabsq $-68719476704, %rcx
leaq (%r10,%rcx), %rdx
incq %rcx
cmpq %rcx, %rdx
jb .LBB2_5
.LBB2_22:
movq 88(%rsp), %rax
vpshufb .LCPI2_0(%rip), %xmm16, %xmm0
vpaddd .LCPI2_1(%rip), %xmm0, %xmm2
cmpq $96, %r10
jb .LBB2_23
vmovdqa64 %xmm16, -128(%rsp)
vmovdqa (%rdi), %xmm3
vmovaps 16(%rdi), %xmm0
vmovaps %xmm0, 16(%rsp)
vmovaps 32(%rdi), %xmm0
vmovaps %xmm0, (%rsp)
vmovaps 48(%rdi), %xmm0
vmovaps %xmm0, -16(%rsp)
vmovaps 64(%rdi), %xmm0
vmovaps %xmm0, -32(%rsp)
vmovaps 80(%rdi), %xmm0
vmovaps %xmm0, -48(%rsp)
vmovaps 96(%rdi), %xmm0
vmovaps %xmm0, -64(%rsp)
vmovaps 112(%rdi), %xmm0
vmovaps %xmm0, -80(%rsp)
vmovaps 128(%rdi), %xmm0
vmovaps %xmm0, -96(%rsp)
vmovdqa 144(%rdi), %xmm0
vmovdqa %xmm0, -112(%rsp)
vmovdqa64 160(%rdi), %xmm19
vmovapd 176(%rdi), %xmm20
vmovdqa64 192(%rdi), %xmm21
vmovaps 208(%rdi), %xmm22
vmovaps 224(%rdi), %xmm23
vmovdqa64 240(%rdi), %xmm16
vmovdqa64 256(%rdi), %xmm18
vmovdqa64 .LCPI2_2(%rip), %xmm17
vpxord %xmm24, %xmm24, %xmm24
vpbroadcastq .LCPI2_3(%rip), %xmm25
movq %r10, %rcx
.p2align 4, 0x90
.LBB2_31:
vmovdqu64 (%r9), %xmm26
vmovdqu64 16(%r9), %xmm27
vmovdqu64 32(%r9), %xmm28
vmovdqu64 48(%r9), %xmm29
vmovdqu64 64(%r9), %xmm30
vmovdqu64 80(%r9), %xmm31
vpshufb %xmm17, %xmm2, %xmm7
vpaddd .LCPI2_1(%rip), %xmm2, %xmm8
vpshufb %xmm17, %xmm8, %xmm8
vpaddd .LCPI2_4(%rip), %xmm2, %xmm9
vpshufb %xmm17, %xmm9, %xmm9
vpaddd .LCPI2_5(%rip), %xmm2, %xmm10
vpshufb %xmm17, %xmm10, %xmm10
vpaddd .LCPI2_6(%rip), %xmm2, %xmm11
vpshufb %xmm17, %xmm11, %xmm11
vpaddd .LCPI2_7(%rip), %xmm2, %xmm12
vpshufb %xmm17, %xmm12, %xmm12
vpshufb %xmm17, %xmm31, %xmm0
vpxor %xmm7, %xmm3, %xmm7
vpxor %xmm3, %xmm8, %xmm8
vpxor %xmm3, %xmm9, %xmm9
vpxor %xmm3, %xmm10, %xmm10
vpxor %xmm3, %xmm11, %xmm11
vpxor %xmm3, %xmm12, %xmm12
vmovaps 16(%rsp), %xmm4
#APP
vaesenc %xmm4, %xmm7, %xmm7
vaesenc %xmm4, %xmm8, %xmm8
vaesenc %xmm4, %xmm9, %xmm9
vaesenc %xmm4, %xmm10, %xmm10
vaesenc %xmm4, %xmm11, %xmm11
vaesenc %xmm4, %xmm12, %xmm12
#NO_APP
vpxor %xmm14, %xmm14, %xmm14
vpxor %xmm15, %xmm15, %xmm15
vpxor %xmm13, %xmm13, %xmm13
vmovaps (%rsp), %xmm5
vmovapd %xmm20, %xmm6
#APP
vaesenc %xmm5, %xmm7, %xmm7
vaesenc %xmm5, %xmm8, %xmm8
vaesenc %xmm5, %xmm9, %xmm9
vaesenc %xmm5, %xmm10, %xmm10
vaesenc %xmm5, %xmm11, %xmm11
vaesenc %xmm5, %xmm12, %xmm12
vpclmulqdq $16, %xmm6, %xmm0, %xmm4
vpxor %xmm4, %xmm15, %xmm15
vpclmulqdq $0, %xmm6, %xmm0, %xmm4
vpxor %xmm4, %xmm14, %xmm14
vpclmulqdq $17, %xmm6, %xmm0, %xmm4
vpxor %xmm4, %xmm13, %xmm13
vpclmulqdq $1, %xmm6, %xmm0, %xmm4
vpxor %xmm4, %xmm15, %xmm15
#NO_APP
vpshufb %xmm17, %xmm30, %xmm0
vmovaps -16(%rsp), %xmm5
vmovdqa64 %xmm21, %xmm6
#APP
vaesenc %xmm5, %xmm7, %xmm7
vaesenc %xmm5, %xmm8, %xmm8
vaesenc %xmm5, %xmm9, %xmm9
vaesenc %xmm5, %xmm10, %xmm10
vaesenc %xmm5, %xmm11, %xmm11
vaesenc %xmm5, %xmm12, %xmm12
vpclmulqdq $16, %xmm6, %xmm0, %xmm4
vpxor %xmm4, %xmm15, %xmm15
vpclmulqdq $0, %xmm6, %xmm0, %xmm4
vpxor %xmm4, %xmm14, %xmm14
vpclmulqdq $17, %xmm6, %xmm0, %xmm4
vpxor %xmm4, %xmm13, %xmm13
vpclmulqdq $1, %xmm6, %xmm0, %xmm4
vpxor %xmm4, %xmm15, %xmm15
#NO_APP
vpshufb %xmm17, %xmm29, %xmm0
vmovaps -32(%rsp), %xmm5
vmovaps %xmm22, %xmm6
#APP
vaesenc %xmm5, %xmm7, %xmm7
vaesenc %xmm5, %xmm8, %xmm8
vaesenc %xmm5, %xmm9, %xmm9
vaesenc %xmm5, %xmm10, %xmm10
vaesenc %xmm5, %xmm11, %xmm11
vaesenc %xmm5, %xmm12, %xmm12
vpclmulqdq $16, %xmm6, %xmm0, %xmm4
vpxor %xmm4, %xmm15, %xmm15
vpclmulqdq $0, %xmm6, %xmm0, %xmm4
vpxor %xmm4, %xmm14, %xmm14
vpclmulqdq $17, %xmm6, %xmm0, %xmm4
vpxor %xmm4, %xmm13, %xmm13
vpclmulqdq $1, %xmm6, %xmm0, %xmm4
vpxor %xmm4, %xmm15, %xmm15
#NO_APP
vpshufb %xmm17, %xmm28, %xmm0
vmovaps -48(%rsp), %xmm5
vmovaps %xmm23, %xmm6
#APP
vaesenc %xmm5, %xmm7, %xmm7
vaesenc %xmm5, %xmm8, %xmm8
vaesenc %xmm5, %xmm9, %xmm9
vaesenc %xmm5, %xmm10, %xmm10
vaesenc %xmm5, %xmm11, %xmm11
vaesenc %xmm5, %xmm12, %xmm12
vpclmulqdq $16, %xmm6, %xmm0, %xmm4
vpxor %xmm4, %xmm15, %xmm15
vpclmulqdq $0, %xmm6, %xmm0, %xmm4
vpxor %xmm4, %xmm14, %xmm14
vpclmulqdq $17, %xmm6, %xmm0, %xmm4
vpxor %xmm4, %xmm13, %xmm13
vpclmulqdq $1, %xmm6, %xmm0, %xmm4
vpxor %xmm4, %xmm15, %xmm15
#NO_APP
vpshufb %xmm17, %xmm27, %xmm0
vmovaps -64(%rsp), %xmm5
vmovdqa64 %xmm16, %xmm6
#APP
vaesenc %xmm5, %xmm7, %xmm7
vaesenc %xmm5, %xmm8, %xmm8
vaesenc %xmm5, %xmm9, %xmm9
vaesenc %xmm5, %xmm10, %xmm10
vaesenc %xmm5, %xmm11, %xmm11
vaesenc %xmm5, %xmm12, %xmm12
vpclmulqdq $16, %xmm6, %xmm0, %xmm4
vpxor %xmm4, %xmm15, %xmm15
vpclmulqdq $0, %xmm6, %xmm0, %xmm4
vpxor %xmm4, %xmm14, %xmm14
vpclmulqdq $17, %xmm6, %xmm0, %xmm4
vpxor %xmm4, %xmm13, %xmm13
vpclmulqdq $1, %xmm6, %xmm0, %xmm4
vpxor %xmm4, %xmm15, %xmm15
#NO_APP
vpshufb %xmm17, %xmm26, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vmovaps -80(%rsp), %xmm1
#APP
vaesenc %xmm1, %xmm7, %xmm7
vaesenc %xmm1, %xmm8, %xmm8
vaesenc %xmm1, %xmm9, %xmm9
vaesenc %xmm1, %xmm10, %xmm10
vaesenc %xmm1, %xmm11, %xmm11
vaesenc %xmm1, %xmm12, %xmm12
#NO_APP
vmovaps -96(%rsp), %xmm4
vmovdqa64 %xmm18, %xmm5
#APP
vaesenc %xmm4, %xmm7, %xmm7
vaesenc %xmm4, %xmm8, %xmm8
vaesenc %xmm4, %xmm9, %xmm9
vaesenc %xmm4, %xmm10, %xmm10
vaesenc %xmm4, %xmm11, %xmm11
vaesenc %xmm4, %xmm12, %xmm12
vpclmulqdq $16, %xmm5, %xmm0, %xmm1
vpxor %xmm1, %xmm15, %xmm15
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpxor %xmm1, %xmm14, %xmm14
vpclmulqdq $17, %xmm5, %xmm0, %xmm1
vpxor %xmm1, %xmm13, %xmm13
vpclmulqdq $1, %xmm5, %xmm0, %xmm1
vpxor %xmm1, %xmm15, %xmm15
#NO_APP
vpunpcklqdq %xmm15, %xmm24, %xmm0
vpxor %xmm0, %xmm14, %xmm0
vpunpckhqdq %xmm24, %xmm15, %xmm1
vpxor %xmm1, %xmm13, %xmm1
vmovaps -112(%rsp), %xmm4
#APP
vaesenc %xmm4, %xmm7, %xmm7
vaesenc %xmm4, %xmm8, %xmm8
vaesenc %xmm4, %xmm9, %xmm9
vaesenc %xmm4, %xmm10, %xmm10
vaesenc %xmm4, %xmm11, %xmm11
vaesenc %xmm4, %xmm12, %xmm12
#NO_APP
vmovdqa64 %xmm19, %xmm4
#APP
vaesenclast %xmm4, %xmm7, %xmm7
vaesenclast %xmm4, %xmm8, %xmm8
vaesenclast %xmm4, %xmm9, %xmm9
vaesenclast %xmm4, %xmm10, %xmm10
vaesenclast %xmm4, %xmm11, %xmm11
vaesenclast %xmm4, %xmm12, %xmm12
#NO_APP
vpxorq %xmm26, %xmm7, %xmm4
vpxorq %xmm27, %xmm8, %xmm7
vpxorq %xmm28, %xmm9, %xmm8
vpxorq %xmm29, %xmm10, %xmm9
vpxorq %xmm30, %xmm11, %xmm10
vpxorq %xmm31, %xmm12, %xmm11
vpclmulqdq $16, %xmm25, %xmm0, %xmm12
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm12, %xmm0
vmovdqu %xmm4, (%rax)
vmovdqu %xmm7, 16(%rax)
vmovdqu %xmm8, 32(%rax)
vmovdqu %xmm9, 48(%rax)
vmovdqu %xmm10, 64(%rax)
vmovdqu %xmm11, 80(%rax)
vpclmulqdq $16, %xmm25, %xmm0, %xmm4
vpshufd $78, %xmm0, %xmm0
vpternlogq $150, %xmm4, %xmm0, %xmm1
addq $96, %r9
addq $96, %rax
addq $-96, %rcx
vpaddd .LCPI2_8(%rip), %xmm2, %xmm2
cmpq $95, %rcx
ja .LBB2_31
vmovdqa64 -128(%rsp), %xmm16
cmpq $16, %rcx
jae .LBB2_33
.LBB2_25:
movq %rax, %rdx
jmp .LBB2_26
.LBB2_23:
movq %r10, %rcx
cmpq $16, %rcx
jb .LBB2_25
.LBB2_33:
vmovdqa 176(%rdi), %xmm0
vmovdqa (%rdi), %xmm3
vmovdqa 16(%rdi), %xmm4
vmovdqa 32(%rdi), %xmm5
vmovdqa 48(%rdi), %xmm6
vmovdqa 64(%rdi), %xmm7
vmovdqa 80(%rdi), %xmm8
vmovdqa 96(%rdi), %xmm9
vmovdqa 112(%rdi), %xmm10
vmovdqa 128(%rdi), %xmm11
vmovdqa 144(%rdi), %xmm12
vmovdqa 160(%rdi), %xmm13
vmovdqa .LCPI2_2(%rip), %xmm14
vpbroadcastq .LCPI2_3(%rip), %xmm15
vpmovsxbq .LCPI2_11(%rip), %xmm17
.p2align 4, 0x90
.LBB2_34:
leaq 16(%rax), %rdx
vmovdqu64 (%r9), %xmm18
addq $-16, %rcx
addq $16, %r9
vpshufb %xmm14, %xmm18, %xmm19
vpxorq %xmm19, %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm19
vpclmulqdq $1, %xmm1, %xmm0, %xmm20
vpclmulqdq $16, %xmm1, %xmm0, %xmm21
vpxorq %xmm20, %xmm21, %xmm20
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
vpslldq $8, %xmm20, %xmm21
vpxorq %xmm21, %xmm19, %xmm19
vpsrldq $8, %xmm20, %xmm20
vpclmulqdq $16, %xmm15, %xmm19, %xmm21
vpshufd $78, %xmm19, %xmm19
vpxorq %xmm19, %xmm21, %xmm19
vpclmulqdq $16, %xmm15, %xmm19, %xmm21
vpxorq %xmm1, %xmm21, %xmm21
vpshufd $78, %xmm19, %xmm1
vpternlogq $150, %xmm20, %xmm21, %xmm1
vpshufb %xmm14, %xmm2, %xmm19
vpxorq %xmm19, %xmm3, %xmm19
vaesenc %xmm4, %xmm19, %xmm19
vaesenc %xmm5, %xmm19, %xmm19
vaesenc %xmm6, %xmm19, %xmm19
vaesenc %xmm7, %xmm19, %xmm19
vaesenc %xmm8, %xmm19, %xmm19
vaesenc %xmm9, %xmm19, %xmm19
vaesenc %xmm10, %xmm19, %xmm19
vaesenc %xmm11, %xmm19, %xmm19
vaesenc %xmm12, %xmm19, %xmm19
vaesenclast %xmm13, %xmm19, %xmm19
vpaddd %xmm17, %xmm2, %xmm2
vpxorq %xmm18, %xmm19, %xmm18
vmovdqu64 %xmm18, (%rax)
movq %rdx, %rax
cmpq $15, %rcx
ja .LBB2_34
.LBB2_26:
testq %rcx, %rcx
je .LBB2_29
movl $-1, %eax
bzhil %ecx, %eax, %eax
kmovd %eax, %k1
vmovdqu8 (%r9), %xmm0 {%k1} {z}
vmovdqa .LCPI2_2(%rip), %xmm3
vpshufb %xmm3, %xmm2, %xmm2
vpxor (%rdi), %xmm2, %xmm2
vaesenc 16(%rdi), %xmm2, %xmm2
vaesenc 32(%rdi), %xmm2, %xmm2
vaesenc 48(%rdi), %xmm2, %xmm2
vaesenc 64(%rdi), %xmm2, %xmm2
vaesenc 80(%rdi), %xmm2, %xmm2
vaesenc 96(%rdi), %xmm2, %xmm2
vaesenc 112(%rdi), %xmm2, %xmm2
vaesenc 128(%rdi), %xmm2, %xmm2
vaesenc 144(%rdi), %xmm2, %xmm2
vaesenclast 160(%rdi), %xmm2, %xmm2
vpxor %xmm2, %xmm0, %xmm2
vmovdqu8 %xmm2, (%rdx) {%k1}
vpshufb %xmm3, %xmm0, %xmm0
vmovdqa 176(%rdi), %xmm3
jmp .LBB2_28
.LBB2_12:
vmovdqa 176(%rdi), %xmm3
vpshufb .LCPI2_2(%rip), %xmm0, %xmm0
.LBB2_28:
vpxor %xmm0, %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm3, %xmm0
vpclmulqdq $1, %xmm1, %xmm3, %xmm2
vpclmulqdq $16, %xmm1, %xmm3, %xmm4
vpxor %xmm2, %xmm4, %xmm2
vpclmulqdq $17, %xmm1, %xmm3, %xmm1
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm0, %xmm0
vpsrldq $8, %xmm2, %xmm2
vpbroadcastq .LCPI2_3(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm0, %xmm4
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm0, %xmm3
vpxor %xmm1, %xmm3, %xmm3
vpshufd $78, %xmm0, %xmm1
vpternlogq $150, %xmm2, %xmm3, %xmm1
.LBB2_29:
movq 72(%rsp), %rax
vmovdqa 176(%rdi), %xmm0
vmovq %r8, %xmm2
vmovq %r10, %xmm3
vpunpcklqdq %xmm2, %xmm3, %xmm2
vpsllq $3, %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm0, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpbroadcastq .LCPI2_3(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm4
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpxorq (%rdi), %xmm16, %xmm4
vaesenc 16(%rdi), %xmm4, %xmm4
vaesenc 32(%rdi), %xmm4, %xmm4
vaesenc 48(%rdi), %xmm4, %xmm4
vaesenc 64(%rdi), %xmm4, %xmm4
vaesenc 80(%rdi), %xmm4, %xmm4
vaesenc 96(%rdi), %xmm4, %xmm4
vaesenc 112(%rdi), %xmm4, %xmm4
vaesenc 128(%rdi), %xmm4, %xmm4
vaesenc 144(%rdi), %xmm4, %xmm4
vaesenclast 160(%rdi), %xmm4, %xmm4
vpshufb .LCPI2_9(%rip), %xmm1, %xmm1
vpxor %xmm0, %xmm2, %xmm0
vpshufb .LCPI2_2(%rip), %xmm0, %xmm0
vpshufb .LCPI2_10(%rip), %xmm3, %xmm2
vpternlogq $150, %xmm0, %xmm1, %xmm2
vpternlogq $150, (%rax), %xmm4, %xmm2
xorl %eax, %eax
vptest %xmm2, %xmm2
sete %al
.LBB2_5:
addq $32, %rsp
.cfi_def_cfa_offset 32
popq %rbx
.cfi_def_cfa_offset 24
popq %r14
.cfi_def_cfa_offset 16
popq %rbp
.cfi_def_cfa_offset 8
retq
.Lfunc_end2:
.size haberdashery_aes128gcm_tigerlake_decrypt, .Lfunc_end2-haberdashery_aes128gcm_tigerlake_decrypt
.cfi_endproc
.section .text.haberdashery_aes128gcm_tigerlake_is_supported,"ax",@progbits
.globl haberdashery_aes128gcm_tigerlake_is_supported
.p2align 4, 0x90
.type haberdashery_aes128gcm_tigerlake_is_supported,@function
haberdashery_aes128gcm_tigerlake_is_supported:
.cfi_startproc
xorl %esi, %esi
movl $1, %eax
xorl %ecx, %ecx
#APP
movq %rbx, %rdi
cpuid
xchgq %rbx, %rdi
#NO_APP
movl %ecx, %edi
movl %edx, %r8d
notl %r8d
notl %edi
xorl %ecx, %ecx
movl $7, %eax
#APP
movq %rbx, %r9
cpuid
xchgq %rbx, %r9
#NO_APP
andl $1993871875, %edi
andl $125829120, %r8d
orl %edi, %r8d
jne .LBB3_3
notl %r9d
andl $-240189143, %r9d
notl %ecx
andl $415260490, %ecx
orl %r9d, %ecx
jne .LBB3_3
shrl $8, %edx
andl $1, %edx
movl %edx, %esi
.LBB3_3:
movl %esi, %eax
retq
.Lfunc_end3:
.size haberdashery_aes128gcm_tigerlake_is_supported, .Lfunc_end3-haberdashery_aes128gcm_tigerlake_is_supported
.cfi_endproc
.ident "rustc version 1.86.0-nightly (9cd60bd2c 2025-02-15)"
.section ".note.GNU-stack","",@progbits
|
ts-phantomnk90/haberdashery
| 63,940
|
asm/aes256gcm_streaming_skylakex.s
|
# @generated
# https://github.com/facebookincubator/haberdashery/
.text
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI0_0:
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.LCPI0_9:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI0_1:
.quad 4294967297
.LCPI0_8:
.quad 274877907008
.LCPI0_10:
.quad -4467570830351532032
.section .rodata.cst4,"aM",@progbits,4
.p2align 2, 0x0
.LCPI0_2:
.long 0x00000002
.LCPI0_3:
.long 0x0c0f0e0d
.LCPI0_4:
.long 0x00000004
.LCPI0_5:
.long 0x00000008
.LCPI0_6:
.long 0x00000010
.LCPI0_7:
.long 0x00000020
.section .text.haberdashery_aes256gcm_streaming_skylakex_init_key,"ax",@progbits
.globl haberdashery_aes256gcm_streaming_skylakex_init_key
.p2align 4, 0x90
.type haberdashery_aes256gcm_streaming_skylakex_init_key,@function
haberdashery_aes256gcm_streaming_skylakex_init_key:
.cfi_startproc
cmpq $32, %rdx
jne .LBB0_2
vmovupd (%rsi), %xmm5
vmovdqu 16(%rsi), %xmm4
vpslldq $4, %xmm5, %xmm0
vpslldq $8, %xmm5, %xmm1
vpslldq $12, %xmm5, %xmm2
vpternlogq $150, %xmm1, %xmm0, %xmm2
vpbroadcastd .LCPI0_3(%rip), %xmm16
vpshufb %xmm16, %xmm4, %xmm0
vpbroadcastq .LCPI0_1(%rip), %xmm1
vaesenclast %xmm1, %xmm0, %xmm6
vpternlogq $150, %xmm2, %xmm5, %xmm6
vaesenc %xmm4, %xmm5, %xmm0
vpslldq $4, %xmm4, %xmm1
vpslldq $8, %xmm4, %xmm2
vpslldq $12, %xmm4, %xmm3
vpternlogq $150, %xmm2, %xmm1, %xmm3
vpshufd $255, %xmm6, %xmm1
vmovdqa %xmm6, %xmm7
vpxor %xmm15, %xmm15, %xmm15
vaesenclast %xmm15, %xmm1, %xmm6
vbroadcastss .LCPI0_2(%rip), %xmm2
vpternlogq $150, %xmm3, %xmm4, %xmm6
vbroadcastss .LCPI0_3(%rip), %xmm1
#APP
vaesenc %xmm7, %xmm0, %xmm0
vpslldq $4, %xmm7, %xmm3
vpslldq $8, %xmm7, %xmm8
vpslldq $12, %xmm7, %xmm9
vpternlogq $150, %xmm3, %xmm8, %xmm9
vpshufb %xmm1, %xmm6, %xmm10
vaesenclast %xmm2, %xmm10, %xmm10
vpternlogq $150, %xmm7, %xmm9, %xmm10
#NO_APP
vmovdqa64 %xmm7, %xmm17
vbroadcastss .LCPI0_4(%rip), %xmm2
#APP
vaesenc %xmm6, %xmm0, %xmm0
vpslldq $4, %xmm6, %xmm3
vpslldq $8, %xmm6, %xmm8
vpslldq $12, %xmm6, %xmm9
vpternlogq $150, %xmm3, %xmm8, %xmm9
vpshufd $255, %xmm10, %xmm7
vaesenclast %xmm15, %xmm7, %xmm7
vpternlogq $150, %xmm6, %xmm9, %xmm7
#NO_APP
#APP
vaesenc %xmm10, %xmm0, %xmm0
vpslldq $4, %xmm10, %xmm3
vpslldq $8, %xmm10, %xmm8
vpslldq $12, %xmm10, %xmm9
vpternlogq $150, %xmm3, %xmm8, %xmm9
vpshufb %xmm1, %xmm7, %xmm11
vaesenclast %xmm2, %xmm11, %xmm11
vpternlogq $150, %xmm10, %xmm9, %xmm11
#NO_APP
vmovaps %xmm10, %xmm18
#APP
vaesenc %xmm7, %xmm0, %xmm0
vpslldq $4, %xmm7, %xmm2
vpslldq $8, %xmm7, %xmm3
vpslldq $12, %xmm7, %xmm8
vpternlogq $150, %xmm2, %xmm3, %xmm8
vpshufd $255, %xmm11, %xmm9
vaesenclast %xmm15, %xmm9, %xmm9
vpternlogq $150, %xmm7, %xmm8, %xmm9
#NO_APP
vmovaps %xmm7, %xmm19
vbroadcastss .LCPI0_5(%rip), %xmm2
vmovaps %xmm9, %xmm7
#APP
vaesenc %xmm11, %xmm0, %xmm0
vpslldq $4, %xmm11, %xmm3
vpslldq $8, %xmm11, %xmm9
vpslldq $12, %xmm11, %xmm10
vpternlogq $150, %xmm3, %xmm9, %xmm10
vpshufb %xmm1, %xmm7, %xmm8
vaesenclast %xmm2, %xmm8, %xmm8
vpternlogq $150, %xmm11, %xmm10, %xmm8
#NO_APP
vmovaps %xmm11, %xmm20
#APP
vaesenc %xmm7, %xmm0, %xmm0
vpslldq $4, %xmm7, %xmm2
vpslldq $8, %xmm7, %xmm3
vpslldq $12, %xmm7, %xmm10
vpternlogq $150, %xmm2, %xmm3, %xmm10
vpshufd $255, %xmm8, %xmm9
vaesenclast %xmm15, %xmm9, %xmm9
vpternlogq $150, %xmm7, %xmm10, %xmm9
#NO_APP
vmovaps %xmm7, %xmm21
vbroadcastss .LCPI0_6(%rip), %xmm2
vmovaps %xmm9, %xmm7
#APP
vaesenc %xmm8, %xmm0, %xmm0
vpslldq $4, %xmm8, %xmm3
vpslldq $8, %xmm8, %xmm11
vpslldq $12, %xmm8, %xmm12
vpternlogq $150, %xmm3, %xmm11, %xmm12
vpshufb %xmm1, %xmm7, %xmm9
vaesenclast %xmm2, %xmm9, %xmm9
vpternlogq $150, %xmm8, %xmm12, %xmm9
#NO_APP
vmovaps %xmm8, %xmm22
vbroadcastss .LCPI0_7(%rip), %xmm2
#APP
vaesenc %xmm7, %xmm0, %xmm0
vpslldq $4, %xmm7, %xmm3
vpslldq $8, %xmm7, %xmm12
vpslldq $12, %xmm7, %xmm13
vpternlogq $150, %xmm3, %xmm12, %xmm13
vpshufd $255, %xmm9, %xmm11
vaesenclast %xmm15, %xmm11, %xmm11
vpternlogq $150, %xmm7, %xmm13, %xmm11
#NO_APP
vmovaps %xmm7, %xmm23
#APP
vaesenc %xmm9, %xmm0, %xmm0
vpslldq $4, %xmm9, %xmm3
vpslldq $8, %xmm9, %xmm13
vpslldq $12, %xmm9, %xmm14
vpternlogq $150, %xmm3, %xmm13, %xmm14
vpshufb %xmm1, %xmm11, %xmm12
vaesenclast %xmm2, %xmm12, %xmm12
vpternlogq $150, %xmm9, %xmm14, %xmm12
#NO_APP
vmovaps %xmm9, %xmm24
vpslldq $4, %xmm11, %xmm1
vpunpcklqdq %xmm11, %xmm15, %xmm2
vinsertps $55, %xmm11, %xmm0, %xmm3
vpternlogq $150, %xmm2, %xmm1, %xmm3
vpshufd $255, %xmm12, %xmm1
vaesenclast %xmm15, %xmm1, %xmm13
vpternlogq $150, %xmm3, %xmm11, %xmm13
vpshufb %xmm16, %xmm13, %xmm1
vpbroadcastq .LCPI0_8(%rip), %xmm2
vaesenclast %xmm2, %xmm1, %xmm14
vpslldq $4, %xmm12, %xmm1
vpunpcklqdq %xmm12, %xmm15, %xmm2
vinsertps $55, %xmm12, %xmm0, %xmm3
vpternlogq $150, %xmm2, %xmm1, %xmm3
vpternlogq $150, %xmm3, %xmm12, %xmm14
vaesenc %xmm11, %xmm0, %xmm0
vaesenc %xmm12, %xmm0, %xmm0
vaesenc %xmm13, %xmm0, %xmm0
vaesenclast %xmm14, %xmm0, %xmm0
vpshufb .LCPI0_9(%rip), %xmm0, %xmm0
vpsrlq $63, %xmm0, %xmm1
vpshufd $78, %xmm1, %xmm2
vpblendd $12, %xmm1, %xmm15, %xmm1
vpaddq %xmm0, %xmm0, %xmm0
vpsllq $63, %xmm1, %xmm3
vpternlogq $30, %xmm2, %xmm0, %xmm3
vpsllq $62, %xmm1, %xmm0
vpsllq $57, %xmm1, %xmm15
vpternlogq $150, %xmm0, %xmm3, %xmm15
vpclmulqdq $0, %xmm15, %xmm15, %xmm0
vpshufd $78, %xmm0, %xmm1
vpbroadcastq .LCPI0_10(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm0, %xmm0
vpxor %xmm1, %xmm0, %xmm0
vpclmulqdq $16, %xmm3, %xmm0, %xmm2
vpshufd $78, %xmm0, %xmm1
vpclmulqdq $17, %xmm15, %xmm15, %xmm0
vpternlogq $150, %xmm2, %xmm0, %xmm1
vpclmulqdq $16, %xmm15, %xmm1, %xmm0
vpclmulqdq $1, %xmm15, %xmm1, %xmm2
vpxor %xmm0, %xmm2, %xmm0
vpslldq $8, %xmm0, %xmm2
vpclmulqdq $0, %xmm15, %xmm1, %xmm8
vpxor %xmm2, %xmm8, %xmm2
vpshufd $78, %xmm2, %xmm8
vpclmulqdq $16, %xmm3, %xmm2, %xmm2
vpxor %xmm2, %xmm8, %xmm2
vpclmulqdq $16, %xmm3, %xmm2, %xmm8
vpclmulqdq $17, %xmm15, %xmm1, %xmm9
vpxor %xmm8, %xmm9, %xmm8
vpsrldq $8, %xmm0, %xmm0
vpshufd $78, %xmm2, %xmm2
vpternlogq $150, %xmm0, %xmm8, %xmm2
vpclmulqdq $0, %xmm2, %xmm2, %xmm0
vpshufd $78, %xmm0, %xmm8
vpclmulqdq $16, %xmm3, %xmm0, %xmm0
vpxor %xmm0, %xmm8, %xmm0
vpshufd $78, %xmm0, %xmm8
vpclmulqdq $16, %xmm3, %xmm0, %xmm0
vpclmulqdq $17, %xmm2, %xmm2, %xmm9
vpternlogq $150, %xmm0, %xmm9, %xmm8
vpclmulqdq $0, %xmm1, %xmm1, %xmm0
vpshufd $78, %xmm0, %xmm9
vpclmulqdq $16, %xmm3, %xmm0, %xmm0
vpxor %xmm0, %xmm9, %xmm0
vpclmulqdq $16, %xmm3, %xmm0, %xmm9
vpshufd $78, %xmm0, %xmm0
vpclmulqdq $17, %xmm1, %xmm1, %xmm10
vpternlogq $150, %xmm9, %xmm10, %xmm0
vpclmulqdq $16, %xmm15, %xmm0, %xmm9
vpclmulqdq $1, %xmm15, %xmm0, %xmm10
vpxor %xmm9, %xmm10, %xmm9
vpslldq $8, %xmm9, %xmm10
vpclmulqdq $0, %xmm15, %xmm0, %xmm7
vpxor %xmm7, %xmm10, %xmm7
vpshufd $78, %xmm7, %xmm10
vpclmulqdq $16, %xmm3, %xmm7, %xmm7
vpxor %xmm7, %xmm10, %xmm7
vpclmulqdq $16, %xmm3, %xmm7, %xmm3
vpclmulqdq $17, %xmm15, %xmm0, %xmm10
vpxor %xmm3, %xmm10, %xmm3
vpshufd $78, %xmm7, %xmm7
vmovdqa %xmm5, (%rdi)
vmovdqa %xmm4, 16(%rdi)
vmovdqa64 %xmm17, 32(%rdi)
vmovdqa %xmm6, 48(%rdi)
vmovaps %xmm18, 64(%rdi)
vmovaps %xmm19, 80(%rdi)
vmovaps %xmm20, 96(%rdi)
vmovaps %xmm21, 112(%rdi)
vmovaps %xmm22, 128(%rdi)
vmovaps %xmm23, 144(%rdi)
vmovaps %xmm24, 160(%rdi)
vmovaps %xmm11, 176(%rdi)
vmovaps %xmm12, 192(%rdi)
vmovdqa %xmm13, 208(%rdi)
vmovdqa %xmm14, 224(%rdi)
vmovdqa %xmm15, 240(%rdi)
vmovdqa %xmm1, 256(%rdi)
vmovdqa %xmm2, 272(%rdi)
vmovdqa %xmm0, 288(%rdi)
vpsrldq $8, %xmm9, %xmm0
vpternlogq $150, %xmm0, %xmm3, %xmm7
vmovdqa %xmm7, 304(%rdi)
vmovdqa %xmm8, 320(%rdi)
.LBB0_2:
xorl %eax, %eax
cmpq $32, %rdx
sete %al
retq
.Lfunc_end0:
.size haberdashery_aes256gcm_streaming_skylakex_init_key, .Lfunc_end0-haberdashery_aes256gcm_streaming_skylakex_init_key
.cfi_endproc
.section .text.haberdashery_aes256gcm_streaming_skylakex_is_supported,"ax",@progbits
.globl haberdashery_aes256gcm_streaming_skylakex_is_supported
.p2align 4, 0x90
.type haberdashery_aes256gcm_streaming_skylakex_is_supported,@function
haberdashery_aes256gcm_streaming_skylakex_is_supported:
.cfi_startproc
movl $1, %eax
xorl %ecx, %ecx
#APP
movq %rbx, %rsi
cpuid
xchgq %rbx, %rsi
#NO_APP
movl %ecx, %esi
movl %edx, %edi
notl %edi
notl %esi
movl $7, %eax
xorl %ecx, %ecx
#APP
movq %rbx, %r8
cpuid
xchgq %rbx, %r8
#NO_APP
andl $1993871875, %esi
andl $125829120, %edi
orl %esi, %edi
notl %r8d
andl $-779157207, %r8d
xorl %eax, %eax
orl %edi, %r8d
sete %al
retq
.Lfunc_end1:
.size haberdashery_aes256gcm_streaming_skylakex_is_supported, .Lfunc_end1-haberdashery_aes256gcm_streaming_skylakex_is_supported
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI2_0:
.byte 15
.byte 128
.byte 128
.byte 128
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI2_1:
.long 1
.long 0
.long 0
.long 0
.section .text.haberdashery_aes256gcm_streaming_skylakex_init_state,"ax",@progbits
.globl haberdashery_aes256gcm_streaming_skylakex_init_state
.p2align 4, 0x90
.type haberdashery_aes256gcm_streaming_skylakex_init_state,@function
haberdashery_aes256gcm_streaming_skylakex_init_state:
.cfi_startproc
cmpq $12, %rcx
jne .LBB2_2
vmovd (%rdx), %xmm0
vpinsrd $1, 4(%rdx), %xmm0, %xmm0
vpinsrd $2, 8(%rdx), %xmm0, %xmm0
movl $16777216, %eax
vpinsrd $3, %eax, %xmm0, %xmm0
vpshufb .LCPI2_0(%rip), %xmm0, %xmm1
vpaddd .LCPI2_1(%rip), %xmm1, %xmm1
vxorps %xmm2, %xmm2, %xmm2
vmovups %ymm2, -56(%rsp)
vmovups %ymm2, -88(%rsp)
movq $0, -24(%rsp)
vxorps %xmm2, %xmm2, %xmm2
vmovaps %xmm2, (%rdi)
vmovdqa %xmm0, 16(%rdi)
vmovdqa %xmm1, 32(%rdi)
vmovups -56(%rsp), %ymm0
vmovups -40(%rsp), %xmm1
movq -24(%rsp), %rax
movq -16(%rsp), %rdx
vmovups %ymm0, 48(%rdi)
vmovups %xmm1, 64(%rdi)
movq %rax, 80(%rdi)
movq %rdx, 88(%rdi)
vmovaps %xmm2, 96(%rdi)
.LBB2_2:
xorl %eax, %eax
cmpq $12, %rcx
sete %al
vzeroupper
retq
.Lfunc_end2:
.size haberdashery_aes256gcm_streaming_skylakex_init_state, .Lfunc_end2-haberdashery_aes256gcm_streaming_skylakex_init_state
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI3_0:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI3_1:
.quad -4467570830351532032
.section .text.haberdashery_aes256gcm_streaming_skylakex_aad_update,"ax",@progbits
.globl haberdashery_aes256gcm_streaming_skylakex_aad_update
.p2align 4, 0x90
.type haberdashery_aes256gcm_streaming_skylakex_aad_update,@function
haberdashery_aes256gcm_streaming_skylakex_aad_update:
.cfi_startproc
movabsq $-2305843009213693951, %rax
leaq (%rcx,%rax), %r8
incq %rax
cmpq %rax, %r8
jae .LBB3_3
xorl %eax, %eax
retq
.LBB3_3:
pushq %rbp
.cfi_def_cfa_offset 16
pushq %r15
.cfi_def_cfa_offset 24
pushq %r14
.cfi_def_cfa_offset 32
pushq %r13
.cfi_def_cfa_offset 40
pushq %r12
.cfi_def_cfa_offset 48
pushq %rbx
.cfi_def_cfa_offset 56
subq $24, %rsp
.cfi_def_cfa_offset 80
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
.cfi_offset %rbp, -16
movq 96(%rdi), %rbx
addq %rcx, %rbx
xorl %eax, %eax
movabsq $2305843009213693950, %r8
cmpq %r8, %rbx
ja .LBB3_25
cmpq $0, 104(%rdi)
jne .LBB3_25
movq 80(%rdi), %r8
testq %r8, %r8
je .LBB3_6
leaq (%r8,%rcx), %r14
cmpq $15, %r14
ja .LBB3_9
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, (%rsp)
leaq (%rsp,%r8), %rax
movq %rdi, %r15
movq %rax, %rdi
movq %rdx, %rsi
movq %rcx, %rdx
movq %rcx, %r12
callq *memcpy@GOTPCREL(%rip)
movq %r15, %rdi
movq %r12, %rcx
vmovdqa 64(%r15), %xmm0
vpxor (%rsp), %xmm0, %xmm0
vmovdqa %xmm0, 64(%r15)
movq %r14, 80(%r15)
jmp .LBB3_24
.LBB3_6:
movq %rcx, %r14
cmpq $96, %r14
jae .LBB3_11
jmp .LBB3_14
.LBB3_9:
vmovaps 64(%rdi), %xmm0
vmovaps %xmm0, (%rsp)
movl $16, %eax
subq %r8, %rax
addq %rsp, %r8
leaq (%rdx,%rax), %r15
movq %rcx, %r14
subq %rax, %r14
movq %rdi, %r12
movq %r8, %rdi
movq %rsi, %r13
movq %rdx, %rsi
movq %rax, %rdx
movq %rcx, %rbp
callq *memcpy@GOTPCREL(%rip)
movq %r13, %rsi
movq %r12, %rdi
movq %rbp, %rcx
vmovdqa (%rsp), %xmm0
vmovdqa 240(%r13), %xmm1
movq $0, 80(%r12)
vpshufb .LCPI3_0(%rip), %xmm0, %xmm0
vpxor (%r12), %xmm0, %xmm0
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpbroadcastq .LCPI3_1(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm1, %xmm4
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm0, %xmm3, %xmm0
vpternlogq $150, %xmm2, %xmm1, %xmm0
vmovdqa %xmm0, (%r12)
movq %r15, %rdx
cmpq $96, %r14
jb .LBB3_14
.LBB3_11:
vmovdqa (%rdi), %xmm8
vmovdqa64 240(%rsi), %xmm18
vmovdqa64 256(%rsi), %xmm19
vmovdqa64 272(%rsi), %xmm20
vmovdqa64 288(%rsi), %xmm21
vmovdqa 304(%rsi), %xmm4
vmovdqa 320(%rsi), %xmm5
vmovdqa64 .LCPI3_0(%rip), %xmm16
vpbroadcastq .LCPI3_1(%rip), %xmm22
.p2align 4, 0x90
.LBB3_12:
vmovdqu64 (%rdx), %xmm17
vmovdqu 16(%rdx), %xmm10
vmovdqu 32(%rdx), %xmm11
vmovdqu 48(%rdx), %xmm12
vmovdqu 64(%rdx), %xmm13
vmovdqu 80(%rdx), %xmm14
vpshufb %xmm16, %xmm12, %xmm12
vpshufb %xmm16, %xmm13, %xmm13
vpshufb %xmm16, %xmm14, %xmm14
vmovdqa64 %xmm18, %xmm1
vpclmulqdq $0, %xmm14, %xmm1, %xmm15
vpclmulqdq $1, %xmm14, %xmm1, %xmm7
vpclmulqdq $16, %xmm14, %xmm1, %xmm6
vpxor %xmm7, %xmm6, %xmm6
vmovdqa64 %xmm19, %xmm2
vpclmulqdq $0, %xmm13, %xmm2, %xmm7
vpclmulqdq $1, %xmm13, %xmm2, %xmm9
vpclmulqdq $16, %xmm13, %xmm2, %xmm0
vpternlogq $150, %xmm9, %xmm6, %xmm0
vmovdqa64 %xmm20, %xmm3
vpclmulqdq $0, %xmm12, %xmm3, %xmm6
vpternlogq $150, %xmm15, %xmm7, %xmm6
vpclmulqdq $1, %xmm12, %xmm3, %xmm7
vpclmulqdq $16, %xmm12, %xmm3, %xmm9
vpternlogq $150, %xmm7, %xmm0, %xmm9
vpshufb %xmm16, %xmm10, %xmm0
vpshufb %xmm16, %xmm11, %xmm7
vpclmulqdq $17, %xmm14, %xmm1, %xmm10
vpclmulqdq $17, %xmm13, %xmm2, %xmm11
vpclmulqdq $17, %xmm12, %xmm3, %xmm12
vpternlogq $150, %xmm10, %xmm11, %xmm12
vmovdqa64 %xmm21, %xmm1
vpclmulqdq $1, %xmm7, %xmm1, %xmm10
vpclmulqdq $16, %xmm7, %xmm1, %xmm11
vpternlogq $150, %xmm10, %xmm9, %xmm11
vpclmulqdq $0, %xmm7, %xmm1, %xmm9
vpclmulqdq $0, %xmm0, %xmm4, %xmm10
vpternlogq $150, %xmm9, %xmm6, %xmm10
vpclmulqdq $1, %xmm0, %xmm4, %xmm6
vpclmulqdq $16, %xmm0, %xmm4, %xmm9
vpternlogq $150, %xmm6, %xmm11, %xmm9
vpshufb %xmm16, %xmm17, %xmm6
vpxor %xmm6, %xmm8, %xmm6
vpclmulqdq $17, %xmm7, %xmm1, %xmm7
vpclmulqdq $17, %xmm0, %xmm4, %xmm0
vpternlogq $150, %xmm7, %xmm12, %xmm0
vpclmulqdq $1, %xmm6, %xmm5, %xmm7
vpclmulqdq $16, %xmm6, %xmm5, %xmm11
vpternlogq $150, %xmm7, %xmm9, %xmm11
vpclmulqdq $0, %xmm6, %xmm5, %xmm7
vpslldq $8, %xmm11, %xmm8
vpternlogq $150, %xmm7, %xmm10, %xmm8
vpclmulqdq $17, %xmm6, %xmm5, %xmm6
vmovdqa64 %xmm22, %xmm1
vpclmulqdq $16, %xmm1, %xmm8, %xmm7
vpshufd $78, %xmm8, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $16, %xmm1, %xmm7, %xmm8
vpternlogq $150, %xmm6, %xmm0, %xmm8
vpsrldq $8, %xmm11, %xmm0
vpshufd $78, %xmm7, %xmm6
addq $96, %rdx
addq $-96, %r14
vpternlogq $150, %xmm0, %xmm6, %xmm8
cmpq $95, %r14
ja .LBB3_12
vmovdqa %xmm8, (%rdi)
.LBB3_14:
cmpq $16, %r14
jae .LBB3_15
testq %r14, %r14
je .LBB3_24
.LBB3_23:
movl $-1, %eax
bzhil %r14d, %eax, %eax
kmovd %eax, %k1
vmovdqu8 (%rdx), %xmm0 {%k1} {z}
vpxor %xmm1, %xmm1, %xmm1
vmovdqa %xmm1, 48(%rdi)
vmovdqa %xmm0, 64(%rdi)
movq %r14, 80(%rdi)
.LBB3_24:
movq %rbx, 96(%rdi)
movq %rcx, %rax
.LBB3_25:
addq $24, %rsp
.cfi_def_cfa_offset 56
popq %rbx
.cfi_def_cfa_offset 48
popq %r12
.cfi_def_cfa_offset 40
popq %r13
.cfi_def_cfa_offset 32
popq %r14
.cfi_def_cfa_offset 24
popq %r15
.cfi_def_cfa_offset 16
popq %rbp
.cfi_def_cfa_offset 8
.cfi_restore %rbx
.cfi_restore %r12
.cfi_restore %r13
.cfi_restore %r14
.cfi_restore %r15
.cfi_restore %rbp
retq
.LBB3_15:
.cfi_def_cfa_offset 80
.cfi_offset %rbx, -56
.cfi_offset %rbp, -16
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
vmovdqa (%rdi), %xmm1
vmovdqa 240(%rsi), %xmm0
leaq -16(%r14), %rax
testb $16, %al
jne .LBB3_17
vmovdqu (%rdx), %xmm2
addq $16, %rdx
vpshufb .LCPI3_0(%rip), %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
vpslldq $8, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpsrldq $8, %xmm3, %xmm3
vpbroadcastq .LCPI3_1(%rip), %xmm4
vpclmulqdq $16, %xmm4, %xmm2, %xmm5
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm5, %xmm2
vpclmulqdq $16, %xmm4, %xmm2, %xmm4
vpshufd $78, %xmm2, %xmm2
vpxor %xmm1, %xmm4, %xmm1
vpternlogq $150, %xmm3, %xmm2, %xmm1
movq %rax, %r14
.LBB3_17:
cmpq $16, %rax
jb .LBB3_21
vmovdqa .LCPI3_0(%rip), %xmm2
vpbroadcastq .LCPI3_1(%rip), %xmm3
.p2align 4, 0x90
.LBB3_19:
vmovdqu (%rdx), %xmm4
vmovdqu 16(%rdx), %xmm5
vpshufb %xmm2, %xmm4, %xmm4
vpxor %xmm4, %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm4
vpclmulqdq $1, %xmm1, %xmm0, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm7
vpxor %xmm6, %xmm7, %xmm6
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
vpslldq $8, %xmm6, %xmm7
vpxor %xmm7, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm4, %xmm7
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm7, %xmm4
vpclmulqdq $16, %xmm3, %xmm4, %xmm7
vpshufd $78, %xmm4, %xmm4
vpternlogq $150, %xmm1, %xmm6, %xmm7
addq $32, %rdx
addq $-32, %r14
vpshufb %xmm2, %xmm5, %xmm1
vpternlogq $150, %xmm4, %xmm7, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm4
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vpclmulqdq $16, %xmm1, %xmm0, %xmm6
vpxor %xmm5, %xmm6, %xmm5
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
vpslldq $8, %xmm5, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpsrldq $8, %xmm5, %xmm5
vpclmulqdq $16, %xmm3, %xmm4, %xmm6
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm6, %xmm4
vpclmulqdq $16, %xmm3, %xmm4, %xmm6
vpshufd $78, %xmm4, %xmm4
vpxor %xmm1, %xmm6, %xmm1
vpternlogq $150, %xmm5, %xmm4, %xmm1
cmpq $15, %r14
ja .LBB3_19
movq %r14, %rax
.LBB3_21:
vmovdqa %xmm1, (%rdi)
movq %rax, %r14
testq %r14, %r14
jne .LBB3_23
jmp .LBB3_24
.Lfunc_end3:
.size haberdashery_aes256gcm_streaming_skylakex_aad_update, .Lfunc_end3-haberdashery_aes256gcm_streaming_skylakex_aad_update
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI4_0:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI4_2:
.long 1
.long 0
.long 0
.long 0
.LCPI4_3:
.long 2
.long 0
.long 0
.long 0
.LCPI4_4:
.long 3
.long 0
.long 0
.long 0
.LCPI4_5:
.long 4
.long 0
.long 0
.long 0
.LCPI4_6:
.long 5
.long 0
.long 0
.long 0
.LCPI4_7:
.long 6
.long 0
.long 0
.long 0
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI4_1:
.quad -4467570830351532032
.section .rodata,"a",@progbits
.LCPI4_8:
.byte 1
.byte 0
.section .text.haberdashery_aes256gcm_streaming_skylakex_encrypt_update,"ax",@progbits
.globl haberdashery_aes256gcm_streaming_skylakex_encrypt_update
.p2align 4, 0x90
.type haberdashery_aes256gcm_streaming_skylakex_encrypt_update,@function
haberdashery_aes256gcm_streaming_skylakex_encrypt_update:
.cfi_startproc
cmpq %r9, %rcx
jne .LBB4_3
movq %rcx, %rax
movabsq $-68719476704, %rcx
leaq (%rax,%rcx), %r9
incq %rcx
cmpq %rcx, %r9
jb .LBB4_3
movq 104(%rdi), %rcx
leaq (%rcx,%rax), %r11
movq %r11, %r9
shrq $5, %r9
cmpq $2147483646, %r9
jbe .LBB4_6
.LBB4_3:
xorl %eax, %eax
retq
.LBB4_6:
pushq %rbp
.cfi_def_cfa_offset 16
pushq %r15
.cfi_def_cfa_offset 24
pushq %r14
.cfi_def_cfa_offset 32
pushq %r13
.cfi_def_cfa_offset 40
pushq %r12
.cfi_def_cfa_offset 48
pushq %rbx
.cfi_def_cfa_offset 56
subq $248, %rsp
.cfi_def_cfa_offset 304
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
.cfi_offset %rbp, -16
testq %rcx, %rcx
setne %r9b
movq 80(%rdi), %rcx
testq %rcx, %rcx
sete %r10b
orb %r9b, %r10b
je .LBB4_10
testq %rcx, %rcx
je .LBB4_11
movq %r11, 16(%rsp)
movq %rdi, %rbp
leaq (%rcx,%rax), %r13
cmpq $15, %r13
ja .LBB4_12
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, (%rsp)
leaq (%rsp,%rcx), %r14
movq memcpy@GOTPCREL(%rip), %r12
movq %r14, %rdi
movq %rdx, %rsi
movq %rax, %rdx
movq %rax, %rbx
movq %r8, %r15
callq *%r12
vmovdqa (%rsp), %xmm0
vpxor 64(%rbp), %xmm0, %xmm0
vmovdqa %xmm0, 64(%rbp)
vmovdqa %xmm0, (%rsp)
movq %r15, %rdi
movq %r14, %rsi
movq %rbx, %rdx
callq *%r12
movq %rbp, %rdi
movq %rbx, %rax
movq 16(%rsp), %r11
jmp .LBB4_24
.LBB4_10:
vmovdqa 240(%rsi), %xmm0
vmovdqa 64(%rdi), %xmm1
vpshufb .LCPI4_0(%rip), %xmm1, %xmm1
vpxor (%rdi), %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm0, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpbroadcastq .LCPI4_1(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm1, %xmm4
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm0, %xmm3, %xmm0
vpternlogq $150, %xmm2, %xmm1, %xmm0
vmovdqa %xmm0, (%rdi)
vpxor %xmm0, %xmm0, %xmm0
vmovdqu %ymm0, 48(%rdi)
movq $0, 80(%rdi)
.LBB4_11:
movq %rax, %r13
cmpq $96, %r13
jb .LBB4_14
.LBB4_16:
vmovdqu64 (%rdx), %xmm16
vmovdqu 16(%rdx), %xmm4
vmovdqa 32(%rdi), %xmm2
vmovdqa .LCPI4_0(%rip), %xmm0
vpshufb %xmm0, %xmm2, %xmm5
vpaddd .LCPI4_2(%rip), %xmm2, %xmm1
vpshufb %xmm0, %xmm1, %xmm6
vpaddd .LCPI4_3(%rip), %xmm2, %xmm1
vpshufb %xmm0, %xmm1, %xmm7
vpaddd .LCPI4_4(%rip), %xmm2, %xmm1
vpshufb %xmm0, %xmm1, %xmm8
vpaddd .LCPI4_5(%rip), %xmm2, %xmm1
vpshufb %xmm0, %xmm1, %xmm11
vpaddd .LCPI4_6(%rip), %xmm2, %xmm1
vpshufb %xmm0, %xmm1, %xmm12
vmovdqa (%rsi), %xmm1
vmovdqa 16(%rsi), %xmm3
vmovdqa 32(%rsi), %xmm13
vmovdqa 48(%rsi), %xmm14
vpxor %xmm5, %xmm1, %xmm9
vpxor %xmm6, %xmm1, %xmm10
vpxor %xmm7, %xmm1, %xmm7
vpxor %xmm1, %xmm8, %xmm8
vpxor %xmm1, %xmm11, %xmm5
vpxor %xmm1, %xmm12, %xmm6
vmovdqa64 %xmm3, %xmm18
#APP
vaesenc %xmm3, %xmm9, %xmm9
vaesenc %xmm3, %xmm10, %xmm10
vaesenc %xmm3, %xmm7, %xmm7
vaesenc %xmm3, %xmm8, %xmm8
vaesenc %xmm3, %xmm5, %xmm5
vaesenc %xmm3, %xmm6, %xmm6
#NO_APP
vmovdqa64 %xmm13, %xmm19
#APP
vaesenc %xmm13, %xmm9, %xmm9
vaesenc %xmm13, %xmm10, %xmm10
vaesenc %xmm13, %xmm7, %xmm7
vaesenc %xmm13, %xmm8, %xmm8
vaesenc %xmm13, %xmm5, %xmm5
vaesenc %xmm13, %xmm6, %xmm6
#NO_APP
#APP
vaesenc %xmm14, %xmm9, %xmm9
vaesenc %xmm14, %xmm10, %xmm10
vaesenc %xmm14, %xmm7, %xmm7
vaesenc %xmm14, %xmm8, %xmm8
vaesenc %xmm14, %xmm5, %xmm5
vaesenc %xmm14, %xmm6, %xmm6
#NO_APP
vmovdqa 64(%rsi), %xmm11
#APP
vaesenc %xmm11, %xmm9, %xmm9
vaesenc %xmm11, %xmm10, %xmm10
vaesenc %xmm11, %xmm7, %xmm7
vaesenc %xmm11, %xmm8, %xmm8
vaesenc %xmm11, %xmm5, %xmm5
vaesenc %xmm11, %xmm6, %xmm6
#NO_APP
vmovdqa 80(%rsi), %xmm12
#APP
vaesenc %xmm12, %xmm9, %xmm9
vaesenc %xmm12, %xmm10, %xmm10
vaesenc %xmm12, %xmm7, %xmm7
vaesenc %xmm12, %xmm8, %xmm8
vaesenc %xmm12, %xmm5, %xmm5
vaesenc %xmm12, %xmm6, %xmm6
#NO_APP
vmovaps 96(%rsi), %xmm3
vmovaps %xmm3, 16(%rsp)
#APP
vaesenc %xmm3, %xmm9, %xmm9
vaesenc %xmm3, %xmm10, %xmm10
vaesenc %xmm3, %xmm7, %xmm7
vaesenc %xmm3, %xmm8, %xmm8
vaesenc %xmm3, %xmm5, %xmm5
vaesenc %xmm3, %xmm6, %xmm6
#NO_APP
vmovaps 112(%rsi), %xmm3
vmovaps %xmm3, 128(%rsp)
#APP
vaesenc %xmm3, %xmm9, %xmm9
vaesenc %xmm3, %xmm10, %xmm10
vaesenc %xmm3, %xmm7, %xmm7
vaesenc %xmm3, %xmm8, %xmm8
vaesenc %xmm3, %xmm5, %xmm5
vaesenc %xmm3, %xmm6, %xmm6
#NO_APP
vmovaps 128(%rsi), %xmm3
vmovaps %xmm3, 112(%rsp)
#APP
vaesenc %xmm3, %xmm9, %xmm9
vaesenc %xmm3, %xmm10, %xmm10
vaesenc %xmm3, %xmm7, %xmm7
vaesenc %xmm3, %xmm8, %xmm8
vaesenc %xmm3, %xmm5, %xmm5
vaesenc %xmm3, %xmm6, %xmm6
#NO_APP
vmovaps 144(%rsi), %xmm3
vmovaps %xmm3, 96(%rsp)
#APP
vaesenc %xmm3, %xmm9, %xmm9
vaesenc %xmm3, %xmm10, %xmm10
vaesenc %xmm3, %xmm7, %xmm7
vaesenc %xmm3, %xmm8, %xmm8
vaesenc %xmm3, %xmm5, %xmm5
vaesenc %xmm3, %xmm6, %xmm6
#NO_APP
vmovaps 160(%rsi), %xmm3
vmovaps %xmm3, %xmm31
#APP
vaesenc %xmm3, %xmm9, %xmm9
vaesenc %xmm3, %xmm10, %xmm10
vaesenc %xmm3, %xmm7, %xmm7
vaesenc %xmm3, %xmm8, %xmm8
vaesenc %xmm3, %xmm5, %xmm5
vaesenc %xmm3, %xmm6, %xmm6
#NO_APP
vmovdqa 176(%rsi), %xmm3
vmovdqa64 %xmm3, %xmm24
#APP
vaesenc %xmm3, %xmm9, %xmm9
vaesenc %xmm3, %xmm10, %xmm10
vaesenc %xmm3, %xmm7, %xmm7
vaesenc %xmm3, %xmm8, %xmm8
vaesenc %xmm3, %xmm5, %xmm5
vaesenc %xmm3, %xmm6, %xmm6
#NO_APP
vmovdqa 192(%rsi), %xmm3
vmovdqa64 %xmm3, %xmm27
#APP
vaesenc %xmm3, %xmm9, %xmm9
vaesenc %xmm3, %xmm10, %xmm10
vaesenc %xmm3, %xmm7, %xmm7
vaesenc %xmm3, %xmm8, %xmm8
vaesenc %xmm3, %xmm5, %xmm5
vaesenc %xmm3, %xmm6, %xmm6
#NO_APP
vmovdqa 208(%rsi), %xmm3
vmovdqa %xmm3, %xmm13
#APP
vaesenc %xmm3, %xmm9, %xmm9
vaesenc %xmm3, %xmm10, %xmm10
vaesenc %xmm3, %xmm7, %xmm7
vaesenc %xmm3, %xmm8, %xmm8
vaesenc %xmm3, %xmm5, %xmm5
vaesenc %xmm3, %xmm6, %xmm6
#NO_APP
vmovdqa 224(%rsi), %xmm3
vmovdqa64 %xmm3, %xmm23
#APP
vaesenclast %xmm3, %xmm9, %xmm9
vaesenclast %xmm3, %xmm10, %xmm10
vaesenclast %xmm3, %xmm7, %xmm7
vaesenclast %xmm3, %xmm8, %xmm8
vaesenclast %xmm3, %xmm5, %xmm5
vaesenclast %xmm3, %xmm6, %xmm6
#NO_APP
vpxorq %xmm16, %xmm9, %xmm16
vpxorq %xmm4, %xmm10, %xmm25
vmovdqu 32(%rdx), %xmm3
vmovdqu 48(%rdx), %xmm4
vpxorq %xmm3, %xmm7, %xmm26
vpxorq %xmm4, %xmm8, %xmm28
vmovdqu 64(%rdx), %xmm3
vmovdqu 80(%rdx), %xmm4
vpxorq %xmm3, %xmm5, %xmm29
vpxor %xmm4, %xmm6, %xmm9
addq $96, %rdx
leaq 96(%r8), %rcx
vpaddd .LCPI4_7(%rip), %xmm2, %xmm2
vmovdqa %xmm2, 32(%rdi)
vmovdqu64 %xmm16, (%r8)
vmovdqu64 %xmm25, 16(%r8)
vmovdqu64 %xmm26, 32(%r8)
vmovdqu64 %xmm28, 48(%r8)
vmovdqu64 %xmm29, 64(%r8)
addq $-96, %r13
vmovdqu %xmm9, 80(%r8)
vmovdqa64 (%rdi), %xmm17
cmpq $96, %r13
jb .LBB4_19
vmovaps 240(%rsi), %xmm2
vmovaps %xmm2, 80(%rsp)
vmovaps 256(%rsi), %xmm2
vmovaps %xmm2, 64(%rsp)
vmovaps 272(%rsi), %xmm2
vmovaps %xmm2, 48(%rsp)
vmovaps 288(%rsi), %xmm2
vmovaps %xmm2, 32(%rsp)
vmovaps 304(%rsi), %xmm2
vmovaps %xmm2, 224(%rsp)
vmovdqa 320(%rsi), %xmm2
vmovdqa %xmm2, 208(%rsp)
vmovdqa64 %xmm18, 192(%rsp)
vmovdqa64 %xmm19, 176(%rsp)
vmovdqa %xmm14, 160(%rsp)
vmovdqa %xmm11, %xmm6
vmovdqa %xmm12, 144(%rsp)
vmovdqa64 128(%rsp), %xmm21
vmovdqa64 112(%rsp), %xmm18
vmovdqa64 96(%rsp), %xmm22
vmovdqa64 %xmm27, %xmm20
vmovdqa64 %xmm13, %xmm19
.p2align 4, 0x90
.LBB4_18:
vmovdqa64 32(%rdi), %xmm27
vpshufb %xmm0, %xmm27, %xmm2
vpaddd .LCPI4_2(%rip), %xmm27, %xmm3
vpshufb %xmm0, %xmm3, %xmm3
vpaddd .LCPI4_3(%rip), %xmm27, %xmm4
vpshufb %xmm0, %xmm4, %xmm10
vpaddd .LCPI4_4(%rip), %xmm27, %xmm4
vpshufb %xmm0, %xmm4, %xmm11
vpaddd .LCPI4_5(%rip), %xmm27, %xmm4
vpshufb %xmm0, %xmm4, %xmm15
vpaddd .LCPI4_6(%rip), %xmm27, %xmm4
vpshufb %xmm0, %xmm4, %xmm30
vpshufb %xmm0, %xmm9, %xmm4
vpxor %xmm2, %xmm1, %xmm14
vpxor %xmm3, %xmm1, %xmm12
vpxor %xmm1, %xmm10, %xmm13
vpxor %xmm1, %xmm11, %xmm10
vpxor %xmm1, %xmm15, %xmm11
vpxorq %xmm30, %xmm1, %xmm9
vmovaps 192(%rsp), %xmm2
#APP
vaesenc %xmm2, %xmm14, %xmm14
vaesenc %xmm2, %xmm12, %xmm12
vaesenc %xmm2, %xmm13, %xmm13
vaesenc %xmm2, %xmm10, %xmm10
vaesenc %xmm2, %xmm11, %xmm11
vaesenc %xmm2, %xmm9, %xmm9
#NO_APP
vpxor %xmm15, %xmm15, %xmm15
vpxor %xmm3, %xmm3, %xmm3
vxorps %xmm2, %xmm2, %xmm2
vmovaps 80(%rsp), %xmm7
vmovaps 176(%rsp), %xmm8
#APP
vaesenc %xmm8, %xmm14, %xmm14
vaesenc %xmm8, %xmm12, %xmm12
vaesenc %xmm8, %xmm13, %xmm13
vaesenc %xmm8, %xmm10, %xmm10
vaesenc %xmm8, %xmm11, %xmm11
vaesenc %xmm8, %xmm9, %xmm9
vpclmulqdq $16, %xmm7, %xmm4, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpclmulqdq $0, %xmm7, %xmm4, %xmm5
vpxor %xmm5, %xmm15, %xmm15
vpclmulqdq $17, %xmm7, %xmm4, %xmm5
vpxor %xmm5, %xmm2, %xmm2
vpclmulqdq $1, %xmm7, %xmm4, %xmm5
vpxor %xmm5, %xmm3, %xmm3
#NO_APP
vpshufb %xmm0, %xmm29, %xmm4
vmovaps 160(%rsp), %xmm5
#APP
vaesenc %xmm5, %xmm14, %xmm14
vaesenc %xmm5, %xmm12, %xmm12
vaesenc %xmm5, %xmm13, %xmm13
vaesenc %xmm5, %xmm10, %xmm10
vaesenc %xmm5, %xmm11, %xmm11
vaesenc %xmm5, %xmm9, %xmm9
#NO_APP
vmovaps 64(%rsp), %xmm7
#APP
vaesenc %xmm6, %xmm14, %xmm14
vaesenc %xmm6, %xmm12, %xmm12
vaesenc %xmm6, %xmm13, %xmm13
vaesenc %xmm6, %xmm10, %xmm10
vaesenc %xmm6, %xmm11, %xmm11
vaesenc %xmm6, %xmm9, %xmm9
vpclmulqdq $16, %xmm7, %xmm4, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpclmulqdq $0, %xmm7, %xmm4, %xmm5
vpxor %xmm5, %xmm15, %xmm15
vpclmulqdq $17, %xmm7, %xmm4, %xmm5
vpxor %xmm5, %xmm2, %xmm2
vpclmulqdq $1, %xmm7, %xmm4, %xmm5
vpxor %xmm5, %xmm3, %xmm3
#NO_APP
vpshufb %xmm0, %xmm28, %xmm4
vmovaps 144(%rsp), %xmm5
#APP
vaesenc %xmm5, %xmm14, %xmm14
vaesenc %xmm5, %xmm12, %xmm12
vaesenc %xmm5, %xmm13, %xmm13
vaesenc %xmm5, %xmm10, %xmm10
vaesenc %xmm5, %xmm11, %xmm11
vaesenc %xmm5, %xmm9, %xmm9
#NO_APP
vmovaps 48(%rsp), %xmm7
vmovaps 16(%rsp), %xmm8
#APP
vaesenc %xmm8, %xmm14, %xmm14
vaesenc %xmm8, %xmm12, %xmm12
vaesenc %xmm8, %xmm13, %xmm13
vaesenc %xmm8, %xmm10, %xmm10
vaesenc %xmm8, %xmm11, %xmm11
vaesenc %xmm8, %xmm9, %xmm9
vpclmulqdq $16, %xmm7, %xmm4, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpclmulqdq $0, %xmm7, %xmm4, %xmm5
vpxor %xmm5, %xmm15, %xmm15
vpclmulqdq $17, %xmm7, %xmm4, %xmm5
vpxor %xmm5, %xmm2, %xmm2
vpclmulqdq $1, %xmm7, %xmm4, %xmm5
vpxor %xmm5, %xmm3, %xmm3
#NO_APP
vpshufb %xmm0, %xmm26, %xmm4
vmovdqa64 %xmm21, %xmm5
#APP
vaesenc %xmm5, %xmm14, %xmm14
vaesenc %xmm5, %xmm12, %xmm12
vaesenc %xmm5, %xmm13, %xmm13
vaesenc %xmm5, %xmm10, %xmm10
vaesenc %xmm5, %xmm11, %xmm11
vaesenc %xmm5, %xmm9, %xmm9
#NO_APP
vmovaps 32(%rsp), %xmm7
vmovdqa64 %xmm18, %xmm8
#APP
vaesenc %xmm8, %xmm14, %xmm14
vaesenc %xmm8, %xmm12, %xmm12
vaesenc %xmm8, %xmm13, %xmm13
vaesenc %xmm8, %xmm10, %xmm10
vaesenc %xmm8, %xmm11, %xmm11
vaesenc %xmm8, %xmm9, %xmm9
vpclmulqdq $16, %xmm7, %xmm4, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpclmulqdq $0, %xmm7, %xmm4, %xmm5
vpxor %xmm5, %xmm15, %xmm15
vpclmulqdq $17, %xmm7, %xmm4, %xmm5
vpxor %xmm5, %xmm2, %xmm2
vpclmulqdq $1, %xmm7, %xmm4, %xmm5
vpxor %xmm5, %xmm3, %xmm3
#NO_APP
vpshufb %xmm0, %xmm25, %xmm4
vmovdqa64 %xmm22, %xmm5
#APP
vaesenc %xmm5, %xmm14, %xmm14
vaesenc %xmm5, %xmm12, %xmm12
vaesenc %xmm5, %xmm13, %xmm13
vaesenc %xmm5, %xmm10, %xmm10
vaesenc %xmm5, %xmm11, %xmm11
vaesenc %xmm5, %xmm9, %xmm9
#NO_APP
vmovaps 224(%rsp), %xmm7
vmovaps %xmm31, %xmm8
#APP
vaesenc %xmm8, %xmm14, %xmm14
vaesenc %xmm8, %xmm12, %xmm12
vaesenc %xmm8, %xmm13, %xmm13
vaesenc %xmm8, %xmm10, %xmm10
vaesenc %xmm8, %xmm11, %xmm11
vaesenc %xmm8, %xmm9, %xmm9
vpclmulqdq $16, %xmm7, %xmm4, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpclmulqdq $0, %xmm7, %xmm4, %xmm5
vpxor %xmm5, %xmm15, %xmm15
vpclmulqdq $17, %xmm7, %xmm4, %xmm5
vpxor %xmm5, %xmm2, %xmm2
vpclmulqdq $1, %xmm7, %xmm4, %xmm5
vpxor %xmm5, %xmm3, %xmm3
#NO_APP
vpshufb %xmm0, %xmm16, %xmm4
vpxorq %xmm4, %xmm17, %xmm4
vmovdqa64 %xmm24, %xmm5
#APP
vaesenc %xmm5, %xmm14, %xmm14
vaesenc %xmm5, %xmm12, %xmm12
vaesenc %xmm5, %xmm13, %xmm13
vaesenc %xmm5, %xmm10, %xmm10
vaesenc %xmm5, %xmm11, %xmm11
vaesenc %xmm5, %xmm9, %xmm9
#NO_APP
vmovdqa 208(%rsp), %xmm7
vmovdqa64 %xmm20, %xmm8
#APP
vaesenc %xmm8, %xmm14, %xmm14
vaesenc %xmm8, %xmm12, %xmm12
vaesenc %xmm8, %xmm13, %xmm13
vaesenc %xmm8, %xmm10, %xmm10
vaesenc %xmm8, %xmm11, %xmm11
vaesenc %xmm8, %xmm9, %xmm9
vpclmulqdq $16, %xmm7, %xmm4, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpclmulqdq $0, %xmm7, %xmm4, %xmm5
vpxor %xmm5, %xmm15, %xmm15
vpclmulqdq $17, %xmm7, %xmm4, %xmm5
vpxor %xmm5, %xmm2, %xmm2
vpclmulqdq $1, %xmm7, %xmm4, %xmm5
vpxor %xmm5, %xmm3, %xmm3
#NO_APP
vpxor %xmm5, %xmm5, %xmm5
vpunpcklqdq %xmm3, %xmm5, %xmm4
vpunpckhqdq %xmm5, %xmm3, %xmm3
vpxorq %xmm3, %xmm2, %xmm17
vpxor %xmm4, %xmm15, %xmm2
vpshufd $78, %xmm2, %xmm3
vpbroadcastq .LCPI4_1(%rip), %xmm4
vpclmulqdq $16, %xmm4, %xmm2, %xmm2
vpxor %xmm3, %xmm2, %xmm2
vpshufd $78, %xmm2, %xmm3
vpclmulqdq $16, %xmm4, %xmm2, %xmm2
vpternlogq $150, %xmm2, %xmm3, %xmm17
vmovdqu (%rdx), %xmm2
vmovdqa64 %xmm19, %xmm3
#APP
vaesenc %xmm3, %xmm14, %xmm14
vaesenc %xmm3, %xmm12, %xmm12
vaesenc %xmm3, %xmm13, %xmm13
vaesenc %xmm3, %xmm10, %xmm10
vaesenc %xmm3, %xmm11, %xmm11
vaesenc %xmm3, %xmm9, %xmm9
#NO_APP
vmovdqa64 %xmm23, %xmm3
#APP
vaesenclast %xmm3, %xmm14, %xmm14
vaesenclast %xmm3, %xmm12, %xmm12
vaesenclast %xmm3, %xmm13, %xmm13
vaesenclast %xmm3, %xmm10, %xmm10
vaesenclast %xmm3, %xmm11, %xmm11
vaesenclast %xmm3, %xmm9, %xmm9
#NO_APP
vpxorq %xmm2, %xmm14, %xmm16
vmovdqu 16(%rdx), %xmm2
vmovdqu 32(%rdx), %xmm3
vpxorq %xmm2, %xmm12, %xmm25
vpxorq %xmm3, %xmm13, %xmm26
vmovdqu 48(%rdx), %xmm2
vmovdqu 64(%rdx), %xmm3
vpxorq %xmm2, %xmm10, %xmm28
vpxorq %xmm3, %xmm11, %xmm29
vmovdqu 80(%rdx), %xmm2
vpxor %xmm2, %xmm9, %xmm9
vpaddd .LCPI4_7(%rip), %xmm27, %xmm2
vmovdqa %xmm2, 32(%rdi)
vmovdqu64 %xmm16, (%rcx)
vmovdqu64 %xmm25, 16(%rcx)
vmovdqu64 %xmm26, 32(%rcx)
vmovdqu64 %xmm28, 48(%rcx)
vmovdqu64 %xmm29, 64(%rcx)
addq $96, %rdx
vmovdqu %xmm9, 80(%rcx)
addq $96, %rcx
addq $-96, %r13
cmpq $95, %r13
ja .LBB4_18
.LBB4_19:
vpshufb %xmm0, %xmm16, %xmm2
vpshufb %xmm0, %xmm25, %xmm1
vpshufb %xmm0, %xmm26, %xmm3
vpshufb %xmm0, %xmm28, %xmm4
vpshufb %xmm0, %xmm29, %xmm5
vpshufb %xmm0, %xmm9, %xmm6
vpxorq %xmm2, %xmm17, %xmm0
vmovdqa 240(%rsi), %xmm7
vmovdqa 256(%rsi), %xmm8
vmovdqa 272(%rsi), %xmm9
vmovdqa 288(%rsi), %xmm10
vmovdqa 304(%rsi), %xmm11
vmovdqa 320(%rsi), %xmm2
vpclmulqdq $0, %xmm6, %xmm7, %xmm12
vpclmulqdq $1, %xmm6, %xmm7, %xmm13
vpclmulqdq $16, %xmm6, %xmm7, %xmm14
vpxor %xmm13, %xmm14, %xmm13
vpclmulqdq $17, %xmm6, %xmm7, %xmm6
vpclmulqdq $0, %xmm5, %xmm8, %xmm7
vpclmulqdq $1, %xmm5, %xmm8, %xmm14
vpclmulqdq $16, %xmm5, %xmm8, %xmm15
vpclmulqdq $17, %xmm5, %xmm8, %xmm5
vpternlogq $150, %xmm14, %xmm13, %xmm15
vpclmulqdq $0, %xmm4, %xmm9, %xmm8
vpclmulqdq $1, %xmm4, %xmm9, %xmm13
vpclmulqdq $16, %xmm4, %xmm9, %xmm14
vpclmulqdq $17, %xmm4, %xmm9, %xmm4
vpternlogq $150, %xmm12, %xmm7, %xmm8
vpternlogq $150, %xmm13, %xmm15, %xmm14
vpternlogq $150, %xmm6, %xmm5, %xmm4
vpclmulqdq $0, %xmm3, %xmm10, %xmm5
vpclmulqdq $1, %xmm3, %xmm10, %xmm6
vpclmulqdq $16, %xmm3, %xmm10, %xmm7
vpclmulqdq $17, %xmm3, %xmm10, %xmm3
vpternlogq $150, %xmm6, %xmm14, %xmm7
vpclmulqdq $0, %xmm1, %xmm11, %xmm6
vpclmulqdq $1, %xmm1, %xmm11, %xmm9
vpclmulqdq $16, %xmm1, %xmm11, %xmm10
vpclmulqdq $17, %xmm1, %xmm11, %xmm1
vpternlogq $150, %xmm5, %xmm8, %xmm6
vpternlogq $150, %xmm9, %xmm7, %xmm10
vpternlogq $150, %xmm3, %xmm4, %xmm1
vpclmulqdq $0, %xmm0, %xmm2, %xmm3
vpclmulqdq $1, %xmm0, %xmm2, %xmm4
vpclmulqdq $16, %xmm0, %xmm2, %xmm5
vpclmulqdq $17, %xmm0, %xmm2, %xmm0
vpternlogq $150, %xmm4, %xmm10, %xmm5
vpslldq $8, %xmm5, %xmm2
vpternlogq $150, %xmm3, %xmm6, %xmm2
vpsrldq $8, %xmm5, %xmm3
vpbroadcastq .LCPI4_1(%rip), %xmm4
vpclmulqdq $16, %xmm4, %xmm2, %xmm5
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm5, %xmm2
vpclmulqdq $16, %xmm4, %xmm2, %xmm4
vpshufd $78, %xmm2, %xmm2
vpternlogq $150, %xmm0, %xmm1, %xmm4
vpternlogq $150, %xmm3, %xmm2, %xmm4
vmovdqa %xmm4, (%rdi)
movq %rcx, %r8
cmpq $16, %r13
jae .LBB4_20
.LBB4_15:
testq %r13, %r13
jne .LBB4_23
jmp .LBB4_25
.LBB4_12:
movl $16, %ebx
subq %rcx, %rbx
leaq (%rdx,%rbx), %rdi
movq %rdi, 64(%rsp)
leaq (%r8,%rbx), %rdi
movq %rdi, 48(%rsp)
movq %rax, %r13
subq %rbx, %r13
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, (%rsp)
leaq (%rsp,%rcx), %r14
movq %r14, %rdi
movq %rsi, 80(%rsp)
movq %rdx, %rsi
movq %rbx, %rdx
movq %rax, %r12
movq %r8, %r15
callq *memcpy@GOTPCREL(%rip)
vmovaps (%rsp), %xmm0
vxorps 64(%rbp), %xmm0, %xmm0
vmovaps %xmm0, 32(%rsp)
vmovaps %xmm0, 64(%rbp)
vmovaps %xmm0, (%rsp)
movq %r15, %rdi
movq %r14, %rsi
movq %rbx, %rdx
callq *memcpy@GOTPCREL(%rip)
movq 80(%rsp), %rsi
movq %rbp, %rdi
movq %r12, %rax
vmovdqa 240(%rsi), %xmm0
movq $0, 80(%rbp)
vmovdqa 32(%rsp), %xmm1
vpshufb .LCPI4_0(%rip), %xmm1, %xmm1
vpxor (%rbp), %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm0, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpbroadcastq .LCPI4_1(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm1, %xmm4
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm0, %xmm3, %xmm0
vpternlogq $150, %xmm2, %xmm1, %xmm0
vmovdqa %xmm0, (%rbp)
movq 48(%rsp), %r8
movq 64(%rsp), %rdx
movq 16(%rsp), %r11
cmpq $96, %r13
jae .LBB4_16
.LBB4_14:
cmpq $16, %r13
jb .LBB4_15
.LBB4_20:
vmovdqa (%rdi), %xmm11
vmovdqa 32(%rdi), %xmm0
vmovdqa64 (%rsi), %xmm16
vmovdqa64 16(%rsi), %xmm20
vmovdqa64 32(%rsi), %xmm21
vmovdqa64 48(%rsi), %xmm22
vmovdqa64 64(%rsi), %xmm23
vmovdqa64 80(%rsi), %xmm24
vmovdqa64 96(%rsi), %xmm25
vmovdqa 112(%rsi), %xmm8
vmovdqa 128(%rsi), %xmm9
vmovdqa 144(%rsi), %xmm10
vmovdqa 160(%rsi), %xmm12
vmovdqa 176(%rsi), %xmm13
vmovdqa 192(%rsi), %xmm14
vmovdqa 208(%rsi), %xmm15
vmovdqa 224(%rsi), %xmm1
vmovdqa 240(%rsi), %xmm2
vmovdqa64 .LCPI4_0(%rip), %xmm17
vpmovsxbq .LCPI4_8(%rip), %xmm18
vpbroadcastq .LCPI4_1(%rip), %xmm3
.p2align 4, 0x90
.LBB4_21:
vpshufb %xmm17, %xmm0, %xmm19
vpxorq %xmm19, %xmm16, %xmm4
vmovdqa64 %xmm20, %xmm5
vaesenc %xmm5, %xmm4, %xmm4
vmovdqa64 %xmm21, %xmm5
vaesenc %xmm5, %xmm4, %xmm4
vmovdqa64 %xmm22, %xmm5
vaesenc %xmm5, %xmm4, %xmm4
vmovdqa64 %xmm23, %xmm5
vaesenc %xmm5, %xmm4, %xmm4
vmovdqa64 %xmm24, %xmm5
vaesenc %xmm5, %xmm4, %xmm4
vmovdqa64 %xmm25, %xmm5
vaesenc %xmm5, %xmm4, %xmm4
vaesenc %xmm8, %xmm4, %xmm4
vaesenc %xmm9, %xmm4, %xmm4
vaesenc %xmm10, %xmm4, %xmm4
vaesenc %xmm12, %xmm4, %xmm4
vaesenc %xmm13, %xmm4, %xmm4
vaesenc %xmm14, %xmm4, %xmm4
vaesenc %xmm15, %xmm4, %xmm4
vaesenclast %xmm1, %xmm4, %xmm4
vpxor (%rdx), %xmm4, %xmm4
vpshufb %xmm17, %xmm4, %xmm19
vpxorq %xmm19, %xmm11, %xmm11
vpclmulqdq $1, %xmm11, %xmm2, %xmm5
vpclmulqdq $16, %xmm11, %xmm2, %xmm6
vpxor %xmm5, %xmm6, %xmm5
vpclmulqdq $0, %xmm11, %xmm2, %xmm6
vpclmulqdq $17, %xmm11, %xmm2, %xmm11
vpslldq $8, %xmm5, %xmm19
vpxorq %xmm19, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm6, %xmm7
vpshufd $78, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm6
vpclmulqdq $16, %xmm3, %xmm6, %xmm7
vpxor %xmm7, %xmm11, %xmm11
vpshufd $78, %xmm6, %xmm6
addq $16, %rdx
vmovdqu %xmm4, (%r8)
addq $16, %r8
addq $-16, %r13
vpaddd %xmm18, %xmm0, %xmm0
vpsrldq $8, %xmm5, %xmm4
vpternlogq $150, %xmm4, %xmm6, %xmm11
cmpq $15, %r13
ja .LBB4_21
vmovdqa %xmm0, 32(%rdi)
vmovdqa %xmm11, (%rdi)
testq %r13, %r13
je .LBB4_25
.LBB4_23:
movl $-1, %ecx
bzhil %r13d, %ecx, %ecx
kmovd %ecx, %k1
vmovdqu8 (%rdx), %xmm0 {%k1} {z}
vmovdqa 32(%rdi), %xmm1
vpshufb .LCPI4_0(%rip), %xmm1, %xmm2
vpaddd .LCPI4_2(%rip), %xmm1, %xmm1
vmovdqa %xmm1, 32(%rdi)
vpxor (%rsi), %xmm2, %xmm1
vaesenc 16(%rsi), %xmm1, %xmm1
vaesenc 32(%rsi), %xmm1, %xmm1
vaesenc 48(%rsi), %xmm1, %xmm1
vaesenc 64(%rsi), %xmm1, %xmm1
vaesenc 80(%rsi), %xmm1, %xmm1
vaesenc 96(%rsi), %xmm1, %xmm1
vaesenc 112(%rsi), %xmm1, %xmm1
vaesenc 128(%rsi), %xmm1, %xmm1
vaesenc 144(%rsi), %xmm1, %xmm1
vaesenc 160(%rsi), %xmm1, %xmm1
vaesenc 176(%rsi), %xmm1, %xmm1
vaesenc 192(%rsi), %xmm1, %xmm1
vaesenc 208(%rsi), %xmm1, %xmm1
vaesenclast 224(%rsi), %xmm1, %xmm1
vpxor %xmm0, %xmm1, %xmm0
vmovdqu8 %xmm0, (%r8) {%k1}
vmovdqa %xmm1, 48(%rdi)
vmovdqa %xmm0, 64(%rdi)
.LBB4_24:
movq %r13, 80(%rdi)
.LBB4_25:
movq %r11, 104(%rdi)
addq $248, %rsp
.cfi_def_cfa_offset 56
popq %rbx
.cfi_def_cfa_offset 48
popq %r12
.cfi_def_cfa_offset 40
popq %r13
.cfi_def_cfa_offset 32
popq %r14
.cfi_def_cfa_offset 24
popq %r15
.cfi_def_cfa_offset 16
popq %rbp
.cfi_def_cfa_offset 8
.cfi_restore %rbx
.cfi_restore %r12
.cfi_restore %r13
.cfi_restore %r14
.cfi_restore %r15
.cfi_restore %rbp
vzeroupper
retq
.Lfunc_end4:
.size haberdashery_aes256gcm_streaming_skylakex_encrypt_update, .Lfunc_end4-haberdashery_aes256gcm_streaming_skylakex_encrypt_update
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI5_0:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI5_1:
.quad -4467570830351532032
.section .text.haberdashery_aes256gcm_streaming_skylakex_encrypt_finalize,"ax",@progbits
.globl haberdashery_aes256gcm_streaming_skylakex_encrypt_finalize
.p2align 4, 0x90
.type haberdashery_aes256gcm_streaming_skylakex_encrypt_finalize,@function
haberdashery_aes256gcm_streaming_skylakex_encrypt_finalize:
.cfi_startproc
movq %rcx, %rax
movq 80(%rdi), %r8
movq 104(%rdi), %rcx
testq %rcx, %rcx
je .LBB5_1
testq %r8, %r8
je .LBB5_4
movl $-1, %r9d
bzhil %r8d, %r9d, %r8d
kmovd %r8d, %k1
vmovdqu8 64(%rdi), %xmm0 {%k1} {z}
vpshufb .LCPI5_0(%rip), %xmm0, %xmm0
vpxor (%rdi), %xmm0, %xmm0
vmovdqa 240(%rsi), %xmm1
jmp .LBB5_6
.LBB5_1:
vmovdqa (%rdi), %xmm0
testq %r8, %r8
je .LBB5_8
vmovdqa 240(%rsi), %xmm1
vmovdqa 64(%rdi), %xmm2
vpshufb .LCPI5_0(%rip), %xmm2, %xmm2
vpxor %xmm2, %xmm0, %xmm0
.LBB5_6:
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpbroadcastq .LCPI5_1(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm1, %xmm4
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm0, %xmm3, %xmm0
vpternlogq $150, %xmm2, %xmm1, %xmm0
jmp .LBB5_7
.LBB5_4:
vmovdqa (%rdi), %xmm0
.LBB5_7:
vpxor %xmm1, %xmm1, %xmm1
vmovdqu %ymm1, 48(%rdi)
movq $0, 80(%rdi)
.LBB5_8:
vmovdqa 240(%rsi), %xmm1
vmovq 96(%rdi), %xmm2
vmovq %rcx, %xmm3
vpunpcklqdq %xmm2, %xmm3, %xmm2
vpsllq $3, %xmm2, %xmm2
vpxor %xmm0, %xmm2, %xmm0
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpbroadcastq .LCPI5_1(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm1, %xmm4
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm0, %xmm3, %xmm0
vpternlogq $150, %xmm2, %xmm1, %xmm0
vmovdqa %xmm0, (%rdi)
testq %rax, %rax
je .LBB5_9
vmovdqa (%rsi), %xmm1
vpxor 16(%rdi), %xmm1, %xmm1
vaesenc 16(%rsi), %xmm1, %xmm1
vaesenc 32(%rsi), %xmm1, %xmm1
vaesenc 48(%rsi), %xmm1, %xmm1
vaesenc 64(%rsi), %xmm1, %xmm1
vaesenc 80(%rsi), %xmm1, %xmm1
vaesenc 96(%rsi), %xmm1, %xmm1
vaesenc 112(%rsi), %xmm1, %xmm1
vaesenc 128(%rsi), %xmm1, %xmm1
vaesenc 144(%rsi), %xmm1, %xmm1
vaesenc 160(%rsi), %xmm1, %xmm1
vaesenc 176(%rsi), %xmm1, %xmm1
vaesenc 192(%rsi), %xmm1, %xmm1
vaesenc 208(%rsi), %xmm1, %xmm1
vaesenclast 224(%rsi), %xmm1, %xmm1
vpshufb .LCPI5_0(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
cmpq $16, %rax
jae .LBB5_11
movl $-1, %ecx
bzhil %eax, %ecx, %ecx
kmovd %ecx, %k1
vmovdqu8 %xmm0, (%rdx) {%k1}
vzeroupper
retq
.LBB5_9:
xorl %eax, %eax
vzeroupper
retq
.LBB5_11:
vmovdqu %xmm0, (%rdx)
movl $16, %eax
vzeroupper
retq
.Lfunc_end5:
.size haberdashery_aes256gcm_streaming_skylakex_encrypt_finalize, .Lfunc_end5-haberdashery_aes256gcm_streaming_skylakex_encrypt_finalize
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI6_0:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI6_2:
.long 1
.long 0
.long 0
.long 0
.LCPI6_3:
.long 2
.long 0
.long 0
.long 0
.LCPI6_4:
.long 3
.long 0
.long 0
.long 0
.LCPI6_5:
.long 4
.long 0
.long 0
.long 0
.LCPI6_6:
.long 5
.long 0
.long 0
.long 0
.LCPI6_7:
.long 6
.long 0
.long 0
.long 0
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI6_1:
.quad -4467570830351532032
.section .rodata,"a",@progbits
.LCPI6_8:
.byte 1
.byte 0
.section .text.haberdashery_aes256gcm_streaming_skylakex_decrypt_update,"ax",@progbits
.globl haberdashery_aes256gcm_streaming_skylakex_decrypt_update
.p2align 4, 0x90
.type haberdashery_aes256gcm_streaming_skylakex_decrypt_update,@function
haberdashery_aes256gcm_streaming_skylakex_decrypt_update:
.cfi_startproc
cmpq %r9, %rcx
jne .LBB6_3
movq %rcx, %rax
movabsq $-68719476704, %rcx
leaq (%rax,%rcx), %r9
incq %rcx
cmpq %rcx, %r9
jb .LBB6_3
movq 104(%rdi), %rcx
leaq (%rcx,%rax), %r11
movq %r11, %r9
shrq $5, %r9
cmpq $2147483646, %r9
jbe .LBB6_6
.LBB6_3:
xorl %eax, %eax
retq
.LBB6_6:
pushq %rbp
.cfi_def_cfa_offset 16
pushq %r15
.cfi_def_cfa_offset 24
pushq %r14
.cfi_def_cfa_offset 32
pushq %r13
.cfi_def_cfa_offset 40
pushq %r12
.cfi_def_cfa_offset 48
pushq %rbx
.cfi_def_cfa_offset 56
subq $232, %rsp
.cfi_def_cfa_offset 288
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
.cfi_offset %rbp, -16
testq %rcx, %rcx
setne %r9b
movq 80(%rdi), %rcx
testq %rcx, %rcx
sete %r10b
orb %r9b, %r10b
je .LBB6_10
testq %rcx, %rcx
je .LBB6_11
movq %r11, 16(%rsp)
movq %rdi, %rbp
leaq (%rcx,%rax), %r13
cmpq $15, %r13
ja .LBB6_12
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, (%rsp)
leaq (%rsp,%rcx), %r14
movq memcpy@GOTPCREL(%rip), %r12
movq %r14, %rdi
movq %rdx, %rsi
movq %rax, %rdx
movq %rax, %rbx
movq %r8, %r15
callq *%r12
vmovdqa (%rsp), %xmm0
vpxor 64(%rbp), %xmm0, %xmm0
vmovdqa %xmm0, 64(%rbp)
vmovdqa %xmm0, (%rsp)
movq %r15, %rdi
movq %r14, %rsi
movq %rbx, %rdx
callq *%r12
movq %rbp, %rdi
movq %rbx, %rax
movq 16(%rsp), %r11
jmp .LBB6_23
.LBB6_10:
vmovdqa 240(%rsi), %xmm0
vmovdqa 64(%rdi), %xmm1
vpshufb .LCPI6_0(%rip), %xmm1, %xmm1
vpxor (%rdi), %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm0, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpbroadcastq .LCPI6_1(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm1, %xmm4
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm0, %xmm3, %xmm0
vpternlogq $150, %xmm2, %xmm1, %xmm0
vmovdqa %xmm0, (%rdi)
vpxor %xmm0, %xmm0, %xmm0
vmovdqu %ymm0, 48(%rdi)
movq $0, 80(%rdi)
.LBB6_11:
movq %rax, %r13
cmpq $96, %r13
jb .LBB6_14
.LBB6_16:
vmovdqa64 (%rdi), %xmm24
vmovdqa (%rsi), %xmm0
vmovaps 16(%rsi), %xmm1
vmovaps %xmm1, 16(%rsp)
vmovaps 32(%rsi), %xmm1
vmovaps %xmm1, 80(%rsp)
vmovaps 48(%rsi), %xmm1
vmovaps %xmm1, 64(%rsp)
vmovaps 64(%rsi), %xmm1
vmovaps %xmm1, 48(%rsp)
vmovaps 80(%rsi), %xmm1
vmovaps %xmm1, 32(%rsp)
vmovaps 96(%rsi), %xmm1
vmovaps %xmm1, 208(%rsp)
vmovaps 112(%rsi), %xmm1
vmovaps %xmm1, 192(%rsp)
vmovaps 128(%rsi), %xmm1
vmovaps %xmm1, 176(%rsp)
vmovaps 144(%rsi), %xmm1
vmovaps %xmm1, 160(%rsp)
vmovaps 160(%rsi), %xmm1
vmovaps %xmm1, 144(%rsp)
vmovaps 176(%rsi), %xmm1
vmovaps %xmm1, 128(%rsp)
vmovaps 192(%rsi), %xmm1
vmovaps %xmm1, 112(%rsp)
vmovdqa 208(%rsi), %xmm1
vmovdqa %xmm1, 96(%rsp)
vmovdqa64 224(%rsi), %xmm18
vmovdqa64 240(%rsi), %xmm19
vmovapd 256(%rsi), %xmm20
vmovdqa64 .LCPI6_0(%rip), %xmm16
vpxord %xmm23, %xmm23, %xmm23
vmovdqa64 272(%rsi), %xmm21
vmovdqa64 288(%rsi), %xmm22
vmovdqa64 304(%rsi), %xmm17
vmovapd 320(%rsi), %xmm5
vpbroadcastq .LCPI6_1(%rip), %xmm6
.p2align 4, 0x90
.LBB6_17:
vmovdqu64 (%rdx), %xmm25
vmovdqu64 16(%rdx), %xmm26
vmovdqu64 32(%rdx), %xmm27
vmovdqu64 48(%rdx), %xmm28
vmovdqu64 64(%rdx), %xmm29
vmovdqu64 80(%rdx), %xmm30
vmovdqa64 32(%rdi), %xmm31
vpshufb %xmm16, %xmm31, %xmm7
vpaddd .LCPI6_2(%rip), %xmm31, %xmm8
vpshufb %xmm16, %xmm8, %xmm8
vpaddd .LCPI6_3(%rip), %xmm31, %xmm9
vpshufb %xmm16, %xmm9, %xmm9
vpaddd .LCPI6_4(%rip), %xmm31, %xmm10
vpshufb %xmm16, %xmm10, %xmm10
vpaddd .LCPI6_5(%rip), %xmm31, %xmm11
vpshufb %xmm16, %xmm11, %xmm11
vpaddd .LCPI6_6(%rip), %xmm31, %xmm12
vpshufb %xmm16, %xmm12, %xmm12
vpshufb %xmm16, %xmm30, %xmm1
vpxor %xmm7, %xmm0, %xmm7
vpxor %xmm0, %xmm8, %xmm8
vpxor %xmm0, %xmm9, %xmm9
vpxor %xmm0, %xmm10, %xmm10
vpxor %xmm0, %xmm11, %xmm11
vpxor %xmm0, %xmm12, %xmm12
vmovaps 16(%rsp), %xmm2
#APP
vaesenc %xmm2, %xmm7, %xmm7
vaesenc %xmm2, %xmm8, %xmm8
vaesenc %xmm2, %xmm9, %xmm9
vaesenc %xmm2, %xmm10, %xmm10
vaesenc %xmm2, %xmm11, %xmm11
vaesenc %xmm2, %xmm12, %xmm12
#NO_APP
vxorps %xmm15, %xmm15, %xmm15
vxorps %xmm13, %xmm13, %xmm13
vxorps %xmm14, %xmm14, %xmm14
vmovaps 80(%rsp), %xmm3
vmovdqa64 %xmm19, %xmm4
#APP
vaesenc %xmm3, %xmm7, %xmm7
vaesenc %xmm3, %xmm8, %xmm8
vaesenc %xmm3, %xmm9, %xmm9
vaesenc %xmm3, %xmm10, %xmm10
vaesenc %xmm3, %xmm11, %xmm11
vaesenc %xmm3, %xmm12, %xmm12
vpclmulqdq $16, %xmm4, %xmm1, %xmm2
vpxor %xmm2, %xmm15, %xmm15
vpclmulqdq $0, %xmm4, %xmm1, %xmm2
vpxor %xmm2, %xmm14, %xmm14
vpclmulqdq $17, %xmm4, %xmm1, %xmm2
vpxor %xmm2, %xmm13, %xmm13
vpclmulqdq $1, %xmm4, %xmm1, %xmm2
vpxor %xmm2, %xmm15, %xmm15
#NO_APP
vpshufb %xmm16, %xmm29, %xmm1
vmovaps 64(%rsp), %xmm2
#APP
vaesenc %xmm2, %xmm7, %xmm7
vaesenc %xmm2, %xmm8, %xmm8
vaesenc %xmm2, %xmm9, %xmm9
vaesenc %xmm2, %xmm10, %xmm10
vaesenc %xmm2, %xmm11, %xmm11
vaesenc %xmm2, %xmm12, %xmm12
#NO_APP
vmovaps 48(%rsp), %xmm3
vmovapd %xmm20, %xmm4
#APP
vaesenc %xmm3, %xmm7, %xmm7
vaesenc %xmm3, %xmm8, %xmm8
vaesenc %xmm3, %xmm9, %xmm9
vaesenc %xmm3, %xmm10, %xmm10
vaesenc %xmm3, %xmm11, %xmm11
vaesenc %xmm3, %xmm12, %xmm12
vpclmulqdq $16, %xmm4, %xmm1, %xmm2
vpxor %xmm2, %xmm15, %xmm15
vpclmulqdq $0, %xmm4, %xmm1, %xmm2
vpxor %xmm2, %xmm14, %xmm14
vpclmulqdq $17, %xmm4, %xmm1, %xmm2
vpxor %xmm2, %xmm13, %xmm13
vpclmulqdq $1, %xmm4, %xmm1, %xmm2
vpxor %xmm2, %xmm15, %xmm15
#NO_APP
vpshufb %xmm16, %xmm28, %xmm1
vmovaps 32(%rsp), %xmm2
#APP
vaesenc %xmm2, %xmm7, %xmm7
vaesenc %xmm2, %xmm8, %xmm8
vaesenc %xmm2, %xmm9, %xmm9
vaesenc %xmm2, %xmm10, %xmm10
vaesenc %xmm2, %xmm11, %xmm11
vaesenc %xmm2, %xmm12, %xmm12
#NO_APP
vmovaps 208(%rsp), %xmm3
vmovdqa64 %xmm21, %xmm4
#APP
vaesenc %xmm3, %xmm7, %xmm7
vaesenc %xmm3, %xmm8, %xmm8
vaesenc %xmm3, %xmm9, %xmm9
vaesenc %xmm3, %xmm10, %xmm10
vaesenc %xmm3, %xmm11, %xmm11
vaesenc %xmm3, %xmm12, %xmm12
vpclmulqdq $16, %xmm4, %xmm1, %xmm2
vpxor %xmm2, %xmm15, %xmm15
vpclmulqdq $0, %xmm4, %xmm1, %xmm2
vpxor %xmm2, %xmm14, %xmm14
vpclmulqdq $17, %xmm4, %xmm1, %xmm2
vpxor %xmm2, %xmm13, %xmm13
vpclmulqdq $1, %xmm4, %xmm1, %xmm2
vpxor %xmm2, %xmm15, %xmm15
#NO_APP
vpshufb %xmm16, %xmm27, %xmm1
vmovaps 192(%rsp), %xmm2
#APP
vaesenc %xmm2, %xmm7, %xmm7
vaesenc %xmm2, %xmm8, %xmm8
vaesenc %xmm2, %xmm9, %xmm9
vaesenc %xmm2, %xmm10, %xmm10
vaesenc %xmm2, %xmm11, %xmm11
vaesenc %xmm2, %xmm12, %xmm12
#NO_APP
vmovaps 176(%rsp), %xmm3
vmovdqa64 %xmm22, %xmm4
#APP
vaesenc %xmm3, %xmm7, %xmm7
vaesenc %xmm3, %xmm8, %xmm8
vaesenc %xmm3, %xmm9, %xmm9
vaesenc %xmm3, %xmm10, %xmm10
vaesenc %xmm3, %xmm11, %xmm11
vaesenc %xmm3, %xmm12, %xmm12
vpclmulqdq $16, %xmm4, %xmm1, %xmm2
vpxor %xmm2, %xmm15, %xmm15
vpclmulqdq $0, %xmm4, %xmm1, %xmm2
vpxor %xmm2, %xmm14, %xmm14
vpclmulqdq $17, %xmm4, %xmm1, %xmm2
vpxor %xmm2, %xmm13, %xmm13
vpclmulqdq $1, %xmm4, %xmm1, %xmm2
vpxor %xmm2, %xmm15, %xmm15
#NO_APP
vpshufb %xmm16, %xmm26, %xmm1
vmovaps 160(%rsp), %xmm2
#APP
vaesenc %xmm2, %xmm7, %xmm7
vaesenc %xmm2, %xmm8, %xmm8
vaesenc %xmm2, %xmm9, %xmm9
vaesenc %xmm2, %xmm10, %xmm10
vaesenc %xmm2, %xmm11, %xmm11
vaesenc %xmm2, %xmm12, %xmm12
#NO_APP
vmovaps 144(%rsp), %xmm3
vmovdqa64 %xmm17, %xmm4
#APP
vaesenc %xmm3, %xmm7, %xmm7
vaesenc %xmm3, %xmm8, %xmm8
vaesenc %xmm3, %xmm9, %xmm9
vaesenc %xmm3, %xmm10, %xmm10
vaesenc %xmm3, %xmm11, %xmm11
vaesenc %xmm3, %xmm12, %xmm12
vpclmulqdq $16, %xmm4, %xmm1, %xmm2
vpxor %xmm2, %xmm15, %xmm15
vpclmulqdq $0, %xmm4, %xmm1, %xmm2
vpxor %xmm2, %xmm14, %xmm14
vpclmulqdq $17, %xmm4, %xmm1, %xmm2
vpxor %xmm2, %xmm13, %xmm13
vpclmulqdq $1, %xmm4, %xmm1, %xmm2
vpxor %xmm2, %xmm15, %xmm15
#NO_APP
vpshufb %xmm16, %xmm25, %xmm1
vpxorq %xmm1, %xmm24, %xmm1
vmovaps 128(%rsp), %xmm2
#APP
vaesenc %xmm2, %xmm7, %xmm7
vaesenc %xmm2, %xmm8, %xmm8
vaesenc %xmm2, %xmm9, %xmm9
vaesenc %xmm2, %xmm10, %xmm10
vaesenc %xmm2, %xmm11, %xmm11
vaesenc %xmm2, %xmm12, %xmm12
#NO_APP
vmovdqa 112(%rsp), %xmm3
#APP
vaesenc %xmm3, %xmm7, %xmm7
vaesenc %xmm3, %xmm8, %xmm8
vaesenc %xmm3, %xmm9, %xmm9
vaesenc %xmm3, %xmm10, %xmm10
vaesenc %xmm3, %xmm11, %xmm11
vaesenc %xmm3, %xmm12, %xmm12
vpclmulqdq $16, %xmm5, %xmm1, %xmm2
vpxor %xmm2, %xmm15, %xmm15
vpclmulqdq $0, %xmm5, %xmm1, %xmm2
vpxor %xmm2, %xmm14, %xmm14
vpclmulqdq $17, %xmm5, %xmm1, %xmm2
vpxor %xmm2, %xmm13, %xmm13
vpclmulqdq $1, %xmm5, %xmm1, %xmm2
vpxor %xmm2, %xmm15, %xmm15
#NO_APP
vpunpcklqdq %xmm15, %xmm23, %xmm1
vpunpckhqdq %xmm23, %xmm15, %xmm2
vpxorq %xmm2, %xmm13, %xmm24
vpxor %xmm1, %xmm14, %xmm1
vpshufd $78, %xmm1, %xmm2
vpclmulqdq $16, %xmm6, %xmm1, %xmm1
vpxor %xmm2, %xmm1, %xmm1
vpshufd $78, %xmm1, %xmm2
vpclmulqdq $16, %xmm6, %xmm1, %xmm1
vpternlogq $150, %xmm1, %xmm2, %xmm24
vmovaps 96(%rsp), %xmm1
#APP
vaesenc %xmm1, %xmm7, %xmm7
vaesenc %xmm1, %xmm8, %xmm8
vaesenc %xmm1, %xmm9, %xmm9
vaesenc %xmm1, %xmm10, %xmm10
vaesenc %xmm1, %xmm11, %xmm11
vaesenc %xmm1, %xmm12, %xmm12
#NO_APP
vmovdqa64 %xmm18, %xmm1
#APP
vaesenclast %xmm1, %xmm7, %xmm7
vaesenclast %xmm1, %xmm8, %xmm8
vaesenclast %xmm1, %xmm9, %xmm9
vaesenclast %xmm1, %xmm10, %xmm10
vaesenclast %xmm1, %xmm11, %xmm11
vaesenclast %xmm1, %xmm12, %xmm12
#NO_APP
vpxorq %xmm25, %xmm7, %xmm1
vpxorq %xmm26, %xmm8, %xmm2
vpxorq %xmm27, %xmm9, %xmm7
vpxorq %xmm28, %xmm10, %xmm8
vpxorq %xmm29, %xmm11, %xmm9
vpxorq %xmm30, %xmm12, %xmm10
vpaddd .LCPI6_7(%rip), %xmm31, %xmm11
vmovdqa %xmm11, 32(%rdi)
vmovdqu %xmm1, (%r8)
vmovdqu %xmm2, 16(%r8)
vmovdqu %xmm7, 32(%r8)
vmovdqu %xmm8, 48(%r8)
vmovdqu %xmm9, 64(%r8)
vmovdqu %xmm10, 80(%r8)
addq $96, %rdx
addq $96, %r8
addq $-96, %r13
cmpq $95, %r13
ja .LBB6_17
vmovdqa64 %xmm24, (%rdi)
cmpq $16, %r13
jae .LBB6_19
.LBB6_15:
testq %r13, %r13
jne .LBB6_22
jmp .LBB6_24
.LBB6_12:
movl $16, %ebx
subq %rcx, %rbx
leaq (%rdx,%rbx), %rdi
movq %rdi, 64(%rsp)
leaq (%r8,%rbx), %rdi
movq %rdi, 48(%rsp)
movq %rax, %r13
subq %rbx, %r13
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, (%rsp)
leaq (%rsp,%rcx), %r14
movq %r14, %rdi
movq %rsi, 80(%rsp)
movq %rdx, %rsi
movq %rbx, %rdx
movq %rax, %r12
movq %r8, %r15
callq *memcpy@GOTPCREL(%rip)
vmovaps (%rsp), %xmm0
vxorps 64(%rbp), %xmm0, %xmm0
vmovaps %xmm0, 32(%rsp)
vmovaps %xmm0, 64(%rbp)
vmovaps %xmm0, (%rsp)
movq %r15, %rdi
movq %r14, %rsi
movq %rbx, %rdx
callq *memcpy@GOTPCREL(%rip)
movq 80(%rsp), %rsi
movq %rbp, %rdi
movq %r12, %rax
movq $0, 80(%rbp)
vmovdqa 32(%rsp), %xmm0
vpxor 48(%rbp), %xmm0, %xmm0
vpshufb .LCPI6_0(%rip), %xmm0, %xmm0
vmovdqa 240(%rsi), %xmm1
vpxor (%rbp), %xmm0, %xmm0
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpbroadcastq .LCPI6_1(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm1, %xmm4
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm0, %xmm3, %xmm0
vpternlogq $150, %xmm2, %xmm1, %xmm0
vmovdqa %xmm0, (%rbp)
movq 48(%rsp), %r8
movq 64(%rsp), %rdx
movq 16(%rsp), %r11
cmpq $96, %r13
jae .LBB6_16
.LBB6_14:
cmpq $16, %r13
jb .LBB6_15
.LBB6_19:
vmovdqa (%rdi), %xmm11
vmovdqa 32(%rdi), %xmm0
vmovdqa 240(%rsi), %xmm1
vmovdqa64 (%rsi), %xmm16
vmovdqa64 16(%rsi), %xmm21
vmovdqa64 32(%rsi), %xmm22
vmovdqa64 48(%rsi), %xmm23
vmovdqa64 64(%rsi), %xmm24
vmovdqa64 80(%rsi), %xmm25
vmovdqa64 96(%rsi), %xmm26
vmovdqa 112(%rsi), %xmm9
vmovdqa 128(%rsi), %xmm10
vmovdqa 144(%rsi), %xmm12
vmovdqa 160(%rsi), %xmm13
vmovdqa 176(%rsi), %xmm14
vmovdqa 192(%rsi), %xmm15
vmovdqa 208(%rsi), %xmm2
vmovdqa 224(%rsi), %xmm3
vmovdqa64 .LCPI6_0(%rip), %xmm17
vpbroadcastq .LCPI6_1(%rip), %xmm4
vpmovsxbq .LCPI6_8(%rip), %xmm18
.p2align 4, 0x90
.LBB6_20:
vmovdqu64 (%rdx), %xmm19
vpshufb %xmm17, %xmm19, %xmm20
vpxorq %xmm20, %xmm11, %xmm11
vpclmulqdq $1, %xmm11, %xmm1, %xmm5
vpclmulqdq $16, %xmm11, %xmm1, %xmm6
vpxor %xmm5, %xmm6, %xmm5
vpclmulqdq $0, %xmm11, %xmm1, %xmm6
vpclmulqdq $17, %xmm11, %xmm1, %xmm11
vpslldq $8, %xmm5, %xmm20
vpxorq %xmm20, %xmm6, %xmm6
vpclmulqdq $16, %xmm4, %xmm6, %xmm7
vpshufd $78, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm6
vpclmulqdq $16, %xmm4, %xmm6, %xmm7
vpxor %xmm7, %xmm11, %xmm11
vpshufd $78, %xmm6, %xmm6
vpshufb %xmm17, %xmm0, %xmm7
vpxorq %xmm7, %xmm16, %xmm7
vmovdqa64 %xmm21, %xmm8
vaesenc %xmm8, %xmm7, %xmm7
vmovdqa64 %xmm22, %xmm8
vaesenc %xmm8, %xmm7, %xmm7
vmovdqa64 %xmm23, %xmm8
vaesenc %xmm8, %xmm7, %xmm7
vmovdqa64 %xmm24, %xmm8
vaesenc %xmm8, %xmm7, %xmm7
vmovdqa64 %xmm25, %xmm8
vaesenc %xmm8, %xmm7, %xmm7
vmovdqa64 %xmm26, %xmm8
vaesenc %xmm8, %xmm7, %xmm7
vaesenc %xmm9, %xmm7, %xmm7
vaesenc %xmm10, %xmm7, %xmm7
vaesenc %xmm12, %xmm7, %xmm7
vaesenc %xmm13, %xmm7, %xmm7
vaesenc %xmm14, %xmm7, %xmm7
vaesenc %xmm15, %xmm7, %xmm7
vaesenc %xmm2, %xmm7, %xmm7
vaesenclast %xmm3, %xmm7, %xmm7
vpxorq %xmm19, %xmm7, %xmm7
vmovdqu %xmm7, (%r8)
addq $16, %r8
addq $-16, %r13
addq $16, %rdx
vpsrldq $8, %xmm5, %xmm5
vpternlogq $150, %xmm5, %xmm6, %xmm11
vpaddd %xmm18, %xmm0, %xmm0
cmpq $15, %r13
ja .LBB6_20
vmovdqa %xmm0, 32(%rdi)
vmovdqa %xmm11, (%rdi)
testq %r13, %r13
je .LBB6_24
.LBB6_22:
movl $-1, %ecx
bzhil %r13d, %ecx, %ecx
kmovd %ecx, %k1
vmovdqu8 (%rdx), %xmm0 {%k1} {z}
vmovdqa 32(%rdi), %xmm1
vpshufb .LCPI6_0(%rip), %xmm1, %xmm2
vpaddd .LCPI6_2(%rip), %xmm1, %xmm1
vmovdqa %xmm1, 32(%rdi)
vpxor (%rsi), %xmm2, %xmm1
vaesenc 16(%rsi), %xmm1, %xmm1
vaesenc 32(%rsi), %xmm1, %xmm1
vaesenc 48(%rsi), %xmm1, %xmm1
vaesenc 64(%rsi), %xmm1, %xmm1
vaesenc 80(%rsi), %xmm1, %xmm1
vaesenc 96(%rsi), %xmm1, %xmm1
vaesenc 112(%rsi), %xmm1, %xmm1
vaesenc 128(%rsi), %xmm1, %xmm1
vaesenc 144(%rsi), %xmm1, %xmm1
vaesenc 160(%rsi), %xmm1, %xmm1
vaesenc 176(%rsi), %xmm1, %xmm1
vaesenc 192(%rsi), %xmm1, %xmm1
vaesenc 208(%rsi), %xmm1, %xmm1
vaesenclast 224(%rsi), %xmm1, %xmm1
vpxor %xmm0, %xmm1, %xmm0
vmovdqu8 %xmm0, (%r8) {%k1}
vmovdqa %xmm1, 48(%rdi)
vmovdqa %xmm0, 64(%rdi)
.LBB6_23:
movq %r13, 80(%rdi)
.LBB6_24:
movq %r11, 104(%rdi)
addq $232, %rsp
.cfi_def_cfa_offset 56
popq %rbx
.cfi_def_cfa_offset 48
popq %r12
.cfi_def_cfa_offset 40
popq %r13
.cfi_def_cfa_offset 32
popq %r14
.cfi_def_cfa_offset 24
popq %r15
.cfi_def_cfa_offset 16
popq %rbp
.cfi_def_cfa_offset 8
.cfi_restore %rbx
.cfi_restore %r12
.cfi_restore %r13
.cfi_restore %r14
.cfi_restore %r15
.cfi_restore %rbp
vzeroupper
retq
.Lfunc_end6:
.size haberdashery_aes256gcm_streaming_skylakex_decrypt_update, .Lfunc_end6-haberdashery_aes256gcm_streaming_skylakex_decrypt_update
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI7_0:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI7_1:
.quad -4467570830351532032
.section .text.haberdashery_aes256gcm_streaming_skylakex_decrypt_finalize,"ax",@progbits
.globl haberdashery_aes256gcm_streaming_skylakex_decrypt_finalize
.p2align 4, 0x90
.type haberdashery_aes256gcm_streaming_skylakex_decrypt_finalize,@function
haberdashery_aes256gcm_streaming_skylakex_decrypt_finalize:
.cfi_startproc
xorl %eax, %eax
cmpq $16, %rcx
jne .LBB7_10
vmovdqu (%rdx), %xmm0
movq 104(%rdi), %rax
testq %rax, %rax
je .LBB7_2
leaq 48(%rdi), %rcx
movq 80(%rdi), %rdx
testq %rdx, %rdx
je .LBB7_5
vmovdqa 48(%rdi), %xmm1
vpxor 64(%rdi), %xmm1, %xmm1
movl $-1, %r8d
bzhil %edx, %r8d, %edx
kmovd %edx, %k1
vmovdqu8 %xmm1, %xmm1 {%k1} {z}
vpshufb .LCPI7_0(%rip), %xmm1, %xmm1
vpxor (%rdi), %xmm1, %xmm1
vmovdqa 240(%rsi), %xmm2
jmp .LBB7_7
.LBB7_2:
cmpq $0, 80(%rdi)
vmovdqa (%rdi), %xmm1
je .LBB7_9
vmovdqa 240(%rsi), %xmm2
leaq 48(%rdi), %rcx
vmovdqa 64(%rdi), %xmm3
vpshufb .LCPI7_0(%rip), %xmm3, %xmm3
vpxor %xmm3, %xmm1, %xmm1
.LBB7_7:
vpclmulqdq $0, %xmm1, %xmm2, %xmm3
vpclmulqdq $1, %xmm1, %xmm2, %xmm4
vpclmulqdq $16, %xmm1, %xmm2, %xmm5
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $17, %xmm1, %xmm2, %xmm1
vpslldq $8, %xmm4, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpsrldq $8, %xmm4, %xmm3
vpbroadcastq .LCPI7_1(%rip), %xmm4
vpclmulqdq $16, %xmm4, %xmm2, %xmm5
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm5, %xmm2
vpclmulqdq $16, %xmm4, %xmm2, %xmm4
vpshufd $78, %xmm2, %xmm2
vpxor %xmm1, %xmm4, %xmm1
vpternlogq $150, %xmm3, %xmm2, %xmm1
jmp .LBB7_8
.LBB7_5:
vmovdqa (%rdi), %xmm1
.LBB7_8:
vpxor %xmm2, %xmm2, %xmm2
vmovdqu %ymm2, (%rcx)
movq $0, 32(%rcx)
.LBB7_9:
vmovdqa 240(%rsi), %xmm2
vmovq 96(%rdi), %xmm3
vmovq %rax, %xmm4
vpunpcklqdq %xmm3, %xmm4, %xmm3
vpsllq $3, %xmm3, %xmm3
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $0, %xmm1, %xmm2, %xmm3
vpclmulqdq $1, %xmm1, %xmm2, %xmm4
vpclmulqdq $16, %xmm1, %xmm2, %xmm5
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $17, %xmm1, %xmm2, %xmm1
vpslldq $8, %xmm4, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpsrldq $8, %xmm4, %xmm3
vpbroadcastq .LCPI7_1(%rip), %xmm4
vpclmulqdq $16, %xmm4, %xmm2, %xmm5
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm5, %xmm2
vpclmulqdq $16, %xmm4, %xmm2, %xmm4
vpshufd $78, %xmm2, %xmm2
vpxor %xmm1, %xmm4, %xmm1
vpternlogq $150, %xmm3, %xmm2, %xmm1
vmovdqa %xmm1, (%rdi)
vmovdqa (%rsi), %xmm2
vpxor 16(%rdi), %xmm2, %xmm2
vaesenc 16(%rsi), %xmm2, %xmm2
vaesenc 32(%rsi), %xmm2, %xmm2
vaesenc 48(%rsi), %xmm2, %xmm2
vaesenc 64(%rsi), %xmm2, %xmm2
vaesenc 80(%rsi), %xmm2, %xmm2
vaesenc 96(%rsi), %xmm2, %xmm2
vaesenc 112(%rsi), %xmm2, %xmm2
vaesenc 128(%rsi), %xmm2, %xmm2
vaesenc 144(%rsi), %xmm2, %xmm2
vaesenc 160(%rsi), %xmm2, %xmm2
vaesenc 176(%rsi), %xmm2, %xmm2
vaesenc 192(%rsi), %xmm2, %xmm2
vaesenc 208(%rsi), %xmm2, %xmm2
vaesenclast 224(%rsi), %xmm2, %xmm2
vpshufb .LCPI7_0(%rip), %xmm1, %xmm1
vpternlogq $150, %xmm2, %xmm0, %xmm1
xorl %eax, %eax
vptest %xmm1, %xmm1
sete %al
.LBB7_10:
vzeroupper
retq
.Lfunc_end7:
.size haberdashery_aes256gcm_streaming_skylakex_decrypt_finalize, .Lfunc_end7-haberdashery_aes256gcm_streaming_skylakex_decrypt_finalize
.cfi_endproc
.ident "rustc version 1.86.0-nightly (9cd60bd2c 2025-02-15)"
.section ".note.GNU-stack","",@progbits
|
ts-phantomnk90/haberdashery
| 85,599
|
asm/aes256gcmdndk_haswell.s
|
# @generated
# https://github.com/facebookincubator/haberdashery/
.text
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI0_0:
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.LCPI0_1:
.quad 4294967297
.quad 4294967297
.LCPI0_2:
.quad 8589934594
.quad 8589934594
.LCPI0_3:
.quad 17179869188
.quad 17179869188
.LCPI0_4:
.quad 34359738376
.quad 34359738376
.LCPI0_5:
.quad 68719476752
.quad 68719476752
.LCPI0_6:
.quad 137438953504
.quad 137438953504
.LCPI0_7:
.quad 274877907008
.quad 274877907008
.section .rodata.cst4,"aM",@progbits,4
.p2align 2, 0x0
.LCPI0_8:
.byte 13
.byte 14
.byte 15
.byte 12
.section .text.haberdashery_aes256gcmdndk_haswell_init,"ax",@progbits
.globl haberdashery_aes256gcmdndk_haswell_init
.p2align 4, 0x90
.type haberdashery_aes256gcmdndk_haswell_init,@function
haberdashery_aes256gcmdndk_haswell_init:
.cfi_startproc
cmpq $32, %rdx
jne .LBB0_2
vmovdqu (%rsi), %xmm0
vmovdqu 16(%rsi), %xmm1
vpslldq $4, %xmm0, %xmm2
vpslldq $8, %xmm0, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vpslldq $12, %xmm0, %xmm4
vpbroadcastd .LCPI0_8(%rip), %xmm3
vpshufb %xmm3, %xmm1, %xmm5
vaesenclast .LCPI0_1(%rip), %xmm5, %xmm5
vpxor %xmm4, %xmm2, %xmm2
vpxor %xmm0, %xmm2, %xmm2
vpxor %xmm2, %xmm5, %xmm2
vpslldq $4, %xmm1, %xmm4
vpslldq $8, %xmm1, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpslldq $12, %xmm1, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpshufd $255, %xmm2, %xmm5
vpxor %xmm6, %xmm6, %xmm6
vaesenclast %xmm6, %xmm5, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpslldq $4, %xmm2, %xmm5
vpslldq $8, %xmm2, %xmm7
vpxor %xmm7, %xmm5, %xmm5
vpslldq $12, %xmm2, %xmm7
vpshufb %xmm3, %xmm4, %xmm8
vaesenclast .LCPI0_2(%rip), %xmm8, %xmm8
vpxor %xmm7, %xmm5, %xmm5
vpxor %xmm2, %xmm5, %xmm5
vpxor %xmm5, %xmm8, %xmm5
vpslldq $4, %xmm4, %xmm7
vpslldq $8, %xmm4, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpslldq $12, %xmm4, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpshufd $255, %xmm5, %xmm8
vaesenclast %xmm6, %xmm8, %xmm8
vpxor %xmm4, %xmm7, %xmm7
vpxor %xmm7, %xmm8, %xmm7
vpslldq $4, %xmm5, %xmm8
vpslldq $8, %xmm5, %xmm9
vpxor %xmm9, %xmm8, %xmm8
vpslldq $12, %xmm5, %xmm9
vpxor %xmm9, %xmm8, %xmm8
vpshufb %xmm3, %xmm7, %xmm9
vaesenclast .LCPI0_3(%rip), %xmm9, %xmm9
vpxor %xmm5, %xmm8, %xmm8
vpxor %xmm8, %xmm9, %xmm8
vpslldq $4, %xmm7, %xmm9
vpslldq $8, %xmm7, %xmm10
vpxor %xmm10, %xmm9, %xmm9
vpslldq $12, %xmm7, %xmm10
vpxor %xmm10, %xmm9, %xmm9
vpshufd $255, %xmm8, %xmm10
vaesenclast %xmm6, %xmm10, %xmm10
vpxor %xmm7, %xmm9, %xmm9
vpxor %xmm9, %xmm10, %xmm9
vpslldq $4, %xmm8, %xmm10
vpslldq $8, %xmm8, %xmm11
vpxor %xmm11, %xmm10, %xmm10
vpslldq $12, %xmm8, %xmm11
vpxor %xmm11, %xmm10, %xmm10
vpshufb %xmm3, %xmm9, %xmm11
vaesenclast .LCPI0_4(%rip), %xmm11, %xmm11
vpxor %xmm8, %xmm10, %xmm10
vpxor %xmm10, %xmm11, %xmm10
vpslldq $4, %xmm9, %xmm11
vpslldq $8, %xmm9, %xmm12
vpxor %xmm12, %xmm11, %xmm11
vpslldq $12, %xmm9, %xmm12
vpxor %xmm12, %xmm11, %xmm11
vpshufd $255, %xmm10, %xmm12
vaesenclast %xmm6, %xmm12, %xmm12
vpxor %xmm9, %xmm11, %xmm11
vpxor %xmm11, %xmm12, %xmm11
vpslldq $4, %xmm10, %xmm12
vpslldq $8, %xmm10, %xmm13
vpxor %xmm13, %xmm12, %xmm12
vpslldq $12, %xmm10, %xmm13
vpxor %xmm13, %xmm12, %xmm12
vpshufb %xmm3, %xmm11, %xmm13
vaesenclast .LCPI0_5(%rip), %xmm13, %xmm13
vpxor %xmm10, %xmm12, %xmm12
vpxor %xmm12, %xmm13, %xmm12
vpslldq $4, %xmm11, %xmm13
vpslldq $8, %xmm11, %xmm14
vpxor %xmm14, %xmm13, %xmm13
vpslldq $12, %xmm11, %xmm14
vpxor %xmm14, %xmm13, %xmm13
vpshufd $255, %xmm12, %xmm14
vaesenclast %xmm6, %xmm14, %xmm14
vpxor %xmm11, %xmm13, %xmm13
vpxor %xmm13, %xmm14, %xmm13
vpslldq $4, %xmm12, %xmm14
vpslldq $8, %xmm12, %xmm15
vpxor %xmm15, %xmm14, %xmm14
vpshufb %xmm3, %xmm13, %xmm15
vaesenclast .LCPI0_6(%rip), %xmm15, %xmm15
vpslldq $12, %xmm12, %xmm3
vpxor %xmm3, %xmm14, %xmm3
vpxor %xmm3, %xmm12, %xmm3
vpxor %xmm3, %xmm15, %xmm3
vpslldq $4, %xmm13, %xmm14
vpslldq $8, %xmm13, %xmm15
vpxor %xmm15, %xmm14, %xmm14
vpslldq $12, %xmm13, %xmm15
vpxor %xmm15, %xmm14, %xmm14
vpshufd $255, %xmm3, %xmm15
vaesenclast %xmm6, %xmm15, %xmm6
vpxor %xmm13, %xmm14, %xmm14
vpxor %xmm6, %xmm14, %xmm6
vpslldq $4, %xmm3, %xmm14
vpslldq $8, %xmm3, %xmm15
vpxor %xmm15, %xmm14, %xmm14
vpslldq $12, %xmm3, %xmm15
vpxor %xmm15, %xmm14, %xmm14
vpshufb .LCPI0_0(%rip), %xmm6, %xmm15
vaesenclast .LCPI0_7(%rip), %xmm15, %xmm15
vpxor %xmm3, %xmm14, %xmm14
vpxor %xmm14, %xmm15, %xmm14
vmovdqa %xmm0, (%rdi)
vmovdqa %xmm1, 16(%rdi)
vmovdqa %xmm2, 32(%rdi)
vmovdqa %xmm4, 48(%rdi)
vmovdqa %xmm5, 64(%rdi)
vmovdqa %xmm7, 80(%rdi)
vmovdqa %xmm8, 96(%rdi)
vmovdqa %xmm9, 112(%rdi)
vmovdqa %xmm10, 128(%rdi)
vmovdqa %xmm11, 144(%rdi)
vmovdqa %xmm12, 160(%rdi)
vmovdqa %xmm13, 176(%rdi)
vmovdqa %xmm3, 192(%rdi)
vmovdqa %xmm6, 208(%rdi)
vmovdqa %xmm14, 224(%rdi)
.LBB0_2:
xorl %eax, %eax
cmpq $32, %rdx
sete %al
retq
.Lfunc_end0:
.size haberdashery_aes256gcmdndk_haswell_init, .Lfunc_end0-haberdashery_aes256gcmdndk_haswell_init
.cfi_endproc
.section .rodata.cst4,"aM",@progbits,4
.p2align 2, 0x0
.LCPI1_0:
.long 1
.LCPI1_5:
.long 0x00000002
.LCPI1_6:
.long 0x0c0f0e0d
.LCPI1_7:
.long 0x00000004
.LCPI1_8:
.long 0x00000008
.LCPI1_9:
.long 0x00000010
.LCPI1_10:
.long 0x00000020
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI1_1:
.quad 2
.quad 0
.LCPI1_2:
.quad 4
.quad 0
.LCPI1_3:
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.LCPI1_4:
.quad 4294967297
.quad 4294967297
.LCPI1_11:
.quad 274877907008
.quad 274877907008
.LCPI1_12:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI1_13:
.zero 8
.quad -4467570830351532032
.LCPI1_14:
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 2
.LCPI1_15:
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 3
.LCPI1_16:
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 4
.LCPI1_17:
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 5
.LCPI1_18:
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 6
.LCPI1_19:
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 7
.LCPI1_20:
.long 8
.long 0
.long 0
.long 0
.LCPI1_21:
.long 1
.long 0
.long 0
.long 0
.LCPI1_22:
.long 3
.long 0
.long 0
.long 0
.LCPI1_23:
.long 5
.long 0
.long 0
.long 0
.LCPI1_24:
.long 6
.long 0
.long 0
.long 0
.LCPI1_25:
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.LCPI1_26:
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.LCPI1_27:
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.LCPI1_28:
.zero 16
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI1_29:
.quad -4467570830351532032
.section .rodata,"a",@progbits
.LCPI1_30:
.byte 8
.byte 0
.LCPI1_31:
.byte 5
.byte 0
.LCPI1_32:
.byte 2
.byte 0
.section .text.haberdashery_aes256gcmdndk_haswell_encrypt,"ax",@progbits
.globl haberdashery_aes256gcmdndk_haswell_encrypt
.p2align 4, 0x90
.type haberdashery_aes256gcmdndk_haswell_encrypt,@function
haberdashery_aes256gcmdndk_haswell_encrypt:
.cfi_startproc
pushq %r15
.cfi_def_cfa_offset 16
pushq %r14
.cfi_def_cfa_offset 24
pushq %r13
.cfi_def_cfa_offset 32
pushq %r12
.cfi_def_cfa_offset 40
pushq %rbx
.cfi_def_cfa_offset 48
subq $432, %rsp
.cfi_def_cfa_offset 480
.cfi_offset %rbx, -48
.cfi_offset %r12, -40
.cfi_offset %r13, -32
.cfi_offset %r14, -24
.cfi_offset %r15, -16
movq 480(%rsp), %r15
xorl %eax, %eax
cmpq 496(%rsp), %r15
jne .LBB1_47
movq %r15, %r10
shrq $5, %r10
cmpq $2147483646, %r10
ja .LBB1_47
movabsq $2305843009213693950, %r10
cmpq %r10, %r8
ja .LBB1_47
cmpq $24, %rdx
jne .LBB1_47
cmpq $16, 512(%rsp)
jne .LBB1_47
vmovsd 4(%rsi), %xmm0
vmovss (%rsi), %xmm1
vshufps $65, %xmm0, %xmm1, %xmm0
vpbroadcastd .LCPI1_0(%rip), %xmm1
vpinsrd $1, 12(%rsi), %xmm1, %xmm1
vpinsrd $2, 16(%rsi), %xmm1, %xmm1
vpinsrd $3, 20(%rsi), %xmm1, %xmm1
vmovaps (%rdi), %xmm2
vxorps %xmm0, %xmm2, %xmm0
vxorps %xmm1, %xmm2, %xmm1
vmovss .LCPI1_5(%rip), %xmm3
vxorps %xmm3, %xmm0, %xmm2
vxorps %xmm3, %xmm1, %xmm3
vmovss .LCPI1_7(%rip), %xmm5
vxorps %xmm5, %xmm0, %xmm4
vxorps %xmm5, %xmm1, %xmm5
vmovaps 16(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 32(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 48(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 64(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 80(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 96(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 112(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 128(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 144(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 160(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 176(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 192(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 208(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 224(%rdi), %xmm6
#APP
vaesenclast %xmm6, %xmm0, %xmm0
vaesenclast %xmm6, %xmm1, %xmm1
vaesenclast %xmm6, %xmm2, %xmm2
vaesenclast %xmm6, %xmm3, %xmm3
vaesenclast %xmm6, %xmm4, %xmm4
vaesenclast %xmm6, %xmm5, %xmm5
#NO_APP
vpxor %xmm4, %xmm5, %xmm4
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm2, %xmm3, %xmm1
vpxor %xmm0, %xmm1, %xmm5
vpxor %xmm0, %xmm4, %xmm4
vpslldq $4, %xmm5, %xmm0
vpslldq $8, %xmm5, %xmm1
vpxor %xmm1, %xmm0, %xmm1
vpslldq $12, %xmm5, %xmm2
vpbroadcastd .LCPI1_6(%rip), %xmm0
vpshufb %xmm0, %xmm4, %xmm3
vaesenclast .LCPI1_4(%rip), %xmm3, %xmm3
vpxor %xmm2, %xmm1, %xmm1
vpxor %xmm5, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm6
vmovdqa %xmm5, 80(%rsp)
vaesenc %xmm4, %xmm5, %xmm1
vpslldq $4, %xmm4, %xmm2
vpslldq $8, %xmm4, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vpslldq $12, %xmm4, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vpshufd $255, %xmm6, %xmm3
vpxor %xmm12, %xmm12, %xmm12
vaesenclast %xmm12, %xmm3, %xmm3
vmovdqa %xmm4, 48(%rsp)
vpxor %xmm4, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm8
vbroadcastss .LCPI1_5(%rip), %xmm3
vbroadcastss .LCPI1_6(%rip), %xmm2
vmovdqa %xmm6, 304(%rsp)
#APP
vaesenc %xmm6, %xmm1, %xmm1
vpslldq $4, %xmm6, %xmm4
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpslldq $12, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpxor %xmm6, %xmm4, %xmm4
vpshufb %xmm2, %xmm8, %xmm7
vaesenclast %xmm3, %xmm7, %xmm7
vpxor %xmm4, %xmm7, %xmm7
#NO_APP
vmovaps %xmm7, %xmm9
vmovdqa %xmm8, 64(%rsp)
#APP
vaesenc %xmm8, %xmm1, %xmm1
vpslldq $4, %xmm8, %xmm3
vpslldq $8, %xmm8, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpslldq $12, %xmm8, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpxor %xmm3, %xmm8, %xmm3
vpshufd $255, %xmm9, %xmm7
vaesenclast %xmm12, %xmm7, %xmm7
vpxor %xmm3, %xmm7, %xmm7
#NO_APP
vbroadcastss .LCPI1_7(%rip), %xmm3
vmovaps %xmm9, 256(%rsp)
#APP
vaesenc %xmm9, %xmm1, %xmm1
vpslldq $4, %xmm9, %xmm4
vpslldq $8, %xmm9, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpslldq $12, %xmm9, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpxor %xmm4, %xmm9, %xmm4
vpshufb %xmm2, %xmm7, %xmm6
vaesenclast %xmm3, %xmm6, %xmm6
vpxor %xmm4, %xmm6, %xmm6
#NO_APP
vmovaps %xmm7, 240(%rsp)
#APP
vaesenc %xmm7, %xmm1, %xmm1
vpslldq $4, %xmm7, %xmm3
vpslldq $8, %xmm7, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpslldq $12, %xmm7, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpxor %xmm7, %xmm3, %xmm3
vpshufd $255, %xmm6, %xmm10
vaesenclast %xmm12, %xmm10, %xmm10
vpxor %xmm3, %xmm10, %xmm10
#NO_APP
vbroadcastss .LCPI1_8(%rip), %xmm3
#APP
vaesenc %xmm6, %xmm1, %xmm1
vpslldq $4, %xmm6, %xmm4
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpslldq $12, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpxor %xmm6, %xmm4, %xmm4
vpshufb %xmm2, %xmm10, %xmm7
vaesenclast %xmm3, %xmm7, %xmm7
vpxor %xmm4, %xmm7, %xmm7
#NO_APP
#APP
vaesenc %xmm10, %xmm1, %xmm1
vpslldq $4, %xmm10, %xmm3
vpslldq $8, %xmm10, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpslldq $12, %xmm10, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpxor %xmm3, %xmm10, %xmm3
vpshufd $255, %xmm7, %xmm11
vaesenclast %xmm12, %xmm11, %xmm11
vpxor %xmm3, %xmm11, %xmm11
#NO_APP
vbroadcastss .LCPI1_9(%rip), %xmm3
#APP
vaesenc %xmm7, %xmm1, %xmm1
vpslldq $4, %xmm7, %xmm4
vpslldq $8, %xmm7, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpslldq $12, %xmm7, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpxor %xmm7, %xmm4, %xmm4
vpshufb %xmm2, %xmm11, %xmm15
vaesenclast %xmm3, %xmm15, %xmm15
vpxor %xmm4, %xmm15, %xmm15
#NO_APP
#APP
vaesenc %xmm11, %xmm1, %xmm1
vpslldq $4, %xmm11, %xmm3
vpslldq $8, %xmm11, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpslldq $12, %xmm11, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpxor %xmm3, %xmm11, %xmm3
vpshufd $255, %xmm15, %xmm14
vaesenclast %xmm12, %xmm14, %xmm14
vpxor %xmm3, %xmm14, %xmm14
#NO_APP
vbroadcastss .LCPI1_10(%rip), %xmm3
vmovaps %xmm15, 96(%rsp)
#APP
vaesenc %xmm15, %xmm1, %xmm1
vpslldq $4, %xmm15, %xmm4
vpslldq $8, %xmm15, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpslldq $12, %xmm15, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpxor %xmm4, %xmm15, %xmm4
vpshufb %xmm2, %xmm14, %xmm13
vaesenclast %xmm3, %xmm13, %xmm13
vpxor %xmm4, %xmm13, %xmm13
#NO_APP
vmovdqa %xmm13, %xmm9
vpslldq $4, %xmm14, %xmm2
vpunpcklqdq %xmm14, %xmm12, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vinsertps $55, %xmm14, %xmm0, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vpshufd $255, %xmm13, %xmm3
vaesenclast %xmm12, %xmm3, %xmm3
vpxor %xmm2, %xmm14, %xmm2
vpxor %xmm2, %xmm3, %xmm4
vpslldq $4, %xmm13, %xmm2
vpunpcklqdq %xmm13, %xmm12, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vinsertps $55, %xmm13, %xmm0, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vpshufb %xmm0, %xmm4, %xmm0
vaesenclast .LCPI1_11(%rip), %xmm0, %xmm0
vpxor %xmm2, %xmm13, %xmm2
vpxor %xmm2, %xmm0, %xmm2
vmovaps %xmm14, 288(%rsp)
vaesenc %xmm14, %xmm1, %xmm0
vaesenc %xmm13, %xmm0, %xmm0
vmovdqa %xmm4, 32(%rsp)
vaesenc %xmm4, %xmm0, %xmm0
vmovdqa %xmm2, 272(%rsp)
vaesenclast %xmm2, %xmm0, %xmm0
vpshufb .LCPI1_12(%rip), %xmm0, %xmm0
vpsrlq $63, %xmm0, %xmm1
vpaddq %xmm0, %xmm0, %xmm0
vpshufd $78, %xmm1, %xmm2
vpor %xmm2, %xmm0, %xmm0
vpblendd $12, %xmm1, %xmm12, %xmm1
vpsllq $63, %xmm1, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpsllq $62, %xmm1, %xmm2
vpsllq $57, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpxor %xmm1, %xmm0, %xmm15
vpclmulqdq $0, %xmm15, %xmm15, %xmm0
vpbroadcastq .LCPI1_29(%rip), %xmm13
vpclmulqdq $16, %xmm13, %xmm0, %xmm1
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpclmulqdq $17, %xmm15, %xmm15, %xmm1
vpshufd $78, %xmm0, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $16, %xmm13, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm4
vpclmulqdq $16, %xmm15, %xmm4, %xmm0
vpclmulqdq $1, %xmm15, %xmm4, %xmm1
vpxor %xmm0, %xmm1, %xmm0
vpclmulqdq $0, %xmm15, %xmm4, %xmm1
vpslldq $8, %xmm0, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $16, %xmm13, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpclmulqdq $17, %xmm15, %xmm4, %xmm3
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm0
vpshufd $78, %xmm1, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpclmulqdq $16, %xmm13, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm14
vpclmulqdq $0, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm13, %xmm0, %xmm1
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpclmulqdq $16, %xmm13, %xmm0, %xmm1
vpshufd $78, %xmm0, %xmm0
vmovdqa %xmm4, 336(%rsp)
vpclmulqdq $17, %xmm4, %xmm4, %xmm2
vpxor %xmm0, %xmm2, %xmm0
vpclmulqdq $0, %xmm14, %xmm14, %xmm2
vpxor %xmm1, %xmm0, %xmm8
vpclmulqdq $16, %xmm13, %xmm2, %xmm0
vpshufd $78, %xmm2, %xmm1
vpclmulqdq $16, %xmm15, %xmm8, %xmm2
vpxor %xmm1, %xmm0, %xmm0
vpclmulqdq $1, %xmm15, %xmm8, %xmm1
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $16, %xmm13, %xmm0, %xmm2
vpclmulqdq $0, %xmm15, %xmm8, %xmm3
vpslldq $8, %xmm1, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpclmulqdq $17, %xmm14, %xmm14, %xmm4
vpshufd $78, %xmm0, %xmm0
vpclmulqdq $16, %xmm13, %xmm3, %xmm5
vpxor %xmm0, %xmm4, %xmm0
vpxor %xmm2, %xmm0, %xmm0
vmovdqa %xmm0, 368(%rsp)
vpshufd $78, %xmm3, %xmm0
vpxor %xmm0, %xmm5, %xmm0
vpsrldq $8, %xmm1, %xmm1
vmovdqa %xmm8, 192(%rsp)
vpclmulqdq $17, %xmm15, %xmm8, %xmm2
vpxor %xmm1, %xmm2, %xmm1
vpclmulqdq $16, %xmm13, %xmm0, %xmm2
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpxor %xmm2, %xmm0, %xmm12
testq %r8, %r8
vmovdqa %xmm6, %xmm1
vmovdqa %xmm6, 160(%rsp)
vmovdqa %xmm10, %xmm3
vmovdqa %xmm10, 144(%rsp)
vmovaps %xmm7, 224(%rsp)
vmovdqa %xmm11, 208(%rsp)
vmovdqa %xmm14, 384(%rsp)
vmovdqa %xmm9, 176(%rsp)
je .LBB1_22
cmpq $96, %r8
jb .LBB1_7
vmovdqu 32(%rcx), %xmm1
vmovdqu 48(%rcx), %xmm2
vmovdqu 64(%rcx), %xmm3
vmovdqu 80(%rcx), %xmm4
vmovdqa .LCPI1_12(%rip), %xmm0
vpshufb %xmm0, %xmm4, %xmm4
vpclmulqdq $0, %xmm4, %xmm15, %xmm5
vpshufb %xmm0, %xmm1, %xmm6
vpclmulqdq $1, %xmm4, %xmm15, %xmm7
vpshufb %xmm0, %xmm2, %xmm1
vpclmulqdq $16, %xmm4, %xmm15, %xmm2
vpshufb %xmm0, %xmm3, %xmm3
vpclmulqdq $17, %xmm4, %xmm15, %xmm4
vpxor %xmm7, %xmm2, %xmm2
vmovdqa 336(%rsp), %xmm8
vpclmulqdq $0, %xmm3, %xmm8, %xmm7
vpxor %xmm5, %xmm7, %xmm5
vpclmulqdq $1, %xmm3, %xmm8, %xmm7
vpxor %xmm7, %xmm2, %xmm2
vpclmulqdq $16, %xmm3, %xmm8, %xmm7
vpxor %xmm7, %xmm2, %xmm2
vpclmulqdq $17, %xmm3, %xmm8, %xmm3
vmovdqa 368(%rsp), %xmm8
vpxor %xmm4, %xmm3, %xmm3
vpclmulqdq $0, %xmm1, %xmm14, %xmm4
vpclmulqdq $1, %xmm1, %xmm14, %xmm7
vpxor %xmm7, %xmm2, %xmm2
vmovdqa 192(%rsp), %xmm9
vpclmulqdq $0, %xmm6, %xmm9, %xmm7
vpxor %xmm7, %xmm5, %xmm5
vpclmulqdq $16, %xmm1, %xmm14, %xmm7
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $1, %xmm6, %xmm9, %xmm5
vpxor %xmm5, %xmm7, %xmm5
vpxor %xmm5, %xmm2, %xmm2
vpclmulqdq $16, %xmm6, %xmm9, %xmm5
vpxor %xmm5, %xmm2, %xmm2
vpclmulqdq $17, %xmm6, %xmm9, %xmm5
vmovdqu (%rcx), %xmm6
vpxor %xmm5, %xmm3, %xmm3
vmovdqu 16(%rcx), %xmm5
vpshufb %xmm0, %xmm6, %xmm6
vpshufb %xmm0, %xmm5, %xmm5
vpclmulqdq $17, %xmm1, %xmm14, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $0, %xmm5, %xmm12, %xmm3
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $1, %xmm5, %xmm12, %xmm4
vpxor %xmm4, %xmm2, %xmm4
vpclmulqdq $16, %xmm5, %xmm12, %xmm7
vmovdqa %xmm12, %xmm10
vpclmulqdq $17, %xmm5, %xmm12, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $0, %xmm6, %xmm8, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $1, %xmm6, %xmm8, %xmm3
vpxor %xmm3, %xmm7, %xmm3
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $16, %xmm6, %xmm8, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpclmulqdq $17, %xmm6, %xmm8, %xmm4
vpxor %xmm4, %xmm1, %xmm1
addq $96, %rcx
leaq -96(%r8), %rsi
cmpq $96, %rsi
jb .LBB1_21
vmovdqa 336(%rsp), %xmm11
vmovdqa 384(%rsp), %xmm14
vmovdqa 192(%rsp), %xmm12
.p2align 4, 0x90
.LBB1_20:
vmovdqu (%rcx), %xmm5
vmovdqu 32(%rcx), %xmm6
vmovdqu 48(%rcx), %xmm4
vmovdqu 64(%rcx), %xmm7
vmovdqu 80(%rcx), %xmm8
vpslldq $8, %xmm3, %xmm9
vpxor %xmm2, %xmm9, %xmm2
vpsrldq $8, %xmm3, %xmm3
vpclmulqdq $16, %xmm13, %xmm2, %xmm9
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm9, %xmm2
vpclmulqdq $16, %xmm13, %xmm2, %xmm9
vpxor %xmm3, %xmm1, %xmm1
vpshufd $78, %xmm2, %xmm2
vpshufb %xmm0, %xmm5, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpshufb %xmm0, %xmm8, %xmm3
vpclmulqdq $0, %xmm3, %xmm15, %xmm5
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $1, %xmm3, %xmm15, %xmm8
vpxor %xmm1, %xmm9, %xmm1
vpclmulqdq $16, %xmm3, %xmm15, %xmm9
vpshufb %xmm0, %xmm6, %xmm2
vpclmulqdq $17, %xmm3, %xmm15, %xmm3
vpshufb %xmm0, %xmm7, %xmm6
vpclmulqdq $0, %xmm6, %xmm11, %xmm7
vpxor %xmm8, %xmm9, %xmm8
vpclmulqdq $1, %xmm6, %xmm11, %xmm9
vpxor %xmm5, %xmm7, %xmm5
vpclmulqdq $16, %xmm6, %xmm11, %xmm7
vpshufb %xmm0, %xmm4, %xmm4
vpclmulqdq $17, %xmm6, %xmm11, %xmm6
vpxor %xmm7, %xmm9, %xmm7
vpclmulqdq $0, %xmm4, %xmm14, %xmm9
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $1, %xmm4, %xmm14, %xmm8
vpxor %xmm3, %xmm6, %xmm3
vpclmulqdq $16, %xmm4, %xmm14, %xmm6
vpxor %xmm6, %xmm8, %xmm6
vpclmulqdq $0, %xmm2, %xmm12, %xmm8
vpxor %xmm8, %xmm9, %xmm8
vpclmulqdq $17, %xmm4, %xmm14, %xmm4
vpxor %xmm5, %xmm8, %xmm5
vpclmulqdq $1, %xmm2, %xmm12, %xmm8
vpxor %xmm6, %xmm8, %xmm6
vpclmulqdq $17, %xmm2, %xmm12, %xmm8
vpxor %xmm6, %xmm7, %xmm6
vpxor %xmm4, %xmm8, %xmm4
vmovdqa 368(%rsp), %xmm8
vmovdqu 16(%rcx), %xmm7
vpshufb %xmm0, %xmm7, %xmm7
vpclmulqdq $16, %xmm2, %xmm12, %xmm2
vpxor %xmm4, %xmm3, %xmm3
vpclmulqdq $0, %xmm7, %xmm10, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $1, %xmm7, %xmm10, %xmm5
vpxor %xmm5, %xmm2, %xmm2
vpclmulqdq $16, %xmm7, %xmm10, %xmm5
vpxor %xmm5, %xmm2, %xmm2
vpxor %xmm2, %xmm6, %xmm5
vpclmulqdq $17, %xmm7, %xmm10, %xmm2
vpxor %xmm2, %xmm3, %xmm6
vpclmulqdq $0, %xmm1, %xmm8, %xmm2
vpxor %xmm2, %xmm4, %xmm2
vpclmulqdq $1, %xmm1, %xmm8, %xmm3
vpxor %xmm3, %xmm5, %xmm3
vpclmulqdq $16, %xmm1, %xmm8, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpclmulqdq $17, %xmm1, %xmm8, %xmm1
vpxor %xmm1, %xmm6, %xmm1
addq $96, %rcx
addq $-96, %rsi
cmpq $95, %rsi
ja .LBB1_20
.LBB1_21:
vpslldq $8, %xmm3, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vpsrldq $8, %xmm3, %xmm2
vpclmulqdq $16, %xmm13, %xmm0, %xmm3
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm0
vpclmulqdq $16, %xmm13, %xmm0, %xmm3
vpxor %xmm2, %xmm1, %xmm1
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpxor %xmm3, %xmm0, %xmm2
vmovdqa 160(%rsp), %xmm6
vmovdqa 144(%rsp), %xmm7
vmovdqa 176(%rsp), %xmm9
vmovdqa %xmm10, %xmm12
vmovdqa 48(%rsp), %xmm10
vmovdqa 32(%rsp), %xmm8
cmpq $16, %rsi
vmovdqa 64(%rsp), %xmm14
vmovdqa 80(%rsp), %xmm11
jae .LBB1_9
jmp .LBB1_14
.LBB1_22:
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, (%rsp)
testq %r15, %r15
vmovdqa 96(%rsp), %xmm5
vmovdqa 32(%rsp), %xmm8
vmovdqa 64(%rsp), %xmm14
vmovdqa 80(%rsp), %xmm11
vmovdqa %xmm1, %xmm6
vmovdqa %xmm3, %xmm7
vmovdqa 48(%rsp), %xmm10
jne .LBB1_27
jmp .LBB1_46
.LBB1_7:
movq %r8, %rsi
vmovdqa 32(%rsp), %xmm8
vpxor %xmm2, %xmm2, %xmm2
vmovdqa %xmm1, %xmm6
vmovdqa %xmm3, %xmm7
vmovdqa 48(%rsp), %xmm10
cmpq $16, %rsi
vmovdqa 64(%rsp), %xmm14
vmovdqa 80(%rsp), %xmm11
jb .LBB1_14
.LBB1_9:
leaq -16(%rsi), %rdx
testb $16, %dl
je .LBB1_10
cmpq $16, %rdx
jae .LBB1_12
.LBB1_15:
testq %rdx, %rdx
vmovdqa %xmm2, (%rsp)
je .LBB1_23
.LBB1_16:
vmovdqa %xmm12, 320(%rsp)
vmovdqa %xmm15, 128(%rsp)
movq %r9, %r14
movq %r8, %rbx
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, 112(%rsp)
leaq 112(%rsp), %rdi
movq %rcx, %rsi
callq *memcpy@GOTPCREL(%rip)
vmovdqa 112(%rsp), %xmm1
testq %r15, %r15
je .LBB1_17
movabsq $-68719476704, %rax
leaq (%r15,%rax), %rcx
incq %rax
cmpq %rax, %rcx
movl $0, %eax
vmovdqa 48(%rsp), %xmm10
vmovdqa 80(%rsp), %xmm11
vmovdqa 64(%rsp), %xmm14
vmovdqa 160(%rsp), %xmm6
vmovdqa 144(%rsp), %xmm7
vmovdqa 96(%rsp), %xmm5
vmovdqa 176(%rsp), %xmm9
vmovdqa 32(%rsp), %xmm8
vpbroadcastq .LCPI1_29(%rip), %xmm4
vmovdqa 128(%rsp), %xmm15
vmovdqa 320(%rsp), %xmm12
jb .LBB1_47
movq %rbx, %r8
movq %r14, %r9
vpshufb .LCPI1_12(%rip), %xmm1, %xmm0
vpxor (%rsp), %xmm0, %xmm0
vpclmulqdq $0, %xmm0, %xmm15, %xmm1
vpclmulqdq $1, %xmm0, %xmm15, %xmm2
vpclmulqdq $16, %xmm0, %xmm15, %xmm3
vpclmulqdq $17, %xmm0, %xmm15, %xmm0
vpxor %xmm2, %xmm3, %xmm2
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpsrldq $8, %xmm2, %xmm2
vpclmulqdq $16, %xmm4, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm4, %xmm1, %xmm3
vpxor %xmm2, %xmm0, %xmm0
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm0
vmovdqa %xmm0, (%rsp)
jmp .LBB1_27
.LBB1_10:
vmovdqu (%rcx), %xmm0
vpshufb .LCPI1_12(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vpclmulqdq $0, %xmm0, %xmm15, %xmm1
vpclmulqdq $1, %xmm0, %xmm15, %xmm2
vpclmulqdq $16, %xmm0, %xmm15, %xmm3
addq $16, %rcx
vpclmulqdq $17, %xmm0, %xmm15, %xmm0
vpxor %xmm2, %xmm3, %xmm2
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpsrldq $8, %xmm2, %xmm2
vpclmulqdq $16, %xmm13, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm13, %xmm1, %xmm3
vpxor %xmm2, %xmm0, %xmm0
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm2
movq %rdx, %rsi
cmpq $16, %rdx
jb .LBB1_15
.LBB1_12:
vmovdqa .LCPI1_12(%rip), %xmm0
.p2align 4, 0x90
.LBB1_13:
vmovdqu (%rcx), %xmm1
vpshufb %xmm0, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpclmulqdq $0, %xmm1, %xmm15, %xmm2
vpclmulqdq $1, %xmm1, %xmm15, %xmm3
vmovdqu 16(%rcx), %xmm4
vpclmulqdq $16, %xmm1, %xmm15, %xmm5
vpxor %xmm3, %xmm5, %xmm3
vpclmulqdq $17, %xmm1, %xmm15, %xmm1
vpslldq $8, %xmm3, %xmm5
vpxor %xmm5, %xmm2, %xmm2
vpsrldq $8, %xmm3, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpclmulqdq $16, %xmm13, %xmm2, %xmm3
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $16, %xmm13, %xmm2, %xmm3
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpshufb %xmm0, %xmm4, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $0, %xmm1, %xmm15, %xmm2
addq $32, %rcx
vpclmulqdq $1, %xmm1, %xmm15, %xmm3
addq $-32, %rsi
vpclmulqdq $16, %xmm1, %xmm15, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm15, %xmm1
vpslldq $8, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpsrldq $8, %xmm3, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpclmulqdq $16, %xmm13, %xmm2, %xmm3
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $16, %xmm13, %xmm2, %xmm3
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm2
cmpq $15, %rsi
ja .LBB1_13
.LBB1_14:
movq %rsi, %rdx
testq %rdx, %rdx
vmovdqa %xmm2, (%rsp)
jne .LBB1_16
.LBB1_23:
testq %r15, %r15
vmovdqa 96(%rsp), %xmm5
je .LBB1_46
movabsq $-68719476704, %rcx
leaq (%r15,%rcx), %rdx
incq %rcx
cmpq %rcx, %rdx
jb .LBB1_47
.LBB1_27:
movq 488(%rsp), %rdx
cmpq $96, %r15
vmovdqa %xmm15, 128(%rsp)
jb .LBB1_28
vmovdqa %xmm12, 320(%rsp)
leaq 96(%r9), %rcx
leaq 96(%rdx), %rax
vpxor .LCPI1_14(%rip), %xmm11, %xmm0
vpxor .LCPI1_15(%rip), %xmm11, %xmm1
vpxor .LCPI1_16(%rip), %xmm11, %xmm2
vpxor .LCPI1_17(%rip), %xmm11, %xmm3
vpxor .LCPI1_18(%rip), %xmm11, %xmm4
vmovdqa %xmm5, %xmm13
vpxor .LCPI1_19(%rip), %xmm11, %xmm5
#APP
vaesenc %xmm10, %xmm0, %xmm0
vaesenc %xmm10, %xmm1, %xmm1
vaesenc %xmm10, %xmm2, %xmm2
vaesenc %xmm10, %xmm3, %xmm3
vaesenc %xmm10, %xmm4, %xmm4
vaesenc %xmm10, %xmm5, %xmm5
#NO_APP
vmovdqa 304(%rsp), %xmm12
#APP
vaesenc %xmm12, %xmm0, %xmm0
vaesenc %xmm12, %xmm1, %xmm1
vaesenc %xmm12, %xmm2, %xmm2
vaesenc %xmm12, %xmm3, %xmm3
vaesenc %xmm12, %xmm4, %xmm4
vaesenc %xmm12, %xmm5, %xmm5
#NO_APP
#APP
vaesenc %xmm14, %xmm0, %xmm0
vaesenc %xmm14, %xmm1, %xmm1
vaesenc %xmm14, %xmm2, %xmm2
vaesenc %xmm14, %xmm3, %xmm3
vaesenc %xmm14, %xmm4, %xmm4
vaesenc %xmm14, %xmm5, %xmm5
#NO_APP
vmovaps 256(%rsp), %xmm11
#APP
vaesenc %xmm11, %xmm0, %xmm0
vaesenc %xmm11, %xmm1, %xmm1
vaesenc %xmm11, %xmm2, %xmm2
vaesenc %xmm11, %xmm3, %xmm3
vaesenc %xmm11, %xmm4, %xmm4
vaesenc %xmm11, %xmm5, %xmm5
#NO_APP
vmovaps 240(%rsp), %xmm11
#APP
vaesenc %xmm11, %xmm0, %xmm0
vaesenc %xmm11, %xmm1, %xmm1
vaesenc %xmm11, %xmm2, %xmm2
vaesenc %xmm11, %xmm3, %xmm3
vaesenc %xmm11, %xmm4, %xmm4
vaesenc %xmm11, %xmm5, %xmm5
#NO_APP
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
#APP
vaesenc %xmm7, %xmm0, %xmm0
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm4, %xmm4
vaesenc %xmm7, %xmm5, %xmm5
#NO_APP
vmovaps 224(%rsp), %xmm6
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 208(%rsp), %xmm6
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
#APP
vaesenc %xmm13, %xmm0, %xmm0
vaesenc %xmm13, %xmm1, %xmm1
vaesenc %xmm13, %xmm2, %xmm2
vaesenc %xmm13, %xmm3, %xmm3
vaesenc %xmm13, %xmm4, %xmm4
vaesenc %xmm13, %xmm5, %xmm5
#NO_APP
vmovaps 288(%rsp), %xmm7
#APP
vaesenc %xmm7, %xmm0, %xmm0
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm4, %xmm4
vaesenc %xmm7, %xmm5, %xmm5
#NO_APP
#APP
vaesenc %xmm9, %xmm0, %xmm0
vaesenc %xmm9, %xmm1, %xmm1
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm9, %xmm4, %xmm4
vaesenc %xmm9, %xmm5, %xmm5
#NO_APP
#APP
vaesenc %xmm8, %xmm0, %xmm0
vaesenc %xmm8, %xmm1, %xmm1
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm8, %xmm3, %xmm3
vaesenc %xmm8, %xmm4, %xmm4
vaesenc %xmm8, %xmm5, %xmm5
#NO_APP
vmovdqa 272(%rsp), %xmm6
#APP
vaesenclast %xmm6, %xmm0, %xmm0
vaesenclast %xmm6, %xmm1, %xmm1
vaesenclast %xmm6, %xmm2, %xmm2
vaesenclast %xmm6, %xmm3, %xmm3
vaesenclast %xmm6, %xmm4, %xmm4
vaesenclast %xmm6, %xmm5, %xmm5
#NO_APP
vpxor (%r9), %xmm0, %xmm13
vpxor 16(%r9), %xmm1, %xmm14
vpxor 32(%r9), %xmm2, %xmm1
vpxor 48(%r9), %xmm3, %xmm7
vpxor 64(%r9), %xmm4, %xmm11
vpxor 80(%r9), %xmm5, %xmm2
vmovdqu %xmm13, (%rdx)
vmovdqu %xmm14, 16(%rdx)
vmovdqu %xmm1, 32(%rdx)
vmovdqu %xmm7, 48(%rdx)
vmovdqu %xmm11, 64(%rdx)
leaq -96(%r15), %rbx
vmovdqu %xmm2, 80(%rdx)
cmpq $96, %rbx
jb .LBB1_34
vpmovsxbq .LCPI1_30(%rip), %xmm8
vmovdqa (%rsp), %xmm0
vmovdqa %xmm14, %xmm10
vmovdqa .LCPI1_12(%rip), %xmm9
.p2align 4, 0x90
.LBB1_37:
vmovdqa %xmm7, 352(%rsp)
vmovdqa %xmm1, 400(%rsp)
vmovdqa %xmm8, 16(%rsp)
vpshufb %xmm9, %xmm8, %xmm3
vpaddd .LCPI1_21(%rip), %xmm8, %xmm4
vpshufb %xmm9, %xmm4, %xmm5
vpaddd .LCPI1_1(%rip), %xmm8, %xmm4
vpshufb %xmm9, %xmm4, %xmm6
vpaddd .LCPI1_22(%rip), %xmm8, %xmm4
vpshufb %xmm9, %xmm4, %xmm7
vpaddd .LCPI1_2(%rip), %xmm8, %xmm4
vpshufb %xmm9, %xmm4, %xmm12
vpmovsxbq .LCPI1_31(%rip), %xmm4
vpaddd 16(%rsp), %xmm4, %xmm4
vpshufb %xmm9, %xmm4, %xmm8
vpshufb %xmm9, %xmm13, %xmm4
vpxor %xmm4, %xmm0, %xmm0
vmovdqa %xmm0, (%rsp)
vpshufb %xmm9, %xmm2, %xmm0
vmovdqa 80(%rsp), %xmm1
vpxor %xmm3, %xmm1, %xmm13
vpxor %xmm5, %xmm1, %xmm14
vpxor %xmm6, %xmm1, %xmm15
vpxor %xmm7, %xmm1, %xmm2
vpxor %xmm1, %xmm12, %xmm3
vpxor %xmm1, %xmm8, %xmm12
vmovaps 48(%rsp), %xmm5
#APP
vaesenc %xmm5, %xmm13, %xmm13
vaesenc %xmm5, %xmm14, %xmm14
vaesenc %xmm5, %xmm15, %xmm15
vaesenc %xmm5, %xmm2, %xmm2
vaesenc %xmm5, %xmm3, %xmm3
vaesenc %xmm5, %xmm12, %xmm12
#NO_APP
vpxor %xmm6, %xmm6, %xmm6
vxorps %xmm5, %xmm5, %xmm5
vpxor %xmm7, %xmm7, %xmm7
vmovaps 304(%rsp), %xmm4
vmovaps 128(%rsp), %xmm1
#APP
vaesenc %xmm4, %xmm13, %xmm13
vaesenc %xmm4, %xmm14, %xmm14
vaesenc %xmm4, %xmm15, %xmm15
vaesenc %xmm4, %xmm2, %xmm2
vaesenc %xmm4, %xmm3, %xmm3
vaesenc %xmm4, %xmm12, %xmm12
vpclmulqdq $16, %xmm1, %xmm0, %xmm8
vpxor %xmm6, %xmm8, %xmm6
vpclmulqdq $0, %xmm1, %xmm0, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $17, %xmm1, %xmm0, %xmm8
vpxor %xmm5, %xmm8, %xmm5
vpclmulqdq $1, %xmm1, %xmm0, %xmm8
vpxor %xmm6, %xmm8, %xmm6
#NO_APP
vpshufb %xmm9, %xmm11, %xmm0
vmovaps 64(%rsp), %xmm1
#APP
vaesenc %xmm1, %xmm13, %xmm13
vaesenc %xmm1, %xmm14, %xmm14
vaesenc %xmm1, %xmm15, %xmm15
vaesenc %xmm1, %xmm2, %xmm2
vaesenc %xmm1, %xmm3, %xmm3
vaesenc %xmm1, %xmm12, %xmm12
#NO_APP
vmovaps 256(%rsp), %xmm1
vmovaps 336(%rsp), %xmm4
#APP
vaesenc %xmm1, %xmm13, %xmm13
vaesenc %xmm1, %xmm14, %xmm14
vaesenc %xmm1, %xmm15, %xmm15
vaesenc %xmm1, %xmm2, %xmm2
vaesenc %xmm1, %xmm3, %xmm3
vaesenc %xmm1, %xmm12, %xmm12
vpclmulqdq $16, %xmm4, %xmm0, %xmm8
vpxor %xmm6, %xmm8, %xmm6
vpclmulqdq $0, %xmm4, %xmm0, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $17, %xmm4, %xmm0, %xmm8
vpxor %xmm5, %xmm8, %xmm5
vpclmulqdq $1, %xmm4, %xmm0, %xmm8
vpxor %xmm6, %xmm8, %xmm6
#NO_APP
vmovdqa 352(%rsp), %xmm0
vpshufb %xmm9, %xmm0, %xmm0
vmovaps 240(%rsp), %xmm1
#APP
vaesenc %xmm1, %xmm13, %xmm13
vaesenc %xmm1, %xmm14, %xmm14
vaesenc %xmm1, %xmm15, %xmm15
vaesenc %xmm1, %xmm2, %xmm2
vaesenc %xmm1, %xmm3, %xmm3
vaesenc %xmm1, %xmm12, %xmm12
#NO_APP
vmovaps 160(%rsp), %xmm1
vmovaps 384(%rsp), %xmm4
#APP
vaesenc %xmm1, %xmm13, %xmm13
vaesenc %xmm1, %xmm14, %xmm14
vaesenc %xmm1, %xmm15, %xmm15
vaesenc %xmm1, %xmm2, %xmm2
vaesenc %xmm1, %xmm3, %xmm3
vaesenc %xmm1, %xmm12, %xmm12
vpclmulqdq $16, %xmm4, %xmm0, %xmm8
vpxor %xmm6, %xmm8, %xmm6
vpclmulqdq $0, %xmm4, %xmm0, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $17, %xmm4, %xmm0, %xmm8
vpxor %xmm5, %xmm8, %xmm5
vpclmulqdq $1, %xmm4, %xmm0, %xmm8
vpxor %xmm6, %xmm8, %xmm6
#NO_APP
vmovdqa 400(%rsp), %xmm0
vpshufb %xmm9, %xmm0, %xmm0
vmovaps 144(%rsp), %xmm1
#APP
vaesenc %xmm1, %xmm13, %xmm13
vaesenc %xmm1, %xmm14, %xmm14
vaesenc %xmm1, %xmm15, %xmm15
vaesenc %xmm1, %xmm2, %xmm2
vaesenc %xmm1, %xmm3, %xmm3
vaesenc %xmm1, %xmm12, %xmm12
#NO_APP
vmovaps 192(%rsp), %xmm11
vmovaps 224(%rsp), %xmm1
#APP
vaesenc %xmm1, %xmm13, %xmm13
vaesenc %xmm1, %xmm14, %xmm14
vaesenc %xmm1, %xmm15, %xmm15
vaesenc %xmm1, %xmm2, %xmm2
vaesenc %xmm1, %xmm3, %xmm3
vaesenc %xmm1, %xmm12, %xmm12
vpclmulqdq $16, %xmm11, %xmm0, %xmm8
vpxor %xmm6, %xmm8, %xmm6
vpclmulqdq $0, %xmm11, %xmm0, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $17, %xmm11, %xmm0, %xmm8
vpxor %xmm5, %xmm8, %xmm5
vpclmulqdq $1, %xmm11, %xmm0, %xmm8
vpxor %xmm6, %xmm8, %xmm6
#NO_APP
vpshufb %xmm9, %xmm10, %xmm0
vmovaps 208(%rsp), %xmm1
#APP
vaesenc %xmm1, %xmm13, %xmm13
vaesenc %xmm1, %xmm14, %xmm14
vaesenc %xmm1, %xmm15, %xmm15
vaesenc %xmm1, %xmm2, %xmm2
vaesenc %xmm1, %xmm3, %xmm3
vaesenc %xmm1, %xmm12, %xmm12
#NO_APP
vmovaps 96(%rsp), %xmm1
vmovaps 320(%rsp), %xmm4
#APP
vaesenc %xmm1, %xmm13, %xmm13
vaesenc %xmm1, %xmm14, %xmm14
vaesenc %xmm1, %xmm15, %xmm15
vaesenc %xmm1, %xmm2, %xmm2
vaesenc %xmm1, %xmm3, %xmm3
vaesenc %xmm1, %xmm12, %xmm12
vpclmulqdq $16, %xmm4, %xmm0, %xmm8
vpxor %xmm6, %xmm8, %xmm6
vpclmulqdq $0, %xmm4, %xmm0, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $17, %xmm4, %xmm0, %xmm8
vpxor %xmm5, %xmm8, %xmm5
vpclmulqdq $1, %xmm4, %xmm0, %xmm8
vpxor %xmm6, %xmm8, %xmm6
#NO_APP
vmovaps 288(%rsp), %xmm0
#APP
vaesenc %xmm0, %xmm13, %xmm13
vaesenc %xmm0, %xmm14, %xmm14
vaesenc %xmm0, %xmm15, %xmm15
vaesenc %xmm0, %xmm2, %xmm2
vaesenc %xmm0, %xmm3, %xmm3
vaesenc %xmm0, %xmm12, %xmm12
#NO_APP
vmovdqa 176(%rsp), %xmm1
vmovaps 368(%rsp), %xmm4
vmovaps (%rsp), %xmm8
#APP
vaesenc %xmm1, %xmm13, %xmm13
vaesenc %xmm1, %xmm14, %xmm14
vaesenc %xmm1, %xmm15, %xmm15
vaesenc %xmm1, %xmm2, %xmm2
vaesenc %xmm1, %xmm3, %xmm3
vaesenc %xmm1, %xmm12, %xmm12
vpclmulqdq $16, %xmm4, %xmm8, %xmm0
vpxor %xmm0, %xmm6, %xmm6
vpclmulqdq $0, %xmm4, %xmm8, %xmm0
vpxor %xmm0, %xmm7, %xmm7
vpclmulqdq $17, %xmm4, %xmm8, %xmm0
vpxor %xmm0, %xmm5, %xmm5
vpclmulqdq $1, %xmm4, %xmm8, %xmm0
vpxor %xmm0, %xmm6, %xmm6
#NO_APP
vpxor %xmm1, %xmm1, %xmm1
vpunpcklqdq %xmm6, %xmm1, %xmm0
vpxor %xmm0, %xmm7, %xmm0
vpunpckhqdq %xmm1, %xmm6, %xmm4
vpbroadcastq .LCPI1_29(%rip), %xmm1
vpclmulqdq $16, %xmm1, %xmm0, %xmm6
vpxor %xmm4, %xmm5, %xmm4
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm6, %xmm0
vpshufd $78, %xmm0, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpclmulqdq $16, %xmm1, %xmm0, %xmm0
vmovaps 32(%rsp), %xmm1
#APP
vaesenc %xmm1, %xmm13, %xmm13
vaesenc %xmm1, %xmm14, %xmm14
vaesenc %xmm1, %xmm15, %xmm15
vaesenc %xmm1, %xmm2, %xmm2
vaesenc %xmm1, %xmm3, %xmm3
vaesenc %xmm1, %xmm12, %xmm12
#NO_APP
vmovdqa 272(%rsp), %xmm5
#APP
vaesenclast %xmm5, %xmm13, %xmm13
vaesenclast %xmm5, %xmm14, %xmm14
vaesenclast %xmm5, %xmm15, %xmm15
vaesenclast %xmm5, %xmm2, %xmm2
vaesenclast %xmm5, %xmm3, %xmm3
vaesenclast %xmm5, %xmm12, %xmm12
#NO_APP
vpxor (%rcx), %xmm13, %xmm13
vpxor 16(%rcx), %xmm14, %xmm10
vpxor 32(%rcx), %xmm15, %xmm1
vpxor 48(%rcx), %xmm2, %xmm7
vpxor 64(%rcx), %xmm3, %xmm11
vpxor %xmm0, %xmm4, %xmm0
vpxor 80(%rcx), %xmm12, %xmm2
vmovdqa 16(%rsp), %xmm8
addq $96, %rcx
vmovdqu %xmm13, (%rax)
vmovdqu %xmm10, 16(%rax)
vmovdqu %xmm1, 32(%rax)
vmovdqu %xmm7, 48(%rax)
vmovdqu %xmm11, 64(%rax)
vmovdqu %xmm2, 80(%rax)
addq $96, %rax
addq $-96, %rbx
vpaddd .LCPI1_24(%rip), %xmm8, %xmm8
cmpq $95, %rbx
ja .LBB1_37
vmovdqa %xmm7, 352(%rsp)
vmovdqa %xmm1, %xmm12
vmovdqa %xmm0, (%rsp)
vmovdqa %xmm8, 16(%rsp)
vmovdqa 128(%rsp), %xmm15
jmp .LBB1_35
.LBB1_28:
vpmovsxbq .LCPI1_32(%rip), %xmm0
vmovdqa %xmm0, 16(%rsp)
movq %r15, %rbx
vmovdqa (%rsp), %xmm4
movq %r8, %r12
cmpq $16, %rbx
jae .LBB1_39
.LBB1_30:
movq %rdx, %r14
movq %r9, %rsi
vmovdqa 16(%rsp), %xmm11
jmp .LBB1_31
.LBB1_17:
movq %rbx, %r8
jmp .LBB1_44
.LBB1_34:
vmovdqa %xmm7, 352(%rsp)
vmovdqa %xmm1, %xmm12
vmovdqa %xmm14, %xmm10
vpmovsxbq .LCPI1_30(%rip), %xmm0
vmovdqa %xmm0, 16(%rsp)
.LBB1_35:
vmovdqa 192(%rsp), %xmm14
vmovdqa .LCPI1_12(%rip), %xmm3
vpshufb %xmm3, %xmm2, %xmm2
vpclmulqdq $0, %xmm2, %xmm15, %xmm4
vpshufb %xmm3, %xmm11, %xmm5
vmovdqa 336(%rsp), %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm6
vpclmulqdq $1, %xmm5, %xmm0, %xmm7
vpshufb %xmm3, %xmm13, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm8
vpxor (%rsp), %xmm1, %xmm1
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpshufb %xmm3, %xmm10, %xmm0
vpclmulqdq $1, %xmm2, %xmm15, %xmm11
vpshufb %xmm3, %xmm12, %xmm9
vpclmulqdq $16, %xmm2, %xmm15, %xmm12
vmovdqa 352(%rsp), %xmm10
vpshufb %xmm3, %xmm10, %xmm3
vmovdqa 384(%rsp), %xmm13
vpclmulqdq $0, %xmm3, %xmm13, %xmm10
vpxor %xmm11, %xmm12, %xmm11
vpclmulqdq $1, %xmm3, %xmm13, %xmm12
vpxor %xmm4, %xmm6, %xmm4
vpclmulqdq $16, %xmm3, %xmm13, %xmm6
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $17, %xmm3, %xmm13, %xmm3
vpxor %xmm7, %xmm11, %xmm7
vpclmulqdq $17, %xmm2, %xmm15, %xmm2
vpxor %xmm2, %xmm5, %xmm2
vpclmulqdq $0, %xmm9, %xmm14, %xmm5
vpxor %xmm6, %xmm12, %xmm6
vpclmulqdq $1, %xmm9, %xmm14, %xmm8
vpxor %xmm5, %xmm10, %xmm5
vpclmulqdq $16, %xmm9, %xmm14, %xmm10
vpxor %xmm5, %xmm4, %xmm4
vpclmulqdq $17, %xmm9, %xmm14, %xmm5
vpxor %xmm6, %xmm8, %xmm6
vpxor %xmm6, %xmm7, %xmm6
vpxor %xmm5, %xmm3, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vmovdqa 320(%rsp), %xmm7
vpclmulqdq $0, %xmm0, %xmm7, %xmm3
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $1, %xmm0, %xmm7, %xmm4
vpxor %xmm4, %xmm10, %xmm4
vpclmulqdq $16, %xmm0, %xmm7, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpxor %xmm4, %xmm6, %xmm4
vpclmulqdq $17, %xmm0, %xmm7, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vmovdqa 368(%rsp), %xmm5
vpclmulqdq $0, %xmm1, %xmm5, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $1, %xmm1, %xmm5, %xmm3
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $16, %xmm1, %xmm5, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpclmulqdq $17, %xmm1, %xmm5, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI1_29(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpshufd $78, %xmm1, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpclmulqdq $16, %xmm3, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm4
movq %rax, %rdx
movq %rcx, %r9
vmovdqa 96(%rsp), %xmm5
movq %r8, %r12
cmpq $16, %rbx
jb .LBB1_30
.LBB1_39:
vmovdqa 128(%rsp), %xmm12
vmovdqa 16(%rsp), %xmm11
vmovdqa 32(%rsp), %xmm7
vmovdqa 240(%rsp), %xmm6
vmovdqa 256(%rsp), %xmm1
vmovdqa 64(%rsp), %xmm0
vmovdqa 80(%rsp), %xmm15
vmovdqa 208(%rsp), %xmm13
vmovdqa 224(%rsp), %xmm10
vmovdqa 160(%rsp), %xmm14
vmovdqa 144(%rsp), %xmm8
vpbroadcastq .LCPI1_29(%rip), %xmm9
.p2align 4, 0x90
.LBB1_40:
vmovdqa .LCPI1_12(%rip), %xmm3
vpshufb %xmm3, %xmm11, %xmm2
vpxor %xmm2, %xmm15, %xmm2
vaesenc 48(%rsp), %xmm2, %xmm2
vaesenc 304(%rsp), %xmm2, %xmm2
vaesenc %xmm0, %xmm2, %xmm2
vaesenc %xmm1, %xmm2, %xmm2
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm14, %xmm2, %xmm2
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm10, %xmm2, %xmm2
vaesenc %xmm13, %xmm2, %xmm2
vaesenc %xmm5, %xmm2, %xmm2
vaesenc 288(%rsp), %xmm2, %xmm2
vaesenc 176(%rsp), %xmm2, %xmm2
vaesenc %xmm7, %xmm2, %xmm2
vaesenclast 272(%rsp), %xmm2, %xmm2
vpxor (%r9), %xmm2, %xmm2
vpshufb %xmm3, %xmm2, %xmm3
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $1, %xmm3, %xmm12, %xmm4
vpclmulqdq $16, %xmm3, %xmm12, %xmm5
vmovdqu %xmm2, (%rdx)
vpclmulqdq $0, %xmm3, %xmm12, %xmm2
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $17, %xmm3, %xmm12, %xmm3
vpslldq $8, %xmm4, %xmm5
vpxor %xmm5, %xmm2, %xmm2
vmovdqa 96(%rsp), %xmm5
vpsrldq $8, %xmm4, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpclmulqdq $16, %xmm9, %xmm2, %xmm4
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm4, %xmm2
vpclmulqdq $16, %xmm9, %xmm2, %xmm4
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpxor %xmm2, %xmm4, %xmm4
leaq 16(%r9), %rsi
leaq 16(%rdx), %r14
addq $-16, %rbx
vpaddd .LCPI1_21(%rip), %xmm11, %xmm11
movq %r14, %rdx
movq %rsi, %r9
cmpq $15, %rbx
ja .LBB1_40
.LBB1_31:
vmovdqa %xmm4, (%rsp)
vmovdqa %xmm11, 16(%rsp)
testq %rbx, %rbx
je .LBB1_32
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, 112(%rsp)
leaq 112(%rsp), %rdi
movq memcpy@GOTPCREL(%rip), %r13
movq %rbx, %rdx
callq *%r13
vmovdqa 16(%rsp), %xmm0
vpshufb .LCPI1_12(%rip), %xmm0, %xmm0
vpxor 80(%rsp), %xmm0, %xmm0
vaesenc 48(%rsp), %xmm0, %xmm0
vaesenc 304(%rsp), %xmm0, %xmm0
vaesenc 64(%rsp), %xmm0, %xmm0
vaesenc 256(%rsp), %xmm0, %xmm0
vaesenc 240(%rsp), %xmm0, %xmm0
vaesenc 160(%rsp), %xmm0, %xmm0
vaesenc 144(%rsp), %xmm0, %xmm0
vaesenc 224(%rsp), %xmm0, %xmm0
vaesenc 208(%rsp), %xmm0, %xmm0
vaesenc 96(%rsp), %xmm0, %xmm0
vaesenc 288(%rsp), %xmm0, %xmm0
vaesenc 176(%rsp), %xmm0, %xmm0
vaesenc 32(%rsp), %xmm0, %xmm0
vaesenclast 272(%rsp), %xmm0, %xmm0
vpxor 112(%rsp), %xmm0, %xmm0
vmovdqa %xmm0, 16(%rsp)
vmovdqa %xmm0, 112(%rsp)
leaq 112(%rsp), %rsi
movq %r14, %rdi
movq %rbx, %rdx
callq *%r13
testq %r15, %r15
je .LBB1_42
vmovdqa 16(%rsp), %xmm0
vmovdqa %xmm0, 416(%rsp)
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, 112(%rsp)
leaq 112(%rsp), %rdi
leaq 416(%rsp), %rsi
movq %rbx, %rdx
callq *memcpy@GOTPCREL(%rip)
vmovdqa 112(%rsp), %xmm1
movq %r12, %r8
.LBB1_44:
vmovdqa 48(%rsp), %xmm10
vmovdqa 80(%rsp), %xmm11
vmovdqa 64(%rsp), %xmm14
vmovdqa 160(%rsp), %xmm6
vmovdqa 144(%rsp), %xmm7
vmovdqa 96(%rsp), %xmm5
vmovdqa 176(%rsp), %xmm9
vmovdqa 32(%rsp), %xmm8
vpbroadcastq .LCPI1_29(%rip), %xmm13
vmovdqa 128(%rsp), %xmm15
jmp .LBB1_45
.LBB1_32:
movq %r12, %r8
vpbroadcastq .LCPI1_29(%rip), %xmm13
vmovdqa 128(%rsp), %xmm15
vmovdqa 48(%rsp), %xmm10
vmovdqa 176(%rsp), %xmm9
vmovdqa 32(%rsp), %xmm8
vmovdqa 64(%rsp), %xmm14
vmovdqa 80(%rsp), %xmm11
vmovdqa 160(%rsp), %xmm6
vmovdqa 144(%rsp), %xmm7
jmp .LBB1_46
.LBB1_42:
movq %r12, %r8
vmovdqa 48(%rsp), %xmm10
vmovdqa 80(%rsp), %xmm11
vmovdqa 64(%rsp), %xmm14
vmovdqa 160(%rsp), %xmm6
vmovdqa 144(%rsp), %xmm7
vmovdqa 96(%rsp), %xmm5
vmovdqa 176(%rsp), %xmm9
vmovdqa 32(%rsp), %xmm8
vpbroadcastq .LCPI1_29(%rip), %xmm13
vmovdqa 128(%rsp), %xmm15
vmovdqa 16(%rsp), %xmm1
.LBB1_45:
vpshufb .LCPI1_12(%rip), %xmm1, %xmm0
vpxor (%rsp), %xmm0, %xmm0
vpclmulqdq $0, %xmm0, %xmm15, %xmm1
vpclmulqdq $1, %xmm0, %xmm15, %xmm2
vpclmulqdq $16, %xmm0, %xmm15, %xmm3
vpclmulqdq $17, %xmm0, %xmm15, %xmm0
vpxor %xmm2, %xmm3, %xmm2
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpsrldq $8, %xmm2, %xmm2
vpclmulqdq $16, %xmm13, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm13, %xmm1, %xmm3
vpxor %xmm2, %xmm0, %xmm0
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm0
vmovdqa %xmm0, (%rsp)
.LBB1_46:
vmovq %r8, %xmm0
vmovq %r15, %xmm1
vpunpcklqdq %xmm0, %xmm1, %xmm0
vpsllq $3, %xmm0, %xmm0
vpxor (%rsp), %xmm0, %xmm0
vpclmulqdq $0, %xmm0, %xmm15, %xmm1
vpclmulqdq $1, %xmm0, %xmm15, %xmm2
vpclmulqdq $16, %xmm0, %xmm15, %xmm3
vpclmulqdq $17, %xmm0, %xmm15, %xmm0
vpxor %xmm2, %xmm3, %xmm2
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpclmulqdq $16, %xmm13, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm13, %xmm1, %xmm3
vpxor .LCPI1_25(%rip), %xmm11, %xmm4
vpxor %xmm0, %xmm3, %xmm0
vaesenc %xmm10, %xmm4, %xmm3
vaesenc 304(%rsp), %xmm3, %xmm3
vaesenc %xmm14, %xmm3, %xmm3
vaesenc 256(%rsp), %xmm3, %xmm3
vaesenc 240(%rsp), %xmm3, %xmm3
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm7, %xmm3, %xmm3
vaesenc 224(%rsp), %xmm3, %xmm3
vaesenc 208(%rsp), %xmm3, %xmm3
vaesenc %xmm5, %xmm3, %xmm3
vaesenc 288(%rsp), %xmm3, %xmm3
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm8, %xmm3, %xmm3
vpshufb .LCPI1_26(%rip), %xmm2, %xmm2
vaesenclast 272(%rsp), %xmm3, %xmm3
vpshufb .LCPI1_27(%rip), %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpshufb .LCPI1_12(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
movq 504(%rsp), %rax
vmovdqu %xmm0, (%rax)
movl $1, %eax
.LBB1_47:
addq $432, %rsp
.cfi_def_cfa_offset 48
popq %rbx
.cfi_def_cfa_offset 40
popq %r12
.cfi_def_cfa_offset 32
popq %r13
.cfi_def_cfa_offset 24
popq %r14
.cfi_def_cfa_offset 16
popq %r15
.cfi_def_cfa_offset 8
retq
.Lfunc_end1:
.size haberdashery_aes256gcmdndk_haswell_encrypt, .Lfunc_end1-haberdashery_aes256gcmdndk_haswell_encrypt
.cfi_endproc
.section .rodata.cst4,"aM",@progbits,4
.p2align 2, 0x0
.LCPI2_0:
.long 1
.LCPI2_5:
.long 0x00000002
.LCPI2_6:
.long 0x0c0f0e0d
.LCPI2_7:
.long 0x00000004
.LCPI2_8:
.long 0x00000008
.LCPI2_9:
.long 0x00000010
.LCPI2_10:
.long 0x00000020
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI2_1:
.quad 2
.quad 0
.LCPI2_2:
.quad 4
.quad 0
.LCPI2_3:
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.LCPI2_4:
.quad 4294967297
.quad 4294967297
.LCPI2_11:
.quad 274877907008
.quad 274877907008
.LCPI2_12:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI2_13:
.zero 8
.quad -4467570830351532032
.LCPI2_14:
.long 1
.long 0
.long 0
.long 0
.LCPI2_15:
.long 3
.long 0
.long 0
.long 0
.LCPI2_16:
.long 5
.long 0
.long 0
.long 0
.LCPI2_17:
.long 6
.long 0
.long 0
.long 0
.LCPI2_18:
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.LCPI2_19:
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.LCPI2_20:
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.LCPI2_21:
.zero 16
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI2_22:
.quad -4467570830351532032
.section .rodata,"a",@progbits
.LCPI2_23:
.byte 2
.byte 0
.section .text.haberdashery_aes256gcmdndk_haswell_decrypt,"ax",@progbits
.globl haberdashery_aes256gcmdndk_haswell_decrypt
.p2align 4, 0x90
.type haberdashery_aes256gcmdndk_haswell_decrypt,@function
haberdashery_aes256gcmdndk_haswell_decrypt:
.cfi_startproc
pushq %rbp
.cfi_def_cfa_offset 16
pushq %r15
.cfi_def_cfa_offset 24
pushq %r14
.cfi_def_cfa_offset 32
pushq %r13
.cfi_def_cfa_offset 40
pushq %r12
.cfi_def_cfa_offset 48
pushq %rbx
.cfi_def_cfa_offset 56
subq $488, %rsp
.cfi_def_cfa_offset 544
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
.cfi_offset %rbp, -16
movq 544(%rsp), %r15
xorl %eax, %eax
cmpq 576(%rsp), %r15
jne .LBB2_45
movq %r15, %r10
shrq $5, %r10
cmpq $2147483646, %r10
ja .LBB2_45
movabsq $2305843009213693950, %r10
cmpq %r10, %r8
ja .LBB2_45
cmpq $24, %rdx
jne .LBB2_45
cmpq $16, 560(%rsp)
jne .LBB2_45
vmovsd 4(%rsi), %xmm0
vmovss (%rsi), %xmm1
vshufps $65, %xmm0, %xmm1, %xmm0
vpbroadcastd .LCPI2_0(%rip), %xmm1
vpinsrd $1, 12(%rsi), %xmm1, %xmm1
vpinsrd $2, 16(%rsi), %xmm1, %xmm1
vpinsrd $3, 20(%rsi), %xmm1, %xmm1
vmovaps (%rdi), %xmm2
vxorps %xmm0, %xmm2, %xmm0
vxorps %xmm1, %xmm2, %xmm1
vmovss .LCPI2_5(%rip), %xmm7
vxorps %xmm7, %xmm0, %xmm2
vxorps %xmm7, %xmm1, %xmm3
vmovss .LCPI2_7(%rip), %xmm5
vxorps %xmm5, %xmm0, %xmm4
vxorps %xmm5, %xmm1, %xmm5
vmovaps 16(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 32(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 48(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 64(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 80(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 96(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 112(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 128(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 144(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 160(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 176(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 192(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 208(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 224(%rdi), %xmm6
#APP
vaesenclast %xmm6, %xmm0, %xmm0
vaesenclast %xmm6, %xmm1, %xmm1
vaesenclast %xmm6, %xmm2, %xmm2
vaesenclast %xmm6, %xmm3, %xmm3
vaesenclast %xmm6, %xmm4, %xmm4
vaesenclast %xmm6, %xmm5, %xmm5
#NO_APP
vpxor %xmm4, %xmm5, %xmm4
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm2, %xmm3, %xmm1
vpxor %xmm0, %xmm1, %xmm13
vpxor %xmm0, %xmm4, %xmm4
vpslldq $4, %xmm13, %xmm0
vpslldq $8, %xmm13, %xmm1
vpxor %xmm1, %xmm0, %xmm1
vpslldq $12, %xmm13, %xmm2
vpbroadcastd .LCPI2_6(%rip), %xmm0
vpshufb %xmm0, %xmm4, %xmm3
vaesenclast .LCPI2_4(%rip), %xmm3, %xmm3
vpxor %xmm2, %xmm1, %xmm1
vpxor %xmm1, %xmm13, %xmm1
vpxor %xmm1, %xmm3, %xmm6
vaesenc %xmm4, %xmm13, %xmm1
vpslldq $4, %xmm4, %xmm2
vpslldq $8, %xmm4, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vpslldq $12, %xmm4, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vpshufd $255, %xmm6, %xmm3
vpxor %xmm11, %xmm11, %xmm11
vaesenclast %xmm11, %xmm3, %xmm3
vmovdqa %xmm4, 208(%rsp)
vpxor %xmm4, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm8
vbroadcastss .LCPI2_5(%rip), %xmm3
vbroadcastss .LCPI2_6(%rip), %xmm2
vmovdqa %xmm6, 192(%rsp)
#APP
vaesenc %xmm6, %xmm1, %xmm1
vpslldq $4, %xmm6, %xmm4
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpslldq $12, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpxor %xmm6, %xmm4, %xmm4
vpshufb %xmm2, %xmm8, %xmm9
vaesenclast %xmm3, %xmm9, %xmm9
vpxor %xmm4, %xmm9, %xmm9
#NO_APP
vmovdqa %xmm8, 176(%rsp)
#APP
vaesenc %xmm8, %xmm1, %xmm1
vpslldq $4, %xmm8, %xmm3
vpslldq $8, %xmm8, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpslldq $12, %xmm8, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpxor %xmm3, %xmm8, %xmm3
vpshufd $255, %xmm9, %xmm6
vaesenclast %xmm11, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
#NO_APP
vbroadcastss .LCPI2_7(%rip), %xmm3
vmovaps %xmm9, 128(%rsp)
#APP
vaesenc %xmm9, %xmm1, %xmm1
vpslldq $4, %xmm9, %xmm4
vpslldq $8, %xmm9, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpslldq $12, %xmm9, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpxor %xmm4, %xmm9, %xmm4
vpshufb %xmm2, %xmm6, %xmm10
vaesenclast %xmm3, %xmm10, %xmm10
vpxor %xmm4, %xmm10, %xmm10
#NO_APP
vmovaps %xmm6, 144(%rsp)
#APP
vaesenc %xmm6, %xmm1, %xmm1
vpslldq $4, %xmm6, %xmm3
vpslldq $8, %xmm6, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpslldq $12, %xmm6, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpxor %xmm6, %xmm3, %xmm3
vpshufd $255, %xmm10, %xmm15
vaesenclast %xmm11, %xmm15, %xmm15
vpxor %xmm3, %xmm15, %xmm15
#NO_APP
vbroadcastss .LCPI2_8(%rip), %xmm3
vmovaps %xmm10, 112(%rsp)
#APP
vaesenc %xmm10, %xmm1, %xmm1
vpslldq $4, %xmm10, %xmm4
vpslldq $8, %xmm10, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpslldq $12, %xmm10, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpxor %xmm4, %xmm10, %xmm4
vpshufb %xmm2, %xmm15, %xmm14
vaesenclast %xmm3, %xmm14, %xmm14
vpxor %xmm4, %xmm14, %xmm14
#NO_APP
vmovaps %xmm15, 256(%rsp)
#APP
vaesenc %xmm15, %xmm1, %xmm1
vpslldq $4, %xmm15, %xmm3
vpslldq $8, %xmm15, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpslldq $12, %xmm15, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpxor %xmm3, %xmm15, %xmm3
vpshufd $255, %xmm14, %xmm9
vaesenclast %xmm11, %xmm9, %xmm9
vpxor %xmm3, %xmm9, %xmm9
#NO_APP
vbroadcastss .LCPI2_9(%rip), %xmm3
vmovaps %xmm14, 96(%rsp)
#APP
vaesenc %xmm14, %xmm1, %xmm1
vpslldq $4, %xmm14, %xmm4
vpslldq $8, %xmm14, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpslldq $12, %xmm14, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpxor %xmm4, %xmm14, %xmm4
vpshufb %xmm2, %xmm9, %xmm6
vaesenclast %xmm3, %xmm6, %xmm6
vpxor %xmm4, %xmm6, %xmm6
#NO_APP
vmovdqa %xmm9, %xmm14
#APP
vaesenc %xmm9, %xmm1, %xmm1
vpslldq $4, %xmm9, %xmm3
vpslldq $8, %xmm9, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpslldq $12, %xmm9, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpxor %xmm3, %xmm9, %xmm3
vpshufd $255, %xmm6, %xmm15
vaesenclast %xmm11, %xmm15, %xmm15
vpxor %xmm3, %xmm15, %xmm15
#NO_APP
vbroadcastss .LCPI2_10(%rip), %xmm3
vmovaps %xmm6, 160(%rsp)
#APP
vaesenc %xmm6, %xmm1, %xmm1
vpslldq $4, %xmm6, %xmm4
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpslldq $12, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpxor %xmm6, %xmm4, %xmm4
vpshufb %xmm2, %xmm15, %xmm8
vaesenclast %xmm3, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
#NO_APP
vpslldq $4, %xmm15, %xmm2
vpunpcklqdq %xmm15, %xmm11, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vinsertps $55, %xmm15, %xmm0, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vpshufd $255, %xmm8, %xmm3
vaesenclast %xmm11, %xmm3, %xmm3
vpxor %xmm2, %xmm15, %xmm2
vpxor %xmm2, %xmm3, %xmm12
vpslldq $4, %xmm8, %xmm2
vpunpcklqdq %xmm8, %xmm11, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vinsertps $55, %xmm8, %xmm0, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vpshufb %xmm0, %xmm12, %xmm0
vaesenclast .LCPI2_11(%rip), %xmm0, %xmm0
vpxor %xmm2, %xmm8, %xmm2
vpxor %xmm2, %xmm0, %xmm3
vaesenc %xmm15, %xmm1, %xmm0
vaesenc %xmm8, %xmm0, %xmm0
vaesenc %xmm12, %xmm0, %xmm0
vaesenclast %xmm3, %xmm0, %xmm0
vpshufb .LCPI2_12(%rip), %xmm0, %xmm0
vpsrlq $63, %xmm0, %xmm1
vpaddq %xmm0, %xmm0, %xmm0
vpshufd $78, %xmm1, %xmm2
vpor %xmm2, %xmm0, %xmm0
vpblendd $12, %xmm1, %xmm11, %xmm1
vmovdqa %xmm3, %xmm11
vpsllq $63, %xmm1, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpsllq $62, %xmm1, %xmm2
vpsllq $57, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpxor %xmm1, %xmm0, %xmm6
vpclmulqdq $0, %xmm6, %xmm6, %xmm0
vpbroadcastq .LCPI2_22(%rip), %xmm10
vpclmulqdq $16, %xmm10, %xmm0, %xmm1
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpclmulqdq $17, %xmm6, %xmm6, %xmm1
vpshufd $78, %xmm0, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $16, %xmm10, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm5
vpclmulqdq $16, %xmm6, %xmm5, %xmm0
vpclmulqdq $1, %xmm6, %xmm5, %xmm1
vpxor %xmm0, %xmm1, %xmm0
vpclmulqdq $0, %xmm6, %xmm5, %xmm1
vpslldq $8, %xmm0, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $16, %xmm10, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpclmulqdq $17, %xmm6, %xmm5, %xmm3
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm0
vpshufd $78, %xmm1, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpclmulqdq $16, %xmm10, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm4
vpclmulqdq $0, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm10, %xmm0, %xmm1
vpclmulqdq $0, %xmm5, %xmm5, %xmm2
vpclmulqdq $16, %xmm10, %xmm2, %xmm3
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpshufd $78, %xmm2, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $17, %xmm5, %xmm5, %xmm2
vpshufd $78, %xmm1, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vpclmulqdq $16, %xmm10, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm9
vmovdqa %xmm4, 400(%rsp)
vpclmulqdq $17, %xmm4, %xmm4, %xmm1
vpshufd $78, %xmm0, %xmm2
vpclmulqdq $16, %xmm6, %xmm9, %xmm3
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $1, %xmm6, %xmm9, %xmm2
vpxor %xmm3, %xmm2, %xmm2
vpclmulqdq $16, %xmm10, %xmm0, %xmm0
vpclmulqdq $0, %xmm6, %xmm9, %xmm3
vpslldq $8, %xmm2, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpclmulqdq $16, %xmm10, %xmm3, %xmm4
vpxor %xmm0, %xmm1, %xmm0
vmovdqa %xmm0, 352(%rsp)
vpshufd $78, %xmm3, %xmm0
vmovdqa %xmm9, %xmm3
vpxor %xmm0, %xmm4, %xmm0
vpsrldq $8, %xmm2, %xmm1
vpclmulqdq $17, %xmm6, %xmm9, %xmm2
vpxor %xmm1, %xmm2, %xmm1
vpclmulqdq $16, %xmm10, %xmm0, %xmm2
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpxor %xmm2, %xmm0, %xmm2
movq 552(%rsp), %r12
testq %r8, %r8
vmovaps %xmm15, 320(%rsp)
vmovaps %xmm8, 304(%rsp)
vmovdqa %xmm12, 288(%rsp)
vmovdqa %xmm11, 272(%rsp)
vmovdqa %xmm6, 16(%rsp)
vmovdqa %xmm13, 80(%rsp)
vmovdqa %xmm14, 48(%rsp)
je .LBB2_38
cmpq $96, %r8
jb .LBB2_7
vmovdqu 32(%rcx), %xmm1
vmovdqa %xmm2, %xmm12
vmovdqu 48(%rcx), %xmm2
vmovdqa %xmm3, %xmm15
vmovdqu 64(%rcx), %xmm3
vmovdqu 80(%rcx), %xmm4
vmovdqa .LCPI2_12(%rip), %xmm0
vpshufb %xmm0, %xmm4, %xmm4
vmovdqa %xmm5, %xmm9
vpclmulqdq $0, %xmm4, %xmm6, %xmm5
vmovdqa %xmm6, %xmm8
vpshufb %xmm0, %xmm1, %xmm6
vpclmulqdq $1, %xmm4, %xmm8, %xmm7
vpshufb %xmm0, %xmm2, %xmm1
vpclmulqdq $16, %xmm4, %xmm8, %xmm2
vpshufb %xmm0, %xmm3, %xmm3
vpclmulqdq $17, %xmm4, %xmm8, %xmm4
vpxor %xmm7, %xmm2, %xmm2
vpclmulqdq $0, %xmm3, %xmm9, %xmm7
vpxor %xmm5, %xmm7, %xmm5
vpclmulqdq $1, %xmm3, %xmm9, %xmm7
vpxor %xmm7, %xmm2, %xmm2
vpclmulqdq $16, %xmm3, %xmm9, %xmm7
vpxor %xmm7, %xmm2, %xmm2
vmovdqa %xmm9, %xmm11
vpclmulqdq $17, %xmm3, %xmm9, %xmm3
vmovdqa 352(%rsp), %xmm8
vpxor %xmm4, %xmm3, %xmm3
vmovdqa 400(%rsp), %xmm14
vpclmulqdq $0, %xmm1, %xmm14, %xmm4
vpclmulqdq $1, %xmm1, %xmm14, %xmm7
vpxor %xmm7, %xmm2, %xmm2
vpclmulqdq $0, %xmm6, %xmm15, %xmm7
vpxor %xmm7, %xmm5, %xmm5
vpclmulqdq $16, %xmm1, %xmm14, %xmm7
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $1, %xmm6, %xmm15, %xmm5
vpxor %xmm5, %xmm7, %xmm5
vpxor %xmm5, %xmm2, %xmm2
vpclmulqdq $16, %xmm6, %xmm15, %xmm5
vpxor %xmm5, %xmm2, %xmm2
vmovdqa %xmm15, %xmm10
vpclmulqdq $17, %xmm6, %xmm15, %xmm5
vmovdqu (%rcx), %xmm6
vpxor %xmm5, %xmm3, %xmm3
vmovdqu 16(%rcx), %xmm5
vpshufb %xmm0, %xmm6, %xmm6
vpshufb %xmm0, %xmm5, %xmm5
vpclmulqdq $17, %xmm1, %xmm14, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $0, %xmm5, %xmm12, %xmm3
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $1, %xmm5, %xmm12, %xmm4
vpxor %xmm4, %xmm2, %xmm4
vpclmulqdq $16, %xmm5, %xmm12, %xmm7
vmovdqa %xmm12, %xmm15
vpclmulqdq $17, %xmm5, %xmm12, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $0, %xmm6, %xmm8, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $1, %xmm6, %xmm8, %xmm3
vpxor %xmm3, %xmm7, %xmm3
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $16, %xmm6, %xmm8, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpclmulqdq $17, %xmm6, %xmm8, %xmm4
vpxor %xmm4, %xmm1, %xmm1
addq $96, %rcx
leaq -96(%r8), %rsi
cmpq $96, %rsi
jb .LBB2_11
vmovdqa 16(%rsp), %xmm12
vpbroadcastq .LCPI2_22(%rip), %xmm13
.p2align 4, 0x90
.LBB2_22:
vmovdqu (%rcx), %xmm5
vmovdqu 32(%rcx), %xmm6
vmovdqu 48(%rcx), %xmm4
vmovdqu 64(%rcx), %xmm7
vmovdqu 80(%rcx), %xmm8
vpslldq $8, %xmm3, %xmm9
vpxor %xmm2, %xmm9, %xmm2
vpsrldq $8, %xmm3, %xmm3
vpclmulqdq $16, %xmm13, %xmm2, %xmm9
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm9, %xmm2
vpclmulqdq $16, %xmm13, %xmm2, %xmm9
vpxor %xmm3, %xmm1, %xmm1
vpshufd $78, %xmm2, %xmm2
vpshufb %xmm0, %xmm5, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpshufb %xmm0, %xmm8, %xmm3
vpclmulqdq $0, %xmm3, %xmm12, %xmm5
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $1, %xmm3, %xmm12, %xmm8
vpxor %xmm1, %xmm9, %xmm1
vpclmulqdq $16, %xmm3, %xmm12, %xmm9
vpshufb %xmm0, %xmm6, %xmm2
vpclmulqdq $17, %xmm3, %xmm12, %xmm3
vpshufb %xmm0, %xmm7, %xmm6
vpclmulqdq $0, %xmm6, %xmm11, %xmm7
vpxor %xmm8, %xmm9, %xmm8
vpclmulqdq $1, %xmm6, %xmm11, %xmm9
vpxor %xmm5, %xmm7, %xmm5
vpclmulqdq $16, %xmm6, %xmm11, %xmm7
vpshufb %xmm0, %xmm4, %xmm4
vpclmulqdq $17, %xmm6, %xmm11, %xmm6
vpxor %xmm7, %xmm9, %xmm7
vpclmulqdq $0, %xmm4, %xmm14, %xmm9
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $1, %xmm4, %xmm14, %xmm8
vpxor %xmm3, %xmm6, %xmm3
vpclmulqdq $16, %xmm4, %xmm14, %xmm6
vpxor %xmm6, %xmm8, %xmm6
vpclmulqdq $0, %xmm2, %xmm10, %xmm8
vpxor %xmm8, %xmm9, %xmm8
vmovdqa 352(%rsp), %xmm9
vpclmulqdq $17, %xmm4, %xmm14, %xmm4
vpxor %xmm5, %xmm8, %xmm5
vpclmulqdq $1, %xmm2, %xmm10, %xmm8
vpxor %xmm6, %xmm8, %xmm6
vpclmulqdq $17, %xmm2, %xmm10, %xmm8
vpxor %xmm6, %xmm7, %xmm6
vpxor %xmm4, %xmm8, %xmm4
vmovdqu 16(%rcx), %xmm7
vpshufb %xmm0, %xmm7, %xmm7
vpclmulqdq $16, %xmm2, %xmm10, %xmm2
vpxor %xmm4, %xmm3, %xmm3
vpclmulqdq $0, %xmm7, %xmm15, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $1, %xmm7, %xmm15, %xmm5
vpxor %xmm5, %xmm2, %xmm2
vpclmulqdq $16, %xmm7, %xmm15, %xmm5
vpxor %xmm5, %xmm2, %xmm2
vpxor %xmm2, %xmm6, %xmm5
vpclmulqdq $17, %xmm7, %xmm15, %xmm2
vpxor %xmm2, %xmm3, %xmm6
vpclmulqdq $0, %xmm1, %xmm9, %xmm2
vpxor %xmm2, %xmm4, %xmm2
vpclmulqdq $1, %xmm1, %xmm9, %xmm3
vpxor %xmm3, %xmm5, %xmm3
vpclmulqdq $16, %xmm1, %xmm9, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpclmulqdq $17, %xmm1, %xmm9, %xmm1
vpxor %xmm1, %xmm6, %xmm1
addq $96, %rcx
addq $-96, %rsi
cmpq $95, %rsi
ja .LBB2_22
jmp .LBB2_23
.LBB2_38:
vmovdqa %xmm14, %xmm9
vpxor %xmm14, %xmm14, %xmm14
xorl %r8d, %r8d
testq %r15, %r15
jne .LBB2_27
jmp .LBB2_39
.LBB2_7:
vmovdqa %xmm14, %xmm9
movq %r8, %rsi
vpxor %xmm14, %xmm14, %xmm14
cmpq $16, %rsi
jae .LBB2_12
.LBB2_9:
movq %rsi, %rdx
testq %rdx, %rdx
jne .LBB2_24
jmp .LBB2_19
.LBB2_11:
vmovdqa 16(%rsp), %xmm12
.LBB2_23:
vpslldq $8, %xmm3, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vpsrldq $8, %xmm3, %xmm2
vpbroadcastq .LCPI2_22(%rip), %xmm4
vpclmulqdq $16, %xmm4, %xmm0, %xmm3
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm0
vpclmulqdq $16, %xmm4, %xmm0, %xmm3
vpxor %xmm2, %xmm1, %xmm1
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpxor %xmm3, %xmm0, %xmm14
vmovss .LCPI2_5(%rip), %xmm7
vmovdqa %xmm12, %xmm6
vmovdqa %xmm11, %xmm5
vmovdqa 48(%rsp), %xmm9
vmovdqa %xmm15, %xmm2
vmovdqa %xmm10, %xmm3
vmovdqa 80(%rsp), %xmm13
cmpq $16, %rsi
jb .LBB2_9
.LBB2_12:
leaq -16(%rsi), %rdx
testb $16, %dl
je .LBB2_13
cmpq $16, %rdx
jae .LBB2_15
.LBB2_18:
testq %rdx, %rdx
je .LBB2_19
.LBB2_24:
vmovdqa %xmm14, 32(%rsp)
vmovdqa %xmm2, 224(%rsp)
vmovdqa %xmm3, 240(%rsp)
vmovdqa %xmm5, 336(%rsp)
movq %r9, %rbx
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, (%rsp)
movq %rsp, %rdi
movq %rcx, %rsi
movq %r8, %r14
callq *memcpy@GOTPCREL(%rip)
movq %r14, %r8
vmovdqa (%rsp), %xmm0
shlq $3, %r8
testq %r15, %r15
je .LBB2_46
movabsq $-68719476704, %rax
leaq (%r15,%rax), %rcx
incq %rax
cmpq %rax, %rcx
movl $0, %eax
vmovdqa 80(%rsp), %xmm13
vmovss .LCPI2_5(%rip), %xmm7
vmovdqa 16(%rsp), %xmm6
vmovdqa 336(%rsp), %xmm5
vmovdqa 240(%rsp), %xmm10
vmovdqa 224(%rsp), %xmm12
vmovdqa 32(%rsp), %xmm1
jb .LBB2_45
movq %rbx, %r9
vpshufb .LCPI2_12(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpclmulqdq $0, %xmm0, %xmm6, %xmm1
vpclmulqdq $1, %xmm0, %xmm6, %xmm2
vpclmulqdq $16, %xmm0, %xmm6, %xmm3
vpclmulqdq $17, %xmm0, %xmm6, %xmm0
vpxor %xmm2, %xmm3, %xmm2
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpsrldq $8, %xmm2, %xmm2
vpbroadcastq .LCPI2_22(%rip), %xmm4
vpclmulqdq $16, %xmm4, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm4, %xmm1, %xmm3
vpxor %xmm2, %xmm0, %xmm0
vmovdqa %xmm12, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm14
vmovdqa %xmm10, %xmm3
jmp .LBB2_27
.LBB2_13:
vmovdqu (%rcx), %xmm0
vpshufb .LCPI2_12(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm14, %xmm0
vpclmulqdq $0, %xmm0, %xmm6, %xmm1
vmovdqa %xmm2, %xmm14
vpclmulqdq $1, %xmm0, %xmm6, %xmm2
vmovdqa %xmm3, %xmm10
vpclmulqdq $16, %xmm0, %xmm6, %xmm3
addq $16, %rcx
vpclmulqdq $17, %xmm0, %xmm6, %xmm0
vpxor %xmm2, %xmm3, %xmm2
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpsrldq $8, %xmm2, %xmm2
vpbroadcastq .LCPI2_22(%rip), %xmm4
vpclmulqdq $16, %xmm4, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm4, %xmm1, %xmm3
vpxor %xmm2, %xmm0, %xmm0
vmovdqa %xmm14, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm14
vmovdqa %xmm10, %xmm3
movq %rdx, %rsi
cmpq $16, %rdx
jb .LBB2_18
.LBB2_15:
vmovdqa %xmm2, 224(%rsp)
vmovdqa %xmm3, 240(%rsp)
vmovdqa %xmm5, %xmm11
vmovdqa .LCPI2_12(%rip), %xmm0
vpbroadcastq .LCPI2_22(%rip), %xmm10
.p2align 4, 0x90
.LBB2_16:
vmovdqu (%rcx), %xmm1
vpshufb %xmm0, %xmm1, %xmm1
vpxor %xmm1, %xmm14, %xmm1
vpclmulqdq $0, %xmm1, %xmm6, %xmm2
vpclmulqdq $1, %xmm1, %xmm6, %xmm3
vmovdqu 16(%rcx), %xmm4
vpclmulqdq $16, %xmm1, %xmm6, %xmm5
vpxor %xmm3, %xmm5, %xmm3
vpclmulqdq $17, %xmm1, %xmm6, %xmm1
vpslldq $8, %xmm3, %xmm5
vpxor %xmm5, %xmm2, %xmm2
vpsrldq $8, %xmm3, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpclmulqdq $16, %xmm10, %xmm2, %xmm3
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $16, %xmm10, %xmm2, %xmm3
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpshufb %xmm0, %xmm4, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $0, %xmm1, %xmm6, %xmm2
addq $32, %rcx
vpclmulqdq $1, %xmm1, %xmm6, %xmm3
addq $-32, %rsi
vpclmulqdq $16, %xmm1, %xmm6, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm6, %xmm1
vpslldq $8, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpsrldq $8, %xmm3, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpclmulqdq $16, %xmm10, %xmm2, %xmm3
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $16, %xmm10, %xmm2, %xmm3
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm14
cmpq $15, %rsi
ja .LBB2_16
movq %rsi, %rdx
vmovdqa %xmm11, %xmm5
vmovdqa 240(%rsp), %xmm3
vmovdqa 224(%rsp), %xmm2
testq %rdx, %rdx
jne .LBB2_24
.LBB2_19:
shlq $3, %r8
testq %r15, %r15
je .LBB2_39
movabsq $-68719476704, %rcx
leaq (%r15,%rcx), %rdx
incq %rcx
cmpq %rcx, %rdx
jb .LBB2_45
.LBB2_27:
movq 568(%rsp), %rax
cmpq $96, %r15
jb .LBB2_28
vpmovsxbq .LCPI2_23(%rip), %xmm7
movq %r15, %rbx
vmovdqa %xmm5, 336(%rsp)
vmovdqa %xmm3, 240(%rsp)
vmovdqa %xmm2, 224(%rsp)
.p2align 4, 0x90
.LBB2_32:
vmovdqa %xmm7, 64(%rsp)
vmovdqu (%r9), %xmm9
vmovdqa %xmm9, 368(%rsp)
vmovups 32(%r9), %xmm0
vmovaps %xmm0, 32(%rsp)
vmovdqu 48(%r9), %xmm11
vmovdqa %xmm11, 416(%rsp)
vmovdqu 64(%r9), %xmm4
vmovdqa %xmm4, 448(%rsp)
vmovdqu 80(%r9), %xmm8
vmovdqa %xmm8, 384(%rsp)
vmovdqa .LCPI2_12(%rip), %xmm12
vpshufb %xmm12, %xmm7, %xmm0
vpaddd .LCPI2_14(%rip), %xmm7, %xmm1
vpshufb %xmm12, %xmm1, %xmm1
vpaddd .LCPI2_1(%rip), %xmm7, %xmm2
vpshufb %xmm12, %xmm2, %xmm2
vpaddd .LCPI2_15(%rip), %xmm7, %xmm3
vpshufb %xmm12, %xmm3, %xmm3
vpaddd .LCPI2_2(%rip), %xmm7, %xmm5
vpshufb %xmm12, %xmm5, %xmm5
vpaddd .LCPI2_16(%rip), %xmm7, %xmm6
vpshufb %xmm12, %xmm6, %xmm6
vpshufb %xmm12, %xmm9, %xmm7
vpxor %xmm7, %xmm14, %xmm7
vmovdqa %xmm7, 432(%rsp)
vpshufb %xmm12, %xmm8, %xmm8
vpxor %xmm0, %xmm13, %xmm14
vpxor %xmm1, %xmm13, %xmm15
vpxor %xmm2, %xmm13, %xmm1
vpxor %xmm3, %xmm13, %xmm2
vpxor %xmm5, %xmm13, %xmm3
vpxor 80(%rsp), %xmm6, %xmm13
vmovaps 208(%rsp), %xmm0
#APP
vaesenc %xmm0, %xmm14, %xmm14
vaesenc %xmm0, %xmm15, %xmm15
vaesenc %xmm0, %xmm1, %xmm1
vaesenc %xmm0, %xmm2, %xmm2
vaesenc %xmm0, %xmm3, %xmm3
vaesenc %xmm0, %xmm13, %xmm13
#NO_APP
vpxor %xmm5, %xmm5, %xmm5
vpxor %xmm6, %xmm6, %xmm6
vpxor %xmm7, %xmm7, %xmm7
vmovaps 16(%rsp), %xmm9
vmovaps 192(%rsp), %xmm10
#APP
vaesenc %xmm10, %xmm14, %xmm14
vaesenc %xmm10, %xmm15, %xmm15
vaesenc %xmm10, %xmm1, %xmm1
vaesenc %xmm10, %xmm2, %xmm2
vaesenc %xmm10, %xmm3, %xmm3
vaesenc %xmm10, %xmm13, %xmm13
vpclmulqdq $16, %xmm9, %xmm8, %xmm0
vpxor %xmm0, %xmm7, %xmm7
vpclmulqdq $0, %xmm9, %xmm8, %xmm0
vpxor %xmm0, %xmm5, %xmm5
vpclmulqdq $17, %xmm9, %xmm8, %xmm0
vpxor %xmm0, %xmm6, %xmm6
vpclmulqdq $1, %xmm9, %xmm8, %xmm0
vpxor %xmm0, %xmm7, %xmm7
#NO_APP
vpshufb %xmm12, %xmm4, %xmm0
vmovaps 176(%rsp), %xmm4
#APP
vaesenc %xmm4, %xmm14, %xmm14
vaesenc %xmm4, %xmm15, %xmm15
vaesenc %xmm4, %xmm1, %xmm1
vaesenc %xmm4, %xmm2, %xmm2
vaesenc %xmm4, %xmm3, %xmm3
vaesenc %xmm4, %xmm13, %xmm13
#NO_APP
vmovaps 128(%rsp), %xmm9
vmovaps 336(%rsp), %xmm10
#APP
vaesenc %xmm9, %xmm14, %xmm14
vaesenc %xmm9, %xmm15, %xmm15
vaesenc %xmm9, %xmm1, %xmm1
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm9, %xmm13, %xmm13
vpclmulqdq $16, %xmm10, %xmm0, %xmm4
vpxor %xmm4, %xmm7, %xmm7
vpclmulqdq $0, %xmm10, %xmm0, %xmm4
vpxor %xmm4, %xmm5, %xmm5
vpclmulqdq $17, %xmm10, %xmm0, %xmm4
vpxor %xmm4, %xmm6, %xmm6
vpclmulqdq $1, %xmm10, %xmm0, %xmm4
vpxor %xmm4, %xmm7, %xmm7
#NO_APP
vpshufb %xmm12, %xmm11, %xmm0
vmovaps 144(%rsp), %xmm4
#APP
vaesenc %xmm4, %xmm14, %xmm14
vaesenc %xmm4, %xmm15, %xmm15
vaesenc %xmm4, %xmm1, %xmm1
vaesenc %xmm4, %xmm2, %xmm2
vaesenc %xmm4, %xmm3, %xmm3
vaesenc %xmm4, %xmm13, %xmm13
#NO_APP
vmovaps 400(%rsp), %xmm9
vmovdqa 112(%rsp), %xmm8
#APP
vaesenc %xmm8, %xmm14, %xmm14
vaesenc %xmm8, %xmm15, %xmm15
vaesenc %xmm8, %xmm1, %xmm1
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm8, %xmm3, %xmm3
vaesenc %xmm8, %xmm13, %xmm13
vpclmulqdq $16, %xmm9, %xmm0, %xmm4
vpxor %xmm4, %xmm7, %xmm7
vpclmulqdq $0, %xmm9, %xmm0, %xmm4
vpxor %xmm4, %xmm5, %xmm5
vpclmulqdq $17, %xmm9, %xmm0, %xmm4
vpxor %xmm4, %xmm6, %xmm6
vpclmulqdq $1, %xmm9, %xmm0, %xmm4
vpxor %xmm4, %xmm7, %xmm7
#NO_APP
vmovdqa 32(%rsp), %xmm0
vpshufb %xmm12, %xmm0, %xmm0
vmovaps 256(%rsp), %xmm4
#APP
vaesenc %xmm4, %xmm14, %xmm14
vaesenc %xmm4, %xmm15, %xmm15
vaesenc %xmm4, %xmm1, %xmm1
vaesenc %xmm4, %xmm2, %xmm2
vaesenc %xmm4, %xmm3, %xmm3
vaesenc %xmm4, %xmm13, %xmm13
#NO_APP
vmovaps 240(%rsp), %xmm9
vmovdqa 96(%rsp), %xmm11
#APP
vaesenc %xmm11, %xmm14, %xmm14
vaesenc %xmm11, %xmm15, %xmm15
vaesenc %xmm11, %xmm1, %xmm1
vaesenc %xmm11, %xmm2, %xmm2
vaesenc %xmm11, %xmm3, %xmm3
vaesenc %xmm11, %xmm13, %xmm13
vpclmulqdq $16, %xmm9, %xmm0, %xmm4
vpxor %xmm4, %xmm7, %xmm7
vpclmulqdq $0, %xmm9, %xmm0, %xmm4
vpxor %xmm4, %xmm5, %xmm5
vpclmulqdq $17, %xmm9, %xmm0, %xmm4
vpxor %xmm4, %xmm6, %xmm6
vpclmulqdq $1, %xmm9, %xmm0, %xmm4
vpxor %xmm4, %xmm7, %xmm7
#NO_APP
vmovdqu 16(%r9), %xmm0
vmovaps 48(%rsp), %xmm4
#APP
vaesenc %xmm4, %xmm14, %xmm14
vaesenc %xmm4, %xmm15, %xmm15
vaesenc %xmm4, %xmm1, %xmm1
vaesenc %xmm4, %xmm2, %xmm2
vaesenc %xmm4, %xmm3, %xmm3
vaesenc %xmm4, %xmm13, %xmm13
#NO_APP
vpshufb %xmm12, %xmm0, %xmm4
vmovaps 160(%rsp), %xmm10
vmovaps 224(%rsp), %xmm12
#APP
vaesenc %xmm10, %xmm14, %xmm14
vaesenc %xmm10, %xmm15, %xmm15
vaesenc %xmm10, %xmm1, %xmm1
vaesenc %xmm10, %xmm2, %xmm2
vaesenc %xmm10, %xmm3, %xmm3
vaesenc %xmm10, %xmm13, %xmm13
vpclmulqdq $16, %xmm12, %xmm4, %xmm9
vpxor %xmm7, %xmm9, %xmm7
vpclmulqdq $0, %xmm12, %xmm4, %xmm9
vpxor %xmm5, %xmm9, %xmm5
vpclmulqdq $17, %xmm12, %xmm4, %xmm9
vpxor %xmm6, %xmm9, %xmm6
vpclmulqdq $1, %xmm12, %xmm4, %xmm9
vpxor %xmm7, %xmm9, %xmm7
#NO_APP
vmovaps 320(%rsp), %xmm4
#APP
vaesenc %xmm4, %xmm14, %xmm14
vaesenc %xmm4, %xmm15, %xmm15
vaesenc %xmm4, %xmm1, %xmm1
vaesenc %xmm4, %xmm2, %xmm2
vaesenc %xmm4, %xmm3, %xmm3
vaesenc %xmm4, %xmm13, %xmm13
#NO_APP
vmovdqa 352(%rsp), %xmm9
vmovdqa 304(%rsp), %xmm10
vmovdqa 432(%rsp), %xmm12
#APP
vaesenc %xmm10, %xmm14, %xmm14
vaesenc %xmm10, %xmm15, %xmm15
vaesenc %xmm10, %xmm1, %xmm1
vaesenc %xmm10, %xmm2, %xmm2
vaesenc %xmm10, %xmm3, %xmm3
vaesenc %xmm10, %xmm13, %xmm13
vpclmulqdq $16, %xmm9, %xmm12, %xmm4
vpxor %xmm4, %xmm7, %xmm7
vpclmulqdq $0, %xmm9, %xmm12, %xmm4
vpxor %xmm4, %xmm5, %xmm5
vpclmulqdq $17, %xmm9, %xmm12, %xmm4
vpxor %xmm4, %xmm6, %xmm6
vpclmulqdq $1, %xmm9, %xmm12, %xmm4
vpxor %xmm4, %xmm7, %xmm7
#NO_APP
vpxor %xmm9, %xmm9, %xmm9
vpunpcklqdq %xmm7, %xmm9, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpunpckhqdq %xmm9, %xmm7, %xmm5
vmovdqa 64(%rsp), %xmm7
vpxor %xmm5, %xmm6, %xmm5
vpbroadcastq .LCPI2_22(%rip), %xmm9
vpclmulqdq $16, %xmm9, %xmm4, %xmm6
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm6, %xmm4
vpclmulqdq $16, %xmm9, %xmm4, %xmm6
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpxor %xmm6, %xmm4, %xmm5
vmovaps 288(%rsp), %xmm4
#APP
vaesenc %xmm4, %xmm14, %xmm14
vaesenc %xmm4, %xmm15, %xmm15
vaesenc %xmm4, %xmm1, %xmm1
vaesenc %xmm4, %xmm2, %xmm2
vaesenc %xmm4, %xmm3, %xmm3
vaesenc %xmm4, %xmm13, %xmm13
#NO_APP
vmovaps 272(%rsp), %xmm4
#APP
vaesenclast %xmm4, %xmm14, %xmm14
vaesenclast %xmm4, %xmm15, %xmm15
vaesenclast %xmm4, %xmm1, %xmm1
vaesenclast %xmm4, %xmm2, %xmm2
vaesenclast %xmm4, %xmm3, %xmm3
vaesenclast %xmm4, %xmm13, %xmm13
#NO_APP
vpxor 368(%rsp), %xmm14, %xmm4
vpxor %xmm0, %xmm15, %xmm0
vpxor 32(%rsp), %xmm1, %xmm1
vpxor 416(%rsp), %xmm2, %xmm2
vpxor 448(%rsp), %xmm3, %xmm3
vmovdqu %xmm4, (%rax)
vmovdqa %xmm5, %xmm14
vmovdqu %xmm0, 16(%rax)
vmovdqu %xmm1, 32(%rax)
vmovdqu %xmm2, 48(%rax)
vmovdqu %xmm3, 64(%rax)
vpxor 384(%rsp), %xmm13, %xmm0
vmovdqa 80(%rsp), %xmm13
vmovdqu %xmm0, 80(%rax)
addq $96, %r9
addq $96, %rax
addq $-96, %rbx
vpaddd .LCPI2_17(%rip), %xmm7, %xmm7
cmpq $95, %rbx
ja .LBB2_32
vpbroadcastq .LCPI2_22(%rip), %xmm1
vmovdqa 144(%rsp), %xmm5
vmovdqa 256(%rsp), %xmm11
vmovdqa 16(%rsp), %xmm6
cmpq $16, %rbx
jae .LBB2_34
.LBB2_30:
movq %rax, %r14
jmp .LBB2_36
.LBB2_28:
vpbroadcastq .LCPI2_22(%rip), %xmm1
movq %r15, %rbx
vmovdqa 144(%rsp), %xmm5
vmovdqa 256(%rsp), %xmm11
cmpq $16, %rbx
jb .LBB2_30
.LBB2_34:
vmovdqa 128(%rsp), %xmm0
vmovdqa 112(%rsp), %xmm9
vmovdqa 96(%rsp), %xmm10
vmovdqa 48(%rsp), %xmm12
vmovdqa .LCPI2_12(%rip), %xmm8
.p2align 4, 0x90
.LBB2_35:
vmovdqu (%r9), %xmm2
vpshufb %xmm8, %xmm2, %xmm3
vpxor %xmm3, %xmm14, %xmm3
vpclmulqdq $0, %xmm3, %xmm6, %xmm4
vmovdqa %xmm5, %xmm15
vpclmulqdq $1, %xmm3, %xmm6, %xmm5
vpclmulqdq $1, 16(%rsp), %xmm3, %xmm6
vpxor %xmm5, %xmm6, %xmm5
vpslldq $8, %xmm5, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vmovdqa 16(%rsp), %xmm6
vpclmulqdq $17, %xmm3, %xmm6, %xmm3
vpsrldq $8, %xmm5, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpclmulqdq $16, %xmm1, %xmm4, %xmm5
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpshufd $78, %xmm4, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vmovdqa %xmm15, %xmm5
vpclmulqdq $16, %xmm1, %xmm4, %xmm4
vpxor %xmm3, %xmm4, %xmm14
vpshufb %xmm8, %xmm7, %xmm3
vpxor %xmm3, %xmm13, %xmm3
vaesenc 208(%rsp), %xmm3, %xmm3
vaesenc 192(%rsp), %xmm3, %xmm3
vaesenc 176(%rsp), %xmm3, %xmm3
vaesenc %xmm0, %xmm3, %xmm3
vaesenc %xmm15, %xmm3, %xmm3
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm11, %xmm3, %xmm3
vaesenc %xmm10, %xmm3, %xmm3
vaesenc %xmm12, %xmm3, %xmm3
vaesenc 160(%rsp), %xmm3, %xmm3
vaesenc 320(%rsp), %xmm3, %xmm3
vaesenc 304(%rsp), %xmm3, %xmm3
vaesenc 288(%rsp), %xmm3, %xmm3
vaesenclast 272(%rsp), %xmm3, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vmovdqu %xmm2, (%rax)
leaq 16(%rax), %r14
addq $-16, %rbx
addq $16, %r9
vpaddd .LCPI2_14(%rip), %xmm7, %xmm7
movq %r14, %rax
cmpq $15, %rbx
ja .LBB2_35
.LBB2_36:
vmovdqa %xmm14, 32(%rsp)
testq %rbx, %rbx
je .LBB2_37
movq %r8, %r13
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, (%rsp)
movq %rsp, %rdi
movq memcpy@GOTPCREL(%rip), %rbp
movq %r9, %rsi
movq %rbx, %rdx
vmovdqa %xmm7, 64(%rsp)
callq *%rbp
vmovdqa (%rsp), %xmm1
vmovdqa 64(%rsp), %xmm0
vpshufb .LCPI2_12(%rip), %xmm0, %xmm0
vpxor 80(%rsp), %xmm0, %xmm0
vaesenc 208(%rsp), %xmm0, %xmm0
vaesenc 192(%rsp), %xmm0, %xmm0
vaesenc 176(%rsp), %xmm0, %xmm0
vaesenc 128(%rsp), %xmm0, %xmm0
vaesenc 144(%rsp), %xmm0, %xmm0
vaesenc 112(%rsp), %xmm0, %xmm0
vaesenc 256(%rsp), %xmm0, %xmm0
vaesenc 96(%rsp), %xmm0, %xmm0
vaesenc 48(%rsp), %xmm0, %xmm0
vaesenc 160(%rsp), %xmm0, %xmm0
vaesenc 320(%rsp), %xmm0, %xmm0
vaesenc 304(%rsp), %xmm0, %xmm0
vaesenc 288(%rsp), %xmm0, %xmm0
vaesenclast 272(%rsp), %xmm0, %xmm0
vmovdqa %xmm1, 384(%rsp)
vpxor %xmm1, %xmm0, %xmm0
vmovdqa %xmm0, 368(%rsp)
vmovdqa %xmm0, (%rsp)
movq %rsp, %rsi
movq %r14, %rdi
movq %rbx, %rdx
callq *%rbp
vmovups (%r12), %xmm0
vmovaps %xmm0, 64(%rsp)
testq %r15, %r15
je .LBB2_41
vmovaps 384(%rsp), %xmm0
vmovaps %xmm0, 464(%rsp)
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, (%rsp)
movq %rsp, %rdi
leaq 464(%rsp), %rsi
movq %rbx, %rdx
callq *memcpy@GOTPCREL(%rip)
vmovdqa (%rsp), %xmm0
movq %r13, %r8
jmp .LBB2_43
.LBB2_37:
vmovdqu (%r12), %xmm0
vmovdqa %xmm0, 64(%rsp)
vmovdqa 160(%rsp), %xmm4
vpbroadcastq .LCPI2_22(%rip), %xmm10
vmovdqa 208(%rsp), %xmm12
vmovdqa 192(%rsp), %xmm11
vmovdqa 176(%rsp), %xmm8
vmovdqa 128(%rsp), %xmm15
vmovdqa 112(%rsp), %xmm7
vmovdqa 96(%rsp), %xmm14
vmovdqa 48(%rsp), %xmm9
vmovdqa 32(%rsp), %xmm2
jmp .LBB2_44
.LBB2_46:
vpshufb .LCPI2_12(%rip), %xmm0, %xmm0
vpxor 32(%rsp), %xmm0, %xmm0
vmovdqa 16(%rsp), %xmm6
vpclmulqdq $0, %xmm0, %xmm6, %xmm1
vpclmulqdq $1, %xmm0, %xmm6, %xmm2
vpclmulqdq $16, %xmm0, %xmm6, %xmm3
vpclmulqdq $17, %xmm0, %xmm6, %xmm0
vpxor %xmm2, %xmm3, %xmm2
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpsrldq $8, %xmm2, %xmm2
vpbroadcastq .LCPI2_22(%rip), %xmm10
vpclmulqdq $16, %xmm10, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm10, %xmm1, %xmm3
vpxor %xmm2, %xmm0, %xmm0
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm14
vmovdqa 80(%rsp), %xmm13
vmovdqa 48(%rsp), %xmm9
.LBB2_39:
vmovdqu (%r12), %xmm0
vmovdqa %xmm0, 64(%rsp)
vmovdqa %xmm14, %xmm2
vmovdqa 160(%rsp), %xmm4
vmovdqa 144(%rsp), %xmm5
vmovdqa 112(%rsp), %xmm7
vmovdqa 96(%rsp), %xmm14
vpbroadcastq .LCPI2_22(%rip), %xmm10
vmovdqa 208(%rsp), %xmm12
vmovdqa 192(%rsp), %xmm11
vmovdqa 176(%rsp), %xmm8
vmovdqa 128(%rsp), %xmm15
jmp .LBB2_44
.LBB2_41:
movq %r13, %r8
vmovdqa 368(%rsp), %xmm0
.LBB2_43:
vpshufb .LCPI2_12(%rip), %xmm0, %xmm0
vpxor 32(%rsp), %xmm0, %xmm0
vmovdqa 16(%rsp), %xmm6
vpclmulqdq $0, %xmm0, %xmm6, %xmm1
vpclmulqdq $1, %xmm0, %xmm6, %xmm2
vpclmulqdq $16, %xmm0, %xmm6, %xmm3
vpclmulqdq $17, %xmm0, %xmm6, %xmm0
vpxor %xmm2, %xmm3, %xmm2
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpsrldq $8, %xmm2, %xmm2
vpbroadcastq .LCPI2_22(%rip), %xmm10
vpclmulqdq $16, %xmm10, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm10, %xmm1, %xmm3
vpxor %xmm2, %xmm0, %xmm0
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm2
vmovdqa 80(%rsp), %xmm13
vmovdqa 208(%rsp), %xmm12
vmovdqa 192(%rsp), %xmm11
vmovdqa 176(%rsp), %xmm8
vmovdqa 128(%rsp), %xmm15
vmovdqa 144(%rsp), %xmm5
vmovdqa 112(%rsp), %xmm7
vmovdqa 96(%rsp), %xmm14
vmovdqa 48(%rsp), %xmm9
vmovdqa 160(%rsp), %xmm4
.LBB2_44:
shlq $3, %r15
vmovq %r8, %xmm0
vmovq %r15, %xmm1
vpunpcklqdq %xmm0, %xmm1, %xmm0
vpxor %xmm2, %xmm0, %xmm0
vpclmulqdq $0, %xmm0, %xmm6, %xmm1
vpclmulqdq $1, %xmm0, %xmm6, %xmm2
vpclmulqdq $16, %xmm0, %xmm6, %xmm3
vpclmulqdq $17, %xmm0, %xmm6, %xmm0
vpxor %xmm2, %xmm3, %xmm2
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpclmulqdq $16, %xmm10, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm10, %xmm1, %xmm3
vpxor %xmm0, %xmm3, %xmm0
vpxor .LCPI2_18(%rip), %xmm13, %xmm3
vaesenc %xmm12, %xmm3, %xmm3
vaesenc %xmm11, %xmm3, %xmm3
vaesenc %xmm8, %xmm3, %xmm3
vaesenc %xmm15, %xmm3, %xmm3
vaesenc %xmm5, %xmm3, %xmm3
vaesenc %xmm7, %xmm3, %xmm3
vaesenc 256(%rsp), %xmm3, %xmm3
vaesenc %xmm14, %xmm3, %xmm3
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm4, %xmm3, %xmm3
vaesenc 320(%rsp), %xmm3, %xmm3
vaesenc 304(%rsp), %xmm3, %xmm3
vaesenc 288(%rsp), %xmm3, %xmm3
vaesenclast 272(%rsp), %xmm3, %xmm3
vpshufb .LCPI2_19(%rip), %xmm2, %xmm2
vpshufb .LCPI2_20(%rip), %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpxor 64(%rsp), %xmm1, %xmm1
vpshufb .LCPI2_12(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpxor %xmm3, %xmm0, %xmm0
xorl %eax, %eax
vptest %xmm0, %xmm0
sete %al
.LBB2_45:
addq $488, %rsp
.cfi_def_cfa_offset 56
popq %rbx
.cfi_def_cfa_offset 48
popq %r12
.cfi_def_cfa_offset 40
popq %r13
.cfi_def_cfa_offset 32
popq %r14
.cfi_def_cfa_offset 24
popq %r15
.cfi_def_cfa_offset 16
popq %rbp
.cfi_def_cfa_offset 8
retq
.Lfunc_end2:
.size haberdashery_aes256gcmdndk_haswell_decrypt, .Lfunc_end2-haberdashery_aes256gcmdndk_haswell_decrypt
.cfi_endproc
.section .text.haberdashery_aes256gcmdndk_haswell_is_supported,"ax",@progbits
.globl haberdashery_aes256gcmdndk_haswell_is_supported
.p2align 4, 0x90
.type haberdashery_aes256gcmdndk_haswell_is_supported,@function
haberdashery_aes256gcmdndk_haswell_is_supported:
.cfi_startproc
movl $1, %eax
xorl %ecx, %ecx
#APP
movq %rbx, %rsi
cpuid
xchgq %rbx, %rsi
#NO_APP
movl %ecx, %esi
movl %edx, %edi
notl %edi
notl %esi
movl $7, %eax
xorl %ecx, %ecx
#APP
movq %rbx, %r8
cpuid
xchgq %rbx, %r8
#NO_APP
andl $1993871875, %esi
andl $125829120, %edi
orl %esi, %edi
notl %r8d
andl $297, %r8d
xorl %eax, %eax
orl %edi, %r8d
sete %al
retq
.Lfunc_end3:
.size haberdashery_aes256gcmdndk_haswell_is_supported, .Lfunc_end3-haberdashery_aes256gcmdndk_haswell_is_supported
.cfi_endproc
.ident "rustc version 1.86.0-nightly (9cd60bd2c 2025-02-15)"
.section ".note.GNU-stack","",@progbits
|
ts-phantomnk90/haberdashery
| 63,656
|
asm/aes256gcm_streaming_tigerlake.s
|
# @generated
# https://github.com/facebookincubator/haberdashery/
.text
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI0_0:
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.LCPI0_9:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI0_1:
.quad 4294967297
.LCPI0_8:
.quad 274877907008
.LCPI0_10:
.quad -4467570830351532032
.section .rodata.cst4,"aM",@progbits,4
.p2align 2, 0x0
.LCPI0_2:
.long 0x00000002
.LCPI0_3:
.long 0x0c0f0e0d
.LCPI0_4:
.long 0x00000004
.LCPI0_5:
.long 0x00000008
.LCPI0_6:
.long 0x00000010
.LCPI0_7:
.long 0x00000020
.section .text.haberdashery_aes256gcm_streaming_tigerlake_init_key,"ax",@progbits
.globl haberdashery_aes256gcm_streaming_tigerlake_init_key
.p2align 4, 0x90
.type haberdashery_aes256gcm_streaming_tigerlake_init_key,@function
haberdashery_aes256gcm_streaming_tigerlake_init_key:
.cfi_startproc
cmpq $32, %rdx
jne .LBB0_2
vmovupd (%rsi), %xmm16
vmovdqu 16(%rsi), %xmm1
vpslldq $4, %xmm16, %xmm0
vpslldq $8, %xmm16, %xmm2
vpslldq $12, %xmm16, %xmm3
vpternlogq $150, %xmm2, %xmm0, %xmm3
vpbroadcastd .LCPI0_3(%rip), %xmm17
vpshufb %xmm17, %xmm1, %xmm0
vpbroadcastq .LCPI0_1(%rip), %xmm2
vaesenclast %xmm2, %xmm0, %xmm2
vpternlogq $150, %xmm3, %xmm16, %xmm2
vaesenc %xmm1, %xmm16, %xmm0
vpslldq $4, %xmm1, %xmm3
vpslldq $8, %xmm1, %xmm4
vpslldq $12, %xmm1, %xmm5
vpternlogq $150, %xmm4, %xmm3, %xmm5
vpshufd $255, %xmm2, %xmm3
vpxor %xmm15, %xmm15, %xmm15
vaesenclast %xmm15, %xmm3, %xmm3
vbroadcastss .LCPI0_2(%rip), %xmm6
vpternlogq $150, %xmm5, %xmm1, %xmm3
vbroadcastss .LCPI0_3(%rip), %xmm13
#APP
vaesenc %xmm2, %xmm0, %xmm0
vpslldq $4, %xmm2, %xmm5
vpslldq $8, %xmm2, %xmm7
vpslldq $12, %xmm2, %xmm8
vpternlogq $150, %xmm5, %xmm7, %xmm8
vpshufb %xmm13, %xmm3, %xmm4
vaesenclast %xmm6, %xmm4, %xmm4
vpternlogq $150, %xmm2, %xmm8, %xmm4
#NO_APP
vbroadcastss .LCPI0_4(%rip), %xmm7
#APP
vaesenc %xmm3, %xmm0, %xmm0
vpslldq $4, %xmm3, %xmm6
vpslldq $8, %xmm3, %xmm8
vpslldq $12, %xmm3, %xmm9
vpternlogq $150, %xmm6, %xmm8, %xmm9
vpshufd $255, %xmm4, %xmm5
vaesenclast %xmm15, %xmm5, %xmm5
vpternlogq $150, %xmm3, %xmm9, %xmm5
#NO_APP
#APP
vaesenc %xmm4, %xmm0, %xmm0
vpslldq $4, %xmm4, %xmm8
vpslldq $8, %xmm4, %xmm9
vpslldq $12, %xmm4, %xmm10
vpternlogq $150, %xmm8, %xmm9, %xmm10
vpshufb %xmm13, %xmm5, %xmm6
vaesenclast %xmm7, %xmm6, %xmm6
vpternlogq $150, %xmm4, %xmm10, %xmm6
#NO_APP
vmovaps %xmm4, %xmm21
#APP
vaesenc %xmm5, %xmm0, %xmm0
vpslldq $4, %xmm5, %xmm8
vpslldq $8, %xmm5, %xmm9
vpslldq $12, %xmm5, %xmm10
vpternlogq $150, %xmm8, %xmm9, %xmm10
vpshufd $255, %xmm6, %xmm7
vaesenclast %xmm15, %xmm7, %xmm7
vpternlogq $150, %xmm5, %xmm10, %xmm7
#NO_APP
vmovaps %xmm5, %xmm22
vbroadcastss .LCPI0_5(%rip), %xmm9
#APP
vaesenc %xmm6, %xmm0, %xmm0
vpslldq $4, %xmm6, %xmm10
vpslldq $8, %xmm6, %xmm11
vpslldq $12, %xmm6, %xmm12
vpternlogq $150, %xmm10, %xmm11, %xmm12
vpshufb %xmm13, %xmm7, %xmm8
vaesenclast %xmm9, %xmm8, %xmm8
vpternlogq $150, %xmm6, %xmm12, %xmm8
#NO_APP
vmovaps %xmm6, %xmm23
#APP
vaesenc %xmm7, %xmm0, %xmm0
vpslldq $4, %xmm7, %xmm10
vpslldq $8, %xmm7, %xmm11
vpslldq $12, %xmm7, %xmm12
vpternlogq $150, %xmm10, %xmm11, %xmm12
vpshufd $255, %xmm8, %xmm9
vaesenclast %xmm15, %xmm9, %xmm9
vpternlogq $150, %xmm7, %xmm12, %xmm9
#NO_APP
vbroadcastss .LCPI0_6(%rip), %xmm11
#APP
vaesenc %xmm8, %xmm0, %xmm0
vpslldq $4, %xmm8, %xmm12
vpslldq $8, %xmm8, %xmm14
vpslldq $12, %xmm8, %xmm4
vpternlogq $150, %xmm12, %xmm14, %xmm4
vpshufb %xmm13, %xmm9, %xmm10
vaesenclast %xmm11, %xmm10, %xmm10
vpternlogq $150, %xmm8, %xmm4, %xmm10
#NO_APP
vbroadcastss .LCPI0_7(%rip), %xmm4
#APP
vaesenc %xmm9, %xmm0, %xmm0
vpslldq $4, %xmm9, %xmm12
vpslldq $8, %xmm9, %xmm14
vpslldq $12, %xmm9, %xmm5
vpternlogq $150, %xmm12, %xmm14, %xmm5
vpshufd $255, %xmm10, %xmm11
vaesenclast %xmm15, %xmm11, %xmm11
vpternlogq $150, %xmm9, %xmm5, %xmm11
#NO_APP
#APP
vaesenc %xmm10, %xmm0, %xmm0
vpslldq $4, %xmm10, %xmm5
vpslldq $8, %xmm10, %xmm14
vpslldq $12, %xmm10, %xmm6
vpternlogq $150, %xmm5, %xmm14, %xmm6
vpshufb %xmm13, %xmm11, %xmm12
vaesenclast %xmm4, %xmm12, %xmm12
vpternlogq $150, %xmm10, %xmm6, %xmm12
#NO_APP
vpslldq $4, %xmm11, %xmm4
vpunpcklqdq %xmm11, %xmm15, %xmm5
vinsertps $55, %xmm11, %xmm0, %xmm6
vpternlogq $150, %xmm5, %xmm4, %xmm6
vpshufd $255, %xmm12, %xmm4
vaesenclast %xmm15, %xmm4, %xmm13
vpternlogq $150, %xmm6, %xmm11, %xmm13
vpslldq $4, %xmm12, %xmm4
vpunpcklqdq %xmm12, %xmm15, %xmm5
vinsertps $55, %xmm12, %xmm0, %xmm6
vpternlogq $150, %xmm5, %xmm4, %xmm6
vpshufb %xmm17, %xmm13, %xmm4
vpbroadcastq .LCPI0_8(%rip), %xmm5
vaesenclast %xmm5, %xmm4, %xmm14
vpternlogq $150, %xmm6, %xmm12, %xmm14
vaesenc %xmm11, %xmm0, %xmm0
vaesenc %xmm12, %xmm0, %xmm0
vaesenc %xmm13, %xmm0, %xmm0
vaesenclast %xmm14, %xmm0, %xmm0
vpshufb .LCPI0_9(%rip), %xmm0, %xmm0
vpsrlq $63, %xmm0, %xmm4
vpaddq %xmm0, %xmm0, %xmm0
vpshufd $78, %xmm4, %xmm5
vpblendd $12, %xmm4, %xmm15, %xmm4
vpsllq $63, %xmm4, %xmm6
vpternlogq $30, %xmm5, %xmm0, %xmm6
vpsllq $62, %xmm4, %xmm5
vpsllq $57, %xmm4, %xmm0
vpternlogq $150, %xmm5, %xmm6, %xmm0
vpbroadcastq .LCPI0_10(%rip), %xmm4
vpclmulqdq $0, %xmm0, %xmm0, %xmm5
vpclmulqdq $16, %xmm4, %xmm5, %xmm6
vpshufd $78, %xmm5, %xmm5
vpxor %xmm5, %xmm6, %xmm5
vpclmulqdq $16, %xmm4, %xmm5, %xmm6
vpclmulqdq $17, %xmm0, %xmm0, %xmm17
vpshufd $78, %xmm5, %xmm15
vpternlogq $150, %xmm6, %xmm17, %xmm15
vpclmulqdq $0, %xmm0, %xmm15, %xmm5
vpclmulqdq $16, %xmm0, %xmm15, %xmm6
vpclmulqdq $1, %xmm0, %xmm15, %xmm17
vpxorq %xmm6, %xmm17, %xmm6
vpslldq $8, %xmm6, %xmm17
vpxorq %xmm17, %xmm5, %xmm5
vpclmulqdq $16, %xmm4, %xmm5, %xmm17
vpshufd $78, %xmm5, %xmm5
vpxorq %xmm5, %xmm17, %xmm5
vpclmulqdq $16, %xmm4, %xmm5, %xmm17
vpclmulqdq $17, %xmm0, %xmm15, %xmm18
vpxorq %xmm17, %xmm18, %xmm17
vpsrldq $8, %xmm6, %xmm6
vpshufd $78, %xmm5, %xmm5
vpternlogq $150, %xmm6, %xmm17, %xmm5
vpclmulqdq $0, %xmm5, %xmm5, %xmm6
vpclmulqdq $16, %xmm4, %xmm6, %xmm17
vpshufd $78, %xmm6, %xmm6
vpxorq %xmm6, %xmm17, %xmm6
vpclmulqdq $16, %xmm4, %xmm6, %xmm17
vpclmulqdq $17, %xmm5, %xmm5, %xmm18
vpshufd $78, %xmm6, %xmm6
vpternlogq $150, %xmm17, %xmm18, %xmm6
vpclmulqdq $0, %xmm15, %xmm15, %xmm17
vpclmulqdq $16, %xmm4, %xmm17, %xmm18
vpshufd $78, %xmm17, %xmm17
vpxorq %xmm17, %xmm18, %xmm17
vpclmulqdq $16, %xmm4, %xmm17, %xmm18
vpclmulqdq $17, %xmm15, %xmm15, %xmm19
vpshufd $78, %xmm17, %xmm17
vpternlogq $150, %xmm18, %xmm19, %xmm17
vpclmulqdq $0, %xmm0, %xmm17, %xmm18
vpclmulqdq $16, %xmm0, %xmm17, %xmm19
vpclmulqdq $1, %xmm0, %xmm17, %xmm20
vpxorq %xmm19, %xmm20, %xmm19
vpslldq $8, %xmm19, %xmm20
vpxorq %xmm20, %xmm18, %xmm18
vpclmulqdq $16, %xmm4, %xmm18, %xmm20
vpshufd $78, %xmm18, %xmm18
vpxorq %xmm18, %xmm20, %xmm18
vpclmulqdq $16, %xmm4, %xmm18, %xmm4
vpclmulqdq $17, %xmm0, %xmm17, %xmm20
vpxorq %xmm4, %xmm20, %xmm4
vpsrldq $8, %xmm19, %xmm19
vpshufd $78, %xmm18, %xmm18
vpternlogq $150, %xmm19, %xmm4, %xmm18
vmovdqa64 %xmm16, (%rdi)
vmovdqa %xmm1, 16(%rdi)
vmovdqa %xmm2, 32(%rdi)
vmovdqa %xmm3, 48(%rdi)
vmovaps %xmm21, 64(%rdi)
vmovaps %xmm22, 80(%rdi)
vmovaps %xmm23, 96(%rdi)
vmovaps %xmm7, 112(%rdi)
vmovaps %xmm8, 128(%rdi)
vmovaps %xmm9, 144(%rdi)
vmovaps %xmm10, 160(%rdi)
vmovaps %xmm11, 176(%rdi)
vmovaps %xmm12, 192(%rdi)
vmovdqa %xmm13, 208(%rdi)
vmovdqa %xmm14, 224(%rdi)
vmovdqa %xmm0, 240(%rdi)
vmovdqa %xmm15, 256(%rdi)
vmovdqa %xmm5, 272(%rdi)
vmovdqa64 %xmm17, 288(%rdi)
vmovdqa64 %xmm18, 304(%rdi)
vmovdqa %xmm6, 320(%rdi)
.LBB0_2:
xorl %eax, %eax
cmpq $32, %rdx
sete %al
retq
.Lfunc_end0:
.size haberdashery_aes256gcm_streaming_tigerlake_init_key, .Lfunc_end0-haberdashery_aes256gcm_streaming_tigerlake_init_key
.cfi_endproc
.section .text.haberdashery_aes256gcm_streaming_tigerlake_is_supported,"ax",@progbits
.globl haberdashery_aes256gcm_streaming_tigerlake_is_supported
.p2align 4, 0x90
.type haberdashery_aes256gcm_streaming_tigerlake_is_supported,@function
haberdashery_aes256gcm_streaming_tigerlake_is_supported:
.cfi_startproc
xorl %esi, %esi
movl $1, %eax
xorl %ecx, %ecx
#APP
movq %rbx, %rdi
cpuid
xchgq %rbx, %rdi
#NO_APP
movl %ecx, %edi
movl %edx, %r8d
notl %r8d
notl %edi
xorl %ecx, %ecx
movl $7, %eax
#APP
movq %rbx, %r9
cpuid
xchgq %rbx, %r9
#NO_APP
andl $1993871875, %edi
andl $125829120, %r8d
orl %edi, %r8d
jne .LBB1_3
notl %r9d
andl $-240189143, %r9d
notl %ecx
andl $415260490, %ecx
orl %r9d, %ecx
jne .LBB1_3
shrl $8, %edx
andl $1, %edx
movl %edx, %esi
.LBB1_3:
movl %esi, %eax
retq
.Lfunc_end1:
.size haberdashery_aes256gcm_streaming_tigerlake_is_supported, .Lfunc_end1-haberdashery_aes256gcm_streaming_tigerlake_is_supported
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI2_0:
.byte 15
.byte 128
.byte 128
.byte 128
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI2_1:
.long 1
.long 0
.long 0
.long 0
.section .text.haberdashery_aes256gcm_streaming_tigerlake_init_state,"ax",@progbits
.globl haberdashery_aes256gcm_streaming_tigerlake_init_state
.p2align 4, 0x90
.type haberdashery_aes256gcm_streaming_tigerlake_init_state,@function
haberdashery_aes256gcm_streaming_tigerlake_init_state:
.cfi_startproc
cmpq $12, %rcx
jne .LBB2_2
vmovd (%rdx), %xmm0
vpinsrd $1, 4(%rdx), %xmm0, %xmm0
vpinsrd $2, 8(%rdx), %xmm0, %xmm0
movl $16777216, %eax
vpinsrd $3, %eax, %xmm0, %xmm0
vpshufb .LCPI2_0(%rip), %xmm0, %xmm1
vpaddd .LCPI2_1(%rip), %xmm1, %xmm1
vxorps %xmm2, %xmm2, %xmm2
vmovups %ymm2, -56(%rsp)
vmovups %ymm2, -88(%rsp)
movq $0, -24(%rsp)
vxorps %xmm2, %xmm2, %xmm2
vmovaps %xmm2, (%rdi)
vmovdqa %xmm0, 16(%rdi)
vmovdqa %xmm1, 32(%rdi)
vmovups -56(%rsp), %ymm0
vmovups -40(%rsp), %xmm1
movq -24(%rsp), %rax
movq -16(%rsp), %rdx
vmovups %ymm0, 48(%rdi)
vmovups %xmm1, 64(%rdi)
movq %rax, 80(%rdi)
movq %rdx, 88(%rdi)
vmovaps %xmm2, 96(%rdi)
.LBB2_2:
xorl %eax, %eax
cmpq $12, %rcx
sete %al
vzeroupper
retq
.Lfunc_end2:
.size haberdashery_aes256gcm_streaming_tigerlake_init_state, .Lfunc_end2-haberdashery_aes256gcm_streaming_tigerlake_init_state
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI3_0:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI3_1:
.quad -4467570830351532032
.section .text.haberdashery_aes256gcm_streaming_tigerlake_aad_update,"ax",@progbits
.globl haberdashery_aes256gcm_streaming_tigerlake_aad_update
.p2align 4, 0x90
.type haberdashery_aes256gcm_streaming_tigerlake_aad_update,@function
haberdashery_aes256gcm_streaming_tigerlake_aad_update:
.cfi_startproc
movabsq $-2305843009213693951, %rax
leaq (%rcx,%rax), %r8
incq %rax
cmpq %rax, %r8
jae .LBB3_3
xorl %eax, %eax
retq
.LBB3_3:
pushq %rbp
.cfi_def_cfa_offset 16
pushq %r15
.cfi_def_cfa_offset 24
pushq %r14
.cfi_def_cfa_offset 32
pushq %r13
.cfi_def_cfa_offset 40
pushq %r12
.cfi_def_cfa_offset 48
pushq %rbx
.cfi_def_cfa_offset 56
subq $24, %rsp
.cfi_def_cfa_offset 80
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
.cfi_offset %rbp, -16
movq 96(%rdi), %rbx
addq %rcx, %rbx
xorl %eax, %eax
movabsq $2305843009213693950, %r8
cmpq %r8, %rbx
ja .LBB3_25
cmpq $0, 104(%rdi)
jne .LBB3_25
movq 80(%rdi), %r8
testq %r8, %r8
je .LBB3_6
leaq (%r8,%rcx), %r14
cmpq $15, %r14
ja .LBB3_9
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, (%rsp)
leaq (%rsp,%r8), %rax
movq %rdi, %r15
movq %rax, %rdi
movq %rdx, %rsi
movq %rcx, %rdx
movq %rcx, %r12
callq *memcpy@GOTPCREL(%rip)
movq %r15, %rdi
movq %r12, %rcx
vmovdqa 64(%r15), %xmm0
vpxor (%rsp), %xmm0, %xmm0
vmovdqa %xmm0, 64(%r15)
movq %r14, 80(%r15)
jmp .LBB3_24
.LBB3_6:
movq %rcx, %r14
cmpq $96, %r14
jae .LBB3_11
jmp .LBB3_14
.LBB3_9:
vmovaps 64(%rdi), %xmm0
vmovaps %xmm0, (%rsp)
movl $16, %eax
subq %r8, %rax
addq %rsp, %r8
leaq (%rdx,%rax), %r15
movq %rcx, %r14
subq %rax, %r14
movq %rdi, %r12
movq %r8, %rdi
movq %rsi, %r13
movq %rdx, %rsi
movq %rax, %rdx
movq %rcx, %rbp
callq *memcpy@GOTPCREL(%rip)
movq %r13, %rsi
movq %r12, %rdi
movq %rbp, %rcx
vmovdqa (%rsp), %xmm0
vmovdqa 240(%r13), %xmm1
movq $0, 80(%r12)
vpshufb .LCPI3_0(%rip), %xmm0, %xmm0
vpxor (%r12), %xmm0, %xmm0
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpbroadcastq .LCPI3_1(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm1, %xmm4
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm3
vpxor %xmm0, %xmm3, %xmm0
vpshufd $78, %xmm1, %xmm1
vpternlogq $150, %xmm2, %xmm0, %xmm1
vmovdqa %xmm1, (%r12)
movq %r15, %rdx
cmpq $96, %r14
jb .LBB3_14
.LBB3_11:
vmovdqa (%rdi), %xmm8
vmovdqa 240(%rsi), %xmm0
vmovdqa 256(%rsi), %xmm1
vmovdqa 272(%rsi), %xmm2
vmovdqa 288(%rsi), %xmm3
vmovdqa 304(%rsi), %xmm4
vmovdqa 320(%rsi), %xmm5
vmovdqa .LCPI3_0(%rip), %xmm6
vpbroadcastq .LCPI3_1(%rip), %xmm7
.p2align 4, 0x90
.LBB3_12:
vmovdqu (%rdx), %xmm9
vmovdqu 16(%rdx), %xmm10
vmovdqu 32(%rdx), %xmm11
vmovdqu 48(%rdx), %xmm12
vmovdqu 64(%rdx), %xmm13
vmovdqu 80(%rdx), %xmm14
addq $96, %rdx
addq $-96, %r14
vpshufb %xmm6, %xmm9, %xmm9
vpxor %xmm9, %xmm8, %xmm8
vpshufb %xmm6, %xmm10, %xmm9
vpshufb %xmm6, %xmm11, %xmm10
vpshufb %xmm6, %xmm12, %xmm11
vpshufb %xmm6, %xmm13, %xmm12
vpshufb %xmm6, %xmm14, %xmm13
vpclmulqdq $0, %xmm13, %xmm0, %xmm14
vpclmulqdq $1, %xmm13, %xmm0, %xmm15
vpclmulqdq $16, %xmm13, %xmm0, %xmm16
vpxorq %xmm15, %xmm16, %xmm15
vpclmulqdq $17, %xmm13, %xmm0, %xmm13
vpclmulqdq $0, %xmm12, %xmm1, %xmm16
vpclmulqdq $1, %xmm12, %xmm1, %xmm17
vpclmulqdq $16, %xmm12, %xmm1, %xmm18
vpternlogq $150, %xmm17, %xmm15, %xmm18
vpclmulqdq $17, %xmm12, %xmm1, %xmm12
vpclmulqdq $0, %xmm11, %xmm2, %xmm15
vpternlogq $150, %xmm14, %xmm16, %xmm15
vpclmulqdq $1, %xmm11, %xmm2, %xmm14
vpclmulqdq $16, %xmm11, %xmm2, %xmm16
vpternlogq $150, %xmm14, %xmm18, %xmm16
vpclmulqdq $17, %xmm11, %xmm2, %xmm11
vpternlogq $150, %xmm13, %xmm12, %xmm11
vpclmulqdq $0, %xmm10, %xmm3, %xmm12
vpclmulqdq $1, %xmm10, %xmm3, %xmm13
vpclmulqdq $16, %xmm10, %xmm3, %xmm14
vpternlogq $150, %xmm13, %xmm16, %xmm14
vpclmulqdq $17, %xmm10, %xmm3, %xmm10
vpclmulqdq $0, %xmm9, %xmm4, %xmm13
vpternlogq $150, %xmm12, %xmm15, %xmm13
vpclmulqdq $1, %xmm9, %xmm4, %xmm12
vpclmulqdq $16, %xmm9, %xmm4, %xmm15
vpternlogq $150, %xmm12, %xmm14, %xmm15
vpclmulqdq $17, %xmm9, %xmm4, %xmm9
vpternlogq $150, %xmm10, %xmm11, %xmm9
vpclmulqdq $0, %xmm8, %xmm5, %xmm10
vpclmulqdq $1, %xmm8, %xmm5, %xmm11
vpclmulqdq $16, %xmm8, %xmm5, %xmm12
vpternlogq $150, %xmm11, %xmm15, %xmm12
vpclmulqdq $17, %xmm8, %xmm5, %xmm8
vpslldq $8, %xmm12, %xmm11
vpternlogq $150, %xmm10, %xmm13, %xmm11
vpsrldq $8, %xmm12, %xmm10
vpclmulqdq $16, %xmm7, %xmm11, %xmm12
vpshufd $78, %xmm11, %xmm11
vpxor %xmm11, %xmm12, %xmm11
vpclmulqdq $16, %xmm7, %xmm11, %xmm12
vpternlogq $150, %xmm8, %xmm9, %xmm12
vpshufd $78, %xmm11, %xmm8
vpternlogq $150, %xmm10, %xmm12, %xmm8
cmpq $95, %r14
ja .LBB3_12
vmovdqa %xmm8, (%rdi)
.LBB3_14:
cmpq $16, %r14
jae .LBB3_15
testq %r14, %r14
je .LBB3_24
.LBB3_23:
movl $-1, %eax
bzhil %r14d, %eax, %eax
kmovd %eax, %k1
vmovdqu8 (%rdx), %xmm0 {%k1} {z}
vpxor %xmm1, %xmm1, %xmm1
vmovdqa %xmm1, 48(%rdi)
vmovdqa %xmm0, 64(%rdi)
movq %r14, 80(%rdi)
.LBB3_24:
movq %rbx, 96(%rdi)
movq %rcx, %rax
.LBB3_25:
addq $24, %rsp
.cfi_def_cfa_offset 56
popq %rbx
.cfi_def_cfa_offset 48
popq %r12
.cfi_def_cfa_offset 40
popq %r13
.cfi_def_cfa_offset 32
popq %r14
.cfi_def_cfa_offset 24
popq %r15
.cfi_def_cfa_offset 16
popq %rbp
.cfi_def_cfa_offset 8
.cfi_restore %rbx
.cfi_restore %r12
.cfi_restore %r13
.cfi_restore %r14
.cfi_restore %r15
.cfi_restore %rbp
retq
.LBB3_15:
.cfi_def_cfa_offset 80
.cfi_offset %rbx, -56
.cfi_offset %rbp, -16
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
vmovdqa (%rdi), %xmm1
vmovdqa 240(%rsi), %xmm0
leaq -16(%r14), %rax
testb $16, %al
jne .LBB3_17
vmovdqu (%rdx), %xmm2
addq $16, %rdx
vpshufb .LCPI3_0(%rip), %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
vpslldq $8, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpsrldq $8, %xmm3, %xmm3
vpbroadcastq .LCPI3_1(%rip), %xmm4
vpclmulqdq $16, %xmm4, %xmm2, %xmm5
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm5, %xmm2
vpclmulqdq $16, %xmm4, %xmm2, %xmm4
vpxor %xmm1, %xmm4, %xmm4
vpshufd $78, %xmm2, %xmm1
vpternlogq $150, %xmm3, %xmm4, %xmm1
movq %rax, %r14
.LBB3_17:
cmpq $16, %rax
jb .LBB3_21
vmovdqa .LCPI3_0(%rip), %xmm2
vpbroadcastq .LCPI3_1(%rip), %xmm3
.p2align 4, 0x90
.LBB3_19:
vmovdqu (%rdx), %xmm4
vmovdqu 16(%rdx), %xmm5
vpshufb %xmm2, %xmm4, %xmm4
vpxor %xmm4, %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm4
vpclmulqdq $1, %xmm1, %xmm0, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm7
vpxor %xmm6, %xmm7, %xmm6
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
vpslldq $8, %xmm6, %xmm7
vpxor %xmm7, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm4, %xmm7
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm7, %xmm4
vpclmulqdq $16, %xmm3, %xmm4, %xmm7
vpternlogq $150, %xmm1, %xmm6, %xmm7
vpshufd $78, %xmm4, %xmm1
addq $32, %rdx
addq $-32, %r14
vpshufb %xmm2, %xmm5, %xmm4
vpternlogq $150, %xmm1, %xmm7, %xmm4
vpclmulqdq $0, %xmm4, %xmm0, %xmm1
vpclmulqdq $1, %xmm4, %xmm0, %xmm5
vpclmulqdq $16, %xmm4, %xmm0, %xmm6
vpxor %xmm5, %xmm6, %xmm5
vpclmulqdq $17, %xmm4, %xmm0, %xmm4
vpslldq $8, %xmm5, %xmm6
vpxor %xmm6, %xmm1, %xmm1
vpsrldq $8, %xmm5, %xmm5
vpclmulqdq $16, %xmm3, %xmm1, %xmm6
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm6, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm6
vpxor %xmm4, %xmm6, %xmm4
vpshufd $78, %xmm1, %xmm1
vpternlogq $150, %xmm5, %xmm4, %xmm1
cmpq $15, %r14
ja .LBB3_19
movq %r14, %rax
.LBB3_21:
vmovdqa %xmm1, (%rdi)
movq %rax, %r14
testq %r14, %r14
jne .LBB3_23
jmp .LBB3_24
.Lfunc_end3:
.size haberdashery_aes256gcm_streaming_tigerlake_aad_update, .Lfunc_end3-haberdashery_aes256gcm_streaming_tigerlake_aad_update
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI4_0:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI4_2:
.long 1
.long 0
.long 0
.long 0
.LCPI4_3:
.long 2
.long 0
.long 0
.long 0
.LCPI4_4:
.long 3
.long 0
.long 0
.long 0
.LCPI4_5:
.long 4
.long 0
.long 0
.long 0
.LCPI4_6:
.long 5
.long 0
.long 0
.long 0
.LCPI4_7:
.long 6
.long 0
.long 0
.long 0
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI4_1:
.quad -4467570830351532032
.section .rodata,"a",@progbits
.LCPI4_8:
.byte 1
.byte 0
.section .text.haberdashery_aes256gcm_streaming_tigerlake_encrypt_update,"ax",@progbits
.globl haberdashery_aes256gcm_streaming_tigerlake_encrypt_update
.p2align 4, 0x90
.type haberdashery_aes256gcm_streaming_tigerlake_encrypt_update,@function
haberdashery_aes256gcm_streaming_tigerlake_encrypt_update:
.cfi_startproc
cmpq %r9, %rcx
jne .LBB4_3
movq %rcx, %rax
movabsq $-68719476704, %rcx
leaq (%rax,%rcx), %r9
incq %rcx
cmpq %rcx, %r9
jb .LBB4_3
movq 104(%rdi), %rcx
leaq (%rcx,%rax), %r11
movq %r11, %r9
shrq $5, %r9
cmpq $2147483646, %r9
jbe .LBB4_6
.LBB4_3:
xorl %eax, %eax
retq
.LBB4_6:
pushq %rbp
.cfi_def_cfa_offset 16
pushq %r15
.cfi_def_cfa_offset 24
pushq %r14
.cfi_def_cfa_offset 32
pushq %r13
.cfi_def_cfa_offset 40
pushq %r12
.cfi_def_cfa_offset 48
pushq %rbx
.cfi_def_cfa_offset 56
subq $248, %rsp
.cfi_def_cfa_offset 304
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
.cfi_offset %rbp, -16
testq %rcx, %rcx
setne %r9b
movq 80(%rdi), %rcx
testq %rcx, %rcx
sete %r10b
orb %r9b, %r10b
je .LBB4_10
testq %rcx, %rcx
je .LBB4_11
movq %r11, 16(%rsp)
movq %rdi, %rbp
leaq (%rcx,%rax), %r13
cmpq $15, %r13
ja .LBB4_12
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, (%rsp)
leaq (%rsp,%rcx), %r14
movq memcpy@GOTPCREL(%rip), %r12
movq %r14, %rdi
movq %rdx, %rsi
movq %rax, %rdx
movq %rax, %rbx
movq %r8, %r15
callq *%r12
vmovdqa (%rsp), %xmm0
vpxor 64(%rbp), %xmm0, %xmm0
vmovdqa %xmm0, 64(%rbp)
vmovdqa %xmm0, (%rsp)
movq %r15, %rdi
movq %r14, %rsi
movq %rbx, %rdx
callq *%r12
movq %rbp, %rdi
movq %rbx, %rax
movq 16(%rsp), %r11
jmp .LBB4_24
.LBB4_10:
vmovdqa 240(%rsi), %xmm0
vmovdqa 64(%rdi), %xmm1
vpshufb .LCPI4_0(%rip), %xmm1, %xmm1
vpxor (%rdi), %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm0, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpbroadcastq .LCPI4_1(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm1, %xmm4
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm3
vpxor %xmm0, %xmm3, %xmm0
vpshufd $78, %xmm1, %xmm1
vpternlogq $150, %xmm2, %xmm0, %xmm1
vmovdqa %xmm1, (%rdi)
vpxor %xmm0, %xmm0, %xmm0
vmovdqu %ymm0, 48(%rdi)
movq $0, 80(%rdi)
.LBB4_11:
movq %rax, %r13
cmpq $96, %r13
jb .LBB4_14
.LBB4_16:
vmovdqu64 (%rdx), %xmm16
vmovdqu 16(%rdx), %xmm4
vmovdqa 32(%rdi), %xmm2
vmovdqa .LCPI4_0(%rip), %xmm0
vpshufb %xmm0, %xmm2, %xmm5
vpaddd .LCPI4_2(%rip), %xmm2, %xmm1
vpshufb %xmm0, %xmm1, %xmm6
vpaddd .LCPI4_3(%rip), %xmm2, %xmm1
vpshufb %xmm0, %xmm1, %xmm7
vpaddd .LCPI4_4(%rip), %xmm2, %xmm1
vpshufb %xmm0, %xmm1, %xmm8
vpaddd .LCPI4_5(%rip), %xmm2, %xmm1
vpshufb %xmm0, %xmm1, %xmm11
vpaddd .LCPI4_6(%rip), %xmm2, %xmm1
vpshufb %xmm0, %xmm1, %xmm12
vmovdqa (%rsi), %xmm1
vmovdqa 16(%rsi), %xmm3
vmovdqa 32(%rsi), %xmm13
vmovdqa 48(%rsi), %xmm14
vpxor %xmm5, %xmm1, %xmm9
vpxor %xmm6, %xmm1, %xmm10
vpxor %xmm7, %xmm1, %xmm7
vpxor %xmm1, %xmm8, %xmm8
vpxor %xmm1, %xmm11, %xmm5
vpxor %xmm1, %xmm12, %xmm6
vmovdqa64 %xmm3, %xmm18
#APP
vaesenc %xmm3, %xmm9, %xmm9
vaesenc %xmm3, %xmm10, %xmm10
vaesenc %xmm3, %xmm7, %xmm7
vaesenc %xmm3, %xmm8, %xmm8
vaesenc %xmm3, %xmm5, %xmm5
vaesenc %xmm3, %xmm6, %xmm6
#NO_APP
#APP
vaesenc %xmm13, %xmm9, %xmm9
vaesenc %xmm13, %xmm10, %xmm10
vaesenc %xmm13, %xmm7, %xmm7
vaesenc %xmm13, %xmm8, %xmm8
vaesenc %xmm13, %xmm5, %xmm5
vaesenc %xmm13, %xmm6, %xmm6
#NO_APP
#APP
vaesenc %xmm14, %xmm9, %xmm9
vaesenc %xmm14, %xmm10, %xmm10
vaesenc %xmm14, %xmm7, %xmm7
vaesenc %xmm14, %xmm8, %xmm8
vaesenc %xmm14, %xmm5, %xmm5
vaesenc %xmm14, %xmm6, %xmm6
#NO_APP
vmovdqa 64(%rsi), %xmm11
#APP
vaesenc %xmm11, %xmm9, %xmm9
vaesenc %xmm11, %xmm10, %xmm10
vaesenc %xmm11, %xmm7, %xmm7
vaesenc %xmm11, %xmm8, %xmm8
vaesenc %xmm11, %xmm5, %xmm5
vaesenc %xmm11, %xmm6, %xmm6
#NO_APP
vmovdqa 80(%rsi), %xmm12
#APP
vaesenc %xmm12, %xmm9, %xmm9
vaesenc %xmm12, %xmm10, %xmm10
vaesenc %xmm12, %xmm7, %xmm7
vaesenc %xmm12, %xmm8, %xmm8
vaesenc %xmm12, %xmm5, %xmm5
vaesenc %xmm12, %xmm6, %xmm6
#NO_APP
vmovaps 96(%rsi), %xmm3
vmovaps %xmm3, 16(%rsp)
#APP
vaesenc %xmm3, %xmm9, %xmm9
vaesenc %xmm3, %xmm10, %xmm10
vaesenc %xmm3, %xmm7, %xmm7
vaesenc %xmm3, %xmm8, %xmm8
vaesenc %xmm3, %xmm5, %xmm5
vaesenc %xmm3, %xmm6, %xmm6
#NO_APP
vmovaps 112(%rsi), %xmm3
vmovaps %xmm3, 128(%rsp)
#APP
vaesenc %xmm3, %xmm9, %xmm9
vaesenc %xmm3, %xmm10, %xmm10
vaesenc %xmm3, %xmm7, %xmm7
vaesenc %xmm3, %xmm8, %xmm8
vaesenc %xmm3, %xmm5, %xmm5
vaesenc %xmm3, %xmm6, %xmm6
#NO_APP
vmovaps 128(%rsi), %xmm3
vmovaps %xmm3, 112(%rsp)
#APP
vaesenc %xmm3, %xmm9, %xmm9
vaesenc %xmm3, %xmm10, %xmm10
vaesenc %xmm3, %xmm7, %xmm7
vaesenc %xmm3, %xmm8, %xmm8
vaesenc %xmm3, %xmm5, %xmm5
vaesenc %xmm3, %xmm6, %xmm6
#NO_APP
vmovaps 144(%rsi), %xmm3
vmovaps %xmm3, 96(%rsp)
#APP
vaesenc %xmm3, %xmm9, %xmm9
vaesenc %xmm3, %xmm10, %xmm10
vaesenc %xmm3, %xmm7, %xmm7
vaesenc %xmm3, %xmm8, %xmm8
vaesenc %xmm3, %xmm5, %xmm5
vaesenc %xmm3, %xmm6, %xmm6
#NO_APP
vmovdqa 160(%rsi), %xmm3
vmovdqa64 %xmm3, %xmm29
#APP
vaesenc %xmm3, %xmm9, %xmm9
vaesenc %xmm3, %xmm10, %xmm10
vaesenc %xmm3, %xmm7, %xmm7
vaesenc %xmm3, %xmm8, %xmm8
vaesenc %xmm3, %xmm5, %xmm5
vaesenc %xmm3, %xmm6, %xmm6
#NO_APP
vmovaps 176(%rsi), %xmm3
vmovaps %xmm3, %xmm25
#APP
vaesenc %xmm3, %xmm9, %xmm9
vaesenc %xmm3, %xmm10, %xmm10
vaesenc %xmm3, %xmm7, %xmm7
vaesenc %xmm3, %xmm8, %xmm8
vaesenc %xmm3, %xmm5, %xmm5
vaesenc %xmm3, %xmm6, %xmm6
#NO_APP
vmovdqa 192(%rsi), %xmm3
vmovdqa64 %xmm3, %xmm22
#APP
vaesenc %xmm3, %xmm9, %xmm9
vaesenc %xmm3, %xmm10, %xmm10
vaesenc %xmm3, %xmm7, %xmm7
vaesenc %xmm3, %xmm8, %xmm8
vaesenc %xmm3, %xmm5, %xmm5
vaesenc %xmm3, %xmm6, %xmm6
#NO_APP
vmovdqa 208(%rsi), %xmm3
vmovdqa64 %xmm3, %xmm21
#APP
vaesenc %xmm3, %xmm9, %xmm9
vaesenc %xmm3, %xmm10, %xmm10
vaesenc %xmm3, %xmm7, %xmm7
vaesenc %xmm3, %xmm8, %xmm8
vaesenc %xmm3, %xmm5, %xmm5
vaesenc %xmm3, %xmm6, %xmm6
#NO_APP
vmovdqa 224(%rsi), %xmm3
vmovdqa %xmm3, %xmm15
#APP
vaesenclast %xmm3, %xmm9, %xmm9
vaesenclast %xmm3, %xmm10, %xmm10
vaesenclast %xmm3, %xmm7, %xmm7
vaesenclast %xmm3, %xmm8, %xmm8
vaesenclast %xmm3, %xmm5, %xmm5
vaesenclast %xmm3, %xmm6, %xmm6
#NO_APP
vpxorq %xmm16, %xmm9, %xmm16
vpxorq %xmm4, %xmm10, %xmm26
vmovdqu 32(%rdx), %xmm3
vmovdqu 48(%rdx), %xmm4
vpxorq %xmm3, %xmm7, %xmm27
vpxorq %xmm4, %xmm8, %xmm28
vmovdqu 64(%rdx), %xmm3
vmovdqu 80(%rdx), %xmm4
vpxorq %xmm3, %xmm5, %xmm30
vpxor %xmm4, %xmm6, %xmm8
addq $96, %rdx
leaq 96(%r8), %rcx
vpaddd .LCPI4_7(%rip), %xmm2, %xmm2
vmovdqa %xmm2, 32(%rdi)
vmovdqu64 %xmm16, (%r8)
vmovdqu64 %xmm26, 16(%r8)
vmovdqu64 %xmm27, 32(%r8)
vmovdqu64 %xmm28, 48(%r8)
vmovdqu64 %xmm30, 64(%r8)
addq $-96, %r13
vmovdqu %xmm8, 80(%r8)
vmovdqa64 (%rdi), %xmm17
cmpq $96, %r13
jb .LBB4_19
vmovaps 240(%rsi), %xmm2
vmovaps %xmm2, 80(%rsp)
vmovaps 256(%rsi), %xmm2
vmovaps %xmm2, 64(%rsp)
vmovaps 272(%rsi), %xmm2
vmovaps %xmm2, 48(%rsp)
vmovaps 288(%rsi), %xmm2
vmovaps %xmm2, 32(%rsp)
vmovaps 304(%rsi), %xmm2
vmovaps %xmm2, 224(%rsp)
vmovdqa 320(%rsi), %xmm2
vmovdqa %xmm2, 208(%rsp)
vmovdqa64 %xmm18, 192(%rsp)
vmovdqa %xmm13, 176(%rsp)
vmovdqa %xmm14, 160(%rsp)
vmovdqa %xmm11, %xmm5
vmovdqa %xmm12, 144(%rsp)
vmovdqa64 128(%rsp), %xmm23
vmovdqa64 112(%rsp), %xmm20
vmovaps 96(%rsp), %xmm24
vmovdqa64 %xmm29, %xmm19
vmovdqa64 %xmm15, %xmm18
.p2align 4, 0x90
.LBB4_18:
vmovdqa64 32(%rdi), %xmm29
vpshufb %xmm0, %xmm29, %xmm2
vpaddd .LCPI4_2(%rip), %xmm29, %xmm3
vpshufb %xmm0, %xmm3, %xmm9
vpaddd .LCPI4_3(%rip), %xmm29, %xmm3
vpshufb %xmm0, %xmm3, %xmm10
vpaddd .LCPI4_4(%rip), %xmm29, %xmm3
vpshufb %xmm0, %xmm3, %xmm14
vpaddd .LCPI4_5(%rip), %xmm29, %xmm3
vpshufb %xmm0, %xmm3, %xmm15
vpaddd .LCPI4_6(%rip), %xmm29, %xmm3
vpshufb %xmm0, %xmm3, %xmm31
vpshufb %xmm0, %xmm8, %xmm3
vpxor %xmm2, %xmm1, %xmm13
vpxor %xmm1, %xmm9, %xmm11
vpxor %xmm1, %xmm10, %xmm12
vpxor %xmm1, %xmm14, %xmm9
vpxor %xmm1, %xmm15, %xmm10
vpxorq %xmm31, %xmm1, %xmm8
vmovaps 192(%rsp), %xmm2
#APP
vaesenc %xmm2, %xmm13, %xmm13
vaesenc %xmm2, %xmm11, %xmm11
vaesenc %xmm2, %xmm12, %xmm12
vaesenc %xmm2, %xmm9, %xmm9
vaesenc %xmm2, %xmm10, %xmm10
vaesenc %xmm2, %xmm8, %xmm8
#NO_APP
vpxor %xmm15, %xmm15, %xmm15
vxorps %xmm2, %xmm2, %xmm2
vpxor %xmm14, %xmm14, %xmm14
vmovaps 80(%rsp), %xmm6
vmovaps 176(%rsp), %xmm7
#APP
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm11, %xmm11
vaesenc %xmm7, %xmm12, %xmm12
vaesenc %xmm7, %xmm9, %xmm9
vaesenc %xmm7, %xmm10, %xmm10
vaesenc %xmm7, %xmm8, %xmm8
vpclmulqdq $16, %xmm6, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpclmulqdq $0, %xmm6, %xmm3, %xmm4
vpxor %xmm4, %xmm15, %xmm15
vpclmulqdq $17, %xmm6, %xmm3, %xmm4
vpxor %xmm4, %xmm14, %xmm14
vpclmulqdq $1, %xmm6, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
#NO_APP
vpshufb %xmm0, %xmm30, %xmm3
vmovaps 160(%rsp), %xmm4
#APP
vaesenc %xmm4, %xmm13, %xmm13
vaesenc %xmm4, %xmm11, %xmm11
vaesenc %xmm4, %xmm12, %xmm12
vaesenc %xmm4, %xmm9, %xmm9
vaesenc %xmm4, %xmm10, %xmm10
vaesenc %xmm4, %xmm8, %xmm8
#NO_APP
vmovaps 64(%rsp), %xmm6
#APP
vaesenc %xmm5, %xmm13, %xmm13
vaesenc %xmm5, %xmm11, %xmm11
vaesenc %xmm5, %xmm12, %xmm12
vaesenc %xmm5, %xmm9, %xmm9
vaesenc %xmm5, %xmm10, %xmm10
vaesenc %xmm5, %xmm8, %xmm8
vpclmulqdq $16, %xmm6, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpclmulqdq $0, %xmm6, %xmm3, %xmm4
vpxor %xmm4, %xmm15, %xmm15
vpclmulqdq $17, %xmm6, %xmm3, %xmm4
vpxor %xmm4, %xmm14, %xmm14
vpclmulqdq $1, %xmm6, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
#NO_APP
vpshufb %xmm0, %xmm28, %xmm3
vmovaps 144(%rsp), %xmm4
#APP
vaesenc %xmm4, %xmm13, %xmm13
vaesenc %xmm4, %xmm11, %xmm11
vaesenc %xmm4, %xmm12, %xmm12
vaesenc %xmm4, %xmm9, %xmm9
vaesenc %xmm4, %xmm10, %xmm10
vaesenc %xmm4, %xmm8, %xmm8
#NO_APP
vmovaps 48(%rsp), %xmm6
vmovaps 16(%rsp), %xmm7
#APP
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm11, %xmm11
vaesenc %xmm7, %xmm12, %xmm12
vaesenc %xmm7, %xmm9, %xmm9
vaesenc %xmm7, %xmm10, %xmm10
vaesenc %xmm7, %xmm8, %xmm8
vpclmulqdq $16, %xmm6, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpclmulqdq $0, %xmm6, %xmm3, %xmm4
vpxor %xmm4, %xmm15, %xmm15
vpclmulqdq $17, %xmm6, %xmm3, %xmm4
vpxor %xmm4, %xmm14, %xmm14
vpclmulqdq $1, %xmm6, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
#NO_APP
vpshufb %xmm0, %xmm27, %xmm3
vmovdqa64 %xmm23, %xmm4
#APP
vaesenc %xmm4, %xmm13, %xmm13
vaesenc %xmm4, %xmm11, %xmm11
vaesenc %xmm4, %xmm12, %xmm12
vaesenc %xmm4, %xmm9, %xmm9
vaesenc %xmm4, %xmm10, %xmm10
vaesenc %xmm4, %xmm8, %xmm8
#NO_APP
vmovaps 32(%rsp), %xmm6
vmovdqa64 %xmm20, %xmm7
#APP
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm11, %xmm11
vaesenc %xmm7, %xmm12, %xmm12
vaesenc %xmm7, %xmm9, %xmm9
vaesenc %xmm7, %xmm10, %xmm10
vaesenc %xmm7, %xmm8, %xmm8
vpclmulqdq $16, %xmm6, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpclmulqdq $0, %xmm6, %xmm3, %xmm4
vpxor %xmm4, %xmm15, %xmm15
vpclmulqdq $17, %xmm6, %xmm3, %xmm4
vpxor %xmm4, %xmm14, %xmm14
vpclmulqdq $1, %xmm6, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
#NO_APP
vpshufb %xmm0, %xmm26, %xmm3
vmovaps %xmm24, %xmm4
#APP
vaesenc %xmm4, %xmm13, %xmm13
vaesenc %xmm4, %xmm11, %xmm11
vaesenc %xmm4, %xmm12, %xmm12
vaesenc %xmm4, %xmm9, %xmm9
vaesenc %xmm4, %xmm10, %xmm10
vaesenc %xmm4, %xmm8, %xmm8
#NO_APP
vmovaps 224(%rsp), %xmm6
vmovdqa64 %xmm19, %xmm7
#APP
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm11, %xmm11
vaesenc %xmm7, %xmm12, %xmm12
vaesenc %xmm7, %xmm9, %xmm9
vaesenc %xmm7, %xmm10, %xmm10
vaesenc %xmm7, %xmm8, %xmm8
vpclmulqdq $16, %xmm6, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpclmulqdq $0, %xmm6, %xmm3, %xmm4
vpxor %xmm4, %xmm15, %xmm15
vpclmulqdq $17, %xmm6, %xmm3, %xmm4
vpxor %xmm4, %xmm14, %xmm14
vpclmulqdq $1, %xmm6, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
#NO_APP
vpshufb %xmm0, %xmm16, %xmm3
vpxorq %xmm3, %xmm17, %xmm3
vmovaps %xmm25, %xmm4
#APP
vaesenc %xmm4, %xmm13, %xmm13
vaesenc %xmm4, %xmm11, %xmm11
vaesenc %xmm4, %xmm12, %xmm12
vaesenc %xmm4, %xmm9, %xmm9
vaesenc %xmm4, %xmm10, %xmm10
vaesenc %xmm4, %xmm8, %xmm8
#NO_APP
vmovdqa 208(%rsp), %xmm6
vmovdqa64 %xmm22, %xmm7
#APP
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm11, %xmm11
vaesenc %xmm7, %xmm12, %xmm12
vaesenc %xmm7, %xmm9, %xmm9
vaesenc %xmm7, %xmm10, %xmm10
vaesenc %xmm7, %xmm8, %xmm8
vpclmulqdq $16, %xmm6, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpclmulqdq $0, %xmm6, %xmm3, %xmm4
vpxor %xmm4, %xmm15, %xmm15
vpclmulqdq $17, %xmm6, %xmm3, %xmm4
vpxor %xmm4, %xmm14, %xmm14
vpclmulqdq $1, %xmm6, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
#NO_APP
vpxor %xmm4, %xmm4, %xmm4
vpunpcklqdq %xmm2, %xmm4, %xmm3
vpxor %xmm3, %xmm15, %xmm3
vpunpckhqdq %xmm4, %xmm2, %xmm2
vpxorq %xmm2, %xmm14, %xmm17
vmovdqu (%rdx), %xmm2
vmovdqa64 %xmm21, %xmm4
#APP
vaesenc %xmm4, %xmm13, %xmm13
vaesenc %xmm4, %xmm11, %xmm11
vaesenc %xmm4, %xmm12, %xmm12
vaesenc %xmm4, %xmm9, %xmm9
vaesenc %xmm4, %xmm10, %xmm10
vaesenc %xmm4, %xmm8, %xmm8
#NO_APP
vmovdqa64 %xmm18, %xmm4
#APP
vaesenclast %xmm4, %xmm13, %xmm13
vaesenclast %xmm4, %xmm11, %xmm11
vaesenclast %xmm4, %xmm12, %xmm12
vaesenclast %xmm4, %xmm9, %xmm9
vaesenclast %xmm4, %xmm10, %xmm10
vaesenclast %xmm4, %xmm8, %xmm8
#NO_APP
vpxorq %xmm2, %xmm13, %xmm16
vmovdqu 16(%rdx), %xmm2
vmovdqu 32(%rdx), %xmm4
vpxorq %xmm2, %xmm11, %xmm26
vpxorq %xmm4, %xmm12, %xmm27
vmovdqu 48(%rdx), %xmm2
vmovdqu 64(%rdx), %xmm4
vpxorq %xmm2, %xmm9, %xmm28
vpxorq %xmm4, %xmm10, %xmm30
vmovdqu 80(%rdx), %xmm2
vpxor %xmm2, %xmm8, %xmm8
vpbroadcastq .LCPI4_1(%rip), %xmm4
vpclmulqdq $16, %xmm4, %xmm3, %xmm2
vpshufd $78, %xmm3, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vpclmulqdq $16, %xmm4, %xmm2, %xmm3
vpshufd $78, %xmm2, %xmm2
vpternlogq $150, %xmm3, %xmm2, %xmm17
vpaddd .LCPI4_7(%rip), %xmm29, %xmm2
vmovdqa %xmm2, 32(%rdi)
vmovdqu64 %xmm16, (%rcx)
vmovdqu64 %xmm26, 16(%rcx)
vmovdqu64 %xmm27, 32(%rcx)
vmovdqu64 %xmm28, 48(%rcx)
vmovdqu64 %xmm30, 64(%rcx)
addq $96, %rdx
vmovdqu %xmm8, 80(%rcx)
addq $96, %rcx
addq $-96, %r13
cmpq $95, %r13
ja .LBB4_18
.LBB4_19:
vpshufb %xmm0, %xmm16, %xmm1
vpxorq %xmm1, %xmm17, %xmm1
vpshufb %xmm0, %xmm26, %xmm2
vpshufb %xmm0, %xmm27, %xmm3
vpshufb %xmm0, %xmm28, %xmm4
vpshufb %xmm0, %xmm30, %xmm5
vpshufb %xmm0, %xmm8, %xmm0
vmovdqa 240(%rsi), %xmm6
vmovdqa 256(%rsi), %xmm7
vmovdqa 272(%rsi), %xmm8
vmovdqa 288(%rsi), %xmm9
vmovdqa 304(%rsi), %xmm10
vmovdqa 320(%rsi), %xmm11
vpclmulqdq $0, %xmm0, %xmm6, %xmm12
vpclmulqdq $1, %xmm0, %xmm6, %xmm13
vpclmulqdq $16, %xmm0, %xmm6, %xmm14
vpxor %xmm13, %xmm14, %xmm13
vpclmulqdq $17, %xmm0, %xmm6, %xmm0
vpclmulqdq $0, %xmm5, %xmm7, %xmm6
vpclmulqdq $1, %xmm5, %xmm7, %xmm14
vpclmulqdq $16, %xmm5, %xmm7, %xmm15
vpternlogq $150, %xmm14, %xmm13, %xmm15
vpclmulqdq $17, %xmm5, %xmm7, %xmm5
vpclmulqdq $0, %xmm4, %xmm8, %xmm7
vpternlogq $150, %xmm12, %xmm6, %xmm7
vpclmulqdq $1, %xmm4, %xmm8, %xmm6
vpclmulqdq $16, %xmm4, %xmm8, %xmm12
vpternlogq $150, %xmm6, %xmm15, %xmm12
vpclmulqdq $17, %xmm4, %xmm8, %xmm4
vpternlogq $150, %xmm0, %xmm5, %xmm4
vpclmulqdq $0, %xmm3, %xmm9, %xmm0
vpclmulqdq $1, %xmm3, %xmm9, %xmm5
vpclmulqdq $16, %xmm3, %xmm9, %xmm6
vpternlogq $150, %xmm5, %xmm12, %xmm6
vpclmulqdq $17, %xmm3, %xmm9, %xmm3
vpclmulqdq $0, %xmm2, %xmm10, %xmm5
vpternlogq $150, %xmm0, %xmm7, %xmm5
vpclmulqdq $1, %xmm2, %xmm10, %xmm0
vpclmulqdq $16, %xmm2, %xmm10, %xmm7
vpternlogq $150, %xmm0, %xmm6, %xmm7
vpclmulqdq $17, %xmm2, %xmm10, %xmm0
vpternlogq $150, %xmm3, %xmm4, %xmm0
vpclmulqdq $0, %xmm1, %xmm11, %xmm2
vpclmulqdq $1, %xmm1, %xmm11, %xmm3
vpclmulqdq $16, %xmm1, %xmm11, %xmm4
vpternlogq $150, %xmm3, %xmm7, %xmm4
vpclmulqdq $17, %xmm1, %xmm11, %xmm1
vpslldq $8, %xmm4, %xmm3
vpternlogq $150, %xmm2, %xmm5, %xmm3
vpsrldq $8, %xmm4, %xmm2
vpbroadcastq .LCPI4_1(%rip), %xmm4
vpclmulqdq $16, %xmm4, %xmm3, %xmm5
vpshufd $78, %xmm3, %xmm3
vpxor %xmm3, %xmm5, %xmm3
vpclmulqdq $16, %xmm4, %xmm3, %xmm4
vpternlogq $150, %xmm1, %xmm0, %xmm4
vpshufd $78, %xmm3, %xmm0
vpternlogq $150, %xmm2, %xmm4, %xmm0
vmovdqa %xmm0, (%rdi)
movq %rcx, %r8
cmpq $16, %r13
jae .LBB4_20
.LBB4_15:
testq %r13, %r13
jne .LBB4_23
jmp .LBB4_25
.LBB4_12:
movl $16, %ebx
subq %rcx, %rbx
leaq (%rdx,%rbx), %rdi
movq %rdi, 64(%rsp)
leaq (%r8,%rbx), %rdi
movq %rdi, 48(%rsp)
movq %rax, %r13
subq %rbx, %r13
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, (%rsp)
leaq (%rsp,%rcx), %r14
movq %r14, %rdi
movq %rsi, 80(%rsp)
movq %rdx, %rsi
movq %rbx, %rdx
movq %rax, %r12
movq %r8, %r15
callq *memcpy@GOTPCREL(%rip)
vmovaps (%rsp), %xmm0
vxorps 64(%rbp), %xmm0, %xmm0
vmovaps %xmm0, 32(%rsp)
vmovaps %xmm0, 64(%rbp)
vmovaps %xmm0, (%rsp)
movq %r15, %rdi
movq %r14, %rsi
movq %rbx, %rdx
callq *memcpy@GOTPCREL(%rip)
movq 80(%rsp), %rsi
movq %rbp, %rdi
movq %r12, %rax
vmovdqa 240(%rsi), %xmm0
movq $0, 80(%rbp)
vmovdqa 32(%rsp), %xmm1
vpshufb .LCPI4_0(%rip), %xmm1, %xmm1
vpxor (%rbp), %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm0, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpbroadcastq .LCPI4_1(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm1, %xmm4
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm3
vpxor %xmm0, %xmm3, %xmm0
vpshufd $78, %xmm1, %xmm1
vpternlogq $150, %xmm2, %xmm0, %xmm1
vmovdqa %xmm1, (%rbp)
movq 48(%rsp), %r8
movq 64(%rsp), %rdx
movq 16(%rsp), %r11
cmpq $96, %r13
jae .LBB4_16
.LBB4_14:
cmpq $16, %r13
jb .LBB4_15
.LBB4_20:
vmovdqa (%rdi), %xmm10
vmovdqa 32(%rdi), %xmm0
vmovdqa (%rsi), %xmm1
vmovdqa 16(%rsi), %xmm2
vmovdqa 32(%rsi), %xmm3
vmovdqa 48(%rsi), %xmm4
vmovdqa 64(%rsi), %xmm5
vmovdqa 80(%rsi), %xmm6
vmovdqa 96(%rsi), %xmm7
vmovdqa 112(%rsi), %xmm8
vmovdqa 128(%rsi), %xmm9
vmovdqa 144(%rsi), %xmm11
vmovdqa 160(%rsi), %xmm12
vmovdqa 176(%rsi), %xmm13
vmovdqa 192(%rsi), %xmm14
vmovdqa 208(%rsi), %xmm15
vmovdqa64 224(%rsi), %xmm16
vmovdqa64 240(%rsi), %xmm17
vmovdqa64 .LCPI4_0(%rip), %xmm18
vpmovsxbq .LCPI4_8(%rip), %xmm19
vpbroadcastq .LCPI4_1(%rip), %xmm20
.p2align 4, 0x90
.LBB4_21:
vpshufb %xmm18, %xmm0, %xmm21
vpxorq %xmm21, %xmm1, %xmm21
vaesenc %xmm2, %xmm21, %xmm21
vaesenc %xmm3, %xmm21, %xmm21
vaesenc %xmm4, %xmm21, %xmm21
vaesenc %xmm5, %xmm21, %xmm21
vaesenc %xmm6, %xmm21, %xmm21
vaesenc %xmm7, %xmm21, %xmm21
vaesenc %xmm8, %xmm21, %xmm21
vaesenc %xmm9, %xmm21, %xmm21
vaesenc %xmm11, %xmm21, %xmm21
vaesenc %xmm12, %xmm21, %xmm21
vaesenc %xmm13, %xmm21, %xmm21
vaesenc %xmm14, %xmm21, %xmm21
vaesenc %xmm15, %xmm21, %xmm21
vaesenclast %xmm16, %xmm21, %xmm21
vpxorq (%rdx), %xmm21, %xmm21
addq $16, %rdx
vmovdqu64 %xmm21, (%r8)
addq $16, %r8
addq $-16, %r13
vpaddd %xmm19, %xmm0, %xmm0
vpshufb %xmm18, %xmm21, %xmm21
vpxorq %xmm21, %xmm10, %xmm10
vpclmulqdq $0, %xmm10, %xmm17, %xmm21
vpclmulqdq $1, %xmm10, %xmm17, %xmm22
vpclmulqdq $16, %xmm10, %xmm17, %xmm23
vpxorq %xmm22, %xmm23, %xmm22
vpclmulqdq $17, %xmm10, %xmm17, %xmm10
vpslldq $8, %xmm22, %xmm23
vpxorq %xmm23, %xmm21, %xmm21
vpsrldq $8, %xmm22, %xmm22
vpclmulqdq $16, %xmm20, %xmm21, %xmm23
vpshufd $78, %xmm21, %xmm21
vpxorq %xmm21, %xmm23, %xmm21
vpclmulqdq $16, %xmm20, %xmm21, %xmm23
vpxorq %xmm10, %xmm23, %xmm23
vpshufd $78, %xmm21, %xmm10
vpternlogq $150, %xmm22, %xmm23, %xmm10
cmpq $15, %r13
ja .LBB4_21
vmovdqa %xmm0, 32(%rdi)
vmovdqa %xmm10, (%rdi)
testq %r13, %r13
je .LBB4_25
.LBB4_23:
movl $-1, %ecx
bzhil %r13d, %ecx, %ecx
kmovd %ecx, %k1
vmovdqu8 (%rdx), %xmm0 {%k1} {z}
vmovdqa 32(%rdi), %xmm1
vpshufb .LCPI4_0(%rip), %xmm1, %xmm2
vpaddd .LCPI4_2(%rip), %xmm1, %xmm1
vmovdqa %xmm1, 32(%rdi)
vpxor (%rsi), %xmm2, %xmm1
vaesenc 16(%rsi), %xmm1, %xmm1
vaesenc 32(%rsi), %xmm1, %xmm1
vaesenc 48(%rsi), %xmm1, %xmm1
vaesenc 64(%rsi), %xmm1, %xmm1
vaesenc 80(%rsi), %xmm1, %xmm1
vaesenc 96(%rsi), %xmm1, %xmm1
vaesenc 112(%rsi), %xmm1, %xmm1
vaesenc 128(%rsi), %xmm1, %xmm1
vaesenc 144(%rsi), %xmm1, %xmm1
vaesenc 160(%rsi), %xmm1, %xmm1
vaesenc 176(%rsi), %xmm1, %xmm1
vaesenc 192(%rsi), %xmm1, %xmm1
vaesenc 208(%rsi), %xmm1, %xmm1
vaesenclast 224(%rsi), %xmm1, %xmm1
vpxor %xmm0, %xmm1, %xmm0
vmovdqu8 %xmm0, (%r8) {%k1}
vmovdqa %xmm1, 48(%rdi)
vmovdqa %xmm0, 64(%rdi)
.LBB4_24:
movq %r13, 80(%rdi)
.LBB4_25:
movq %r11, 104(%rdi)
addq $248, %rsp
.cfi_def_cfa_offset 56
popq %rbx
.cfi_def_cfa_offset 48
popq %r12
.cfi_def_cfa_offset 40
popq %r13
.cfi_def_cfa_offset 32
popq %r14
.cfi_def_cfa_offset 24
popq %r15
.cfi_def_cfa_offset 16
popq %rbp
.cfi_def_cfa_offset 8
.cfi_restore %rbx
.cfi_restore %r12
.cfi_restore %r13
.cfi_restore %r14
.cfi_restore %r15
.cfi_restore %rbp
vzeroupper
retq
.Lfunc_end4:
.size haberdashery_aes256gcm_streaming_tigerlake_encrypt_update, .Lfunc_end4-haberdashery_aes256gcm_streaming_tigerlake_encrypt_update
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI5_0:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI5_1:
.quad -4467570830351532032
.section .text.haberdashery_aes256gcm_streaming_tigerlake_encrypt_finalize,"ax",@progbits
.globl haberdashery_aes256gcm_streaming_tigerlake_encrypt_finalize
.p2align 4, 0x90
.type haberdashery_aes256gcm_streaming_tigerlake_encrypt_finalize,@function
haberdashery_aes256gcm_streaming_tigerlake_encrypt_finalize:
.cfi_startproc
movq %rcx, %rax
movq 80(%rdi), %r8
movq 104(%rdi), %rcx
testq %rcx, %rcx
je .LBB5_1
testq %r8, %r8
je .LBB5_4
movl $-1, %r9d
bzhil %r8d, %r9d, %r8d
kmovd %r8d, %k1
vmovdqu8 64(%rdi), %xmm0 {%k1} {z}
vpshufb .LCPI5_0(%rip), %xmm0, %xmm0
vpxor (%rdi), %xmm0, %xmm0
vmovdqa 240(%rsi), %xmm1
jmp .LBB5_6
.LBB5_1:
vmovdqa (%rdi), %xmm0
testq %r8, %r8
je .LBB5_8
vmovdqa 240(%rsi), %xmm1
vmovdqa 64(%rdi), %xmm2
vpshufb .LCPI5_0(%rip), %xmm2, %xmm2
vpxor %xmm2, %xmm0, %xmm0
.LBB5_6:
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpbroadcastq .LCPI5_1(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm1, %xmm4
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm3
vpxor %xmm0, %xmm3, %xmm3
vpshufd $78, %xmm1, %xmm0
vpternlogq $150, %xmm2, %xmm3, %xmm0
jmp .LBB5_7
.LBB5_4:
vmovdqa (%rdi), %xmm0
.LBB5_7:
vpxor %xmm1, %xmm1, %xmm1
vmovdqu %ymm1, 48(%rdi)
movq $0, 80(%rdi)
.LBB5_8:
vmovdqa 240(%rsi), %xmm1
vmovq 96(%rdi), %xmm2
vmovq %rcx, %xmm3
vpunpcklqdq %xmm2, %xmm3, %xmm2
vpsllq $3, %xmm2, %xmm2
vpxor %xmm0, %xmm2, %xmm0
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpbroadcastq .LCPI5_1(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm1, %xmm4
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm3
vpxor %xmm0, %xmm3, %xmm3
vpshufd $78, %xmm1, %xmm0
vpternlogq $150, %xmm2, %xmm3, %xmm0
vmovdqa %xmm0, (%rdi)
testq %rax, %rax
je .LBB5_9
vmovdqa (%rsi), %xmm1
vpxor 16(%rdi), %xmm1, %xmm1
vaesenc 16(%rsi), %xmm1, %xmm1
vaesenc 32(%rsi), %xmm1, %xmm1
vaesenc 48(%rsi), %xmm1, %xmm1
vaesenc 64(%rsi), %xmm1, %xmm1
vaesenc 80(%rsi), %xmm1, %xmm1
vaesenc 96(%rsi), %xmm1, %xmm1
vaesenc 112(%rsi), %xmm1, %xmm1
vaesenc 128(%rsi), %xmm1, %xmm1
vaesenc 144(%rsi), %xmm1, %xmm1
vaesenc 160(%rsi), %xmm1, %xmm1
vaesenc 176(%rsi), %xmm1, %xmm1
vaesenc 192(%rsi), %xmm1, %xmm1
vaesenc 208(%rsi), %xmm1, %xmm1
vaesenclast 224(%rsi), %xmm1, %xmm1
vpshufb .LCPI5_0(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
cmpq $16, %rax
jae .LBB5_11
movl $-1, %ecx
bzhil %eax, %ecx, %ecx
kmovd %ecx, %k1
vmovdqu8 %xmm0, (%rdx) {%k1}
vzeroupper
retq
.LBB5_9:
xorl %eax, %eax
vzeroupper
retq
.LBB5_11:
vmovdqu %xmm0, (%rdx)
movl $16, %eax
vzeroupper
retq
.Lfunc_end5:
.size haberdashery_aes256gcm_streaming_tigerlake_encrypt_finalize, .Lfunc_end5-haberdashery_aes256gcm_streaming_tigerlake_encrypt_finalize
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI6_0:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI6_2:
.long 1
.long 0
.long 0
.long 0
.LCPI6_3:
.long 2
.long 0
.long 0
.long 0
.LCPI6_4:
.long 3
.long 0
.long 0
.long 0
.LCPI6_5:
.long 4
.long 0
.long 0
.long 0
.LCPI6_6:
.long 5
.long 0
.long 0
.long 0
.LCPI6_7:
.long 6
.long 0
.long 0
.long 0
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI6_1:
.quad -4467570830351532032
.section .rodata,"a",@progbits
.LCPI6_8:
.byte 1
.byte 0
.section .text.haberdashery_aes256gcm_streaming_tigerlake_decrypt_update,"ax",@progbits
.globl haberdashery_aes256gcm_streaming_tigerlake_decrypt_update
.p2align 4, 0x90
.type haberdashery_aes256gcm_streaming_tigerlake_decrypt_update,@function
haberdashery_aes256gcm_streaming_tigerlake_decrypt_update:
.cfi_startproc
cmpq %r9, %rcx
jne .LBB6_3
movq %rcx, %rax
movabsq $-68719476704, %rcx
leaq (%rax,%rcx), %r9
incq %rcx
cmpq %rcx, %r9
jb .LBB6_3
movq 104(%rdi), %rcx
leaq (%rcx,%rax), %r11
movq %r11, %r9
shrq $5, %r9
cmpq $2147483646, %r9
jbe .LBB6_6
.LBB6_3:
xorl %eax, %eax
retq
.LBB6_6:
pushq %rbp
.cfi_def_cfa_offset 16
pushq %r15
.cfi_def_cfa_offset 24
pushq %r14
.cfi_def_cfa_offset 32
pushq %r13
.cfi_def_cfa_offset 40
pushq %r12
.cfi_def_cfa_offset 48
pushq %rbx
.cfi_def_cfa_offset 56
subq $232, %rsp
.cfi_def_cfa_offset 288
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
.cfi_offset %rbp, -16
testq %rcx, %rcx
setne %r9b
movq 80(%rdi), %rcx
testq %rcx, %rcx
sete %r10b
orb %r9b, %r10b
je .LBB6_10
testq %rcx, %rcx
je .LBB6_11
movq %r11, 16(%rsp)
movq %rdi, %rbp
leaq (%rcx,%rax), %r13
cmpq $15, %r13
ja .LBB6_12
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, (%rsp)
leaq (%rsp,%rcx), %r14
movq memcpy@GOTPCREL(%rip), %r12
movq %r14, %rdi
movq %rdx, %rsi
movq %rax, %rdx
movq %rax, %rbx
movq %r8, %r15
callq *%r12
vmovdqa (%rsp), %xmm0
vpxor 64(%rbp), %xmm0, %xmm0
vmovdqa %xmm0, 64(%rbp)
vmovdqa %xmm0, (%rsp)
movq %r15, %rdi
movq %r14, %rsi
movq %rbx, %rdx
callq *%r12
movq %rbp, %rdi
movq %rbx, %rax
movq 16(%rsp), %r11
jmp .LBB6_23
.LBB6_10:
vmovdqa 240(%rsi), %xmm0
vmovdqa 64(%rdi), %xmm1
vpshufb .LCPI6_0(%rip), %xmm1, %xmm1
vpxor (%rdi), %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm0, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpbroadcastq .LCPI6_1(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm1, %xmm4
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm3
vpxor %xmm0, %xmm3, %xmm0
vpshufd $78, %xmm1, %xmm1
vpternlogq $150, %xmm2, %xmm0, %xmm1
vmovdqa %xmm1, (%rdi)
vpxor %xmm0, %xmm0, %xmm0
vmovdqu %ymm0, 48(%rdi)
movq $0, 80(%rdi)
.LBB6_11:
movq %rax, %r13
cmpq $96, %r13
jb .LBB6_14
.LBB6_16:
vmovdqa64 (%rdi), %xmm24
vmovdqa (%rsi), %xmm0
vmovaps 16(%rsi), %xmm1
vmovaps %xmm1, 16(%rsp)
vmovaps 32(%rsi), %xmm1
vmovaps %xmm1, 80(%rsp)
vmovaps 48(%rsi), %xmm1
vmovaps %xmm1, 64(%rsp)
vmovaps 64(%rsi), %xmm1
vmovaps %xmm1, 48(%rsp)
vmovaps 80(%rsi), %xmm1
vmovaps %xmm1, 32(%rsp)
vmovaps 96(%rsi), %xmm1
vmovaps %xmm1, 208(%rsp)
vmovaps 112(%rsi), %xmm1
vmovaps %xmm1, 192(%rsp)
vmovaps 128(%rsi), %xmm1
vmovaps %xmm1, 176(%rsp)
vmovaps 144(%rsi), %xmm1
vmovaps %xmm1, 160(%rsp)
vmovaps 160(%rsi), %xmm1
vmovaps %xmm1, 144(%rsp)
vmovaps 176(%rsi), %xmm1
vmovaps %xmm1, 128(%rsp)
vmovaps 192(%rsi), %xmm1
vmovaps %xmm1, 112(%rsp)
vmovdqa 208(%rsi), %xmm1
vmovdqa %xmm1, 96(%rsp)
vmovapd 224(%rsi), %xmm21
vmovapd 240(%rsi), %xmm22
vmovdqa64 256(%rsi), %xmm18
vmovdqa64 .LCPI6_0(%rip), %xmm16
vpxord %xmm23, %xmm23, %xmm23
vpbroadcastq .LCPI6_1(%rip), %xmm25
vmovdqa64 272(%rsi), %xmm19
vmovdqa64 288(%rsi), %xmm20
vmovdqa 304(%rsi), %xmm4
vmovdqa 320(%rsi), %xmm5
.p2align 4, 0x90
.LBB6_17:
vmovdqu64 (%rdx), %xmm27
vmovdqu64 16(%rdx), %xmm28
vmovdqu64 32(%rdx), %xmm29
vmovdqu64 48(%rdx), %xmm30
vmovdqu64 64(%rdx), %xmm31
vmovdqu64 80(%rdx), %xmm17
vmovdqa64 32(%rdi), %xmm26
vpshufb %xmm16, %xmm26, %xmm6
vpaddd .LCPI6_2(%rip), %xmm26, %xmm7
vpshufb %xmm16, %xmm7, %xmm7
vpaddd .LCPI6_3(%rip), %xmm26, %xmm8
vpshufb %xmm16, %xmm8, %xmm8
vpaddd .LCPI6_4(%rip), %xmm26, %xmm9
vpshufb %xmm16, %xmm9, %xmm9
vpaddd .LCPI6_5(%rip), %xmm26, %xmm10
vpshufb %xmm16, %xmm10, %xmm10
vpaddd .LCPI6_6(%rip), %xmm26, %xmm11
vpshufb %xmm16, %xmm11, %xmm11
vpshufb %xmm16, %xmm17, %xmm15
vpxor %xmm6, %xmm0, %xmm6
vpxor %xmm7, %xmm0, %xmm7
vpxor %xmm0, %xmm8, %xmm8
vpxor %xmm0, %xmm9, %xmm9
vpxor %xmm0, %xmm10, %xmm10
vpxor %xmm0, %xmm11, %xmm11
vmovaps 16(%rsp), %xmm1
#APP
vaesenc %xmm1, %xmm6, %xmm6
vaesenc %xmm1, %xmm7, %xmm7
vaesenc %xmm1, %xmm8, %xmm8
vaesenc %xmm1, %xmm9, %xmm9
vaesenc %xmm1, %xmm10, %xmm10
vaesenc %xmm1, %xmm11, %xmm11
#NO_APP
vxorps %xmm13, %xmm13, %xmm13
vxorps %xmm12, %xmm12, %xmm12
vxorps %xmm14, %xmm14, %xmm14
vmovaps 80(%rsp), %xmm2
vmovapd %xmm22, %xmm3
#APP
vaesenc %xmm2, %xmm6, %xmm6
vaesenc %xmm2, %xmm7, %xmm7
vaesenc %xmm2, %xmm8, %xmm8
vaesenc %xmm2, %xmm9, %xmm9
vaesenc %xmm2, %xmm10, %xmm10
vaesenc %xmm2, %xmm11, %xmm11
vpclmulqdq $16, %xmm3, %xmm15, %xmm1
vpxor %xmm1, %xmm13, %xmm13
vpclmulqdq $0, %xmm3, %xmm15, %xmm1
vpxor %xmm1, %xmm14, %xmm14
vpclmulqdq $17, %xmm3, %xmm15, %xmm1
vpxor %xmm1, %xmm12, %xmm12
vpclmulqdq $1, %xmm3, %xmm15, %xmm1
vpxor %xmm1, %xmm13, %xmm13
#NO_APP
vpshufb %xmm16, %xmm31, %xmm1
vmovaps 64(%rsp), %xmm2
#APP
vaesenc %xmm2, %xmm6, %xmm6
vaesenc %xmm2, %xmm7, %xmm7
vaesenc %xmm2, %xmm8, %xmm8
vaesenc %xmm2, %xmm9, %xmm9
vaesenc %xmm2, %xmm10, %xmm10
vaesenc %xmm2, %xmm11, %xmm11
#NO_APP
vmovaps 48(%rsp), %xmm2
vmovdqa64 %xmm18, %xmm3
#APP
vaesenc %xmm2, %xmm6, %xmm6
vaesenc %xmm2, %xmm7, %xmm7
vaesenc %xmm2, %xmm8, %xmm8
vaesenc %xmm2, %xmm9, %xmm9
vaesenc %xmm2, %xmm10, %xmm10
vaesenc %xmm2, %xmm11, %xmm11
vpclmulqdq $16, %xmm3, %xmm1, %xmm15
vpxor %xmm15, %xmm13, %xmm13
vpclmulqdq $0, %xmm3, %xmm1, %xmm15
vpxor %xmm15, %xmm14, %xmm14
vpclmulqdq $17, %xmm3, %xmm1, %xmm15
vpxor %xmm15, %xmm12, %xmm12
vpclmulqdq $1, %xmm3, %xmm1, %xmm15
vpxor %xmm15, %xmm13, %xmm13
#NO_APP
vpshufb %xmm16, %xmm30, %xmm1
vmovaps 32(%rsp), %xmm2
#APP
vaesenc %xmm2, %xmm6, %xmm6
vaesenc %xmm2, %xmm7, %xmm7
vaesenc %xmm2, %xmm8, %xmm8
vaesenc %xmm2, %xmm9, %xmm9
vaesenc %xmm2, %xmm10, %xmm10
vaesenc %xmm2, %xmm11, %xmm11
#NO_APP
vmovaps 208(%rsp), %xmm2
vmovdqa64 %xmm19, %xmm3
#APP
vaesenc %xmm2, %xmm6, %xmm6
vaesenc %xmm2, %xmm7, %xmm7
vaesenc %xmm2, %xmm8, %xmm8
vaesenc %xmm2, %xmm9, %xmm9
vaesenc %xmm2, %xmm10, %xmm10
vaesenc %xmm2, %xmm11, %xmm11
vpclmulqdq $16, %xmm3, %xmm1, %xmm15
vpxor %xmm15, %xmm13, %xmm13
vpclmulqdq $0, %xmm3, %xmm1, %xmm15
vpxor %xmm15, %xmm14, %xmm14
vpclmulqdq $17, %xmm3, %xmm1, %xmm15
vpxor %xmm15, %xmm12, %xmm12
vpclmulqdq $1, %xmm3, %xmm1, %xmm15
vpxor %xmm15, %xmm13, %xmm13
#NO_APP
vpshufb %xmm16, %xmm29, %xmm1
vmovaps 192(%rsp), %xmm2
#APP
vaesenc %xmm2, %xmm6, %xmm6
vaesenc %xmm2, %xmm7, %xmm7
vaesenc %xmm2, %xmm8, %xmm8
vaesenc %xmm2, %xmm9, %xmm9
vaesenc %xmm2, %xmm10, %xmm10
vaesenc %xmm2, %xmm11, %xmm11
#NO_APP
vmovaps 176(%rsp), %xmm2
vmovdqa64 %xmm20, %xmm3
#APP
vaesenc %xmm2, %xmm6, %xmm6
vaesenc %xmm2, %xmm7, %xmm7
vaesenc %xmm2, %xmm8, %xmm8
vaesenc %xmm2, %xmm9, %xmm9
vaesenc %xmm2, %xmm10, %xmm10
vaesenc %xmm2, %xmm11, %xmm11
vpclmulqdq $16, %xmm3, %xmm1, %xmm15
vpxor %xmm15, %xmm13, %xmm13
vpclmulqdq $0, %xmm3, %xmm1, %xmm15
vpxor %xmm15, %xmm14, %xmm14
vpclmulqdq $17, %xmm3, %xmm1, %xmm15
vpxor %xmm15, %xmm12, %xmm12
vpclmulqdq $1, %xmm3, %xmm1, %xmm15
vpxor %xmm15, %xmm13, %xmm13
#NO_APP
vpshufb %xmm16, %xmm28, %xmm1
vmovaps 160(%rsp), %xmm2
#APP
vaesenc %xmm2, %xmm6, %xmm6
vaesenc %xmm2, %xmm7, %xmm7
vaesenc %xmm2, %xmm8, %xmm8
vaesenc %xmm2, %xmm9, %xmm9
vaesenc %xmm2, %xmm10, %xmm10
vaesenc %xmm2, %xmm11, %xmm11
#NO_APP
vmovaps 144(%rsp), %xmm2
#APP
vaesenc %xmm2, %xmm6, %xmm6
vaesenc %xmm2, %xmm7, %xmm7
vaesenc %xmm2, %xmm8, %xmm8
vaesenc %xmm2, %xmm9, %xmm9
vaesenc %xmm2, %xmm10, %xmm10
vaesenc %xmm2, %xmm11, %xmm11
vpclmulqdq $16, %xmm4, %xmm1, %xmm15
vpxor %xmm15, %xmm13, %xmm13
vpclmulqdq $0, %xmm4, %xmm1, %xmm15
vpxor %xmm15, %xmm14, %xmm14
vpclmulqdq $17, %xmm4, %xmm1, %xmm15
vpxor %xmm15, %xmm12, %xmm12
vpclmulqdq $1, %xmm4, %xmm1, %xmm15
vpxor %xmm15, %xmm13, %xmm13
#NO_APP
vpshufb %xmm16, %xmm27, %xmm1
vpxorq %xmm1, %xmm24, %xmm1
vmovaps 128(%rsp), %xmm2
#APP
vaesenc %xmm2, %xmm6, %xmm6
vaesenc %xmm2, %xmm7, %xmm7
vaesenc %xmm2, %xmm8, %xmm8
vaesenc %xmm2, %xmm9, %xmm9
vaesenc %xmm2, %xmm10, %xmm10
vaesenc %xmm2, %xmm11, %xmm11
#NO_APP
vmovaps 112(%rsp), %xmm2
#APP
vaesenc %xmm2, %xmm6, %xmm6
vaesenc %xmm2, %xmm7, %xmm7
vaesenc %xmm2, %xmm8, %xmm8
vaesenc %xmm2, %xmm9, %xmm9
vaesenc %xmm2, %xmm10, %xmm10
vaesenc %xmm2, %xmm11, %xmm11
vpclmulqdq $16, %xmm5, %xmm1, %xmm15
vpxor %xmm15, %xmm13, %xmm13
vpclmulqdq $0, %xmm5, %xmm1, %xmm15
vpxor %xmm15, %xmm14, %xmm14
vpclmulqdq $17, %xmm5, %xmm1, %xmm15
vpxor %xmm15, %xmm12, %xmm12
vpclmulqdq $1, %xmm5, %xmm1, %xmm15
vpxor %xmm15, %xmm13, %xmm13
#NO_APP
vpunpcklqdq %xmm13, %xmm23, %xmm1
vpxor %xmm1, %xmm14, %xmm1
vpunpckhqdq %xmm23, %xmm13, %xmm13
vpxorq %xmm13, %xmm12, %xmm24
vmovaps 96(%rsp), %xmm2
#APP
vaesenc %xmm2, %xmm6, %xmm6
vaesenc %xmm2, %xmm7, %xmm7
vaesenc %xmm2, %xmm8, %xmm8
vaesenc %xmm2, %xmm9, %xmm9
vaesenc %xmm2, %xmm10, %xmm10
vaesenc %xmm2, %xmm11, %xmm11
#NO_APP
vmovapd %xmm21, %xmm2
#APP
vaesenclast %xmm2, %xmm6, %xmm6
vaesenclast %xmm2, %xmm7, %xmm7
vaesenclast %xmm2, %xmm8, %xmm8
vaesenclast %xmm2, %xmm9, %xmm9
vaesenclast %xmm2, %xmm10, %xmm10
vaesenclast %xmm2, %xmm11, %xmm11
#NO_APP
vpxorq %xmm27, %xmm6, %xmm6
vpxorq %xmm28, %xmm7, %xmm7
vpxorq %xmm29, %xmm8, %xmm8
vpxorq %xmm30, %xmm9, %xmm9
vpxorq %xmm31, %xmm10, %xmm10
vpxorq %xmm17, %xmm11, %xmm11
vpclmulqdq $16, %xmm25, %xmm1, %xmm12
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm12, %xmm1
vpclmulqdq $16, %xmm25, %xmm1, %xmm12
vpshufd $78, %xmm1, %xmm1
vpternlogq $150, %xmm12, %xmm1, %xmm24
vpaddd .LCPI6_7(%rip), %xmm26, %xmm1
vmovdqa %xmm1, 32(%rdi)
vmovdqu %xmm6, (%r8)
vmovdqu %xmm7, 16(%r8)
vmovdqu %xmm8, 32(%r8)
vmovdqu %xmm9, 48(%r8)
vmovdqu %xmm10, 64(%r8)
vmovdqu %xmm11, 80(%r8)
addq $96, %rdx
addq $96, %r8
addq $-96, %r13
cmpq $95, %r13
ja .LBB6_17
vmovdqa64 %xmm24, (%rdi)
cmpq $16, %r13
jae .LBB6_19
.LBB6_15:
testq %r13, %r13
jne .LBB6_22
jmp .LBB6_24
.LBB6_12:
movl $16, %ebx
subq %rcx, %rbx
leaq (%rdx,%rbx), %rdi
movq %rdi, 64(%rsp)
leaq (%r8,%rbx), %rdi
movq %rdi, 48(%rsp)
movq %rax, %r13
subq %rbx, %r13
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, (%rsp)
leaq (%rsp,%rcx), %r14
movq %r14, %rdi
movq %rsi, 80(%rsp)
movq %rdx, %rsi
movq %rbx, %rdx
movq %rax, %r12
movq %r8, %r15
callq *memcpy@GOTPCREL(%rip)
vmovaps (%rsp), %xmm0
vxorps 64(%rbp), %xmm0, %xmm0
vmovaps %xmm0, 32(%rsp)
vmovaps %xmm0, 64(%rbp)
vmovaps %xmm0, (%rsp)
movq %r15, %rdi
movq %r14, %rsi
movq %rbx, %rdx
callq *memcpy@GOTPCREL(%rip)
movq 80(%rsp), %rsi
movq %rbp, %rdi
movq %r12, %rax
movq $0, 80(%rbp)
vmovdqa 32(%rsp), %xmm0
vpxor 48(%rbp), %xmm0, %xmm0
vpshufb .LCPI6_0(%rip), %xmm0, %xmm0
vmovdqa 240(%rsi), %xmm1
vpxor (%rbp), %xmm0, %xmm0
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpbroadcastq .LCPI6_1(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm1, %xmm4
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm3
vpxor %xmm0, %xmm3, %xmm0
vpshufd $78, %xmm1, %xmm1
vpternlogq $150, %xmm2, %xmm0, %xmm1
vmovdqa %xmm1, (%rbp)
movq 48(%rsp), %r8
movq 64(%rsp), %rdx
movq 16(%rsp), %r11
cmpq $96, %r13
jae .LBB6_16
.LBB6_14:
cmpq $16, %r13
jb .LBB6_15
.LBB6_19:
vmovdqa (%rdi), %xmm10
vmovdqa 32(%rdi), %xmm0
vmovdqa 240(%rsi), %xmm1
vmovdqa (%rsi), %xmm2
vmovdqa 16(%rsi), %xmm3
vmovdqa 32(%rsi), %xmm4
vmovdqa 48(%rsi), %xmm5
vmovdqa 64(%rsi), %xmm6
vmovdqa 80(%rsi), %xmm7
vmovdqa 96(%rsi), %xmm8
vmovdqa 112(%rsi), %xmm9
vmovdqa 128(%rsi), %xmm11
vmovdqa 144(%rsi), %xmm12
vmovdqa 160(%rsi), %xmm13
vmovdqa 176(%rsi), %xmm14
vmovdqa 192(%rsi), %xmm15
vmovdqa64 208(%rsi), %xmm16
vmovdqa64 224(%rsi), %xmm17
vmovdqa64 .LCPI6_0(%rip), %xmm18
vpbroadcastq .LCPI6_1(%rip), %xmm19
vpmovsxbq .LCPI6_8(%rip), %xmm20
.p2align 4, 0x90
.LBB6_20:
vmovdqu64 (%rdx), %xmm21
vpshufb %xmm18, %xmm0, %xmm22
vpxorq %xmm22, %xmm2, %xmm22
vaesenc %xmm3, %xmm22, %xmm22
vaesenc %xmm4, %xmm22, %xmm22
vaesenc %xmm5, %xmm22, %xmm22
vaesenc %xmm6, %xmm22, %xmm22
vaesenc %xmm7, %xmm22, %xmm22
vaesenc %xmm8, %xmm22, %xmm22
vaesenc %xmm9, %xmm22, %xmm22
vaesenc %xmm11, %xmm22, %xmm22
vaesenc %xmm12, %xmm22, %xmm22
vaesenc %xmm13, %xmm22, %xmm22
vaesenc %xmm14, %xmm22, %xmm22
vaesenc %xmm15, %xmm22, %xmm22
vaesenc %xmm16, %xmm22, %xmm22
vaesenclast %xmm17, %xmm22, %xmm22
vpxorq %xmm21, %xmm22, %xmm22
vmovdqu64 %xmm22, (%r8)
addq $16, %r8
addq $-16, %r13
addq $16, %rdx
vpshufb %xmm18, %xmm21, %xmm21
vpxorq %xmm21, %xmm10, %xmm10
vpclmulqdq $0, %xmm10, %xmm1, %xmm21
vpclmulqdq $1, %xmm10, %xmm1, %xmm22
vpclmulqdq $16, %xmm10, %xmm1, %xmm23
vpxorq %xmm22, %xmm23, %xmm22
vpclmulqdq $17, %xmm10, %xmm1, %xmm10
vpslldq $8, %xmm22, %xmm23
vpxorq %xmm23, %xmm21, %xmm21
vpsrldq $8, %xmm22, %xmm22
vpclmulqdq $16, %xmm19, %xmm21, %xmm23
vpshufd $78, %xmm21, %xmm21
vpxorq %xmm21, %xmm23, %xmm21
vpclmulqdq $16, %xmm19, %xmm21, %xmm23
vpxorq %xmm10, %xmm23, %xmm23
vpshufd $78, %xmm21, %xmm10
vpternlogq $150, %xmm22, %xmm23, %xmm10
vpaddd %xmm20, %xmm0, %xmm0
cmpq $15, %r13
ja .LBB6_20
vmovdqa %xmm0, 32(%rdi)
vmovdqa %xmm10, (%rdi)
testq %r13, %r13
je .LBB6_24
.LBB6_22:
movl $-1, %ecx
bzhil %r13d, %ecx, %ecx
kmovd %ecx, %k1
vmovdqu8 (%rdx), %xmm0 {%k1} {z}
vmovdqa 32(%rdi), %xmm1
vpshufb .LCPI6_0(%rip), %xmm1, %xmm2
vpaddd .LCPI6_2(%rip), %xmm1, %xmm1
vmovdqa %xmm1, 32(%rdi)
vpxor (%rsi), %xmm2, %xmm1
vaesenc 16(%rsi), %xmm1, %xmm1
vaesenc 32(%rsi), %xmm1, %xmm1
vaesenc 48(%rsi), %xmm1, %xmm1
vaesenc 64(%rsi), %xmm1, %xmm1
vaesenc 80(%rsi), %xmm1, %xmm1
vaesenc 96(%rsi), %xmm1, %xmm1
vaesenc 112(%rsi), %xmm1, %xmm1
vaesenc 128(%rsi), %xmm1, %xmm1
vaesenc 144(%rsi), %xmm1, %xmm1
vaesenc 160(%rsi), %xmm1, %xmm1
vaesenc 176(%rsi), %xmm1, %xmm1
vaesenc 192(%rsi), %xmm1, %xmm1
vaesenc 208(%rsi), %xmm1, %xmm1
vaesenclast 224(%rsi), %xmm1, %xmm1
vpxor %xmm0, %xmm1, %xmm0
vmovdqu8 %xmm0, (%r8) {%k1}
vmovdqa %xmm1, 48(%rdi)
vmovdqa %xmm0, 64(%rdi)
.LBB6_23:
movq %r13, 80(%rdi)
.LBB6_24:
movq %r11, 104(%rdi)
addq $232, %rsp
.cfi_def_cfa_offset 56
popq %rbx
.cfi_def_cfa_offset 48
popq %r12
.cfi_def_cfa_offset 40
popq %r13
.cfi_def_cfa_offset 32
popq %r14
.cfi_def_cfa_offset 24
popq %r15
.cfi_def_cfa_offset 16
popq %rbp
.cfi_def_cfa_offset 8
.cfi_restore %rbx
.cfi_restore %r12
.cfi_restore %r13
.cfi_restore %r14
.cfi_restore %r15
.cfi_restore %rbp
vzeroupper
retq
.Lfunc_end6:
.size haberdashery_aes256gcm_streaming_tigerlake_decrypt_update, .Lfunc_end6-haberdashery_aes256gcm_streaming_tigerlake_decrypt_update
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI7_0:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI7_1:
.quad -4467570830351532032
.section .text.haberdashery_aes256gcm_streaming_tigerlake_decrypt_finalize,"ax",@progbits
.globl haberdashery_aes256gcm_streaming_tigerlake_decrypt_finalize
.p2align 4, 0x90
.type haberdashery_aes256gcm_streaming_tigerlake_decrypt_finalize,@function
haberdashery_aes256gcm_streaming_tigerlake_decrypt_finalize:
.cfi_startproc
xorl %eax, %eax
cmpq $16, %rcx
jne .LBB7_10
vmovdqu (%rdx), %xmm0
movq 104(%rdi), %rax
testq %rax, %rax
je .LBB7_2
leaq 48(%rdi), %rcx
movq 80(%rdi), %rdx
testq %rdx, %rdx
je .LBB7_5
vmovdqa 48(%rdi), %xmm1
vpxor 64(%rdi), %xmm1, %xmm1
movl $-1, %r8d
bzhil %edx, %r8d, %edx
kmovd %edx, %k1
vmovdqu8 %xmm1, %xmm1 {%k1} {z}
vpshufb .LCPI7_0(%rip), %xmm1, %xmm1
vpxor (%rdi), %xmm1, %xmm1
vmovdqa 240(%rsi), %xmm2
jmp .LBB7_7
.LBB7_2:
cmpq $0, 80(%rdi)
vmovdqa (%rdi), %xmm1
je .LBB7_9
vmovdqa 240(%rsi), %xmm2
leaq 48(%rdi), %rcx
vmovdqa 64(%rdi), %xmm3
vpshufb .LCPI7_0(%rip), %xmm3, %xmm3
vpxor %xmm3, %xmm1, %xmm1
.LBB7_7:
vpclmulqdq $0, %xmm1, %xmm2, %xmm3
vpclmulqdq $1, %xmm1, %xmm2, %xmm4
vpclmulqdq $16, %xmm1, %xmm2, %xmm5
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $17, %xmm1, %xmm2, %xmm1
vpslldq $8, %xmm4, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpsrldq $8, %xmm4, %xmm3
vpbroadcastq .LCPI7_1(%rip), %xmm4
vpclmulqdq $16, %xmm4, %xmm2, %xmm5
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm5, %xmm2
vpclmulqdq $16, %xmm4, %xmm2, %xmm4
vpxor %xmm1, %xmm4, %xmm4
vpshufd $78, %xmm2, %xmm1
vpternlogq $150, %xmm3, %xmm4, %xmm1
jmp .LBB7_8
.LBB7_5:
vmovdqa (%rdi), %xmm1
.LBB7_8:
vpxor %xmm2, %xmm2, %xmm2
vmovdqu %ymm2, (%rcx)
movq $0, 32(%rcx)
.LBB7_9:
vmovdqa 240(%rsi), %xmm2
vmovq 96(%rdi), %xmm3
vmovq %rax, %xmm4
vpunpcklqdq %xmm3, %xmm4, %xmm3
vpsllq $3, %xmm3, %xmm3
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $0, %xmm1, %xmm2, %xmm3
vpclmulqdq $1, %xmm1, %xmm2, %xmm4
vpclmulqdq $16, %xmm1, %xmm2, %xmm5
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $17, %xmm1, %xmm2, %xmm1
vpslldq $8, %xmm4, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpsrldq $8, %xmm4, %xmm3
vpbroadcastq .LCPI7_1(%rip), %xmm4
vpclmulqdq $16, %xmm4, %xmm2, %xmm5
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm5, %xmm2
vpclmulqdq $16, %xmm4, %xmm2, %xmm4
vpxor %xmm1, %xmm4, %xmm1
vpshufd $78, %xmm2, %xmm2
vpternlogq $150, %xmm3, %xmm1, %xmm2
vmovdqa %xmm2, (%rdi)
vmovdqa (%rsi), %xmm1
vpxor 16(%rdi), %xmm1, %xmm1
vaesenc 16(%rsi), %xmm1, %xmm1
vaesenc 32(%rsi), %xmm1, %xmm1
vaesenc 48(%rsi), %xmm1, %xmm1
vaesenc 64(%rsi), %xmm1, %xmm1
vaesenc 80(%rsi), %xmm1, %xmm1
vaesenc 96(%rsi), %xmm1, %xmm1
vaesenc 112(%rsi), %xmm1, %xmm1
vaesenc 128(%rsi), %xmm1, %xmm1
vaesenc 144(%rsi), %xmm1, %xmm1
vaesenc 160(%rsi), %xmm1, %xmm1
vaesenc 176(%rsi), %xmm1, %xmm1
vaesenc 192(%rsi), %xmm1, %xmm1
vaesenc 208(%rsi), %xmm1, %xmm1
vaesenclast 224(%rsi), %xmm1, %xmm1
vpshufb .LCPI7_0(%rip), %xmm2, %xmm2
vpternlogq $150, %xmm1, %xmm0, %xmm2
xorl %eax, %eax
vptest %xmm2, %xmm2
sete %al
.LBB7_10:
vzeroupper
retq
.Lfunc_end7:
.size haberdashery_aes256gcm_streaming_tigerlake_decrypt_finalize, .Lfunc_end7-haberdashery_aes256gcm_streaming_tigerlake_decrypt_finalize
.cfi_endproc
.ident "rustc version 1.86.0-nightly (9cd60bd2c 2025-02-15)"
.section ".note.GNU-stack","",@progbits
|
ts-phantomnk90/haberdashery
| 53,004
|
asm/aes192gcm_skylakex.s
|
# @generated
# https://github.com/facebookincubator/haberdashery/
.text
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI0_0:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI0_1:
.quad -4467570830351532032
.section .text.haberdashery_aes192gcm_skylakex_init,"ax",@progbits
.globl haberdashery_aes192gcm_skylakex_init
.p2align 4, 0x90
.type haberdashery_aes192gcm_skylakex_init,@function
haberdashery_aes192gcm_skylakex_init:
.cfi_startproc
cmpq $24, %rdx
jne .LBB0_2
vmovupd (%rsi), %xmm2
vmovq 16(%rsi), %xmm0
vpslldq $4, %xmm2, %xmm1
vpslldq $8, %xmm2, %xmm3
vaeskeygenassist $1, %xmm0, %xmm4
vpslldq $12, %xmm2, %xmm5
vpternlogq $150, %xmm3, %xmm1, %xmm5
vpshufd $85, %xmm4, %xmm1
vpternlogq $150, %xmm5, %xmm2, %xmm1
vmovdqa64 %xmm2, %xmm16
vpshufd $255, %xmm1, %xmm3
vpslldq $4, %xmm0, %xmm4
vpternlogq $150, %xmm3, %xmm0, %xmm4
vpunpcklqdq %xmm1, %xmm0, %xmm18
valignq $1, %xmm1, %xmm4, %xmm17
vpslldq $4, %xmm1, %xmm0
vpslldq $8, %xmm1, %xmm3
vpslldq $12, %xmm1, %xmm5
vpternlogq $150, %xmm3, %xmm0, %xmm5
vaeskeygenassist $2, %xmm4, %xmm0
vpshufd $85, %xmm0, %xmm15
vpternlogq $150, %xmm5, %xmm1, %xmm15
vpshufd $255, %xmm15, %xmm0
vpslldq $4, %xmm4, %xmm1
vpternlogq $150, %xmm0, %xmm4, %xmm1
vpslldq $4, %xmm15, %xmm0
vpslldq $8, %xmm15, %xmm4
vaeskeygenassist $4, %xmm1, %xmm5
vpslldq $12, %xmm15, %xmm6
vpternlogq $150, %xmm4, %xmm0, %xmm6
vpshufd $85, %xmm5, %xmm0
vpternlogq $150, %xmm6, %xmm15, %xmm0
vpshufd $255, %xmm0, %xmm4
vpslldq $4, %xmm1, %xmm7
vpternlogq $150, %xmm4, %xmm1, %xmm7
vpunpcklqdq %xmm0, %xmm1, %xmm4
vpalignr $8, %xmm0, %xmm7, %xmm5
vpslldq $4, %xmm0, %xmm1
vpslldq $8, %xmm0, %xmm6
vpslldq $12, %xmm0, %xmm8
vpternlogq $150, %xmm6, %xmm1, %xmm8
vaeskeygenassist $8, %xmm7, %xmm1
vpshufd $85, %xmm1, %xmm6
vpternlogq $150, %xmm8, %xmm0, %xmm6
vpshufd $255, %xmm6, %xmm0
vpslldq $4, %xmm7, %xmm1
vpternlogq $150, %xmm0, %xmm7, %xmm1
vpslldq $4, %xmm6, %xmm0
vpslldq $8, %xmm6, %xmm7
vaeskeygenassist $16, %xmm1, %xmm8
vpslldq $12, %xmm6, %xmm9
vpternlogq $150, %xmm7, %xmm0, %xmm9
vpshufd $85, %xmm8, %xmm0
vpternlogq $150, %xmm9, %xmm6, %xmm0
vpshufd $255, %xmm0, %xmm7
vpslldq $4, %xmm1, %xmm10
vpternlogq $150, %xmm7, %xmm1, %xmm10
vpunpcklqdq %xmm0, %xmm1, %xmm7
vpalignr $8, %xmm0, %xmm10, %xmm8
vpslldq $4, %xmm0, %xmm1
vpslldq $8, %xmm0, %xmm9
vpslldq $12, %xmm0, %xmm11
vpternlogq $150, %xmm9, %xmm1, %xmm11
vaeskeygenassist $32, %xmm10, %xmm1
vpshufd $85, %xmm1, %xmm9
vpternlogq $150, %xmm11, %xmm0, %xmm9
vpshufd $255, %xmm9, %xmm0
vpslldq $4, %xmm10, %xmm1
vpternlogq $150, %xmm0, %xmm10, %xmm1
vpslldq $4, %xmm9, %xmm0
vpslldq $8, %xmm9, %xmm10
vaeskeygenassist $64, %xmm1, %xmm11
vpslldq $12, %xmm9, %xmm12
vpternlogq $150, %xmm10, %xmm0, %xmm12
vpshufd $85, %xmm11, %xmm0
vpternlogq $150, %xmm12, %xmm9, %xmm0
vpshufd $255, %xmm0, %xmm10
vpslldq $4, %xmm1, %xmm12
vpternlogq $150, %xmm10, %xmm1, %xmm12
vpunpcklqdq %xmm0, %xmm1, %xmm2
vpalignr $8, %xmm0, %xmm12, %xmm3
vpslldq $4, %xmm0, %xmm1
vpslldq $8, %xmm0, %xmm13
vpslldq $12, %xmm0, %xmm14
vpternlogq $150, %xmm13, %xmm1, %xmm14
vaeskeygenassist $128, %xmm12, %xmm1
vpshufd $85, %xmm1, %xmm12
vpternlogq $150, %xmm14, %xmm0, %xmm12
vmovdqa64 %xmm16, %xmm10
vmovdqa64 %xmm18, %xmm0
vaesenc %xmm0, %xmm10, %xmm0
vmovdqa64 %xmm18, %xmm16
vmovdqa64 %xmm17, %xmm11
vaesenc %xmm11, %xmm0, %xmm0
vaesenc %xmm15, %xmm0, %xmm0
vmovapd %xmm15, %xmm22
vaesenc %xmm4, %xmm0, %xmm0
vmovdqa64 %xmm4, %xmm17
vaesenc %xmm5, %xmm0, %xmm0
vmovdqa64 %xmm5, %xmm18
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm7, %xmm0, %xmm0
vmovdqa64 %xmm7, %xmm19
vaesenc %xmm8, %xmm0, %xmm0
vmovdqa64 %xmm8, %xmm20
vaesenc %xmm9, %xmm0, %xmm0
vaesenc %xmm2, %xmm0, %xmm0
vaesenc %xmm3, %xmm0, %xmm0
vaesenclast %xmm12, %xmm0, %xmm0
vpshufb .LCPI0_0(%rip), %xmm0, %xmm0
vpsrlq $63, %xmm0, %xmm1
vpaddq %xmm0, %xmm0, %xmm0
vpshufd $78, %xmm1, %xmm13
vpxor %xmm14, %xmm14, %xmm14
vpblendd $12, %xmm1, %xmm14, %xmm1
vpsllq $63, %xmm1, %xmm14
vpternlogq $30, %xmm13, %xmm0, %xmm14
vpsllq $62, %xmm1, %xmm0
vpsllq $57, %xmm1, %xmm13
vpternlogq $150, %xmm0, %xmm14, %xmm13
vpclmulqdq $0, %xmm13, %xmm13, %xmm0
vpbroadcastq .LCPI0_1(%rip), %xmm15
vpshufd $78, %xmm0, %xmm1
vpclmulqdq $16, %xmm15, %xmm0, %xmm0
vpxor %xmm1, %xmm0, %xmm0
vpclmulqdq $16, %xmm15, %xmm0, %xmm1
vpshufd $78, %xmm0, %xmm14
vpclmulqdq $17, %xmm13, %xmm13, %xmm0
vpternlogq $150, %xmm1, %xmm0, %xmm14
vpclmulqdq $16, %xmm13, %xmm14, %xmm0
vpclmulqdq $1, %xmm13, %xmm14, %xmm1
vpxor %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm0, %xmm1
vpclmulqdq $0, %xmm13, %xmm14, %xmm4
vpxor %xmm1, %xmm4, %xmm1
vpshufd $78, %xmm1, %xmm4
vpclmulqdq $16, %xmm15, %xmm1, %xmm1
vpxor %xmm4, %xmm1, %xmm1
vpclmulqdq $16, %xmm15, %xmm1, %xmm4
vpclmulqdq $17, %xmm13, %xmm14, %xmm5
vpxor %xmm4, %xmm5, %xmm4
vpsrldq $8, %xmm0, %xmm0
vpshufd $78, %xmm1, %xmm1
vpternlogq $150, %xmm0, %xmm4, %xmm1
vpclmulqdq $0, %xmm1, %xmm1, %xmm0
vpshufd $78, %xmm0, %xmm4
vpclmulqdq $16, %xmm15, %xmm0, %xmm0
vpxor %xmm4, %xmm0, %xmm0
vpshufd $78, %xmm0, %xmm4
vpclmulqdq $16, %xmm15, %xmm0, %xmm0
vpclmulqdq $17, %xmm1, %xmm1, %xmm5
vpternlogq $150, %xmm0, %xmm5, %xmm4
vpclmulqdq $0, %xmm14, %xmm14, %xmm0
vpshufd $78, %xmm0, %xmm5
vpclmulqdq $16, %xmm15, %xmm0, %xmm0
vpxor %xmm5, %xmm0, %xmm0
vpclmulqdq $16, %xmm15, %xmm0, %xmm5
vpshufd $78, %xmm0, %xmm0
vpclmulqdq $17, %xmm14, %xmm14, %xmm7
vpternlogq $150, %xmm5, %xmm7, %xmm0
vpclmulqdq $16, %xmm13, %xmm0, %xmm5
vpclmulqdq $1, %xmm13, %xmm0, %xmm7
vpxor %xmm5, %xmm7, %xmm5
vpslldq $8, %xmm5, %xmm7
vpclmulqdq $0, %xmm13, %xmm0, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpshufd $78, %xmm7, %xmm8
vpclmulqdq $16, %xmm15, %xmm7, %xmm7
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $16, %xmm15, %xmm7, %xmm8
vpclmulqdq $17, %xmm13, %xmm0, %xmm15
vpxor %xmm8, %xmm15, %xmm8
vpshufd $78, %xmm7, %xmm7
vmovdqa %xmm10, (%rdi)
vmovdqa64 %xmm16, 16(%rdi)
vmovdqa %xmm11, 32(%rdi)
vmovapd %xmm22, 48(%rdi)
vmovdqa64 %xmm17, 64(%rdi)
vmovdqa64 %xmm18, 80(%rdi)
vmovdqa %xmm6, 96(%rdi)
vmovdqa64 %xmm19, 112(%rdi)
vmovdqa64 %xmm20, 128(%rdi)
vmovdqa %xmm9, 144(%rdi)
vmovdqa %xmm2, 160(%rdi)
vmovdqa %xmm3, 176(%rdi)
vmovdqa %xmm12, 192(%rdi)
vmovdqa %xmm13, 208(%rdi)
vmovdqa %xmm14, 224(%rdi)
vmovdqa %xmm1, 240(%rdi)
vmovdqa %xmm0, 256(%rdi)
vpsrldq $8, %xmm5, %xmm0
vpternlogq $150, %xmm0, %xmm8, %xmm7
vmovdqa %xmm7, 272(%rdi)
vmovdqa %xmm4, 288(%rdi)
.LBB0_2:
xorl %eax, %eax
cmpq $24, %rdx
sete %al
retq
.Lfunc_end0:
.size haberdashery_aes192gcm_skylakex_init, .Lfunc_end0-haberdashery_aes192gcm_skylakex_init
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI1_0:
.byte 15
.byte 128
.byte 128
.byte 128
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI1_1:
.long 1
.long 0
.long 0
.long 0
.LCPI1_2:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI1_4:
.long 2
.long 0
.long 0
.long 0
.LCPI1_5:
.long 3
.long 0
.long 0
.long 0
.LCPI1_6:
.long 4
.long 0
.long 0
.long 0
.LCPI1_7:
.long 5
.long 0
.long 0
.long 0
.LCPI1_8:
.long 6
.long 0
.long 0
.long 0
.LCPI1_9:
.long 7
.long 0
.long 0
.long 0
.LCPI1_10:
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.LCPI1_11:
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI1_3:
.quad -4467570830351532032
.section .rodata,"a",@progbits
.LCPI1_12:
.byte 1
.byte 0
.section .text.haberdashery_aes192gcm_skylakex_encrypt,"ax",@progbits
.globl haberdashery_aes192gcm_skylakex_encrypt
.p2align 4, 0x90
.type haberdashery_aes192gcm_skylakex_encrypt,@function
haberdashery_aes192gcm_skylakex_encrypt:
.cfi_startproc
pushq %rbx
.cfi_def_cfa_offset 16
subq $48, %rsp
.cfi_def_cfa_offset 64
.cfi_offset %rbx, -16
movq 64(%rsp), %r10
xorl %eax, %eax
cmpq 80(%rsp), %r10
jne .LBB1_22
cmpq $16, 96(%rsp)
setne %r11b
movabsq $2305843009213693950, %rbx
cmpq %rbx, %r8
seta %bl
orb %r11b, %bl
jne .LBB1_22
movq %r10, %r11
shrq $5, %r11
cmpq $2147483647, %r11
setae %r11b
cmpq $12, %rdx
setne %dl
orb %r11b, %dl
jne .LBB1_22
vmovd (%rsi), %xmm0
vpinsrd $1, 4(%rsi), %xmm0, %xmm0
vpinsrd $2, 8(%rsi), %xmm0, %xmm0
movl $16777216, %edx
vpinsrd $3, %edx, %xmm0, %xmm16
vpxor %xmm1, %xmm1, %xmm1
testq %r8, %r8
je .LBB1_18
cmpq $96, %r8
jb .LBB1_5
vmovdqa64 208(%rdi), %xmm19
vmovdqa64 224(%rdi), %xmm20
vmovdqa64 240(%rdi), %xmm21
vmovdqa64 256(%rdi), %xmm22
vmovdqa 272(%rdi), %xmm5
vmovdqa 288(%rdi), %xmm6
vmovdqa64 .LCPI1_2(%rip), %xmm17
vpbroadcastq .LCPI1_3(%rip), %xmm23
movq %r8, %rdx
.p2align 4, 0x90
.LBB1_17:
vmovdqu64 (%rcx), %xmm18
vmovdqu 16(%rcx), %xmm10
vmovdqu 32(%rcx), %xmm11
vmovdqu 48(%rcx), %xmm12
vmovdqu 64(%rcx), %xmm13
vmovdqu 80(%rcx), %xmm14
vpshufb %xmm17, %xmm12, %xmm12
vpshufb %xmm17, %xmm13, %xmm13
vpshufb %xmm17, %xmm14, %xmm14
vmovdqa64 %xmm19, %xmm2
vpclmulqdq $0, %xmm14, %xmm2, %xmm15
vpclmulqdq $1, %xmm14, %xmm2, %xmm8
vpclmulqdq $16, %xmm14, %xmm2, %xmm7
vpxor %xmm7, %xmm8, %xmm7
vmovdqa64 %xmm20, %xmm3
vpclmulqdq $0, %xmm13, %xmm3, %xmm8
vpclmulqdq $1, %xmm13, %xmm3, %xmm9
vpclmulqdq $16, %xmm13, %xmm3, %xmm0
vpternlogq $150, %xmm9, %xmm7, %xmm0
vmovdqa64 %xmm21, %xmm4
vpclmulqdq $0, %xmm12, %xmm4, %xmm7
vpternlogq $150, %xmm15, %xmm8, %xmm7
vpclmulqdq $1, %xmm12, %xmm4, %xmm8
vpclmulqdq $16, %xmm12, %xmm4, %xmm9
vpternlogq $150, %xmm8, %xmm0, %xmm9
vpshufb %xmm17, %xmm10, %xmm0
vpshufb %xmm17, %xmm11, %xmm8
vpclmulqdq $17, %xmm14, %xmm2, %xmm10
vpclmulqdq $17, %xmm13, %xmm3, %xmm11
vpclmulqdq $17, %xmm12, %xmm4, %xmm12
vpternlogq $150, %xmm10, %xmm11, %xmm12
vmovdqa64 %xmm22, %xmm2
vpclmulqdq $1, %xmm8, %xmm2, %xmm10
vpclmulqdq $16, %xmm8, %xmm2, %xmm11
vpternlogq $150, %xmm10, %xmm9, %xmm11
vpclmulqdq $0, %xmm8, %xmm2, %xmm9
vpclmulqdq $0, %xmm0, %xmm5, %xmm10
vpternlogq $150, %xmm9, %xmm7, %xmm10
vpclmulqdq $1, %xmm0, %xmm5, %xmm7
vpclmulqdq $16, %xmm0, %xmm5, %xmm9
vpternlogq $150, %xmm7, %xmm11, %xmm9
vpshufb %xmm17, %xmm18, %xmm7
vpxor %xmm7, %xmm1, %xmm1
vpclmulqdq $17, %xmm8, %xmm2, %xmm7
vpclmulqdq $17, %xmm0, %xmm5, %xmm0
vpternlogq $150, %xmm7, %xmm12, %xmm0
vpclmulqdq $1, %xmm1, %xmm6, %xmm7
vpclmulqdq $16, %xmm1, %xmm6, %xmm8
vpternlogq $150, %xmm7, %xmm9, %xmm8
vpclmulqdq $0, %xmm1, %xmm6, %xmm7
vpslldq $8, %xmm8, %xmm9
vpternlogq $150, %xmm7, %xmm10, %xmm9
vpclmulqdq $17, %xmm1, %xmm6, %xmm7
vmovdqa64 %xmm23, %xmm2
vpclmulqdq $16, %xmm2, %xmm9, %xmm1
vpshufd $78, %xmm9, %xmm9
vpxor %xmm1, %xmm9, %xmm9
vpclmulqdq $16, %xmm2, %xmm9, %xmm1
vpternlogq $150, %xmm7, %xmm0, %xmm1
vpsrldq $8, %xmm8, %xmm0
vpshufd $78, %xmm9, %xmm7
addq $96, %rcx
addq $-96, %rdx
vpternlogq $150, %xmm0, %xmm7, %xmm1
cmpq $95, %rdx
ja .LBB1_17
cmpq $16, %rdx
jae .LBB1_11
jmp .LBB1_7
.LBB1_18:
testq %r10, %r10
jne .LBB1_25
jmp .LBB1_19
.LBB1_5:
movq %r8, %rdx
cmpq $16, %rdx
jb .LBB1_7
.LBB1_11:
vmovdqa 208(%rdi), %xmm0
leaq -16(%rdx), %rsi
testb $16, %sil
je .LBB1_12
cmpq $16, %rsi
jae .LBB1_14
.LBB1_8:
testq %rsi, %rsi
je .LBB1_20
.LBB1_9:
movl $-1, %edx
bzhil %esi, %edx, %edx
kmovd %edx, %k1
vmovdqu8 (%rcx), %xmm0 {%k1} {z}
testq %r10, %r10
je .LBB1_10
movabsq $-68719476704, %rcx
leaq (%r10,%rcx), %rdx
incq %rcx
cmpq %rcx, %rdx
jb .LBB1_22
vmovdqa 208(%rdi), %xmm2
vpshufb .LCPI1_2(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpclmulqdq $0, %xmm0, %xmm2, %xmm1
vpclmulqdq $1, %xmm0, %xmm2, %xmm3
vpclmulqdq $16, %xmm0, %xmm2, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm2, %xmm0
vpslldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpbroadcastq .LCPI1_3(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm1, %xmm4
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm4
vpxor %xmm0, %xmm3, %xmm1
vpternlogq $150, %xmm2, %xmm4, %xmm1
jmp .LBB1_25
.LBB1_12:
vmovdqu (%rcx), %xmm2
addq $16, %rcx
vpshufb .LCPI1_2(%rip), %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
vpslldq $8, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpsrldq $8, %xmm3, %xmm3
vpbroadcastq .LCPI1_3(%rip), %xmm4
vpclmulqdq $16, %xmm4, %xmm2, %xmm5
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm5, %xmm2
vpclmulqdq $16, %xmm4, %xmm2, %xmm4
vpshufd $78, %xmm2, %xmm2
vpxor %xmm1, %xmm4, %xmm1
vpternlogq $150, %xmm3, %xmm2, %xmm1
movq %rsi, %rdx
cmpq $16, %rsi
jb .LBB1_8
.LBB1_14:
vmovdqa .LCPI1_2(%rip), %xmm2
vpbroadcastq .LCPI1_3(%rip), %xmm3
.p2align 4, 0x90
.LBB1_15:
vmovdqu (%rcx), %xmm4
vmovdqu 16(%rcx), %xmm5
vpshufb %xmm2, %xmm4, %xmm4
vpxor %xmm4, %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm4
vpclmulqdq $1, %xmm1, %xmm0, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm7
vpxor %xmm6, %xmm7, %xmm6
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
vpslldq $8, %xmm6, %xmm7
vpxor %xmm7, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm4, %xmm7
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm7, %xmm4
vpclmulqdq $16, %xmm3, %xmm4, %xmm7
vpshufd $78, %xmm4, %xmm4
vpternlogq $150, %xmm1, %xmm6, %xmm7
addq $32, %rcx
addq $-32, %rdx
vpshufb %xmm2, %xmm5, %xmm1
vpternlogq $150, %xmm4, %xmm7, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm4
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vpclmulqdq $16, %xmm1, %xmm0, %xmm6
vpxor %xmm5, %xmm6, %xmm5
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
vpslldq $8, %xmm5, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpsrldq $8, %xmm5, %xmm5
vpclmulqdq $16, %xmm3, %xmm4, %xmm6
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm6, %xmm4
vpclmulqdq $16, %xmm3, %xmm4, %xmm6
vpshufd $78, %xmm4, %xmm4
vpxor %xmm1, %xmm6, %xmm1
vpternlogq $150, %xmm5, %xmm4, %xmm1
cmpq $15, %rdx
ja .LBB1_15
.LBB1_7:
movq %rdx, %rsi
testq %rsi, %rsi
jne .LBB1_9
.LBB1_20:
testq %r10, %r10
je .LBB1_19
movabsq $-68719476704, %rcx
leaq (%r10,%rcx), %rdx
incq %rcx
cmpq %rcx, %rdx
jb .LBB1_22
.LBB1_25:
movq 72(%rsp), %rdx
vpshufb .LCPI1_0(%rip), %xmm16, %xmm5
vpaddd .LCPI1_1(%rip), %xmm5, %xmm2
cmpq $96, %r10
jb .LBB1_26
vmovdqa64 .LCPI1_2(%rip), %xmm23
vpshufb %xmm23, %xmm2, %xmm0
vpaddd .LCPI1_4(%rip), %xmm5, %xmm2
vpshufb %xmm23, %xmm2, %xmm2
vpaddd .LCPI1_5(%rip), %xmm5, %xmm4
vpshufb %xmm23, %xmm4, %xmm6
vpaddd .LCPI1_6(%rip), %xmm5, %xmm4
vpshufb %xmm23, %xmm4, %xmm7
vpaddd .LCPI1_7(%rip), %xmm5, %xmm4
vpshufb %xmm23, %xmm4, %xmm8
vpaddd .LCPI1_8(%rip), %xmm5, %xmm4
vpshufb %xmm23, %xmm4, %xmm9
vmovdqa (%rdi), %xmm4
vmovaps 16(%rdi), %xmm10
vmovaps 32(%rdi), %xmm11
vmovdqa 48(%rdi), %xmm3
vpxor %xmm0, %xmm4, %xmm0
vpxor %xmm2, %xmm4, %xmm2
vpxor %xmm6, %xmm4, %xmm6
vpxor %xmm7, %xmm4, %xmm7
vpxor %xmm4, %xmm8, %xmm8
vpxor %xmm4, %xmm9, %xmm9
#APP
vaesenc %xmm10, %xmm0, %xmm0
vaesenc %xmm10, %xmm2, %xmm2
vaesenc %xmm10, %xmm6, %xmm6
vaesenc %xmm10, %xmm7, %xmm7
vaesenc %xmm10, %xmm8, %xmm8
vaesenc %xmm10, %xmm9, %xmm9
#NO_APP
vmovaps %xmm11, %xmm18
#APP
vaesenc %xmm11, %xmm0, %xmm0
vaesenc %xmm11, %xmm2, %xmm2
vaesenc %xmm11, %xmm6, %xmm6
vaesenc %xmm11, %xmm7, %xmm7
vaesenc %xmm11, %xmm8, %xmm8
vaesenc %xmm11, %xmm9, %xmm9
#NO_APP
#APP
vaesenc %xmm3, %xmm0, %xmm0
vaesenc %xmm3, %xmm2, %xmm2
vaesenc %xmm3, %xmm6, %xmm6
vaesenc %xmm3, %xmm7, %xmm7
vaesenc %xmm3, %xmm8, %xmm8
vaesenc %xmm3, %xmm9, %xmm9
#NO_APP
vmovaps 64(%rdi), %xmm11
vmovaps %xmm11, %xmm31
#APP
vaesenc %xmm11, %xmm0, %xmm0
vaesenc %xmm11, %xmm2, %xmm2
vaesenc %xmm11, %xmm6, %xmm6
vaesenc %xmm11, %xmm7, %xmm7
vaesenc %xmm11, %xmm8, %xmm8
vaesenc %xmm11, %xmm9, %xmm9
#NO_APP
vmovdqa 80(%rdi), %xmm14
#APP
vaesenc %xmm14, %xmm0, %xmm0
vaesenc %xmm14, %xmm2, %xmm2
vaesenc %xmm14, %xmm6, %xmm6
vaesenc %xmm14, %xmm7, %xmm7
vaesenc %xmm14, %xmm8, %xmm8
vaesenc %xmm14, %xmm9, %xmm9
#NO_APP
vmovdqa 96(%rdi), %xmm15
#APP
vaesenc %xmm15, %xmm0, %xmm0
vaesenc %xmm15, %xmm2, %xmm2
vaesenc %xmm15, %xmm6, %xmm6
vaesenc %xmm15, %xmm7, %xmm7
vaesenc %xmm15, %xmm8, %xmm8
vaesenc %xmm15, %xmm9, %xmm9
#NO_APP
vmovaps 112(%rdi), %xmm12
vmovaps %xmm12, -96(%rsp)
#APP
vaesenc %xmm12, %xmm0, %xmm0
vaesenc %xmm12, %xmm2, %xmm2
vaesenc %xmm12, %xmm6, %xmm6
vaesenc %xmm12, %xmm7, %xmm7
vaesenc %xmm12, %xmm8, %xmm8
vaesenc %xmm12, %xmm9, %xmm9
#NO_APP
vmovdqa 128(%rdi), %xmm12
#APP
vaesenc %xmm12, %xmm0, %xmm0
vaesenc %xmm12, %xmm2, %xmm2
vaesenc %xmm12, %xmm6, %xmm6
vaesenc %xmm12, %xmm7, %xmm7
vaesenc %xmm12, %xmm8, %xmm8
vaesenc %xmm12, %xmm9, %xmm9
#NO_APP
vmovaps 144(%rdi), %xmm11
vmovaps %xmm11, -112(%rsp)
#APP
vaesenc %xmm11, %xmm0, %xmm0
vaesenc %xmm11, %xmm2, %xmm2
vaesenc %xmm11, %xmm6, %xmm6
vaesenc %xmm11, %xmm7, %xmm7
vaesenc %xmm11, %xmm8, %xmm8
vaesenc %xmm11, %xmm9, %xmm9
#NO_APP
vmovaps 160(%rdi), %xmm11
#APP
vaesenc %xmm11, %xmm0, %xmm0
vaesenc %xmm11, %xmm2, %xmm2
vaesenc %xmm11, %xmm6, %xmm6
vaesenc %xmm11, %xmm7, %xmm7
vaesenc %xmm11, %xmm8, %xmm8
vaesenc %xmm11, %xmm9, %xmm9
#NO_APP
vmovaps 176(%rdi), %xmm13
vmovaps %xmm13, %xmm30
#APP
vaesenc %xmm13, %xmm0, %xmm0
vaesenc %xmm13, %xmm2, %xmm2
vaesenc %xmm13, %xmm6, %xmm6
vaesenc %xmm13, %xmm7, %xmm7
vaesenc %xmm13, %xmm8, %xmm8
vaesenc %xmm13, %xmm9, %xmm9
#NO_APP
vmovdqa 192(%rdi), %xmm13
#APP
vaesenclast %xmm13, %xmm0, %xmm0
vaesenclast %xmm13, %xmm2, %xmm2
vaesenclast %xmm13, %xmm6, %xmm6
vaesenclast %xmm13, %xmm7, %xmm7
vaesenclast %xmm13, %xmm8, %xmm8
vaesenclast %xmm13, %xmm9, %xmm9
#NO_APP
vpxorq (%r9), %xmm0, %xmm17
vpxorq 16(%r9), %xmm2, %xmm19
vpxorq 32(%r9), %xmm6, %xmm26
vpxorq 48(%r9), %xmm7, %xmm27
vpxorq 64(%r9), %xmm8, %xmm28
vpxor 80(%r9), %xmm9, %xmm0
leaq 96(%r9), %r9
leaq 96(%rdx), %rcx
vpaddd .LCPI1_9(%rip), %xmm5, %xmm2
vmovdqu64 %xmm17, (%rdx)
vmovdqu64 %xmm19, 16(%rdx)
vmovdqu64 %xmm26, 32(%rdx)
vmovdqu64 %xmm27, 48(%rdx)
leaq -96(%r10), %rax
vmovdqu64 %xmm28, 64(%rdx)
vmovdqu %xmm0, 80(%rdx)
cmpq $96, %rax
jb .LBB1_37
vmovdqa64 %xmm16, -128(%rsp)
vmovdqa %xmm3, %xmm5
vmovaps 208(%rdi), %xmm3
vmovaps %xmm3, 32(%rsp)
vmovaps 224(%rdi), %xmm3
vmovaps %xmm3, 16(%rsp)
vmovaps 240(%rdi), %xmm3
vmovaps %xmm3, (%rsp)
vmovaps 256(%rdi), %xmm3
vmovaps %xmm3, -16(%rsp)
vmovaps 272(%rdi), %xmm3
vmovaps %xmm3, -32(%rsp)
vmovdqa 288(%rdi), %xmm3
vmovdqa %xmm3, -48(%rsp)
vmovaps %xmm18, -64(%rsp)
vmovdqa %xmm5, -80(%rsp)
vmovdqa64 %xmm14, %xmm25
vmovaps %xmm11, %xmm16
vmovdqa64 %xmm15, %xmm24
vmovaps -96(%rsp), %xmm18
vmovdqa64 %xmm12, %xmm22
vmovdqa64 -112(%rsp), %xmm20
vmovdqa64 %xmm13, %xmm21
.p2align 4, 0x90
.LBB1_35:
vpshufb %xmm23, %xmm2, %xmm5
vpaddd .LCPI1_1(%rip), %xmm2, %xmm6
vpshufb %xmm23, %xmm6, %xmm6
vpaddd .LCPI1_4(%rip), %xmm2, %xmm7
vpshufb %xmm23, %xmm7, %xmm7
vpaddd .LCPI1_5(%rip), %xmm2, %xmm8
vpshufb %xmm23, %xmm8, %xmm8
vpaddd .LCPI1_6(%rip), %xmm2, %xmm9
vpshufb %xmm23, %xmm9, %xmm12
vpaddd .LCPI1_7(%rip), %xmm2, %xmm9
vpshufb %xmm23, %xmm9, %xmm13
vpshufb %xmm23, %xmm0, %xmm9
vpxor %xmm5, %xmm4, %xmm14
vpxor %xmm6, %xmm4, %xmm15
vpxor %xmm7, %xmm4, %xmm0
vpxor %xmm4, %xmm8, %xmm5
vpxor %xmm4, %xmm12, %xmm12
vpxor %xmm4, %xmm13, %xmm13
#APP
vaesenc %xmm10, %xmm14, %xmm14
vaesenc %xmm10, %xmm15, %xmm15
vaesenc %xmm10, %xmm0, %xmm0
vaesenc %xmm10, %xmm5, %xmm5
vaesenc %xmm10, %xmm12, %xmm12
vaesenc %xmm10, %xmm13, %xmm13
#NO_APP
vpxor %xmm7, %xmm7, %xmm7
vpxor %xmm8, %xmm8, %xmm8
vpxor %xmm6, %xmm6, %xmm6
vmovaps %xmm10, %xmm29
vmovaps 32(%rsp), %xmm11
vmovaps -64(%rsp), %xmm3
#APP
vaesenc %xmm3, %xmm14, %xmm14
vaesenc %xmm3, %xmm15, %xmm15
vaesenc %xmm3, %xmm0, %xmm0
vaesenc %xmm3, %xmm5, %xmm5
vaesenc %xmm3, %xmm12, %xmm12
vaesenc %xmm3, %xmm13, %xmm13
vpclmulqdq $16, %xmm11, %xmm9, %xmm10
vpxor %xmm10, %xmm8, %xmm8
vpclmulqdq $0, %xmm11, %xmm9, %xmm10
vpxor %xmm7, %xmm10, %xmm7
vpclmulqdq $17, %xmm11, %xmm9, %xmm10
vpxor %xmm6, %xmm10, %xmm6
vpclmulqdq $1, %xmm11, %xmm9, %xmm10
vpxor %xmm10, %xmm8, %xmm8
#NO_APP
vpshufb %xmm23, %xmm28, %xmm9
vmovaps 16(%rsp), %xmm3
vmovaps -80(%rsp), %xmm11
#APP
vaesenc %xmm11, %xmm14, %xmm14
vaesenc %xmm11, %xmm15, %xmm15
vaesenc %xmm11, %xmm0, %xmm0
vaesenc %xmm11, %xmm5, %xmm5
vaesenc %xmm11, %xmm12, %xmm12
vaesenc %xmm11, %xmm13, %xmm13
vpclmulqdq $16, %xmm3, %xmm9, %xmm10
vpxor %xmm10, %xmm8, %xmm8
vpclmulqdq $0, %xmm3, %xmm9, %xmm10
vpxor %xmm7, %xmm10, %xmm7
vpclmulqdq $17, %xmm3, %xmm9, %xmm10
vpxor %xmm6, %xmm10, %xmm6
vpclmulqdq $1, %xmm3, %xmm9, %xmm10
vpxor %xmm10, %xmm8, %xmm8
#NO_APP
vpshufb %xmm23, %xmm27, %xmm9
vmovaps %xmm31, %xmm3
#APP
vaesenc %xmm3, %xmm14, %xmm14
vaesenc %xmm3, %xmm15, %xmm15
vaesenc %xmm3, %xmm0, %xmm0
vaesenc %xmm3, %xmm5, %xmm5
vaesenc %xmm3, %xmm12, %xmm12
vaesenc %xmm3, %xmm13, %xmm13
#NO_APP
vmovaps (%rsp), %xmm3
vmovdqa64 %xmm25, %xmm11
#APP
vaesenc %xmm11, %xmm14, %xmm14
vaesenc %xmm11, %xmm15, %xmm15
vaesenc %xmm11, %xmm0, %xmm0
vaesenc %xmm11, %xmm5, %xmm5
vaesenc %xmm11, %xmm12, %xmm12
vaesenc %xmm11, %xmm13, %xmm13
vpclmulqdq $16, %xmm3, %xmm9, %xmm10
vpxor %xmm10, %xmm8, %xmm8
vpclmulqdq $0, %xmm3, %xmm9, %xmm10
vpxor %xmm7, %xmm10, %xmm7
vpclmulqdq $17, %xmm3, %xmm9, %xmm10
vpxor %xmm6, %xmm10, %xmm6
vpclmulqdq $1, %xmm3, %xmm9, %xmm10
vpxor %xmm10, %xmm8, %xmm8
#NO_APP
vpshufb %xmm23, %xmm26, %xmm9
vmovdqa64 %xmm24, %xmm3
#APP
vaesenc %xmm3, %xmm14, %xmm14
vaesenc %xmm3, %xmm15, %xmm15
vaesenc %xmm3, %xmm0, %xmm0
vaesenc %xmm3, %xmm5, %xmm5
vaesenc %xmm3, %xmm12, %xmm12
vaesenc %xmm3, %xmm13, %xmm13
#NO_APP
vmovaps %xmm18, %xmm11
vmovaps -16(%rsp), %xmm3
#APP
vaesenc %xmm11, %xmm14, %xmm14
vaesenc %xmm11, %xmm15, %xmm15
vaesenc %xmm11, %xmm0, %xmm0
vaesenc %xmm11, %xmm5, %xmm5
vaesenc %xmm11, %xmm12, %xmm12
vaesenc %xmm11, %xmm13, %xmm13
vpclmulqdq $16, %xmm3, %xmm9, %xmm10
vpxor %xmm10, %xmm8, %xmm8
vpclmulqdq $0, %xmm3, %xmm9, %xmm10
vpxor %xmm7, %xmm10, %xmm7
vpclmulqdq $17, %xmm3, %xmm9, %xmm10
vpxor %xmm6, %xmm10, %xmm6
vpclmulqdq $1, %xmm3, %xmm9, %xmm10
vpxor %xmm10, %xmm8, %xmm8
#NO_APP
vpshufb %xmm23, %xmm19, %xmm9
vmovdqa64 %xmm22, %xmm3
#APP
vaesenc %xmm3, %xmm14, %xmm14
vaesenc %xmm3, %xmm15, %xmm15
vaesenc %xmm3, %xmm0, %xmm0
vaesenc %xmm3, %xmm5, %xmm5
vaesenc %xmm3, %xmm12, %xmm12
vaesenc %xmm3, %xmm13, %xmm13
#NO_APP
vmovdqa64 %xmm20, %xmm11
vmovaps -32(%rsp), %xmm3
#APP
vaesenc %xmm11, %xmm14, %xmm14
vaesenc %xmm11, %xmm15, %xmm15
vaesenc %xmm11, %xmm0, %xmm0
vaesenc %xmm11, %xmm5, %xmm5
vaesenc %xmm11, %xmm12, %xmm12
vaesenc %xmm11, %xmm13, %xmm13
vpclmulqdq $16, %xmm3, %xmm9, %xmm10
vpxor %xmm10, %xmm8, %xmm8
vpclmulqdq $0, %xmm3, %xmm9, %xmm10
vpxor %xmm7, %xmm10, %xmm7
vpclmulqdq $17, %xmm3, %xmm9, %xmm10
vpxor %xmm6, %xmm10, %xmm6
vpclmulqdq $1, %xmm3, %xmm9, %xmm10
vpxor %xmm10, %xmm8, %xmm8
#NO_APP
vmovaps %xmm29, %xmm10
vpshufb %xmm23, %xmm17, %xmm9
vpxor %xmm1, %xmm9, %xmm1
vmovaps %xmm16, %xmm3
vmovaps -48(%rsp), %xmm11
#APP
vaesenc %xmm3, %xmm14, %xmm14
vaesenc %xmm3, %xmm15, %xmm15
vaesenc %xmm3, %xmm0, %xmm0
vaesenc %xmm3, %xmm5, %xmm5
vaesenc %xmm3, %xmm12, %xmm12
vaesenc %xmm3, %xmm13, %xmm13
vpclmulqdq $16, %xmm11, %xmm1, %xmm9
vpxor %xmm9, %xmm8, %xmm8
vpclmulqdq $0, %xmm11, %xmm1, %xmm9
vpxor %xmm7, %xmm9, %xmm7
vpclmulqdq $17, %xmm11, %xmm1, %xmm9
vpxor %xmm6, %xmm9, %xmm6
vpclmulqdq $1, %xmm11, %xmm1, %xmm9
vpxor %xmm9, %xmm8, %xmm8
#NO_APP
vmovaps %xmm30, %xmm1
#APP
vaesenc %xmm1, %xmm14, %xmm14
vaesenc %xmm1, %xmm15, %xmm15
vaesenc %xmm1, %xmm0, %xmm0
vaesenc %xmm1, %xmm5, %xmm5
vaesenc %xmm1, %xmm12, %xmm12
vaesenc %xmm1, %xmm13, %xmm13
#NO_APP
vmovdqa64 %xmm21, %xmm1
#APP
vaesenclast %xmm1, %xmm14, %xmm14
vaesenclast %xmm1, %xmm15, %xmm15
vaesenclast %xmm1, %xmm0, %xmm0
vaesenclast %xmm1, %xmm5, %xmm5
vaesenclast %xmm1, %xmm12, %xmm12
vaesenclast %xmm1, %xmm13, %xmm13
#NO_APP
vpxorq (%r9), %xmm14, %xmm17
vpxorq 16(%r9), %xmm15, %xmm19
vpxorq 32(%r9), %xmm0, %xmm26
vpxorq 48(%r9), %xmm5, %xmm27
vpxor %xmm0, %xmm0, %xmm0
vpunpcklqdq %xmm8, %xmm0, %xmm1
vpunpckhqdq %xmm0, %xmm8, %xmm5
vpxorq 64(%r9), %xmm12, %xmm28
vpxor 80(%r9), %xmm13, %xmm0
vpxor %xmm1, %xmm7, %xmm1
vpshufd $78, %xmm1, %xmm7
vpbroadcastq .LCPI1_3(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm1, %xmm1
vpxor %xmm7, %xmm1, %xmm7
vpxor %xmm5, %xmm6, %xmm1
vpshufd $78, %xmm7, %xmm5
vpclmulqdq $16, %xmm3, %xmm7, %xmm6
vpternlogq $150, %xmm6, %xmm5, %xmm1
addq $96, %r9
vmovdqu64 %xmm17, (%rcx)
vmovdqu64 %xmm19, 16(%rcx)
vmovdqu64 %xmm26, 32(%rcx)
vmovdqu64 %xmm27, 48(%rcx)
vmovdqu64 %xmm28, 64(%rcx)
vmovdqu %xmm0, 80(%rcx)
addq $96, %rcx
addq $-96, %rax
vpaddd .LCPI1_8(%rip), %xmm2, %xmm2
cmpq $95, %rax
ja .LBB1_35
vmovdqa64 -128(%rsp), %xmm16
.LBB1_37:
vpshufb %xmm23, %xmm17, %xmm6
vpshufb %xmm23, %xmm19, %xmm4
vpshufb %xmm23, %xmm26, %xmm5
vpshufb %xmm23, %xmm27, %xmm7
vpshufb %xmm23, %xmm28, %xmm8
vpshufb %xmm23, %xmm0, %xmm3
vpxor %xmm6, %xmm1, %xmm13
vmovdqa 208(%rdi), %xmm6
vmovdqa 224(%rdi), %xmm9
vmovdqa 240(%rdi), %xmm10
vmovdqa 256(%rdi), %xmm11
vmovdqa 272(%rdi), %xmm12
vmovdqa 288(%rdi), %xmm1
vpclmulqdq $0, %xmm3, %xmm6, %xmm0
vmovdqa64 %xmm0, %xmm18
vpclmulqdq $1, %xmm3, %xmm6, %xmm14
vpclmulqdq $16, %xmm3, %xmm6, %xmm15
vpxorq %xmm14, %xmm15, %xmm17
vpclmulqdq $17, %xmm3, %xmm6, %xmm3
vpclmulqdq $0, %xmm8, %xmm9, %xmm6
vpclmulqdq $1, %xmm8, %xmm9, %xmm15
vpclmulqdq $16, %xmm8, %xmm9, %xmm14
vpclmulqdq $17, %xmm8, %xmm9, %xmm8
vpternlogq $150, %xmm15, %xmm17, %xmm14
vpclmulqdq $0, %xmm7, %xmm10, %xmm9
vpclmulqdq $1, %xmm7, %xmm10, %xmm15
vpclmulqdq $16, %xmm7, %xmm10, %xmm0
vpclmulqdq $17, %xmm7, %xmm10, %xmm7
vpternlogq $150, %xmm18, %xmm6, %xmm9
vpternlogq $150, %xmm15, %xmm14, %xmm0
vpternlogq $150, %xmm3, %xmm8, %xmm7
vpclmulqdq $0, %xmm5, %xmm11, %xmm3
vpclmulqdq $1, %xmm5, %xmm11, %xmm6
vpclmulqdq $16, %xmm5, %xmm11, %xmm8
vpclmulqdq $17, %xmm5, %xmm11, %xmm5
vpternlogq $150, %xmm6, %xmm0, %xmm8
vpclmulqdq $0, %xmm4, %xmm12, %xmm0
vpclmulqdq $1, %xmm4, %xmm12, %xmm6
vpclmulqdq $16, %xmm4, %xmm12, %xmm10
vpclmulqdq $17, %xmm4, %xmm12, %xmm4
vpternlogq $150, %xmm3, %xmm9, %xmm0
vpternlogq $150, %xmm6, %xmm8, %xmm10
vpternlogq $150, %xmm5, %xmm7, %xmm4
vpclmulqdq $0, %xmm13, %xmm1, %xmm3
vpclmulqdq $1, %xmm13, %xmm1, %xmm5
vpclmulqdq $16, %xmm13, %xmm1, %xmm6
vpclmulqdq $17, %xmm13, %xmm1, %xmm7
vpternlogq $150, %xmm5, %xmm10, %xmm6
vpslldq $8, %xmm6, %xmm1
vpternlogq $150, %xmm3, %xmm0, %xmm1
vpsrldq $8, %xmm6, %xmm0
vpbroadcastq .LCPI1_3(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm1, %xmm5
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm5, %xmm5
vpclmulqdq $16, %xmm3, %xmm5, %xmm1
vpshufd $78, %xmm5, %xmm3
vpternlogq $150, %xmm7, %xmm4, %xmm1
vpternlogq $150, %xmm0, %xmm3, %xmm1
movq %rcx, %rdx
cmpq $16, %rax
jae .LBB1_38
.LBB1_28:
movq %rdx, %rcx
movq %r9, %rsi
jmp .LBB1_29
.LBB1_26:
movq %r10, %rax
cmpq $16, %rax
jb .LBB1_28
.LBB1_38:
vmovdqa64 (%rdi), %xmm19
vmovdqa64 16(%rdi), %xmm21
vmovdqa64 32(%rdi), %xmm22
vmovdqa64 48(%rdi), %xmm23
vmovdqa64 64(%rdi), %xmm24
vmovdqa 80(%rdi), %xmm7
vmovdqa 96(%rdi), %xmm8
vmovdqa 112(%rdi), %xmm9
vmovdqa 128(%rdi), %xmm10
vmovdqa 144(%rdi), %xmm11
vmovdqa 160(%rdi), %xmm12
vmovdqa 176(%rdi), %xmm13
vmovdqa 192(%rdi), %xmm14
vmovdqa 208(%rdi), %xmm15
vmovdqa64 .LCPI1_2(%rip), %xmm17
vpmovsxbq .LCPI1_12(%rip), %xmm18
vpbroadcastq .LCPI1_3(%rip), %xmm0
.p2align 4, 0x90
.LBB1_39:
vpshufb %xmm17, %xmm2, %xmm20
vpxorq %xmm20, %xmm19, %xmm3
vmovdqa64 %xmm21, %xmm4
vaesenc %xmm4, %xmm3, %xmm3
vmovdqa64 %xmm22, %xmm4
vaesenc %xmm4, %xmm3, %xmm3
vmovdqa64 %xmm23, %xmm4
vaesenc %xmm4, %xmm3, %xmm3
vmovdqa64 %xmm24, %xmm4
vaesenc %xmm4, %xmm3, %xmm3
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm8, %xmm3, %xmm3
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm10, %xmm3, %xmm3
vaesenc %xmm11, %xmm3, %xmm3
vaesenc %xmm12, %xmm3, %xmm3
vaesenc %xmm13, %xmm3, %xmm3
vaesenclast %xmm14, %xmm3, %xmm3
vpxor (%r9), %xmm3, %xmm3
vpshufb %xmm17, %xmm3, %xmm20
vpxorq %xmm20, %xmm1, %xmm1
vpclmulqdq $1, %xmm1, %xmm15, %xmm4
vpclmulqdq $16, %xmm1, %xmm15, %xmm5
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $0, %xmm1, %xmm15, %xmm5
vpclmulqdq $17, %xmm1, %xmm15, %xmm1
vpslldq $8, %xmm4, %xmm20
vpxorq %xmm20, %xmm5, %xmm5
vpclmulqdq $16, %xmm0, %xmm5, %xmm6
vpshufd $78, %xmm5, %xmm5
vpxor %xmm5, %xmm6, %xmm5
vpclmulqdq $16, %xmm0, %xmm5, %xmm6
vpxor %xmm1, %xmm6, %xmm1
vpshufd $78, %xmm5, %xmm5
leaq 16(%r9), %rsi
leaq 16(%rdx), %rcx
addq $-16, %rax
vpaddd %xmm18, %xmm2, %xmm2
vmovdqu %xmm3, (%rdx)
vpsrldq $8, %xmm4, %xmm3
vpternlogq $150, %xmm3, %xmm5, %xmm1
movq %rcx, %rdx
movq %rsi, %r9
cmpq $15, %rax
ja .LBB1_39
.LBB1_29:
testq %rax, %rax
je .LBB1_19
movl $-1, %edx
bzhil %eax, %edx, %eax
kmovd %eax, %k1
vmovdqu8 (%rsi), %xmm0 {%k1} {z}
vpshufb .LCPI1_2(%rip), %xmm2, %xmm2
vpxor (%rdi), %xmm2, %xmm2
vaesenc 16(%rdi), %xmm2, %xmm2
vaesenc 32(%rdi), %xmm2, %xmm2
vaesenc 48(%rdi), %xmm2, %xmm2
vaesenc 64(%rdi), %xmm2, %xmm2
vaesenc 80(%rdi), %xmm2, %xmm2
vaesenc 96(%rdi), %xmm2, %xmm2
vaesenc 112(%rdi), %xmm2, %xmm2
vaesenc 128(%rdi), %xmm2, %xmm2
vaesenc 144(%rdi), %xmm2, %xmm2
vaesenc 160(%rdi), %xmm2, %xmm2
vaesenc 176(%rdi), %xmm2, %xmm2
vaesenclast 192(%rdi), %xmm2, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vmovdqu8 %xmm0, (%rcx) {%k1}
testq %r10, %r10
je .LBB1_10
vmovdqu8 %xmm0, %xmm0 {%k1} {z}
vpshufb .LCPI1_2(%rip), %xmm0, %xmm0
vmovdqa 208(%rdi), %xmm2
jmp .LBB1_32
.LBB1_10:
vmovdqa 208(%rdi), %xmm2
vpshufb .LCPI1_2(%rip), %xmm0, %xmm0
.LBB1_32:
vpxor %xmm0, %xmm1, %xmm3
vpclmulqdq $0, %xmm3, %xmm2, %xmm0
vpclmulqdq $1, %xmm3, %xmm2, %xmm1
vpclmulqdq $16, %xmm3, %xmm2, %xmm4
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $17, %xmm3, %xmm2, %xmm2
vpslldq $8, %xmm1, %xmm3
vpxor %xmm3, %xmm0, %xmm0
vpsrldq $8, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm2
vpbroadcastq .LCPI1_3(%rip), %xmm1
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm0
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vpshufd $78, %xmm0, %xmm1
vpternlogq $150, %xmm3, %xmm2, %xmm1
.LBB1_19:
movq 88(%rsp), %rax
vmovdqa 208(%rdi), %xmm0
vmovq %r8, %xmm2
vmovq %r10, %xmm3
vpunpcklqdq %xmm2, %xmm3, %xmm2
vpsllq $3, %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm0, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpbroadcastq .LCPI1_3(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm4
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpxorq (%rdi), %xmm16, %xmm4
vaesenc 16(%rdi), %xmm4, %xmm4
vaesenc 32(%rdi), %xmm4, %xmm4
vaesenc 48(%rdi), %xmm4, %xmm4
vaesenc 64(%rdi), %xmm4, %xmm4
vaesenc 80(%rdi), %xmm4, %xmm4
vaesenc 96(%rdi), %xmm4, %xmm4
vaesenc 112(%rdi), %xmm4, %xmm4
vaesenc 128(%rdi), %xmm4, %xmm4
vaesenc 144(%rdi), %xmm4, %xmm4
vaesenc 160(%rdi), %xmm4, %xmm4
vaesenc 176(%rdi), %xmm4, %xmm4
vaesenclast 192(%rdi), %xmm4, %xmm4
vpxor %xmm0, %xmm2, %xmm0
vpshufb .LCPI1_2(%rip), %xmm0, %xmm0
vpshufb .LCPI1_10(%rip), %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpshufb .LCPI1_11(%rip), %xmm1, %xmm1
vpternlogq $150, %xmm0, %xmm4, %xmm1
vmovdqu %xmm1, (%rax)
movl $1, %eax
.LBB1_22:
addq $48, %rsp
.cfi_def_cfa_offset 16
popq %rbx
.cfi_def_cfa_offset 8
retq
.Lfunc_end1:
.size haberdashery_aes192gcm_skylakex_encrypt, .Lfunc_end1-haberdashery_aes192gcm_skylakex_encrypt
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI2_0:
.byte 15
.byte 128
.byte 128
.byte 128
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI2_1:
.long 1
.long 0
.long 0
.long 0
.LCPI2_2:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI2_4:
.long 2
.long 0
.long 0
.long 0
.LCPI2_5:
.long 3
.long 0
.long 0
.long 0
.LCPI2_6:
.long 4
.long 0
.long 0
.long 0
.LCPI2_7:
.long 5
.long 0
.long 0
.long 0
.LCPI2_8:
.long 6
.long 0
.long 0
.long 0
.LCPI2_9:
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.LCPI2_10:
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI2_3:
.quad -4467570830351532032
.section .rodata,"a",@progbits
.LCPI2_11:
.byte 1
.byte 0
.section .text.haberdashery_aes192gcm_skylakex_decrypt,"ax",@progbits
.globl haberdashery_aes192gcm_skylakex_decrypt
.p2align 4, 0x90
.type haberdashery_aes192gcm_skylakex_decrypt,@function
haberdashery_aes192gcm_skylakex_decrypt:
.cfi_startproc
pushq %rbp
.cfi_def_cfa_offset 16
pushq %r14
.cfi_def_cfa_offset 24
pushq %rbx
.cfi_def_cfa_offset 32
subq $32, %rsp
.cfi_def_cfa_offset 64
.cfi_offset %rbx, -32
.cfi_offset %r14, -24
.cfi_offset %rbp, -16
movq 64(%rsp), %r10
xorl %eax, %eax
cmpq 96(%rsp), %r10
jne .LBB2_5
cmpq $16, 80(%rsp)
setne %r11b
movabsq $2305843009213693950, %rbx
cmpq %rbx, %r8
seta %bl
movq %r10, %r14
shrq $5, %r14
cmpq $2147483647, %r14
setae %bpl
orb %r11b, %bl
orb %bpl, %bl
cmpq $12, %rdx
setne %dl
orb %bl, %dl
jne .LBB2_5
vmovd (%rsi), %xmm0
vpinsrd $1, 4(%rsi), %xmm0, %xmm0
vpinsrd $2, 8(%rsi), %xmm0, %xmm0
movl $16777216, %edx
vpinsrd $3, %edx, %xmm0, %xmm16
vpxor %xmm1, %xmm1, %xmm1
testq %r8, %r8
je .LBB2_3
cmpq $96, %r8
jb .LBB2_7
vmovdqa64 208(%rdi), %xmm19
vmovdqa64 224(%rdi), %xmm20
vmovdqa64 240(%rdi), %xmm21
vmovdqa64 256(%rdi), %xmm22
vmovdqa 272(%rdi), %xmm5
vmovdqa 288(%rdi), %xmm6
vmovdqa64 .LCPI2_2(%rip), %xmm17
vpbroadcastq .LCPI2_3(%rip), %xmm23
movq %r8, %rdx
.p2align 4, 0x90
.LBB2_19:
vmovdqu64 (%rcx), %xmm18
vmovdqu 16(%rcx), %xmm10
vmovdqu 32(%rcx), %xmm11
vmovdqu 48(%rcx), %xmm12
vmovdqu 64(%rcx), %xmm13
vmovdqu 80(%rcx), %xmm14
vpshufb %xmm17, %xmm12, %xmm12
vpshufb %xmm17, %xmm13, %xmm13
vpshufb %xmm17, %xmm14, %xmm14
vmovdqa64 %xmm19, %xmm2
vpclmulqdq $0, %xmm14, %xmm2, %xmm15
vpclmulqdq $1, %xmm14, %xmm2, %xmm8
vpclmulqdq $16, %xmm14, %xmm2, %xmm7
vpxor %xmm7, %xmm8, %xmm7
vmovdqa64 %xmm20, %xmm3
vpclmulqdq $0, %xmm13, %xmm3, %xmm8
vpclmulqdq $1, %xmm13, %xmm3, %xmm9
vpclmulqdq $16, %xmm13, %xmm3, %xmm0
vpternlogq $150, %xmm9, %xmm7, %xmm0
vmovdqa64 %xmm21, %xmm4
vpclmulqdq $0, %xmm12, %xmm4, %xmm7
vpternlogq $150, %xmm15, %xmm8, %xmm7
vpclmulqdq $1, %xmm12, %xmm4, %xmm8
vpclmulqdq $16, %xmm12, %xmm4, %xmm9
vpternlogq $150, %xmm8, %xmm0, %xmm9
vpshufb %xmm17, %xmm10, %xmm0
vpshufb %xmm17, %xmm11, %xmm8
vpclmulqdq $17, %xmm14, %xmm2, %xmm10
vpclmulqdq $17, %xmm13, %xmm3, %xmm11
vpclmulqdq $17, %xmm12, %xmm4, %xmm12
vpternlogq $150, %xmm10, %xmm11, %xmm12
vmovdqa64 %xmm22, %xmm2
vpclmulqdq $1, %xmm8, %xmm2, %xmm10
vpclmulqdq $16, %xmm8, %xmm2, %xmm11
vpternlogq $150, %xmm10, %xmm9, %xmm11
vpclmulqdq $0, %xmm8, %xmm2, %xmm9
vpclmulqdq $0, %xmm0, %xmm5, %xmm10
vpternlogq $150, %xmm9, %xmm7, %xmm10
vpclmulqdq $1, %xmm0, %xmm5, %xmm7
vpclmulqdq $16, %xmm0, %xmm5, %xmm9
vpternlogq $150, %xmm7, %xmm11, %xmm9
vpshufb %xmm17, %xmm18, %xmm7
vpxor %xmm7, %xmm1, %xmm1
vpclmulqdq $17, %xmm8, %xmm2, %xmm7
vpclmulqdq $17, %xmm0, %xmm5, %xmm0
vpternlogq $150, %xmm7, %xmm12, %xmm0
vpclmulqdq $1, %xmm1, %xmm6, %xmm7
vpclmulqdq $16, %xmm1, %xmm6, %xmm8
vpternlogq $150, %xmm7, %xmm9, %xmm8
vpclmulqdq $0, %xmm1, %xmm6, %xmm7
vpslldq $8, %xmm8, %xmm9
vpternlogq $150, %xmm7, %xmm10, %xmm9
vpclmulqdq $17, %xmm1, %xmm6, %xmm7
vmovdqa64 %xmm23, %xmm2
vpclmulqdq $16, %xmm2, %xmm9, %xmm1
vpshufd $78, %xmm9, %xmm9
vpxor %xmm1, %xmm9, %xmm9
vpclmulqdq $16, %xmm2, %xmm9, %xmm1
vpternlogq $150, %xmm7, %xmm0, %xmm1
vpsrldq $8, %xmm8, %xmm0
vpshufd $78, %xmm9, %xmm7
addq $96, %rcx
addq $-96, %rdx
vpternlogq $150, %xmm0, %xmm7, %xmm1
cmpq $95, %rdx
ja .LBB2_19
cmpq $16, %rdx
jae .LBB2_13
jmp .LBB2_9
.LBB2_7:
movq %r8, %rdx
cmpq $16, %rdx
jb .LBB2_9
.LBB2_13:
vmovdqa 208(%rdi), %xmm0
leaq -16(%rdx), %rsi
testb $16, %sil
je .LBB2_14
cmpq $16, %rsi
jae .LBB2_16
.LBB2_10:
testq %rsi, %rsi
je .LBB2_3
.LBB2_11:
movl $-1, %edx
bzhil %esi, %edx, %edx
kmovd %edx, %k1
vmovdqu8 (%rcx), %xmm0 {%k1} {z}
testq %r10, %r10
je .LBB2_12
movabsq $-68719476704, %rcx
leaq (%r10,%rcx), %rdx
incq %rcx
cmpq %rcx, %rdx
jb .LBB2_5
vmovdqa 208(%rdi), %xmm2
vpshufb .LCPI2_2(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpclmulqdq $0, %xmm0, %xmm2, %xmm1
vpclmulqdq $1, %xmm0, %xmm2, %xmm3
vpclmulqdq $16, %xmm0, %xmm2, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm2, %xmm0
vpslldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpbroadcastq .LCPI2_3(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm1, %xmm4
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm4
vpxor %xmm0, %xmm3, %xmm1
vpternlogq $150, %xmm2, %xmm4, %xmm1
jmp .LBB2_22
.LBB2_14:
vmovdqu (%rcx), %xmm2
addq $16, %rcx
vpshufb .LCPI2_2(%rip), %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
vpslldq $8, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpsrldq $8, %xmm3, %xmm3
vpbroadcastq .LCPI2_3(%rip), %xmm4
vpclmulqdq $16, %xmm4, %xmm2, %xmm5
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm5, %xmm2
vpclmulqdq $16, %xmm4, %xmm2, %xmm4
vpshufd $78, %xmm2, %xmm2
vpxor %xmm1, %xmm4, %xmm1
vpternlogq $150, %xmm3, %xmm2, %xmm1
movq %rsi, %rdx
cmpq $16, %rsi
jb .LBB2_10
.LBB2_16:
vmovdqa .LCPI2_2(%rip), %xmm2
vpbroadcastq .LCPI2_3(%rip), %xmm3
.p2align 4, 0x90
.LBB2_17:
vmovdqu (%rcx), %xmm4
vmovdqu 16(%rcx), %xmm5
vpshufb %xmm2, %xmm4, %xmm4
vpxor %xmm4, %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm4
vpclmulqdq $1, %xmm1, %xmm0, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm7
vpxor %xmm6, %xmm7, %xmm6
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
vpslldq $8, %xmm6, %xmm7
vpxor %xmm7, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm4, %xmm7
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm7, %xmm4
vpclmulqdq $16, %xmm3, %xmm4, %xmm7
vpshufd $78, %xmm4, %xmm4
vpternlogq $150, %xmm1, %xmm6, %xmm7
addq $32, %rcx
addq $-32, %rdx
vpshufb %xmm2, %xmm5, %xmm1
vpternlogq $150, %xmm4, %xmm7, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm4
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vpclmulqdq $16, %xmm1, %xmm0, %xmm6
vpxor %xmm5, %xmm6, %xmm5
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
vpslldq $8, %xmm5, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpsrldq $8, %xmm5, %xmm5
vpclmulqdq $16, %xmm3, %xmm4, %xmm6
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm6, %xmm4
vpclmulqdq $16, %xmm3, %xmm4, %xmm6
vpshufd $78, %xmm4, %xmm4
vpxor %xmm1, %xmm6, %xmm1
vpternlogq $150, %xmm5, %xmm4, %xmm1
cmpq $15, %rdx
ja .LBB2_17
.LBB2_9:
movq %rdx, %rsi
testq %rsi, %rsi
jne .LBB2_11
.LBB2_3:
testq %r10, %r10
je .LBB2_29
movabsq $-68719476704, %rcx
leaq (%r10,%rcx), %rdx
incq %rcx
cmpq %rcx, %rdx
jb .LBB2_5
.LBB2_22:
movq 88(%rsp), %rax
vpshufb .LCPI2_0(%rip), %xmm16, %xmm0
vpaddd .LCPI2_1(%rip), %xmm0, %xmm2
cmpq $96, %r10
jb .LBB2_23
vmovdqa64 %xmm16, -128(%rsp)
vmovdqa (%rdi), %xmm3
vmovaps 16(%rdi), %xmm0
vmovaps %xmm0, 16(%rsp)
vmovaps 32(%rdi), %xmm0
vmovaps %xmm0, (%rsp)
vmovaps 48(%rdi), %xmm0
vmovaps %xmm0, -16(%rsp)
vmovaps 64(%rdi), %xmm0
vmovaps %xmm0, -32(%rsp)
vmovaps 80(%rdi), %xmm0
vmovaps %xmm0, -48(%rsp)
vmovaps 96(%rdi), %xmm0
vmovaps %xmm0, -64(%rsp)
vmovaps 112(%rdi), %xmm0
vmovaps %xmm0, -80(%rsp)
vmovaps 128(%rdi), %xmm0
vmovaps %xmm0, -96(%rsp)
vmovdqa 144(%rdi), %xmm0
vmovdqa %xmm0, -112(%rsp)
vmovaps 160(%rdi), %xmm30
vmovaps 176(%rdi), %xmm31
vmovaps 192(%rdi), %xmm16
vmovdqa64 208(%rdi), %xmm18
vmovdqa64 224(%rdi), %xmm19
vmovdqa64 240(%rdi), %xmm20
vmovdqa64 256(%rdi), %xmm21
vmovdqa64 .LCPI2_2(%rip), %xmm17
vpxord %xmm24, %xmm24, %xmm24
movq %r10, %rcx
vmovdqa64 272(%rdi), %xmm22
vmovapd 288(%rdi), %xmm23
.p2align 4, 0x90
.LBB2_31:
vmovdqu64 16(%r9), %xmm25
vmovdqu64 32(%r9), %xmm26
vmovdqu64 48(%r9), %xmm27
vmovdqu64 64(%r9), %xmm28
vmovdqu64 80(%r9), %xmm29
vpshufb %xmm17, %xmm2, %xmm0
vpaddd .LCPI2_1(%rip), %xmm2, %xmm4
vpshufb %xmm17, %xmm4, %xmm4
vpaddd .LCPI2_4(%rip), %xmm2, %xmm5
vpshufb %xmm17, %xmm5, %xmm5
vpaddd .LCPI2_5(%rip), %xmm2, %xmm10
vpshufb %xmm17, %xmm10, %xmm13
vpaddd .LCPI2_6(%rip), %xmm2, %xmm10
vpshufb %xmm17, %xmm10, %xmm14
vpaddd .LCPI2_7(%rip), %xmm2, %xmm10
vpshufb %xmm17, %xmm10, %xmm15
vpshufb %xmm17, %xmm29, %xmm6
vpxor %xmm0, %xmm3, %xmm10
vpxor %xmm4, %xmm3, %xmm11
vpxor %xmm5, %xmm3, %xmm12
vpxor %xmm3, %xmm13, %xmm13
vpxor %xmm3, %xmm14, %xmm14
vpxor %xmm3, %xmm15, %xmm15
vmovaps 16(%rsp), %xmm0
#APP
vaesenc %xmm0, %xmm10, %xmm10
vaesenc %xmm0, %xmm11, %xmm11
vaesenc %xmm0, %xmm12, %xmm12
vaesenc %xmm0, %xmm13, %xmm13
vaesenc %xmm0, %xmm14, %xmm14
vaesenc %xmm0, %xmm15, %xmm15
#NO_APP
vpxor %xmm4, %xmm4, %xmm4
vpxor %xmm5, %xmm5, %xmm5
vxorps %xmm0, %xmm0, %xmm0
vmovaps (%rsp), %xmm7
vmovdqa64 %xmm18, %xmm8
#APP
vaesenc %xmm7, %xmm10, %xmm10
vaesenc %xmm7, %xmm11, %xmm11
vaesenc %xmm7, %xmm12, %xmm12
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm14, %xmm14
vaesenc %xmm7, %xmm15, %xmm15
vpclmulqdq $16, %xmm8, %xmm6, %xmm9
vpxor %xmm5, %xmm9, %xmm5
vpclmulqdq $0, %xmm8, %xmm6, %xmm9
vpxor %xmm4, %xmm9, %xmm4
vpclmulqdq $17, %xmm8, %xmm6, %xmm9
vpxor %xmm0, %xmm9, %xmm0
vpclmulqdq $1, %xmm8, %xmm6, %xmm9
vpxor %xmm5, %xmm9, %xmm5
#NO_APP
vpshufb %xmm17, %xmm28, %xmm6
vmovaps -16(%rsp), %xmm7
vmovdqa64 %xmm19, %xmm8
#APP
vaesenc %xmm7, %xmm10, %xmm10
vaesenc %xmm7, %xmm11, %xmm11
vaesenc %xmm7, %xmm12, %xmm12
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm14, %xmm14
vaesenc %xmm7, %xmm15, %xmm15
vpclmulqdq $16, %xmm8, %xmm6, %xmm9
vpxor %xmm5, %xmm9, %xmm5
vpclmulqdq $0, %xmm8, %xmm6, %xmm9
vpxor %xmm4, %xmm9, %xmm4
vpclmulqdq $17, %xmm8, %xmm6, %xmm9
vpxor %xmm0, %xmm9, %xmm0
vpclmulqdq $1, %xmm8, %xmm6, %xmm9
vpxor %xmm5, %xmm9, %xmm5
#NO_APP
vpshufb %xmm17, %xmm27, %xmm6
vmovaps -32(%rsp), %xmm7
#APP
vaesenc %xmm7, %xmm10, %xmm10
vaesenc %xmm7, %xmm11, %xmm11
vaesenc %xmm7, %xmm12, %xmm12
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm14, %xmm14
vaesenc %xmm7, %xmm15, %xmm15
#NO_APP
vmovaps -48(%rsp), %xmm7
vmovdqa64 %xmm20, %xmm8
#APP
vaesenc %xmm7, %xmm10, %xmm10
vaesenc %xmm7, %xmm11, %xmm11
vaesenc %xmm7, %xmm12, %xmm12
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm14, %xmm14
vaesenc %xmm7, %xmm15, %xmm15
vpclmulqdq $16, %xmm8, %xmm6, %xmm9
vpxor %xmm5, %xmm9, %xmm5
vpclmulqdq $0, %xmm8, %xmm6, %xmm9
vpxor %xmm4, %xmm9, %xmm4
vpclmulqdq $17, %xmm8, %xmm6, %xmm9
vpxor %xmm0, %xmm9, %xmm0
vpclmulqdq $1, %xmm8, %xmm6, %xmm9
vpxor %xmm5, %xmm9, %xmm5
#NO_APP
vpshufb %xmm17, %xmm26, %xmm6
vmovaps -64(%rsp), %xmm7
#APP
vaesenc %xmm7, %xmm10, %xmm10
vaesenc %xmm7, %xmm11, %xmm11
vaesenc %xmm7, %xmm12, %xmm12
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm14, %xmm14
vaesenc %xmm7, %xmm15, %xmm15
#NO_APP
vmovdqa64 %xmm21, %xmm8
vmovaps -80(%rsp), %xmm7
#APP
vaesenc %xmm7, %xmm10, %xmm10
vaesenc %xmm7, %xmm11, %xmm11
vaesenc %xmm7, %xmm12, %xmm12
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm14, %xmm14
vaesenc %xmm7, %xmm15, %xmm15
vpclmulqdq $16, %xmm8, %xmm6, %xmm9
vpxor %xmm5, %xmm9, %xmm5
vpclmulqdq $0, %xmm8, %xmm6, %xmm9
vpxor %xmm4, %xmm9, %xmm4
vpclmulqdq $17, %xmm8, %xmm6, %xmm9
vpxor %xmm0, %xmm9, %xmm0
vpclmulqdq $1, %xmm8, %xmm6, %xmm9
vpxor %xmm5, %xmm9, %xmm5
#NO_APP
vpshufb %xmm17, %xmm25, %xmm6
vmovaps -96(%rsp), %xmm7
#APP
vaesenc %xmm7, %xmm10, %xmm10
vaesenc %xmm7, %xmm11, %xmm11
vaesenc %xmm7, %xmm12, %xmm12
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm14, %xmm14
vaesenc %xmm7, %xmm15, %xmm15
#NO_APP
vmovdqa64 %xmm22, %xmm8
vmovaps -112(%rsp), %xmm7
#APP
vaesenc %xmm7, %xmm10, %xmm10
vaesenc %xmm7, %xmm11, %xmm11
vaesenc %xmm7, %xmm12, %xmm12
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm14, %xmm14
vaesenc %xmm7, %xmm15, %xmm15
vpclmulqdq $16, %xmm8, %xmm6, %xmm9
vpxor %xmm5, %xmm9, %xmm5
vpclmulqdq $0, %xmm8, %xmm6, %xmm9
vpxor %xmm4, %xmm9, %xmm4
vpclmulqdq $17, %xmm8, %xmm6, %xmm9
vpxor %xmm0, %xmm9, %xmm0
vpclmulqdq $1, %xmm8, %xmm6, %xmm9
vpxor %xmm5, %xmm9, %xmm5
#NO_APP
vmovdqu (%r9), %xmm6
vpshufb %xmm17, %xmm6, %xmm9
vpxor %xmm1, %xmm9, %xmm1
vmovaps %xmm30, %xmm7
vmovapd %xmm23, %xmm8
#APP
vaesenc %xmm7, %xmm10, %xmm10
vaesenc %xmm7, %xmm11, %xmm11
vaesenc %xmm7, %xmm12, %xmm12
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm14, %xmm14
vaesenc %xmm7, %xmm15, %xmm15
vpclmulqdq $16, %xmm8, %xmm1, %xmm9
vpxor %xmm5, %xmm9, %xmm5
vpclmulqdq $0, %xmm8, %xmm1, %xmm9
vpxor %xmm4, %xmm9, %xmm4
vpclmulqdq $17, %xmm8, %xmm1, %xmm9
vpxor %xmm0, %xmm9, %xmm0
vpclmulqdq $1, %xmm8, %xmm1, %xmm9
vpxor %xmm5, %xmm9, %xmm5
#NO_APP
vpunpcklqdq %xmm5, %xmm24, %xmm1
vpunpckhqdq %xmm24, %xmm5, %xmm5
vmovaps %xmm31, %xmm7
#APP
vaesenc %xmm7, %xmm10, %xmm10
vaesenc %xmm7, %xmm11, %xmm11
vaesenc %xmm7, %xmm12, %xmm12
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm14, %xmm14
vaesenc %xmm7, %xmm15, %xmm15
#NO_APP
vmovaps %xmm16, %xmm7
#APP
vaesenclast %xmm7, %xmm10, %xmm10
vaesenclast %xmm7, %xmm11, %xmm11
vaesenclast %xmm7, %xmm12, %xmm12
vaesenclast %xmm7, %xmm13, %xmm13
vaesenclast %xmm7, %xmm14, %xmm14
vaesenclast %xmm7, %xmm15, %xmm15
#NO_APP
vpxor %xmm6, %xmm10, %xmm6
vpxorq %xmm25, %xmm11, %xmm9
vpxorq %xmm26, %xmm12, %xmm10
vpxorq %xmm27, %xmm13, %xmm11
vpxorq %xmm28, %xmm14, %xmm12
vpxorq %xmm29, %xmm15, %xmm13
vpxor %xmm1, %xmm4, %xmm1
vpshufd $78, %xmm1, %xmm4
vpbroadcastq .LCPI2_3(%rip), %xmm7
vpclmulqdq $16, %xmm7, %xmm1, %xmm1
vpxor %xmm4, %xmm1, %xmm4
vpxor %xmm5, %xmm0, %xmm1
vmovdqu %xmm6, (%rax)
vmovdqu %xmm9, 16(%rax)
vmovdqu %xmm10, 32(%rax)
vmovdqu %xmm11, 48(%rax)
vmovdqu %xmm12, 64(%rax)
vmovdqu %xmm13, 80(%rax)
vpshufd $78, %xmm4, %xmm0
vpclmulqdq $16, %xmm7, %xmm4, %xmm4
vpternlogq $150, %xmm4, %xmm0, %xmm1
addq $96, %r9
addq $96, %rax
addq $-96, %rcx
vpaddd .LCPI2_8(%rip), %xmm2, %xmm2
cmpq $95, %rcx
ja .LBB2_31
vmovdqa64 -128(%rsp), %xmm16
cmpq $16, %rcx
jae .LBB2_33
.LBB2_25:
movq %rax, %rdx
jmp .LBB2_26
.LBB2_23:
movq %r10, %rcx
cmpq $16, %rcx
jb .LBB2_25
.LBB2_33:
vmovdqa 208(%rdi), %xmm0
vmovdqa64 (%rdi), %xmm18
vmovdqa64 16(%rdi), %xmm22
vmovdqa64 32(%rdi), %xmm23
vmovdqa64 48(%rdi), %xmm24
vmovdqa 64(%rdi), %xmm7
vmovdqa 80(%rdi), %xmm8
vmovdqa 96(%rdi), %xmm9
vmovdqa 112(%rdi), %xmm10
vmovdqa 128(%rdi), %xmm11
vmovdqa 144(%rdi), %xmm12
vmovdqa 160(%rdi), %xmm13
vmovdqa 176(%rdi), %xmm14
vmovdqa 192(%rdi), %xmm15
vmovdqa64 .LCPI2_2(%rip), %xmm17
vpbroadcastq .LCPI2_3(%rip), %xmm3
vpmovsxbq .LCPI2_11(%rip), %xmm19
.p2align 4, 0x90
.LBB2_34:
vmovdqu64 (%r9), %xmm20
vpshufb %xmm17, %xmm20, %xmm21
vpxorq %xmm21, %xmm1, %xmm1
vpclmulqdq $1, %xmm1, %xmm0, %xmm4
vpclmulqdq $16, %xmm1, %xmm0, %xmm5
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $0, %xmm1, %xmm0, %xmm5
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
vpslldq $8, %xmm4, %xmm21
vpxorq %xmm21, %xmm5, %xmm5
vpshufd $78, %xmm5, %xmm21
vpclmulqdq $16, %xmm3, %xmm5, %xmm5
vpxorq %xmm21, %xmm5, %xmm5
vpshufd $78, %xmm5, %xmm21
vpclmulqdq $16, %xmm3, %xmm5, %xmm5
vpxor %xmm1, %xmm5, %xmm1
vpshufb %xmm17, %xmm2, %xmm5
vpxorq %xmm5, %xmm18, %xmm5
vmovdqa64 %xmm22, %xmm6
vaesenc %xmm6, %xmm5, %xmm5
vmovdqa64 %xmm23, %xmm6
vaesenc %xmm6, %xmm5, %xmm5
vmovdqa64 %xmm24, %xmm6
vaesenc %xmm6, %xmm5, %xmm5
vaesenc %xmm7, %xmm5, %xmm5
vaesenc %xmm8, %xmm5, %xmm5
vaesenc %xmm9, %xmm5, %xmm5
vaesenc %xmm10, %xmm5, %xmm5
vaesenc %xmm11, %xmm5, %xmm5
vaesenc %xmm12, %xmm5, %xmm5
vaesenc %xmm13, %xmm5, %xmm5
vaesenc %xmm14, %xmm5, %xmm5
vaesenclast %xmm15, %xmm5, %xmm5
vpxorq %xmm20, %xmm5, %xmm5
leaq 16(%rax), %rdx
addq $-16, %rcx
addq $16, %r9
vpsrldq $8, %xmm4, %xmm4
vpternlogq $150, %xmm4, %xmm21, %xmm1
vpaddd %xmm19, %xmm2, %xmm2
vmovdqu %xmm5, (%rax)
movq %rdx, %rax
cmpq $15, %rcx
ja .LBB2_34
.LBB2_26:
testq %rcx, %rcx
je .LBB2_29
movl $-1, %eax
bzhil %ecx, %eax, %eax
kmovd %eax, %k1
vmovdqu8 (%r9), %xmm0 {%k1} {z}
vmovdqa .LCPI2_2(%rip), %xmm3
vpshufb %xmm3, %xmm2, %xmm2
vpxor (%rdi), %xmm2, %xmm2
vaesenc 16(%rdi), %xmm2, %xmm2
vaesenc 32(%rdi), %xmm2, %xmm2
vaesenc 48(%rdi), %xmm2, %xmm2
vaesenc 64(%rdi), %xmm2, %xmm2
vaesenc 80(%rdi), %xmm2, %xmm2
vaesenc 96(%rdi), %xmm2, %xmm2
vaesenc 112(%rdi), %xmm2, %xmm2
vaesenc 128(%rdi), %xmm2, %xmm2
vaesenc 144(%rdi), %xmm2, %xmm2
vaesenc 160(%rdi), %xmm2, %xmm2
vaesenc 176(%rdi), %xmm2, %xmm2
vaesenclast 192(%rdi), %xmm2, %xmm2
vpxor %xmm2, %xmm0, %xmm2
vmovdqu8 %xmm2, (%rdx) {%k1}
vpshufb %xmm3, %xmm0, %xmm0
vmovdqa 208(%rdi), %xmm3
jmp .LBB2_28
.LBB2_12:
vmovdqa 208(%rdi), %xmm3
vpshufb .LCPI2_2(%rip), %xmm0, %xmm0
.LBB2_28:
vpxor %xmm0, %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm3, %xmm0
vpclmulqdq $1, %xmm1, %xmm3, %xmm2
vpclmulqdq $16, %xmm1, %xmm3, %xmm4
vpxor %xmm2, %xmm4, %xmm2
vpclmulqdq $17, %xmm1, %xmm3, %xmm1
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm0, %xmm0
vpsrldq $8, %xmm2, %xmm2
vpbroadcastq .LCPI2_3(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm0, %xmm4
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm0, %xmm3
vpshufd $78, %xmm0, %xmm0
vpxor %xmm1, %xmm3, %xmm1
vpternlogq $150, %xmm2, %xmm0, %xmm1
.LBB2_29:
movq 72(%rsp), %rax
vmovdqa 208(%rdi), %xmm0
vmovq %r8, %xmm2
vmovq %r10, %xmm3
vpunpcklqdq %xmm2, %xmm3, %xmm2
vpsllq $3, %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm0, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpbroadcastq .LCPI2_3(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm4
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpxorq (%rdi), %xmm16, %xmm4
vaesenc 16(%rdi), %xmm4, %xmm4
vaesenc 32(%rdi), %xmm4, %xmm4
vaesenc 48(%rdi), %xmm4, %xmm4
vaesenc 64(%rdi), %xmm4, %xmm4
vaesenc 80(%rdi), %xmm4, %xmm4
vaesenc 96(%rdi), %xmm4, %xmm4
vaesenc 112(%rdi), %xmm4, %xmm4
vaesenc 128(%rdi), %xmm4, %xmm4
vaesenc 144(%rdi), %xmm4, %xmm4
vaesenc 160(%rdi), %xmm4, %xmm4
vaesenc 176(%rdi), %xmm4, %xmm4
vaesenclast 192(%rdi), %xmm4, %xmm4
vpshufb .LCPI2_9(%rip), %xmm1, %xmm1
vpxor %xmm0, %xmm2, %xmm0
vpshufb .LCPI2_2(%rip), %xmm0, %xmm0
vpshufb .LCPI2_10(%rip), %xmm3, %xmm2
vpternlogq $150, %xmm0, %xmm1, %xmm2
vpternlogq $150, (%rax), %xmm4, %xmm2
xorl %eax, %eax
vptest %xmm2, %xmm2
sete %al
.LBB2_5:
addq $32, %rsp
.cfi_def_cfa_offset 32
popq %rbx
.cfi_def_cfa_offset 24
popq %r14
.cfi_def_cfa_offset 16
popq %rbp
.cfi_def_cfa_offset 8
retq
.Lfunc_end2:
.size haberdashery_aes192gcm_skylakex_decrypt, .Lfunc_end2-haberdashery_aes192gcm_skylakex_decrypt
.cfi_endproc
.section .text.haberdashery_aes192gcm_skylakex_is_supported,"ax",@progbits
.globl haberdashery_aes192gcm_skylakex_is_supported
.p2align 4, 0x90
.type haberdashery_aes192gcm_skylakex_is_supported,@function
haberdashery_aes192gcm_skylakex_is_supported:
.cfi_startproc
movl $1, %eax
xorl %ecx, %ecx
#APP
movq %rbx, %rsi
cpuid
xchgq %rbx, %rsi
#NO_APP
movl %ecx, %esi
movl %edx, %edi
notl %edi
notl %esi
movl $7, %eax
xorl %ecx, %ecx
#APP
movq %rbx, %r8
cpuid
xchgq %rbx, %r8
#NO_APP
andl $1993871875, %esi
andl $125829120, %edi
orl %esi, %edi
notl %r8d
andl $-779157207, %r8d
xorl %eax, %eax
orl %edi, %r8d
sete %al
retq
.Lfunc_end3:
.size haberdashery_aes192gcm_skylakex_is_supported, .Lfunc_end3-haberdashery_aes192gcm_skylakex_is_supported
.cfi_endproc
.ident "rustc version 1.86.0-nightly (9cd60bd2c 2025-02-15)"
.section ".note.GNU-stack","",@progbits
|
ts-phantomnk90/haberdashery
| 60,931
|
asm/aes128gcm_broadwell.s
|
# @generated
# https://github.com/facebookincubator/haberdashery/
.text
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI0_0:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI0_1:
.zero 8
.quad -4467570830351532032
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI0_2:
.quad -4467570830351532032
.section .text.haberdashery_aes128gcm_broadwell_init,"ax",@progbits
.globl haberdashery_aes128gcm_broadwell_init
.p2align 4, 0x90
.type haberdashery_aes128gcm_broadwell_init,@function
haberdashery_aes128gcm_broadwell_init:
.cfi_startproc
cmpq $16, %rdx
jne .LBB0_2
vmovdqu (%rsi), %xmm2
vpslldq $4, %xmm2, %xmm0
vpslldq $8, %xmm2, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpslldq $12, %xmm2, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vaeskeygenassist $1, %xmm2, %xmm1
vpshufd $255, %xmm1, %xmm1
vpxor %xmm2, %xmm0, %xmm0
vmovdqa %xmm2, %xmm10
vmovdqa %xmm2, -56(%rsp)
vpxor %xmm0, %xmm1, %xmm1
vpslldq $4, %xmm1, %xmm0
vpslldq $8, %xmm1, %xmm2
vaeskeygenassist $2, %xmm1, %xmm3
vpxor %xmm2, %xmm0, %xmm0
vpslldq $12, %xmm1, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpshufd $255, %xmm3, %xmm2
vpxor %xmm1, %xmm0, %xmm0
vmovdqa %xmm1, -24(%rsp)
vpxor %xmm0, %xmm2, %xmm2
vpslldq $4, %xmm2, %xmm0
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm0, %xmm0
vaeskeygenassist $4, %xmm2, %xmm3
vpslldq $12, %xmm2, %xmm4
vpxor %xmm4, %xmm0, %xmm0
vpshufd $255, %xmm3, %xmm3
vpxor %xmm2, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm3
vpslldq $4, %xmm3, %xmm0
vpslldq $8, %xmm3, %xmm4
vpxor %xmm4, %xmm0, %xmm0
vpslldq $12, %xmm3, %xmm4
vaeskeygenassist $8, %xmm3, %xmm5
vpxor %xmm4, %xmm0, %xmm0
vpshufd $255, %xmm5, %xmm4
vpxor %xmm3, %xmm0, %xmm0
vpxor %xmm0, %xmm4, %xmm4
vpslldq $4, %xmm4, %xmm0
vpslldq $8, %xmm4, %xmm5
vpxor %xmm5, %xmm0, %xmm0
vpslldq $12, %xmm4, %xmm5
vpxor %xmm5, %xmm0, %xmm0
vaeskeygenassist $16, %xmm4, %xmm5
vpshufd $255, %xmm5, %xmm5
vpxor %xmm4, %xmm0, %xmm0
vpxor %xmm0, %xmm5, %xmm5
vpslldq $4, %xmm5, %xmm0
vpslldq $8, %xmm5, %xmm6
vaeskeygenassist $32, %xmm5, %xmm7
vpxor %xmm6, %xmm0, %xmm0
vpslldq $12, %xmm5, %xmm6
vpxor %xmm6, %xmm0, %xmm0
vpshufd $255, %xmm7, %xmm6
vpxor %xmm5, %xmm0, %xmm0
vpxor %xmm0, %xmm6, %xmm6
vpslldq $4, %xmm6, %xmm0
vpslldq $8, %xmm6, %xmm7
vpxor %xmm7, %xmm0, %xmm0
vaeskeygenassist $64, %xmm6, %xmm7
vpslldq $12, %xmm6, %xmm8
vpxor %xmm0, %xmm8, %xmm0
vpshufd $255, %xmm7, %xmm7
vpxor %xmm6, %xmm0, %xmm0
vpxor %xmm0, %xmm7, %xmm7
vpslldq $4, %xmm7, %xmm0
vpslldq $8, %xmm7, %xmm8
vpxor %xmm0, %xmm8, %xmm0
vpslldq $12, %xmm7, %xmm8
vaeskeygenassist $128, %xmm7, %xmm9
vpxor %xmm0, %xmm8, %xmm0
vpshufd $255, %xmm9, %xmm8
vpxor %xmm7, %xmm0, %xmm0
vpxor %xmm0, %xmm8, %xmm8
vpslldq $4, %xmm8, %xmm0
vpslldq $8, %xmm8, %xmm9
vpxor %xmm0, %xmm9, %xmm0
vpslldq $12, %xmm8, %xmm9
vpxor %xmm0, %xmm9, %xmm0
vaeskeygenassist $27, %xmm8, %xmm9
vpshufd $255, %xmm9, %xmm9
vpxor %xmm0, %xmm8, %xmm0
vpxor %xmm0, %xmm9, %xmm9
vpslldq $4, %xmm9, %xmm0
vpslldq $8, %xmm9, %xmm11
vaeskeygenassist $54, %xmm9, %xmm12
vpxor %xmm0, %xmm11, %xmm0
vpslldq $12, %xmm9, %xmm11
vpxor %xmm0, %xmm11, %xmm0
vpshufd $255, %xmm12, %xmm11
vpxor %xmm0, %xmm9, %xmm0
vpxor %xmm0, %xmm11, %xmm11
vmovdqa %xmm11, -40(%rsp)
vaesenc %xmm1, %xmm10, %xmm0
vaesenc %xmm2, %xmm0, %xmm0
vaesenc %xmm3, %xmm0, %xmm0
vaesenc %xmm4, %xmm0, %xmm0
vaesenc %xmm5, %xmm0, %xmm0
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm7, %xmm0, %xmm0
vaesenc %xmm8, %xmm0, %xmm0
vaesenc %xmm9, %xmm0, %xmm0
vaesenclast %xmm11, %xmm0, %xmm0
vpshufb .LCPI0_0(%rip), %xmm0, %xmm0
vpsrlq $63, %xmm0, %xmm11
vpaddq %xmm0, %xmm0, %xmm0
vpshufd $78, %xmm11, %xmm12
vpor %xmm0, %xmm12, %xmm0
vpxor %xmm12, %xmm12, %xmm12
vpblendd $12, %xmm11, %xmm12, %xmm11
vpsllq $63, %xmm11, %xmm12
vpxor %xmm0, %xmm12, %xmm0
vpsllq $62, %xmm11, %xmm12
vpsllq $57, %xmm11, %xmm11
vpxor %xmm11, %xmm12, %xmm11
vpxor %xmm0, %xmm11, %xmm11
vpclmulqdq $0, %xmm11, %xmm11, %xmm0
vpbroadcastq .LCPI0_2(%rip), %xmm13
vpclmulqdq $16, %xmm13, %xmm0, %xmm12
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm12, %xmm0
vpclmulqdq $16, %xmm13, %xmm0, %xmm12
vpclmulqdq $17, %xmm11, %xmm11, %xmm14
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm14, %xmm0
vpxor %xmm0, %xmm12, %xmm12
vpclmulqdq $16, %xmm11, %xmm12, %xmm0
vpclmulqdq $1, %xmm11, %xmm12, %xmm14
vpxor %xmm0, %xmm14, %xmm0
vpclmulqdq $0, %xmm11, %xmm12, %xmm14
vpslldq $8, %xmm0, %xmm15
vpxor %xmm15, %xmm14, %xmm14
vpclmulqdq $16, %xmm13, %xmm14, %xmm15
vpshufd $78, %xmm14, %xmm14
vpxor %xmm14, %xmm15, %xmm14
vpsrldq $8, %xmm0, %xmm0
vpclmulqdq $17, %xmm11, %xmm12, %xmm15
vpxor %xmm0, %xmm15, %xmm0
vpshufd $78, %xmm14, %xmm15
vpxor %xmm0, %xmm15, %xmm0
vpclmulqdq $16, %xmm13, %xmm14, %xmm14
vpxor %xmm0, %xmm14, %xmm14
vpclmulqdq $0, %xmm14, %xmm14, %xmm0
vpclmulqdq $16, %xmm13, %xmm0, %xmm15
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm15, %xmm0
vpclmulqdq $17, %xmm14, %xmm14, %xmm15
vpshufd $78, %xmm0, %xmm10
vpxor %xmm10, %xmm15, %xmm10
vpclmulqdq $16, %xmm13, %xmm0, %xmm0
vpxor %xmm0, %xmm10, %xmm0
vmovdqa %xmm0, -72(%rsp)
vpclmulqdq $0, %xmm12, %xmm12, %xmm0
vpclmulqdq $16, %xmm13, %xmm0, %xmm10
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm10, %xmm0
vpclmulqdq $17, %xmm12, %xmm12, %xmm10
vpshufd $78, %xmm0, %xmm15
vpxor %xmm15, %xmm10, %xmm10
vpclmulqdq $16, %xmm13, %xmm0, %xmm0
vpxor %xmm0, %xmm10, %xmm0
vpclmulqdq $16, %xmm11, %xmm0, %xmm10
vpclmulqdq $1, %xmm11, %xmm0, %xmm15
vpxor %xmm10, %xmm15, %xmm10
vpclmulqdq $0, %xmm11, %xmm0, %xmm15
vpslldq $8, %xmm10, %xmm1
vpxor %xmm1, %xmm15, %xmm1
vpclmulqdq $16, %xmm13, %xmm1, %xmm15
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm15, %xmm1
vpsrldq $8, %xmm10, %xmm10
vpclmulqdq $17, %xmm11, %xmm0, %xmm15
vpxor %xmm10, %xmm15, %xmm10
vpclmulqdq $16, %xmm13, %xmm1, %xmm13
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm10, %xmm1
vpxor %xmm1, %xmm13, %xmm1
vmovaps -56(%rsp), %xmm10
vmovaps %xmm10, (%rdi)
vmovaps -24(%rsp), %xmm10
vmovaps %xmm10, 16(%rdi)
vmovdqa %xmm2, 32(%rdi)
vmovdqa %xmm3, 48(%rdi)
vmovdqa %xmm4, 64(%rdi)
vmovdqa %xmm5, 80(%rdi)
vmovdqa %xmm6, 96(%rdi)
vmovdqa %xmm7, 112(%rdi)
vmovdqa %xmm8, 128(%rdi)
vmovdqa %xmm9, 144(%rdi)
vmovaps -40(%rsp), %xmm2
vmovaps %xmm2, 160(%rdi)
vmovdqa %xmm11, 176(%rdi)
vmovdqa %xmm12, 192(%rdi)
vmovdqa %xmm14, 208(%rdi)
vmovdqa %xmm0, 224(%rdi)
vmovdqa %xmm1, 240(%rdi)
vmovaps -72(%rsp), %xmm0
vmovaps %xmm0, 256(%rdi)
.LBB0_2:
xorl %eax, %eax
cmpq $16, %rdx
sete %al
retq
.Lfunc_end0:
.size haberdashery_aes128gcm_broadwell_init, .Lfunc_end0-haberdashery_aes128gcm_broadwell_init
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI1_0:
.byte 15
.byte 128
.byte 128
.byte 128
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI1_1:
.long 1
.long 0
.long 0
.long 0
.LCPI1_2:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI1_3:
.zero 8
.quad -4467570830351532032
.LCPI1_4:
.long 2
.long 0
.long 0
.long 0
.LCPI1_5:
.long 3
.long 0
.long 0
.long 0
.LCPI1_6:
.long 4
.long 0
.long 0
.long 0
.LCPI1_7:
.long 5
.long 0
.long 0
.long 0
.LCPI1_8:
.long 6
.long 0
.long 0
.long 0
.LCPI1_9:
.long 7
.long 0
.long 0
.long 0
.LCPI1_10:
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.LCPI1_11:
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.LCPI1_12:
.zero 16
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI1_13:
.quad -4467570830351532032
.section .text.haberdashery_aes128gcm_broadwell_encrypt,"ax",@progbits
.globl haberdashery_aes128gcm_broadwell_encrypt
.p2align 4, 0x90
.type haberdashery_aes128gcm_broadwell_encrypt,@function
haberdashery_aes128gcm_broadwell_encrypt:
.cfi_startproc
pushq %rbp
.cfi_def_cfa_offset 16
pushq %r15
.cfi_def_cfa_offset 24
pushq %r14
.cfi_def_cfa_offset 32
pushq %r13
.cfi_def_cfa_offset 40
pushq %r12
.cfi_def_cfa_offset 48
pushq %rbx
.cfi_def_cfa_offset 56
subq $392, %rsp
.cfi_def_cfa_offset 448
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
.cfi_offset %rbp, -16
movq 448(%rsp), %r15
xorl %eax, %eax
cmpq 464(%rsp), %r15
jne .LBB1_40
cmpq $16, 480(%rsp)
setne %r10b
movabsq $2305843009213693950, %r11
cmpq %r11, %r8
seta %r11b
orb %r10b, %r11b
jne .LBB1_40
movq %r15, %r10
shrq $5, %r10
cmpq $2147483647, %r10
setae %r10b
cmpq $12, %rdx
setne %dl
orb %r10b, %dl
jne .LBB1_40
vmovd (%rsi), %xmm0
vpinsrd $1, 4(%rsi), %xmm0, %xmm0
vpinsrd $2, 8(%rsi), %xmm0, %xmm0
movl $16777216, %edx
vpinsrd $3, %edx, %xmm0, %xmm0
vmovdqa %xmm0, 64(%rsp)
vpxor %xmm13, %xmm13, %xmm13
testq %r8, %r8
je .LBB1_19
cmpq $96, %r8
jb .LBB1_5
vmovdqu (%rcx), %xmm1
vmovdqu 16(%rcx), %xmm2
vmovdqu 32(%rcx), %xmm3
vmovdqu 48(%rcx), %xmm4
vmovdqu 64(%rcx), %xmm5
vmovdqu 80(%rcx), %xmm6
vmovdqa .LCPI1_2(%rip), %xmm0
vpshufb %xmm0, %xmm1, %xmm7
vpshufb %xmm0, %xmm2, %xmm10
vpshufb %xmm0, %xmm3, %xmm8
vpshufb %xmm0, %xmm4, %xmm9
vpshufb %xmm0, %xmm5, %xmm5
vpshufb %xmm0, %xmm6, %xmm6
vmovdqa 176(%rdi), %xmm1
vmovdqa 192(%rdi), %xmm2
vmovdqa 208(%rdi), %xmm3
vmovdqa 224(%rdi), %xmm4
vpclmulqdq $0, %xmm6, %xmm1, %xmm11
vpclmulqdq $1, %xmm6, %xmm1, %xmm12
vpclmulqdq $16, %xmm6, %xmm1, %xmm13
vpxor %xmm12, %xmm13, %xmm12
vpclmulqdq $17, %xmm6, %xmm1, %xmm6
vpclmulqdq $0, %xmm5, %xmm2, %xmm13
vpxor %xmm11, %xmm13, %xmm11
vpclmulqdq $1, %xmm5, %xmm2, %xmm13
vpclmulqdq $16, %xmm5, %xmm2, %xmm14
vpxor %xmm14, %xmm13, %xmm13
vpxor %xmm13, %xmm12, %xmm12
vpclmulqdq $17, %xmm5, %xmm2, %xmm5
vpxor %xmm6, %xmm5, %xmm13
vpclmulqdq $0, %xmm9, %xmm3, %xmm5
vpclmulqdq $1, %xmm9, %xmm3, %xmm6
vpclmulqdq $16, %xmm9, %xmm3, %xmm14
vpxor %xmm6, %xmm14, %xmm6
vpclmulqdq $0, %xmm8, %xmm4, %xmm14
vpxor %xmm5, %xmm14, %xmm14
vmovdqa 240(%rdi), %xmm5
vpxor %xmm14, %xmm11, %xmm11
vpclmulqdq $1, %xmm8, %xmm4, %xmm14
vpxor %xmm6, %xmm14, %xmm14
vmovdqa 256(%rdi), %xmm6
vpclmulqdq $17, %xmm9, %xmm3, %xmm9
vpxor %xmm14, %xmm12, %xmm12
vpclmulqdq $16, %xmm8, %xmm4, %xmm14
vpclmulqdq $17, %xmm8, %xmm4, %xmm8
vpxor %xmm8, %xmm9, %xmm8
vpxor %xmm8, %xmm13, %xmm13
vpclmulqdq $0, %xmm10, %xmm5, %xmm8
vpclmulqdq $1, %xmm10, %xmm5, %xmm9
vpxor %xmm9, %xmm14, %xmm9
vpclmulqdq $16, %xmm10, %xmm5, %xmm14
vpxor %xmm14, %xmm9, %xmm9
vpclmulqdq $0, %xmm7, %xmm6, %xmm14
vpxor %xmm14, %xmm8, %xmm8
vpxor %xmm8, %xmm11, %xmm8
vpclmulqdq $1, %xmm7, %xmm6, %xmm11
vpxor %xmm11, %xmm9, %xmm9
vpxor %xmm9, %xmm12, %xmm9
vpclmulqdq $16, %xmm7, %xmm6, %xmm11
vpxor %xmm11, %xmm9, %xmm9
vpclmulqdq $17, %xmm10, %xmm5, %xmm10
vpclmulqdq $17, %xmm7, %xmm6, %xmm7
vpxor %xmm7, %xmm10, %xmm7
vpxor %xmm7, %xmm13, %xmm10
addq $96, %rcx
leaq -96(%r8), %rsi
cmpq $96, %rsi
jb .LBB1_18
.p2align 4, 0x90
.LBB1_17:
vmovdqu (%rcx), %xmm11
vmovdqu 32(%rcx), %xmm12
vmovdqu 48(%rcx), %xmm13
vmovdqu 64(%rcx), %xmm14
vmovdqu 80(%rcx), %xmm15
vpslldq $8, %xmm9, %xmm7
vpxor %xmm7, %xmm8, %xmm7
vpsrldq $8, %xmm9, %xmm8
vpxor %xmm8, %xmm10, %xmm8
vpbroadcastq .LCPI1_13(%rip), %xmm10
vpclmulqdq $16, %xmm10, %xmm7, %xmm9
vpshufd $78, %xmm7, %xmm7
vpxor %xmm7, %xmm9, %xmm7
vpclmulqdq $16, %xmm10, %xmm7, %xmm9
vpshufd $78, %xmm7, %xmm7
vpshufb %xmm0, %xmm11, %xmm10
vpxor %xmm10, %xmm8, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpxor %xmm7, %xmm9, %xmm10
vpshufb %xmm0, %xmm12, %xmm8
vpshufb %xmm0, %xmm13, %xmm7
vpshufb %xmm0, %xmm14, %xmm9
vpshufb %xmm0, %xmm15, %xmm11
vpclmulqdq $0, %xmm11, %xmm1, %xmm12
vpclmulqdq $1, %xmm11, %xmm1, %xmm13
vpclmulqdq $16, %xmm11, %xmm1, %xmm14
vpxor %xmm13, %xmm14, %xmm13
vpclmulqdq $17, %xmm11, %xmm1, %xmm11
vpclmulqdq $0, %xmm9, %xmm2, %xmm14
vpxor %xmm12, %xmm14, %xmm12
vpclmulqdq $1, %xmm9, %xmm2, %xmm14
vpclmulqdq $16, %xmm9, %xmm2, %xmm15
vpxor %xmm15, %xmm14, %xmm14
vpxor %xmm14, %xmm13, %xmm13
vpclmulqdq $17, %xmm9, %xmm2, %xmm9
vpxor %xmm11, %xmm9, %xmm9
vpclmulqdq $0, %xmm7, %xmm3, %xmm11
vpclmulqdq $1, %xmm7, %xmm3, %xmm14
vpclmulqdq $16, %xmm7, %xmm3, %xmm15
vpxor %xmm15, %xmm14, %xmm14
vpclmulqdq $0, %xmm8, %xmm4, %xmm15
vpxor %xmm15, %xmm11, %xmm11
vpxor %xmm11, %xmm12, %xmm11
vpclmulqdq $1, %xmm8, %xmm4, %xmm12
vpxor %xmm12, %xmm14, %xmm12
vpclmulqdq $17, %xmm7, %xmm3, %xmm7
vpxor %xmm12, %xmm13, %xmm12
vpclmulqdq $17, %xmm8, %xmm4, %xmm13
vpxor %xmm7, %xmm13, %xmm7
vmovdqu 16(%rcx), %xmm13
vpshufb %xmm0, %xmm13, %xmm13
vpclmulqdq $16, %xmm8, %xmm4, %xmm8
vpxor %xmm7, %xmm9, %xmm7
vpclmulqdq $0, %xmm13, %xmm5, %xmm9
vpxor %xmm9, %xmm11, %xmm9
vpclmulqdq $1, %xmm13, %xmm5, %xmm11
vpxor %xmm11, %xmm8, %xmm8
vpclmulqdq $16, %xmm13, %xmm5, %xmm11
vpxor %xmm11, %xmm8, %xmm8
vpxor %xmm8, %xmm12, %xmm11
vpclmulqdq $17, %xmm13, %xmm5, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $0, %xmm10, %xmm6, %xmm8
vpxor %xmm8, %xmm9, %xmm8
vpclmulqdq $1, %xmm10, %xmm6, %xmm9
vpxor %xmm9, %xmm11, %xmm9
vpclmulqdq $16, %xmm10, %xmm6, %xmm11
vpxor %xmm11, %xmm9, %xmm9
vpclmulqdq $17, %xmm10, %xmm6, %xmm10
vpxor %xmm7, %xmm10, %xmm10
addq $96, %rcx
addq $-96, %rsi
cmpq $95, %rsi
ja .LBB1_17
.LBB1_18:
vpslldq $8, %xmm9, %xmm0
vpxor %xmm0, %xmm8, %xmm0
vpsrldq $8, %xmm9, %xmm1
vpxor %xmm1, %xmm10, %xmm1
vpbroadcastq .LCPI1_13(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm0, %xmm3
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm0
vpclmulqdq $16, %xmm2, %xmm0, %xmm2
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpxor %xmm2, %xmm0, %xmm13
cmpq $16, %rsi
jae .LBB1_7
jmp .LBB1_12
.LBB1_19:
testq %r15, %r15
jne .LBB1_24
jmp .LBB1_39
.LBB1_5:
movq %r8, %rsi
cmpq $16, %rsi
jb .LBB1_12
.LBB1_7:
vmovdqa 176(%rdi), %xmm0
leaq -16(%rsi), %rdx
testb $16, %dl
je .LBB1_8
cmpq $16, %rdx
jae .LBB1_10
.LBB1_13:
testq %rdx, %rdx
je .LBB1_20
.LBB1_14:
vmovdqa %xmm13, 16(%rsp)
movq %r9, %r14
movq %r8, %rbx
movq %rdi, %r12
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, (%rsp)
movq %rsp, %rdi
movq %rcx, %rsi
callq *memcpy@GOTPCREL(%rip)
vmovdqa (%rsp), %xmm0
testq %r15, %r15
je .LBB1_15
movabsq $-68719476704, %rax
leaq (%r15,%rax), %rcx
incq %rax
cmpq %rax, %rcx
movl $0, %eax
vmovdqa 16(%rsp), %xmm2
jb .LBB1_40
movq %r12, %rdi
movq %rbx, %r8
movq %r14, %r9
vmovdqa 176(%r12), %xmm1
vpshufb .LCPI1_2(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI1_13(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm13
jmp .LBB1_24
.LBB1_8:
vmovdqu (%rcx), %xmm1
vpshufb .LCPI1_2(%rip), %xmm1, %xmm1
addq $16, %rcx
vpxor %xmm1, %xmm13, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
vpslldq $8, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpsrldq $8, %xmm3, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpbroadcastq .LCPI1_13(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm2, %xmm4
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm4, %xmm2
vpclmulqdq $16, %xmm3, %xmm2, %xmm3
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm13
movq %rdx, %rsi
cmpq $16, %rdx
jb .LBB1_13
.LBB1_10:
vmovdqa .LCPI1_2(%rip), %xmm1
vpbroadcastq .LCPI1_13(%rip), %xmm2
.p2align 4, 0x90
.LBB1_11:
vmovdqu (%rcx), %xmm3
vmovdqu 16(%rcx), %xmm4
vpshufb %xmm1, %xmm3, %xmm3
vpxor %xmm3, %xmm13, %xmm3
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpclmulqdq $1, %xmm3, %xmm0, %xmm6
vpclmulqdq $16, %xmm3, %xmm0, %xmm7
vpxor %xmm6, %xmm7, %xmm6
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
vpslldq $8, %xmm6, %xmm7
vpxor %xmm7, %xmm5, %xmm5
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm3, %xmm3
vpclmulqdq $16, %xmm2, %xmm5, %xmm6
vpshufd $78, %xmm5, %xmm5
vpxor %xmm5, %xmm6, %xmm5
vpclmulqdq $16, %xmm2, %xmm5, %xmm6
vpshufd $78, %xmm5, %xmm5
vpxor %xmm5, %xmm3, %xmm3
addq $32, %rcx
addq $-32, %rsi
vpshufb %xmm1, %xmm4, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpxor %xmm3, %xmm6, %xmm3
vpclmulqdq $0, %xmm3, %xmm0, %xmm4
vpclmulqdq $1, %xmm3, %xmm0, %xmm5
vpclmulqdq $16, %xmm3, %xmm0, %xmm6
vpxor %xmm5, %xmm6, %xmm5
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
vpslldq $8, %xmm5, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpsrldq $8, %xmm5, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpclmulqdq $16, %xmm2, %xmm4, %xmm5
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $16, %xmm2, %xmm4, %xmm5
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpxor %xmm3, %xmm5, %xmm13
cmpq $15, %rsi
ja .LBB1_11
.LBB1_12:
movq %rsi, %rdx
testq %rdx, %rdx
jne .LBB1_14
.LBB1_20:
testq %r15, %r15
je .LBB1_39
movabsq $-68719476704, %rcx
leaq (%r15,%rcx), %rdx
incq %rcx
cmpq %rcx, %rdx
jb .LBB1_40
.LBB1_24:
vmovdqa 64(%rsp), %xmm0
vpshufb .LCPI1_0(%rip), %xmm0, %xmm1
movq 456(%rsp), %rdx
vpaddd .LCPI1_1(%rip), %xmm1, %xmm15
cmpq $96, %r15
jb .LBB1_25
leaq 96(%r9), %rax
leaq 96(%rdx), %rcx
vmovdqa .LCPI1_2(%rip), %xmm12
vpshufb %xmm12, %xmm15, %xmm2
vpaddd .LCPI1_4(%rip), %xmm1, %xmm3
vpshufb %xmm12, %xmm3, %xmm3
vpaddd .LCPI1_5(%rip), %xmm1, %xmm4
vpshufb %xmm12, %xmm4, %xmm4
vpaddd .LCPI1_6(%rip), %xmm1, %xmm5
vpaddd .LCPI1_7(%rip), %xmm1, %xmm6
vpshufb %xmm12, %xmm5, %xmm5
vpshufb %xmm12, %xmm6, %xmm6
vpaddd .LCPI1_8(%rip), %xmm1, %xmm7
vpshufb %xmm12, %xmm7, %xmm7
vpaddd .LCPI1_9(%rip), %xmm1, %xmm15
vmovdqa (%rdi), %xmm0
vmovdqa 16(%rdi), %xmm1
vmovdqa 32(%rdi), %xmm14
vmovaps 48(%rdi), %xmm8
vpxor %xmm2, %xmm0, %xmm2
vpxor %xmm3, %xmm0, %xmm3
vpxor %xmm4, %xmm0, %xmm4
vpxor %xmm5, %xmm0, %xmm5
vpxor %xmm6, %xmm0, %xmm6
vpxor %xmm7, %xmm0, %xmm9
vmovaps %xmm8, %xmm7
vmovdqa %xmm1, 224(%rsp)
#APP
vaesenc %xmm1, %xmm2, %xmm2
vaesenc %xmm1, %xmm3, %xmm3
vaesenc %xmm1, %xmm4, %xmm4
vaesenc %xmm1, %xmm5, %xmm5
vaesenc %xmm1, %xmm6, %xmm6
vaesenc %xmm1, %xmm9, %xmm9
#NO_APP
#APP
vaesenc %xmm14, %xmm2, %xmm2
vaesenc %xmm14, %xmm3, %xmm3
vaesenc %xmm14, %xmm4, %xmm4
vaesenc %xmm14, %xmm5, %xmm5
vaesenc %xmm14, %xmm6, %xmm6
vaesenc %xmm14, %xmm9, %xmm9
#NO_APP
#APP
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm8, %xmm3, %xmm3
vaesenc %xmm8, %xmm4, %xmm4
vaesenc %xmm8, %xmm5, %xmm5
vaesenc %xmm8, %xmm6, %xmm6
vaesenc %xmm8, %xmm9, %xmm9
#NO_APP
vmovaps 64(%rdi), %xmm8
vmovaps %xmm8, 320(%rsp)
#APP
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm8, %xmm3, %xmm3
vaesenc %xmm8, %xmm4, %xmm4
vaesenc %xmm8, %xmm5, %xmm5
vaesenc %xmm8, %xmm6, %xmm6
vaesenc %xmm8, %xmm9, %xmm9
#NO_APP
vmovaps 80(%rdi), %xmm8
vmovaps %xmm8, 304(%rsp)
#APP
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm8, %xmm3, %xmm3
vaesenc %xmm8, %xmm4, %xmm4
vaesenc %xmm8, %xmm5, %xmm5
vaesenc %xmm8, %xmm6, %xmm6
vaesenc %xmm8, %xmm9, %xmm9
#NO_APP
vmovaps 96(%rdi), %xmm8
vmovaps %xmm8, 288(%rsp)
#APP
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm8, %xmm3, %xmm3
vaesenc %xmm8, %xmm4, %xmm4
vaesenc %xmm8, %xmm5, %xmm5
vaesenc %xmm8, %xmm6, %xmm6
vaesenc %xmm8, %xmm9, %xmm9
#NO_APP
vmovaps 112(%rdi), %xmm8
vmovaps %xmm8, 272(%rsp)
#APP
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm8, %xmm3, %xmm3
vaesenc %xmm8, %xmm4, %xmm4
vaesenc %xmm8, %xmm5, %xmm5
vaesenc %xmm8, %xmm6, %xmm6
vaesenc %xmm8, %xmm9, %xmm9
#NO_APP
vmovaps 128(%rdi), %xmm8
vmovaps %xmm8, 256(%rsp)
#APP
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm8, %xmm3, %xmm3
vaesenc %xmm8, %xmm4, %xmm4
vaesenc %xmm8, %xmm5, %xmm5
vaesenc %xmm8, %xmm6, %xmm6
vaesenc %xmm8, %xmm9, %xmm9
#NO_APP
vmovaps 144(%rdi), %xmm8
vmovaps %xmm8, 240(%rsp)
#APP
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm8, %xmm3, %xmm3
vaesenc %xmm8, %xmm4, %xmm4
vaesenc %xmm8, %xmm5, %xmm5
vaesenc %xmm8, %xmm6, %xmm6
vaesenc %xmm8, %xmm9, %xmm9
#NO_APP
vmovdqa 160(%rdi), %xmm8
#APP
vaesenclast %xmm8, %xmm2, %xmm2
vaesenclast %xmm8, %xmm3, %xmm3
vaesenclast %xmm8, %xmm4, %xmm4
vaesenclast %xmm8, %xmm5, %xmm5
vaesenclast %xmm8, %xmm6, %xmm6
vaesenclast %xmm8, %xmm9, %xmm9
#NO_APP
vpxor (%r9), %xmm2, %xmm11
vpxor 16(%r9), %xmm3, %xmm2
vpxor 32(%r9), %xmm4, %xmm4
vpxor 48(%r9), %xmm5, %xmm5
vpxor 64(%r9), %xmm6, %xmm6
vpxor 80(%r9), %xmm9, %xmm10
vmovdqu %xmm11, (%rdx)
vmovdqu %xmm2, 16(%rdx)
vmovdqu %xmm4, 32(%rdx)
vmovdqu %xmm5, 48(%rdx)
vmovdqu %xmm6, 64(%rdx)
leaq -96(%r15), %rbx
vmovdqu %xmm10, 80(%rdx)
cmpq $96, %rbx
jb .LBB1_34
vmovdqa %xmm8, %xmm1
vmovaps 176(%rdi), %xmm3
vmovaps %xmm3, 208(%rsp)
vmovaps 192(%rdi), %xmm3
vmovaps %xmm3, 192(%rsp)
vmovaps 208(%rdi), %xmm3
vmovaps %xmm3, 176(%rsp)
vmovaps 224(%rdi), %xmm3
vmovaps %xmm3, 160(%rsp)
vmovaps 240(%rdi), %xmm3
vmovaps %xmm3, 144(%rsp)
vmovdqa 256(%rdi), %xmm3
vmovdqa %xmm3, 128(%rsp)
vmovaps %xmm7, 112(%rsp)
vmovdqa %xmm0, %xmm8
vmovdqa %xmm14, 96(%rsp)
vmovdqa %xmm1, 80(%rsp)
.p2align 4, 0x90
.LBB1_33:
vmovdqa %xmm5, 336(%rsp)
vmovdqa %xmm2, 352(%rsp)
vmovdqa %xmm4, 48(%rsp)
vmovdqa %xmm15, 32(%rsp)
vpshufb %xmm12, %xmm15, %xmm3
vpaddd .LCPI1_1(%rip), %xmm15, %xmm4
vpshufb %xmm12, %xmm4, %xmm5
vpaddd .LCPI1_4(%rip), %xmm15, %xmm4
vmovdqa %xmm6, %xmm7
vpshufb %xmm12, %xmm4, %xmm6
vpaddd .LCPI1_5(%rip), %xmm15, %xmm4
vpshufb %xmm12, %xmm4, %xmm9
vpaddd .LCPI1_6(%rip), %xmm15, %xmm4
vpshufb %xmm12, %xmm4, %xmm0
vpaddd .LCPI1_7(%rip), %xmm15, %xmm4
vpshufb %xmm12, %xmm4, %xmm1
vpshufb %xmm12, %xmm11, %xmm4
vpxor %xmm4, %xmm13, %xmm4
vmovdqa %xmm4, 16(%rsp)
vpshufb %xmm12, %xmm10, %xmm2
vpxor %xmm3, %xmm8, %xmm11
vpxor %xmm5, %xmm8, %xmm13
vpxor %xmm6, %xmm8, %xmm14
vpxor %xmm9, %xmm8, %xmm15
vpxor %xmm0, %xmm8, %xmm3
vpxor %xmm1, %xmm8, %xmm10
vmovaps 224(%rsp), %xmm0
#APP
vaesenc %xmm0, %xmm11, %xmm11
vaesenc %xmm0, %xmm13, %xmm13
vaesenc %xmm0, %xmm14, %xmm14
vaesenc %xmm0, %xmm15, %xmm15
vaesenc %xmm0, %xmm3, %xmm3
vaesenc %xmm0, %xmm10, %xmm10
#NO_APP
vpxor %xmm5, %xmm5, %xmm5
vpxor %xmm6, %xmm6, %xmm6
vpxor %xmm9, %xmm9, %xmm9
vmovaps 208(%rsp), %xmm1
vmovaps 96(%rsp), %xmm4
#APP
vaesenc %xmm4, %xmm11, %xmm11
vaesenc %xmm4, %xmm13, %xmm13
vaesenc %xmm4, %xmm14, %xmm14
vaesenc %xmm4, %xmm15, %xmm15
vaesenc %xmm4, %xmm3, %xmm3
vaesenc %xmm4, %xmm10, %xmm10
vpclmulqdq $16, %xmm1, %xmm2, %xmm0
vpxor %xmm0, %xmm5, %xmm5
vpclmulqdq $0, %xmm1, %xmm2, %xmm0
vpxor %xmm0, %xmm9, %xmm9
vpclmulqdq $17, %xmm1, %xmm2, %xmm0
vpxor %xmm0, %xmm6, %xmm6
vpclmulqdq $1, %xmm1, %xmm2, %xmm0
vpxor %xmm0, %xmm5, %xmm5
#NO_APP
vpshufb %xmm12, %xmm7, %xmm0
vmovaps 192(%rsp), %xmm2
vmovaps 112(%rsp), %xmm7
#APP
vaesenc %xmm7, %xmm11, %xmm11
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm14, %xmm14
vaesenc %xmm7, %xmm15, %xmm15
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm10, %xmm10
vpclmulqdq $16, %xmm2, %xmm0, %xmm1
vpxor %xmm1, %xmm5, %xmm5
vpclmulqdq $0, %xmm2, %xmm0, %xmm1
vpxor %xmm1, %xmm9, %xmm9
vpclmulqdq $17, %xmm2, %xmm0, %xmm1
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor %xmm1, %xmm5, %xmm5
#NO_APP
vmovdqa 336(%rsp), %xmm0
vpshufb %xmm12, %xmm0, %xmm0
vmovaps 176(%rsp), %xmm2
vmovaps 320(%rsp), %xmm4
#APP
vaesenc %xmm4, %xmm11, %xmm11
vaesenc %xmm4, %xmm13, %xmm13
vaesenc %xmm4, %xmm14, %xmm14
vaesenc %xmm4, %xmm15, %xmm15
vaesenc %xmm4, %xmm3, %xmm3
vaesenc %xmm4, %xmm10, %xmm10
vpclmulqdq $16, %xmm2, %xmm0, %xmm1
vpxor %xmm1, %xmm5, %xmm5
vpclmulqdq $0, %xmm2, %xmm0, %xmm1
vpxor %xmm1, %xmm9, %xmm9
vpclmulqdq $17, %xmm2, %xmm0, %xmm1
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor %xmm1, %xmm5, %xmm5
#NO_APP
vmovdqa 48(%rsp), %xmm0
vpshufb %xmm12, %xmm0, %xmm0
vmovaps 160(%rsp), %xmm2
vmovaps 304(%rsp), %xmm7
#APP
vaesenc %xmm7, %xmm11, %xmm11
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm14, %xmm14
vaesenc %xmm7, %xmm15, %xmm15
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm10, %xmm10
vpclmulqdq $16, %xmm2, %xmm0, %xmm1
vpxor %xmm1, %xmm5, %xmm5
vpclmulqdq $0, %xmm2, %xmm0, %xmm1
vpxor %xmm1, %xmm9, %xmm9
vpclmulqdq $17, %xmm2, %xmm0, %xmm1
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor %xmm1, %xmm5, %xmm5
#NO_APP
vmovdqa 352(%rsp), %xmm0
vpshufb %xmm12, %xmm0, %xmm0
vmovaps 144(%rsp), %xmm2
vmovaps 288(%rsp), %xmm4
#APP
vaesenc %xmm4, %xmm11, %xmm11
vaesenc %xmm4, %xmm13, %xmm13
vaesenc %xmm4, %xmm14, %xmm14
vaesenc %xmm4, %xmm15, %xmm15
vaesenc %xmm4, %xmm3, %xmm3
vaesenc %xmm4, %xmm10, %xmm10
vpclmulqdq $16, %xmm2, %xmm0, %xmm1
vpxor %xmm1, %xmm5, %xmm5
vpclmulqdq $0, %xmm2, %xmm0, %xmm1
vpxor %xmm1, %xmm9, %xmm9
vpclmulqdq $17, %xmm2, %xmm0, %xmm1
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor %xmm1, %xmm5, %xmm5
#NO_APP
vmovaps 272(%rsp), %xmm0
#APP
vaesenc %xmm0, %xmm11, %xmm11
vaesenc %xmm0, %xmm13, %xmm13
vaesenc %xmm0, %xmm14, %xmm14
vaesenc %xmm0, %xmm15, %xmm15
vaesenc %xmm0, %xmm3, %xmm3
vaesenc %xmm0, %xmm10, %xmm10
#NO_APP
vmovdqa 128(%rsp), %xmm1
vmovaps 256(%rsp), %xmm2
vmovaps 16(%rsp), %xmm4
#APP
vaesenc %xmm2, %xmm11, %xmm11
vaesenc %xmm2, %xmm13, %xmm13
vaesenc %xmm2, %xmm14, %xmm14
vaesenc %xmm2, %xmm15, %xmm15
vaesenc %xmm2, %xmm3, %xmm3
vaesenc %xmm2, %xmm10, %xmm10
vpclmulqdq $16, %xmm1, %xmm4, %xmm0
vpxor %xmm0, %xmm5, %xmm5
vpclmulqdq $0, %xmm1, %xmm4, %xmm0
vpxor %xmm0, %xmm9, %xmm9
vpclmulqdq $17, %xmm1, %xmm4, %xmm0
vpxor %xmm0, %xmm6, %xmm6
vpclmulqdq $1, %xmm1, %xmm4, %xmm0
vpxor %xmm0, %xmm5, %xmm5
#NO_APP
vpxor %xmm1, %xmm1, %xmm1
vpunpcklqdq %xmm5, %xmm1, %xmm0
vpxor %xmm0, %xmm9, %xmm0
vpunpckhqdq %xmm1, %xmm5, %xmm1
vpxor %xmm1, %xmm6, %xmm1
vpbroadcastq .LCPI1_13(%rip), %xmm4
vpclmulqdq $16, %xmm4, %xmm0, %xmm2
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vpshufd $78, %xmm0, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $16, %xmm4, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vmovaps 240(%rsp), %xmm1
#APP
vaesenc %xmm1, %xmm11, %xmm11
vaesenc %xmm1, %xmm13, %xmm13
vaesenc %xmm1, %xmm14, %xmm14
vaesenc %xmm1, %xmm15, %xmm15
vaesenc %xmm1, %xmm3, %xmm3
vaesenc %xmm1, %xmm10, %xmm10
#NO_APP
vmovdqa 80(%rsp), %xmm1
#APP
vaesenclast %xmm1, %xmm11, %xmm11
vaesenclast %xmm1, %xmm13, %xmm13
vaesenclast %xmm1, %xmm14, %xmm14
vaesenclast %xmm1, %xmm15, %xmm15
vaesenclast %xmm1, %xmm3, %xmm3
vaesenclast %xmm1, %xmm10, %xmm10
#NO_APP
vpxor (%rax), %xmm11, %xmm11
vpxor 16(%rax), %xmm13, %xmm2
vmovdqa %xmm0, %xmm13
vpxor 32(%rax), %xmm14, %xmm4
vpxor 48(%rax), %xmm15, %xmm5
vmovdqa 32(%rsp), %xmm15
vpxor 64(%rax), %xmm3, %xmm6
vpxor 80(%rax), %xmm10, %xmm10
addq $96, %rax
vmovdqu %xmm11, (%rcx)
vmovdqu %xmm2, 16(%rcx)
vmovdqu %xmm4, 32(%rcx)
vmovdqu %xmm5, 48(%rcx)
vmovdqu %xmm6, 64(%rcx)
vmovdqu %xmm10, 80(%rcx)
addq $96, %rcx
addq $-96, %rbx
vpaddd .LCPI1_8(%rip), %xmm15, %xmm15
cmpq $95, %rbx
ja .LBB1_33
.LBB1_34:
vpshufb %xmm12, %xmm11, %xmm1
vpxor %xmm1, %xmm13, %xmm1
vpshufb %xmm12, %xmm2, %xmm3
vpshufb %xmm12, %xmm4, %xmm4
vpshufb %xmm12, %xmm5, %xmm5
vpshufb %xmm12, %xmm6, %xmm6
vpshufb %xmm12, %xmm10, %xmm7
vmovdqa 176(%rdi), %xmm8
vmovdqa 192(%rdi), %xmm9
vmovdqa 208(%rdi), %xmm10
vmovdqa 224(%rdi), %xmm11
vmovdqa 240(%rdi), %xmm2
vmovdqa 256(%rdi), %xmm0
vpclmulqdq $0, %xmm7, %xmm8, %xmm12
vpclmulqdq $1, %xmm7, %xmm8, %xmm13
vpclmulqdq $16, %xmm7, %xmm8, %xmm14
vpxor %xmm13, %xmm14, %xmm13
vpclmulqdq $17, %xmm7, %xmm8, %xmm7
vpclmulqdq $0, %xmm6, %xmm9, %xmm8
vpxor %xmm12, %xmm8, %xmm8
vpclmulqdq $1, %xmm6, %xmm9, %xmm12
vpclmulqdq $16, %xmm6, %xmm9, %xmm14
vpxor %xmm14, %xmm12, %xmm12
vpxor %xmm12, %xmm13, %xmm12
vpclmulqdq $17, %xmm6, %xmm9, %xmm6
vpxor %xmm7, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm10, %xmm7
vpclmulqdq $1, %xmm5, %xmm10, %xmm9
vpclmulqdq $16, %xmm5, %xmm10, %xmm13
vpxor %xmm13, %xmm9, %xmm9
vpclmulqdq $17, %xmm5, %xmm10, %xmm5
vpclmulqdq $0, %xmm4, %xmm11, %xmm10
vpxor %xmm7, %xmm10, %xmm7
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $1, %xmm4, %xmm11, %xmm8
vpxor %xmm8, %xmm9, %xmm8
vpxor %xmm8, %xmm12, %xmm8
vpclmulqdq $16, %xmm4, %xmm11, %xmm9
vpclmulqdq $17, %xmm4, %xmm11, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpxor %xmm4, %xmm6, %xmm4
vpclmulqdq $0, %xmm3, %xmm2, %xmm5
vpxor %xmm5, %xmm7, %xmm5
vpclmulqdq $1, %xmm3, %xmm2, %xmm6
vpxor %xmm6, %xmm9, %xmm6
vpclmulqdq $16, %xmm3, %xmm2, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpxor %xmm6, %xmm8, %xmm6
vpclmulqdq $17, %xmm3, %xmm2, %xmm2
vpxor %xmm2, %xmm4, %xmm2
vpclmulqdq $0, %xmm1, %xmm0, %xmm3
vpxor %xmm3, %xmm5, %xmm3
vpclmulqdq $1, %xmm1, %xmm0, %xmm4
vpxor %xmm4, %xmm6, %xmm4
vpclmulqdq $16, %xmm1, %xmm0, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpclmulqdq $17, %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vpslldq $8, %xmm4, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpsrldq $8, %xmm4, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI1_13(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm2, %xmm0, %xmm13
movq %rcx, %rdx
movq %rax, %r9
cmpq $16, %rbx
jae .LBB1_35
.LBB1_27:
movq %rdx, %r14
movq %r9, %rsi
jmp .LBB1_28
.LBB1_25:
movq %r15, %rbx
cmpq $16, %rbx
jb .LBB1_27
.LBB1_35:
vmovaps (%rdi), %xmm0
vmovaps %xmm0, 32(%rsp)
vmovaps 16(%rdi), %xmm0
vmovaps %xmm0, 16(%rsp)
vmovdqa 32(%rdi), %xmm0
vmovdqa %xmm0, 48(%rsp)
vmovdqa 48(%rdi), %xmm3
vmovdqa 64(%rdi), %xmm4
vmovdqa 80(%rdi), %xmm5
vmovdqa 96(%rdi), %xmm6
vmovdqa 112(%rdi), %xmm7
vmovdqa 128(%rdi), %xmm8
vmovdqa 144(%rdi), %xmm9
vmovdqa 160(%rdi), %xmm10
vmovdqa 176(%rdi), %xmm11
vmovdqa .LCPI1_2(%rip), %xmm12
vpbroadcastq .LCPI1_13(%rip), %xmm14
.p2align 4, 0x90
.LBB1_36:
vmovdqa %xmm15, %xmm2
vpshufb %xmm12, %xmm15, %xmm15
vpxor 32(%rsp), %xmm15, %xmm15
vaesenc 16(%rsp), %xmm15, %xmm15
vaesenc 48(%rsp), %xmm15, %xmm15
vaesenc %xmm3, %xmm15, %xmm15
vaesenc %xmm4, %xmm15, %xmm15
vaesenc %xmm5, %xmm15, %xmm15
vaesenc %xmm6, %xmm15, %xmm15
vaesenc %xmm7, %xmm15, %xmm15
vaesenc %xmm8, %xmm15, %xmm15
vaesenc %xmm9, %xmm15, %xmm15
vaesenclast %xmm10, %xmm15, %xmm15
vpxor (%r9), %xmm15, %xmm15
vmovdqu %xmm15, (%rdx)
vpshufb %xmm12, %xmm15, %xmm15
vpxor %xmm15, %xmm13, %xmm15
vpclmulqdq $0, %xmm15, %xmm11, %xmm13
vpclmulqdq $1, %xmm15, %xmm11, %xmm0
vpclmulqdq $16, %xmm15, %xmm11, %xmm1
vpxor %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm0, %xmm1
vpxor %xmm1, %xmm13, %xmm1
vpclmulqdq $17, %xmm15, %xmm11, %xmm13
vpsrldq $8, %xmm0, %xmm0
vpxor %xmm0, %xmm13, %xmm0
vpclmulqdq $16, %xmm14, %xmm1, %xmm13
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm13, %xmm1
vpshufd $78, %xmm1, %xmm13
vpxor %xmm0, %xmm13, %xmm0
vpclmulqdq $16, %xmm14, %xmm1, %xmm1
vpxor %xmm0, %xmm1, %xmm13
leaq 16(%r9), %rsi
leaq 16(%rdx), %r14
addq $-16, %rbx
vpaddd .LCPI1_1(%rip), %xmm2, %xmm15
movq %r14, %rdx
movq %rsi, %r9
cmpq $15, %rbx
ja .LBB1_36
.LBB1_28:
testq %rbx, %rbx
je .LBB1_39
vmovdqa %xmm13, 16(%rsp)
movq %r8, 48(%rsp)
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, (%rsp)
movq %rsp, %rax
movq memcpy@GOTPCREL(%rip), %rbp
movq %rdi, %r13
movq %rax, %rdi
movq %rbx, %rdx
vmovdqa %xmm15, 32(%rsp)
callq *%rbp
vmovdqa 32(%rsp), %xmm0
vpshufb .LCPI1_2(%rip), %xmm0, %xmm0
vpxor (%r13), %xmm0, %xmm0
vaesenc 16(%r13), %xmm0, %xmm0
vaesenc 32(%r13), %xmm0, %xmm0
vaesenc 48(%r13), %xmm0, %xmm0
vaesenc 64(%r13), %xmm0, %xmm0
vaesenc 80(%r13), %xmm0, %xmm0
vaesenc 96(%r13), %xmm0, %xmm0
vaesenc 112(%r13), %xmm0, %xmm0
vaesenc 128(%r13), %xmm0, %xmm0
vaesenc 144(%r13), %xmm0, %xmm0
movq %r13, %r12
vaesenclast 160(%r13), %xmm0, %xmm0
vpxor (%rsp), %xmm0, %xmm0
vmovdqa %xmm0, 32(%rsp)
vmovdqa %xmm0, (%rsp)
movq %rsp, %rsi
movq %r14, %rdi
movq %rbx, %rdx
callq *%rbp
testq %r15, %r15
je .LBB1_30
vmovaps 32(%rsp), %xmm0
vmovaps %xmm0, 368(%rsp)
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, (%rsp)
movq %rsp, %rdi
leaq 368(%rsp), %rsi
movq %rbx, %rdx
callq *memcpy@GOTPCREL(%rip)
vmovdqa (%rsp), %xmm0
vpshufb .LCPI1_2(%rip), %xmm0, %xmm0
vpxor 16(%rsp), %xmm0, %xmm0
movq %r12, %rdi
vmovdqa 176(%r12), %xmm1
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
jmp .LBB1_38
.LBB1_15:
movq %r12, %rdi
vmovdqa 176(%r12), %xmm1
vpshufb .LCPI1_2(%rip), %xmm0, %xmm0
vpxor 16(%rsp), %xmm0, %xmm0
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI1_13(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm13
movq %rbx, %r8
jmp .LBB1_39
.LBB1_30:
movq %r12, %rdi
vmovdqa 176(%r12), %xmm0
vmovdqa 32(%rsp), %xmm1
vpshufb .LCPI1_2(%rip), %xmm1, %xmm1
vpxor 16(%rsp), %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm0, %xmm0
.LBB1_38:
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI1_13(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm13
movq 48(%rsp), %r8
.LBB1_39:
movq 472(%rsp), %rax
vmovdqa 176(%rdi), %xmm0
vmovq %r8, %xmm1
vmovq %r15, %xmm2
vpunpcklqdq %xmm1, %xmm2, %xmm1
vpsllq $3, %xmm1, %xmm1
vpxor %xmm1, %xmm13, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm0, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpbroadcastq .LCPI1_13(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm4
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpxor %xmm0, %xmm2, %xmm0
vmovdqa 64(%rsp), %xmm2
vpxor (%rdi), %xmm2, %xmm2
vaesenc 16(%rdi), %xmm2, %xmm2
vaesenc 32(%rdi), %xmm2, %xmm2
vaesenc 48(%rdi), %xmm2, %xmm2
vaesenc 64(%rdi), %xmm2, %xmm2
vaesenc 80(%rdi), %xmm2, %xmm2
vaesenc 96(%rdi), %xmm2, %xmm2
vaesenc 112(%rdi), %xmm2, %xmm2
vaesenc 128(%rdi), %xmm2, %xmm2
vaesenc 144(%rdi), %xmm2, %xmm2
vaesenclast 160(%rdi), %xmm2, %xmm2
vpshufb .LCPI1_2(%rip), %xmm0, %xmm0
vpshufb .LCPI1_10(%rip), %xmm3, %xmm3
vpshufb .LCPI1_11(%rip), %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vmovdqu %xmm0, (%rax)
movl $1, %eax
.LBB1_40:
addq $392, %rsp
.cfi_def_cfa_offset 56
popq %rbx
.cfi_def_cfa_offset 48
popq %r12
.cfi_def_cfa_offset 40
popq %r13
.cfi_def_cfa_offset 32
popq %r14
.cfi_def_cfa_offset 24
popq %r15
.cfi_def_cfa_offset 16
popq %rbp
.cfi_def_cfa_offset 8
retq
.Lfunc_end1:
.size haberdashery_aes128gcm_broadwell_encrypt, .Lfunc_end1-haberdashery_aes128gcm_broadwell_encrypt
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI2_0:
.byte 15
.byte 128
.byte 128
.byte 128
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI2_1:
.long 1
.long 0
.long 0
.long 0
.LCPI2_2:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI2_3:
.zero 8
.quad -4467570830351532032
.LCPI2_4:
.long 2
.long 0
.long 0
.long 0
.LCPI2_5:
.long 3
.long 0
.long 0
.long 0
.LCPI2_6:
.long 4
.long 0
.long 0
.long 0
.LCPI2_7:
.long 5
.long 0
.long 0
.long 0
.LCPI2_8:
.long 6
.long 0
.long 0
.long 0
.LCPI2_9:
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.LCPI2_10:
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI2_11:
.quad -4467570830351532032
.section .text.haberdashery_aes128gcm_broadwell_decrypt,"ax",@progbits
.globl haberdashery_aes128gcm_broadwell_decrypt
.p2align 4, 0x90
.type haberdashery_aes128gcm_broadwell_decrypt,@function
haberdashery_aes128gcm_broadwell_decrypt:
.cfi_startproc
pushq %rbp
.cfi_def_cfa_offset 16
pushq %r15
.cfi_def_cfa_offset 24
pushq %r14
.cfi_def_cfa_offset 32
pushq %r13
.cfi_def_cfa_offset 40
pushq %r12
.cfi_def_cfa_offset 48
pushq %rbx
.cfi_def_cfa_offset 56
subq $440, %rsp
.cfi_def_cfa_offset 496
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
.cfi_offset %rbp, -16
movq 496(%rsp), %r15
xorl %eax, %eax
cmpq 528(%rsp), %r15
jne .LBB2_38
cmpq $16, 512(%rsp)
setne %r10b
movabsq $2305843009213693950, %r11
cmpq %r11, %r8
seta %r11b
movq %r15, %rbx
shrq $5, %rbx
cmpq $2147483647, %rbx
setae %bl
orb %r10b, %r11b
orb %bl, %r11b
cmpq $12, %rdx
setne %dl
orb %r11b, %dl
jne .LBB2_38
movq 504(%rsp), %r12
vmovd (%rsi), %xmm0
vpinsrd $1, 4(%rsi), %xmm0, %xmm0
vpinsrd $2, 8(%rsi), %xmm0, %xmm0
movl $16777216, %edx
vpinsrd $3, %edx, %xmm0, %xmm0
vmovdqa %xmm0, 80(%rsp)
vpxor %xmm7, %xmm7, %xmm7
testq %r8, %r8
je .LBB2_3
cmpq $96, %r8
jb .LBB2_6
vmovdqu (%rcx), %xmm1
vmovdqu 16(%rcx), %xmm2
vmovdqu 32(%rcx), %xmm3
vmovdqu 48(%rcx), %xmm4
vmovdqu 64(%rcx), %xmm5
vmovdqu 80(%rcx), %xmm6
vmovdqa .LCPI2_2(%rip), %xmm0
vpshufb %xmm0, %xmm1, %xmm7
vpshufb %xmm0, %xmm2, %xmm10
vpshufb %xmm0, %xmm3, %xmm8
vpshufb %xmm0, %xmm4, %xmm9
vpshufb %xmm0, %xmm5, %xmm5
vpshufb %xmm0, %xmm6, %xmm6
vmovdqa 176(%rdi), %xmm1
vmovdqa 192(%rdi), %xmm2
vmovdqa 208(%rdi), %xmm3
vmovdqa 224(%rdi), %xmm4
vpclmulqdq $0, %xmm6, %xmm1, %xmm11
vpclmulqdq $1, %xmm6, %xmm1, %xmm12
vpclmulqdq $16, %xmm6, %xmm1, %xmm13
vpxor %xmm12, %xmm13, %xmm12
vpclmulqdq $17, %xmm6, %xmm1, %xmm6
vpclmulqdq $0, %xmm5, %xmm2, %xmm13
vpxor %xmm11, %xmm13, %xmm11
vpclmulqdq $1, %xmm5, %xmm2, %xmm13
vpclmulqdq $16, %xmm5, %xmm2, %xmm14
vpxor %xmm14, %xmm13, %xmm13
vpxor %xmm13, %xmm12, %xmm12
vpclmulqdq $17, %xmm5, %xmm2, %xmm5
vpxor %xmm6, %xmm5, %xmm13
vpclmulqdq $0, %xmm9, %xmm3, %xmm5
vpclmulqdq $1, %xmm9, %xmm3, %xmm6
vpclmulqdq $16, %xmm9, %xmm3, %xmm14
vpxor %xmm6, %xmm14, %xmm6
vpclmulqdq $0, %xmm8, %xmm4, %xmm14
vpxor %xmm5, %xmm14, %xmm14
vmovdqa 240(%rdi), %xmm5
vpxor %xmm14, %xmm11, %xmm11
vpclmulqdq $1, %xmm8, %xmm4, %xmm14
vpxor %xmm6, %xmm14, %xmm14
vmovdqa 256(%rdi), %xmm6
vpclmulqdq $17, %xmm9, %xmm3, %xmm9
vpxor %xmm14, %xmm12, %xmm12
vpclmulqdq $16, %xmm8, %xmm4, %xmm14
vpclmulqdq $17, %xmm8, %xmm4, %xmm8
vpxor %xmm8, %xmm9, %xmm8
vpxor %xmm8, %xmm13, %xmm13
vpclmulqdq $0, %xmm10, %xmm5, %xmm8
vpclmulqdq $1, %xmm10, %xmm5, %xmm9
vpxor %xmm9, %xmm14, %xmm9
vpclmulqdq $16, %xmm10, %xmm5, %xmm14
vpxor %xmm14, %xmm9, %xmm9
vpclmulqdq $0, %xmm7, %xmm6, %xmm14
vpxor %xmm14, %xmm8, %xmm8
vpxor %xmm8, %xmm11, %xmm8
vpclmulqdq $1, %xmm7, %xmm6, %xmm11
vpxor %xmm11, %xmm9, %xmm9
vpxor %xmm9, %xmm12, %xmm9
vpclmulqdq $16, %xmm7, %xmm6, %xmm11
vpxor %xmm11, %xmm9, %xmm9
vpclmulqdq $17, %xmm10, %xmm5, %xmm10
vpclmulqdq $17, %xmm7, %xmm6, %xmm7
vpxor %xmm7, %xmm10, %xmm7
vpxor %xmm7, %xmm13, %xmm10
addq $96, %rcx
leaq -96(%r8), %rsi
cmpq $96, %rsi
jb .LBB2_15
.p2align 4, 0x90
.LBB2_14:
vmovdqu (%rcx), %xmm11
vmovdqu 32(%rcx), %xmm12
vmovdqu 48(%rcx), %xmm13
vmovdqu 64(%rcx), %xmm14
vmovdqu 80(%rcx), %xmm15
vpslldq $8, %xmm9, %xmm7
vpxor %xmm7, %xmm8, %xmm7
vpsrldq $8, %xmm9, %xmm8
vpxor %xmm8, %xmm10, %xmm8
vpbroadcastq .LCPI2_11(%rip), %xmm10
vpclmulqdq $16, %xmm10, %xmm7, %xmm9
vpshufd $78, %xmm7, %xmm7
vpxor %xmm7, %xmm9, %xmm7
vpclmulqdq $16, %xmm10, %xmm7, %xmm9
vpshufd $78, %xmm7, %xmm7
vpshufb %xmm0, %xmm11, %xmm10
vpxor %xmm10, %xmm8, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpxor %xmm7, %xmm9, %xmm10
vpshufb %xmm0, %xmm12, %xmm8
vpshufb %xmm0, %xmm13, %xmm7
vpshufb %xmm0, %xmm14, %xmm9
vpshufb %xmm0, %xmm15, %xmm11
vpclmulqdq $0, %xmm11, %xmm1, %xmm12
vpclmulqdq $1, %xmm11, %xmm1, %xmm13
vpclmulqdq $16, %xmm11, %xmm1, %xmm14
vpxor %xmm13, %xmm14, %xmm13
vpclmulqdq $17, %xmm11, %xmm1, %xmm11
vpclmulqdq $0, %xmm9, %xmm2, %xmm14
vpxor %xmm12, %xmm14, %xmm12
vpclmulqdq $1, %xmm9, %xmm2, %xmm14
vpclmulqdq $16, %xmm9, %xmm2, %xmm15
vpxor %xmm15, %xmm14, %xmm14
vpxor %xmm14, %xmm13, %xmm13
vpclmulqdq $17, %xmm9, %xmm2, %xmm9
vpxor %xmm11, %xmm9, %xmm9
vpclmulqdq $0, %xmm7, %xmm3, %xmm11
vpclmulqdq $1, %xmm7, %xmm3, %xmm14
vpclmulqdq $16, %xmm7, %xmm3, %xmm15
vpxor %xmm15, %xmm14, %xmm14
vpclmulqdq $0, %xmm8, %xmm4, %xmm15
vpxor %xmm15, %xmm11, %xmm11
vpxor %xmm11, %xmm12, %xmm11
vpclmulqdq $1, %xmm8, %xmm4, %xmm12
vpxor %xmm12, %xmm14, %xmm12
vpclmulqdq $17, %xmm7, %xmm3, %xmm7
vpxor %xmm12, %xmm13, %xmm12
vpclmulqdq $17, %xmm8, %xmm4, %xmm13
vpxor %xmm7, %xmm13, %xmm7
vmovdqu 16(%rcx), %xmm13
vpshufb %xmm0, %xmm13, %xmm13
vpclmulqdq $16, %xmm8, %xmm4, %xmm8
vpxor %xmm7, %xmm9, %xmm7
vpclmulqdq $0, %xmm13, %xmm5, %xmm9
vpxor %xmm9, %xmm11, %xmm9
vpclmulqdq $1, %xmm13, %xmm5, %xmm11
vpxor %xmm11, %xmm8, %xmm8
vpclmulqdq $16, %xmm13, %xmm5, %xmm11
vpxor %xmm11, %xmm8, %xmm8
vpxor %xmm8, %xmm12, %xmm11
vpclmulqdq $17, %xmm13, %xmm5, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $0, %xmm10, %xmm6, %xmm8
vpxor %xmm8, %xmm9, %xmm8
vpclmulqdq $1, %xmm10, %xmm6, %xmm9
vpxor %xmm9, %xmm11, %xmm9
vpclmulqdq $16, %xmm10, %xmm6, %xmm11
vpxor %xmm11, %xmm9, %xmm9
vpclmulqdq $17, %xmm10, %xmm6, %xmm10
vpxor %xmm7, %xmm10, %xmm10
addq $96, %rcx
addq $-96, %rsi
cmpq $95, %rsi
ja .LBB2_14
.LBB2_15:
vpslldq $8, %xmm9, %xmm0
vpxor %xmm0, %xmm8, %xmm0
vpsrldq $8, %xmm9, %xmm1
vpxor %xmm1, %xmm10, %xmm1
vpbroadcastq .LCPI2_11(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm0, %xmm3
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm0
vpclmulqdq $16, %xmm2, %xmm0, %xmm2
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpxor %xmm2, %xmm0, %xmm7
cmpq $16, %rsi
jae .LBB2_16
jmp .LBB2_8
.LBB2_6:
movq %r8, %rsi
cmpq $16, %rsi
jb .LBB2_8
.LBB2_16:
vmovdqa 176(%rdi), %xmm0
leaq -16(%rsi), %rdx
testb $16, %dl
je .LBB2_17
cmpq $16, %rdx
jae .LBB2_19
.LBB2_9:
testq %rdx, %rdx
je .LBB2_3
.LBB2_10:
vmovdqa %xmm7, 16(%rsp)
movq %r9, %r14
movq %r8, %rbx
movq %rdi, %r13
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, 32(%rsp)
leaq 32(%rsp), %rdi
movq %rcx, %rsi
callq *memcpy@GOTPCREL(%rip)
vmovdqa 32(%rsp), %xmm0
testq %r15, %r15
je .LBB2_11
movabsq $-68719476704, %rax
leaq (%r15,%rax), %rcx
incq %rax
cmpq %rax, %rcx
movl $0, %eax
vmovdqa 16(%rsp), %xmm2
jb .LBB2_38
movq %r13, %rdi
movq %rbx, %r8
movq %r14, %r9
vmovdqa 176(%r13), %xmm1
vpshufb .LCPI2_2(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI2_11(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm7
jmp .LBB2_23
.LBB2_17:
vmovdqu (%rcx), %xmm1
vpshufb .LCPI2_2(%rip), %xmm1, %xmm1
addq $16, %rcx
vpxor %xmm1, %xmm7, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
vpslldq $8, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpsrldq $8, %xmm3, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpbroadcastq .LCPI2_11(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm2, %xmm4
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm4, %xmm2
vpclmulqdq $16, %xmm3, %xmm2, %xmm3
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm7
movq %rdx, %rsi
cmpq $16, %rdx
jb .LBB2_9
.LBB2_19:
vmovdqa .LCPI2_2(%rip), %xmm1
vpbroadcastq .LCPI2_11(%rip), %xmm2
.p2align 4, 0x90
.LBB2_20:
vmovdqu (%rcx), %xmm3
vmovdqu 16(%rcx), %xmm4
vpshufb %xmm1, %xmm3, %xmm3
vpxor %xmm3, %xmm7, %xmm3
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpclmulqdq $1, %xmm3, %xmm0, %xmm6
vpclmulqdq $16, %xmm3, %xmm0, %xmm7
vpxor %xmm6, %xmm7, %xmm6
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
vpslldq $8, %xmm6, %xmm7
vpxor %xmm7, %xmm5, %xmm5
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm3, %xmm3
vpclmulqdq $16, %xmm2, %xmm5, %xmm6
vpshufd $78, %xmm5, %xmm5
vpxor %xmm5, %xmm6, %xmm5
vpclmulqdq $16, %xmm2, %xmm5, %xmm6
vpshufd $78, %xmm5, %xmm5
vpxor %xmm5, %xmm3, %xmm3
addq $32, %rcx
addq $-32, %rsi
vpshufb %xmm1, %xmm4, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpxor %xmm3, %xmm6, %xmm3
vpclmulqdq $0, %xmm3, %xmm0, %xmm4
vpclmulqdq $1, %xmm3, %xmm0, %xmm5
vpclmulqdq $16, %xmm3, %xmm0, %xmm6
vpxor %xmm5, %xmm6, %xmm5
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
vpslldq $8, %xmm5, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpsrldq $8, %xmm5, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpclmulqdq $16, %xmm2, %xmm4, %xmm5
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $16, %xmm2, %xmm4, %xmm5
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpxor %xmm3, %xmm5, %xmm7
cmpq $15, %rsi
ja .LBB2_20
.LBB2_8:
movq %rsi, %rdx
testq %rdx, %rdx
jne .LBB2_10
.LBB2_3:
testq %r15, %r15
je .LBB2_12
movabsq $-68719476704, %rcx
leaq (%r15,%rcx), %rdx
incq %rcx
cmpq %rcx, %rdx
jb .LBB2_38
.LBB2_23:
vmovdqa 80(%rsp), %xmm0
vpshufb .LCPI2_0(%rip), %xmm0, %xmm0
movq 520(%rsp), %rax
vpaddd .LCPI2_1(%rip), %xmm0, %xmm3
cmpq $96, %r15
jb .LBB2_24
vmovaps (%rdi), %xmm0
vmovaps %xmm0, 112(%rsp)
vmovaps 16(%rdi), %xmm0
vmovaps %xmm0, 352(%rsp)
vmovaps 32(%rdi), %xmm0
vmovaps %xmm0, 336(%rsp)
vmovaps 48(%rdi), %xmm0
vmovaps %xmm0, 320(%rsp)
vmovaps 64(%rdi), %xmm0
vmovaps %xmm0, 304(%rsp)
vmovaps 80(%rdi), %xmm0
vmovaps %xmm0, 288(%rsp)
vmovaps 96(%rdi), %xmm0
vmovaps %xmm0, 272(%rsp)
vmovaps 112(%rdi), %xmm0
vmovaps %xmm0, 256(%rsp)
vmovaps 128(%rdi), %xmm0
vmovaps %xmm0, 240(%rsp)
vmovaps 144(%rdi), %xmm0
vmovaps %xmm0, 224(%rsp)
vmovaps 160(%rdi), %xmm0
vmovaps %xmm0, 208(%rsp)
vmovaps 176(%rdi), %xmm0
vmovaps %xmm0, 192(%rsp)
vmovaps 192(%rdi), %xmm0
vmovaps %xmm0, 176(%rsp)
vmovaps 208(%rdi), %xmm0
vmovaps %xmm0, 160(%rsp)
vmovaps 224(%rdi), %xmm0
vmovaps %xmm0, 144(%rsp)
vmovaps 240(%rdi), %xmm0
vmovaps %xmm0, 128(%rsp)
movq %r15, %rbx
vmovdqa 256(%rdi), %xmm0
vmovdqa %xmm0, 96(%rsp)
.p2align 4, 0x90
.LBB2_28:
vmovdqa %xmm3, (%rsp)
vmovdqu (%r9), %xmm9
vmovdqa %xmm9, 400(%rsp)
vmovups 32(%r9), %xmm0
vmovaps %xmm0, 16(%rsp)
vmovups 48(%r9), %xmm0
vmovaps %xmm0, 48(%rsp)
vmovdqu 64(%r9), %xmm6
vmovdqa %xmm6, 384(%rsp)
vmovdqu 80(%r9), %xmm8
vmovdqa %xmm8, 64(%rsp)
vmovdqa .LCPI2_2(%rip), %xmm2
vpshufb %xmm2, %xmm3, %xmm0
vpaddd .LCPI2_1(%rip), %xmm3, %xmm1
vpshufb %xmm2, %xmm1, %xmm1
vmovdqa (%rsp), %xmm3
vpaddd .LCPI2_4(%rip), %xmm3, %xmm3
vpshufb %xmm2, %xmm3, %xmm3
vmovdqa (%rsp), %xmm4
vpaddd .LCPI2_5(%rip), %xmm4, %xmm4
vpshufb %xmm2, %xmm4, %xmm4
vmovdqa (%rsp), %xmm5
vpaddd .LCPI2_6(%rip), %xmm5, %xmm10
vpshufb %xmm2, %xmm10, %xmm10
vmovdqa (%rsp), %xmm5
vpaddd .LCPI2_7(%rip), %xmm5, %xmm11
vpshufb %xmm2, %xmm11, %xmm5
vpshufb %xmm2, %xmm9, %xmm11
vpxor %xmm7, %xmm11, %xmm7
vmovdqa %xmm7, 368(%rsp)
vpshufb %xmm2, %xmm8, %xmm7
vmovdqa 112(%rsp), %xmm8
vpxor %xmm0, %xmm8, %xmm11
vpxor %xmm1, %xmm8, %xmm12
vpxor %xmm3, %xmm8, %xmm13
vpxor %xmm4, %xmm8, %xmm14
vpxor %xmm10, %xmm8, %xmm15
vpxor %xmm5, %xmm8, %xmm10
vmovaps 352(%rsp), %xmm0
#APP
vaesenc %xmm0, %xmm11, %xmm11
vaesenc %xmm0, %xmm12, %xmm12
vaesenc %xmm0, %xmm13, %xmm13
vaesenc %xmm0, %xmm14, %xmm14
vaesenc %xmm0, %xmm15, %xmm15
vaesenc %xmm0, %xmm10, %xmm10
#NO_APP
vpxor %xmm3, %xmm3, %xmm3
vpxor %xmm4, %xmm4, %xmm4
vxorps %xmm0, %xmm0, %xmm0
vmovaps 336(%rsp), %xmm5
vmovaps 192(%rsp), %xmm9
#APP
vaesenc %xmm5, %xmm11, %xmm11
vaesenc %xmm5, %xmm12, %xmm12
vaesenc %xmm5, %xmm13, %xmm13
vaesenc %xmm5, %xmm14, %xmm14
vaesenc %xmm5, %xmm15, %xmm15
vaesenc %xmm5, %xmm10, %xmm10
vpclmulqdq $16, %xmm9, %xmm7, %xmm1
vpxor %xmm1, %xmm3, %xmm3
vpclmulqdq $0, %xmm9, %xmm7, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpclmulqdq $17, %xmm9, %xmm7, %xmm1
vpxor %xmm1, %xmm4, %xmm4
vpclmulqdq $1, %xmm9, %xmm7, %xmm1
vpxor %xmm1, %xmm3, %xmm3
#NO_APP
vpshufb %xmm2, %xmm6, %xmm1
vmovaps 320(%rsp), %xmm6
vmovaps 176(%rsp), %xmm9
#APP
vaesenc %xmm6, %xmm11, %xmm11
vaesenc %xmm6, %xmm12, %xmm12
vaesenc %xmm6, %xmm13, %xmm13
vaesenc %xmm6, %xmm14, %xmm14
vaesenc %xmm6, %xmm15, %xmm15
vaesenc %xmm6, %xmm10, %xmm10
vpclmulqdq $16, %xmm9, %xmm1, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpclmulqdq $0, %xmm9, %xmm1, %xmm5
vpxor %xmm5, %xmm0, %xmm0
vpclmulqdq $17, %xmm9, %xmm1, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpclmulqdq $1, %xmm9, %xmm1, %xmm5
vpxor %xmm5, %xmm3, %xmm3
#NO_APP
vmovdqa 48(%rsp), %xmm1
vpshufb %xmm2, %xmm1, %xmm1
vmovaps 304(%rsp), %xmm6
vmovaps 160(%rsp), %xmm9
#APP
vaesenc %xmm6, %xmm11, %xmm11
vaesenc %xmm6, %xmm12, %xmm12
vaesenc %xmm6, %xmm13, %xmm13
vaesenc %xmm6, %xmm14, %xmm14
vaesenc %xmm6, %xmm15, %xmm15
vaesenc %xmm6, %xmm10, %xmm10
vpclmulqdq $16, %xmm9, %xmm1, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpclmulqdq $0, %xmm9, %xmm1, %xmm5
vpxor %xmm5, %xmm0, %xmm0
vpclmulqdq $17, %xmm9, %xmm1, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpclmulqdq $1, %xmm9, %xmm1, %xmm5
vpxor %xmm5, %xmm3, %xmm3
#NO_APP
vmovdqa 16(%rsp), %xmm1
vpshufb %xmm2, %xmm1, %xmm1
vmovaps 288(%rsp), %xmm6
vmovaps 144(%rsp), %xmm9
#APP
vaesenc %xmm6, %xmm11, %xmm11
vaesenc %xmm6, %xmm12, %xmm12
vaesenc %xmm6, %xmm13, %xmm13
vaesenc %xmm6, %xmm14, %xmm14
vaesenc %xmm6, %xmm15, %xmm15
vaesenc %xmm6, %xmm10, %xmm10
vpclmulqdq $16, %xmm9, %xmm1, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpclmulqdq $0, %xmm9, %xmm1, %xmm5
vpxor %xmm5, %xmm0, %xmm0
vpclmulqdq $17, %xmm9, %xmm1, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpclmulqdq $1, %xmm9, %xmm1, %xmm5
vpxor %xmm5, %xmm3, %xmm3
#NO_APP
vmovdqu 16(%r9), %xmm1
vpshufb %xmm2, %xmm1, %xmm5
vmovdqa 272(%rsp), %xmm9
vmovaps 128(%rsp), %xmm8
#APP
vaesenc %xmm9, %xmm11, %xmm11
vaesenc %xmm9, %xmm12, %xmm12
vaesenc %xmm9, %xmm13, %xmm13
vaesenc %xmm9, %xmm14, %xmm14
vaesenc %xmm9, %xmm15, %xmm15
vaesenc %xmm9, %xmm10, %xmm10
vpclmulqdq $16, %xmm8, %xmm5, %xmm6
vpxor %xmm6, %xmm3, %xmm3
vpclmulqdq $0, %xmm8, %xmm5, %xmm6
vpxor %xmm6, %xmm0, %xmm0
vpclmulqdq $17, %xmm8, %xmm5, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpclmulqdq $1, %xmm8, %xmm5, %xmm6
vpxor %xmm6, %xmm3, %xmm3
#NO_APP
vmovaps 256(%rsp), %xmm5
#APP
vaesenc %xmm5, %xmm11, %xmm11
vaesenc %xmm5, %xmm12, %xmm12
vaesenc %xmm5, %xmm13, %xmm13
vaesenc %xmm5, %xmm14, %xmm14
vaesenc %xmm5, %xmm15, %xmm15
vaesenc %xmm5, %xmm10, %xmm10
#NO_APP
vmovdqa 240(%rsp), %xmm6
vmovdqa 96(%rsp), %xmm8
vmovdqa 368(%rsp), %xmm2
#APP
vaesenc %xmm6, %xmm11, %xmm11
vaesenc %xmm6, %xmm12, %xmm12
vaesenc %xmm6, %xmm13, %xmm13
vaesenc %xmm6, %xmm14, %xmm14
vaesenc %xmm6, %xmm15, %xmm15
vaesenc %xmm6, %xmm10, %xmm10
vpclmulqdq $16, %xmm8, %xmm2, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpclmulqdq $0, %xmm8, %xmm2, %xmm5
vpxor %xmm5, %xmm0, %xmm0
vpclmulqdq $17, %xmm8, %xmm2, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpclmulqdq $1, %xmm8, %xmm2, %xmm5
vpxor %xmm5, %xmm3, %xmm3
#NO_APP
vpxor %xmm6, %xmm6, %xmm6
vpunpcklqdq %xmm3, %xmm6, %xmm5
vpxor %xmm5, %xmm0, %xmm0
vpunpckhqdq %xmm6, %xmm3, %xmm3
vpxor %xmm3, %xmm4, %xmm3
vpbroadcastq .LCPI2_11(%rip), %xmm5
vpclmulqdq $16, %xmm5, %xmm0, %xmm4
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm4, %xmm0
vpshufd $78, %xmm0, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpclmulqdq $16, %xmm5, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm7
vmovaps 224(%rsp), %xmm0
#APP
vaesenc %xmm0, %xmm11, %xmm11
vaesenc %xmm0, %xmm12, %xmm12
vaesenc %xmm0, %xmm13, %xmm13
vaesenc %xmm0, %xmm14, %xmm14
vaesenc %xmm0, %xmm15, %xmm15
vaesenc %xmm0, %xmm10, %xmm10
#NO_APP
vmovaps 208(%rsp), %xmm0
#APP
vaesenclast %xmm0, %xmm11, %xmm11
vaesenclast %xmm0, %xmm12, %xmm12
vaesenclast %xmm0, %xmm13, %xmm13
vaesenclast %xmm0, %xmm14, %xmm14
vaesenclast %xmm0, %xmm15, %xmm15
vaesenclast %xmm0, %xmm10, %xmm10
#NO_APP
vpxor 400(%rsp), %xmm11, %xmm0
vpxor %xmm1, %xmm12, %xmm1
vpxor 16(%rsp), %xmm13, %xmm3
vpxor 48(%rsp), %xmm14, %xmm4
vpxor 384(%rsp), %xmm15, %xmm5
vmovdqu %xmm0, (%rax)
vmovdqu %xmm1, 16(%rax)
vmovdqu %xmm3, 32(%rax)
vmovdqa (%rsp), %xmm3
vmovdqu %xmm4, 48(%rax)
vmovdqu %xmm5, 64(%rax)
vpxor 64(%rsp), %xmm10, %xmm0
vmovdqu %xmm0, 80(%rax)
addq $96, %r9
addq $96, %rax
addq $-96, %rbx
vpaddd .LCPI2_8(%rip), %xmm3, %xmm3
cmpq $95, %rbx
ja .LBB2_28
vmovdqa %xmm7, %xmm2
cmpq $16, %rbx
jb .LBB2_26
.LBB2_29:
vmovdqa 176(%rdi), %xmm0
vmovaps (%rdi), %xmm1
vmovaps %xmm1, (%rsp)
vmovaps 16(%rdi), %xmm1
vmovaps %xmm1, 16(%rsp)
vmovaps 32(%rdi), %xmm1
vmovaps %xmm1, 48(%rsp)
vmovdqa 48(%rdi), %xmm1
vmovdqa %xmm1, 64(%rsp)
vmovdqa 64(%rdi), %xmm5
vmovdqa 80(%rdi), %xmm6
vmovdqa 96(%rdi), %xmm7
vmovdqa 112(%rdi), %xmm8
vmovdqa 128(%rdi), %xmm9
vmovdqa 144(%rdi), %xmm10
movq %rdi, %r13
vmovdqa 160(%rdi), %xmm11
vmovdqa .LCPI2_2(%rip), %xmm12
vpbroadcastq .LCPI2_11(%rip), %xmm13
.p2align 4, 0x90
.LBB2_30:
vmovdqu (%r9), %xmm15
vpshufb %xmm12, %xmm15, %xmm14
vpxor %xmm2, %xmm14, %xmm14
vpclmulqdq $0, %xmm14, %xmm0, %xmm1
vpclmulqdq $1, %xmm14, %xmm0, %xmm2
vmovdqa %xmm3, %xmm4
vpclmulqdq $16, %xmm14, %xmm0, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpclmulqdq $17, %xmm14, %xmm0, %xmm3
vpsrldq $8, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $16, %xmm13, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpshufd $78, %xmm1, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vpclmulqdq $16, %xmm13, %xmm1, %xmm1
vpxor %xmm2, %xmm1, %xmm2
vpshufb %xmm12, %xmm4, %xmm1
vpxor (%rsp), %xmm1, %xmm1
vaesenc 16(%rsp), %xmm1, %xmm1
vaesenc 48(%rsp), %xmm1, %xmm1
vaesenc 64(%rsp), %xmm1, %xmm1
vaesenc %xmm5, %xmm1, %xmm1
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm8, %xmm1, %xmm1
vaesenc %xmm9, %xmm1, %xmm1
vaesenc %xmm10, %xmm1, %xmm1
vaesenclast %xmm11, %xmm1, %xmm1
vpxor %xmm1, %xmm15, %xmm1
vmovdqu %xmm1, (%rax)
leaq 16(%rax), %r14
addq $-16, %rbx
addq $16, %r9
vpaddd .LCPI2_1(%rip), %xmm4, %xmm3
movq %r14, %rax
cmpq $15, %rbx
ja .LBB2_30
jmp .LBB2_31
.LBB2_24:
movq %r15, %rbx
vmovdqa %xmm7, %xmm2
cmpq $16, %rbx
jae .LBB2_29
.LBB2_26:
movq %rdi, %r13
movq %rax, %r14
.LBB2_31:
vmovdqa %xmm2, 16(%rsp)
movq %r8, %rbp
vpxor %xmm1, %xmm1, %xmm1
vpxor %xmm2, %xmm2, %xmm2
testq %rbx, %rbx
je .LBB2_33
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, 32(%rsp)
leaq 32(%rsp), %rdi
movq memcpy@GOTPCREL(%rip), %r12
movq %r9, %rsi
movq %rbx, %rdx
vmovdqa %xmm3, (%rsp)
callq *%r12
vmovdqa (%rsp), %xmm0
vpshufb .LCPI2_2(%rip), %xmm0, %xmm0
vpxor (%r13), %xmm0, %xmm0
vaesenc 16(%r13), %xmm0, %xmm0
vaesenc 32(%r13), %xmm0, %xmm0
vaesenc 48(%r13), %xmm0, %xmm0
vaesenc 64(%r13), %xmm0, %xmm0
vaesenc 80(%r13), %xmm0, %xmm0
vaesenc 96(%r13), %xmm0, %xmm0
vaesenc 112(%r13), %xmm0, %xmm0
vaesenc 128(%r13), %xmm0, %xmm0
vaesenc 144(%r13), %xmm0, %xmm0
vaesenclast 160(%r13), %xmm0, %xmm0
vmovdqa 32(%rsp), %xmm1
vmovdqa %xmm1, (%rsp)
vpxor %xmm1, %xmm0, %xmm0
vmovdqa %xmm0, 32(%rsp)
leaq 32(%rsp), %rsi
movq %r14, %rdi
movq %rbx, %rdx
callq *%r12
vmovdqa (%rsp), %xmm2
vpxor %xmm1, %xmm1, %xmm1
movq 504(%rsp), %r12
.LBB2_33:
vmovdqu (%r12), %xmm0
vmovdqa %xmm0, (%rsp)
vmovdqa %xmm2, 416(%rsp)
vmovdqa %xmm1, 32(%rsp)
leaq 32(%rsp), %rdi
leaq 416(%rsp), %rsi
movq %rbx, %rdx
callq *memcpy@GOTPCREL(%rip)
testq %rbx, %rbx
je .LBB2_34
vmovdqa 32(%rsp), %xmm0
vpshufb .LCPI2_2(%rip), %xmm0, %xmm0
vpxor 16(%rsp), %xmm0, %xmm0
movq %r13, %rdi
vmovdqa 176(%r13), %xmm1
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI2_11(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm7
movq %rbp, %r8
jmp .LBB2_36
.LBB2_11:
movq %r13, %rdi
vmovdqa 176(%r13), %xmm1
vpshufb .LCPI2_2(%rip), %xmm0, %xmm0
vpxor 16(%rsp), %xmm0, %xmm0
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI2_11(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm7
movq %rbx, %r8
.LBB2_12:
vmovdqu (%r12), %xmm5
jmp .LBB2_37
.LBB2_34:
movq %r13, %rdi
movq %rbp, %r8
vmovdqa 16(%rsp), %xmm7
.LBB2_36:
vmovdqa (%rsp), %xmm5
.LBB2_37:
vmovdqa 176(%rdi), %xmm0
vmovq %r8, %xmm1
vmovq %r15, %xmm2
vpunpcklqdq %xmm1, %xmm2, %xmm1
vpsllq $3, %xmm1, %xmm1
vpxor %xmm1, %xmm7, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm0, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpbroadcastq .LCPI2_11(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm1, %xmm4
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm2, %xmm1, %xmm2
vpxor %xmm0, %xmm2, %xmm0
vmovdqa 80(%rsp), %xmm2
vpxor (%rdi), %xmm2, %xmm2
vaesenc 16(%rdi), %xmm2, %xmm2
vaesenc 32(%rdi), %xmm2, %xmm2
vaesenc 48(%rdi), %xmm2, %xmm2
vaesenc 64(%rdi), %xmm2, %xmm2
vaesenc 80(%rdi), %xmm2, %xmm2
vaesenc 96(%rdi), %xmm2, %xmm2
vaesenc 112(%rdi), %xmm2, %xmm2
vaesenc 128(%rdi), %xmm2, %xmm2
vaesenc 144(%rdi), %xmm2, %xmm2
vaesenclast 160(%rdi), %xmm2, %xmm2
vpshufb .LCPI2_2(%rip), %xmm0, %xmm0
vpshufb .LCPI2_9(%rip), %xmm3, %xmm3
vpshufb .LCPI2_10(%rip), %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpxor %xmm1, %xmm5, %xmm1
vpxor %xmm0, %xmm1, %xmm0
vpxor %xmm2, %xmm0, %xmm0
xorl %eax, %eax
vptest %xmm0, %xmm0
sete %al
.LBB2_38:
addq $440, %rsp
.cfi_def_cfa_offset 56
popq %rbx
.cfi_def_cfa_offset 48
popq %r12
.cfi_def_cfa_offset 40
popq %r13
.cfi_def_cfa_offset 32
popq %r14
.cfi_def_cfa_offset 24
popq %r15
.cfi_def_cfa_offset 16
popq %rbp
.cfi_def_cfa_offset 8
retq
.Lfunc_end2:
.size haberdashery_aes128gcm_broadwell_decrypt, .Lfunc_end2-haberdashery_aes128gcm_broadwell_decrypt
.cfi_endproc
.section .text.haberdashery_aes128gcm_broadwell_is_supported,"ax",@progbits
.globl haberdashery_aes128gcm_broadwell_is_supported
.p2align 4, 0x90
.type haberdashery_aes128gcm_broadwell_is_supported,@function
haberdashery_aes128gcm_broadwell_is_supported:
.cfi_startproc
movl $1, %eax
xorl %ecx, %ecx
#APP
movq %rbx, %rsi
cpuid
xchgq %rbx, %rsi
#NO_APP
movl %ecx, %esi
movl %edx, %edi
notl %edi
notl %esi
movl $7, %eax
xorl %ecx, %ecx
#APP
movq %rbx, %r8
cpuid
xchgq %rbx, %r8
#NO_APP
andl $1993871875, %esi
andl $125829120, %edi
orl %esi, %edi
notl %r8d
andl $786729, %r8d
xorl %eax, %eax
orl %edi, %r8d
sete %al
retq
.Lfunc_end3:
.size haberdashery_aes128gcm_broadwell_is_supported, .Lfunc_end3-haberdashery_aes128gcm_broadwell_is_supported
.cfi_endproc
.ident "rustc version 1.86.0-nightly (9cd60bd2c 2025-02-15)"
.section ".note.GNU-stack","",@progbits
|
ts-phantomnk90/haberdashery
| 87,796
|
asm/aes256gcmdndkv2kc_broadwell.s
|
# @generated
# https://github.com/facebookincubator/haberdashery/
.text
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI0_0:
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.LCPI0_1:
.quad 4294967297
.quad 4294967297
.LCPI0_2:
.quad 8589934594
.quad 8589934594
.LCPI0_3:
.quad 17179869188
.quad 17179869188
.LCPI0_4:
.quad 34359738376
.quad 34359738376
.LCPI0_5:
.quad 68719476752
.quad 68719476752
.LCPI0_6:
.quad 137438953504
.quad 137438953504
.LCPI0_7:
.quad 274877907008
.quad 274877907008
.section .rodata.cst4,"aM",@progbits,4
.p2align 2, 0x0
.LCPI0_8:
.byte 13
.byte 14
.byte 15
.byte 12
.section .text.haberdashery_aes256gcmdndkv2kc_broadwell_init,"ax",@progbits
.globl haberdashery_aes256gcmdndkv2kc_broadwell_init
.p2align 4, 0x90
.type haberdashery_aes256gcmdndkv2kc_broadwell_init,@function
haberdashery_aes256gcmdndkv2kc_broadwell_init:
.cfi_startproc
cmpq $32, %rdx
jne .LBB0_2
vmovdqu (%rsi), %xmm0
vmovdqu 16(%rsi), %xmm1
vpslldq $4, %xmm0, %xmm2
vpslldq $8, %xmm0, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vpslldq $12, %xmm0, %xmm4
vpbroadcastd .LCPI0_8(%rip), %xmm3
vpshufb %xmm3, %xmm1, %xmm5
vaesenclast .LCPI0_1(%rip), %xmm5, %xmm5
vpxor %xmm4, %xmm2, %xmm2
vpxor %xmm0, %xmm2, %xmm2
vpxor %xmm2, %xmm5, %xmm2
vpslldq $4, %xmm1, %xmm4
vpslldq $8, %xmm1, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpslldq $12, %xmm1, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpshufd $255, %xmm2, %xmm5
vpxor %xmm6, %xmm6, %xmm6
vaesenclast %xmm6, %xmm5, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpslldq $4, %xmm2, %xmm5
vpslldq $8, %xmm2, %xmm7
vpxor %xmm7, %xmm5, %xmm5
vpslldq $12, %xmm2, %xmm7
vpshufb %xmm3, %xmm4, %xmm8
vaesenclast .LCPI0_2(%rip), %xmm8, %xmm8
vpxor %xmm7, %xmm5, %xmm5
vpxor %xmm2, %xmm5, %xmm5
vpxor %xmm5, %xmm8, %xmm5
vpslldq $4, %xmm4, %xmm7
vpslldq $8, %xmm4, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpslldq $12, %xmm4, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpshufd $255, %xmm5, %xmm8
vaesenclast %xmm6, %xmm8, %xmm8
vpxor %xmm4, %xmm7, %xmm7
vpxor %xmm7, %xmm8, %xmm7
vpslldq $4, %xmm5, %xmm8
vpslldq $8, %xmm5, %xmm9
vpxor %xmm9, %xmm8, %xmm8
vpslldq $12, %xmm5, %xmm9
vpxor %xmm9, %xmm8, %xmm8
vpshufb %xmm3, %xmm7, %xmm9
vaesenclast .LCPI0_3(%rip), %xmm9, %xmm9
vpxor %xmm5, %xmm8, %xmm8
vpxor %xmm8, %xmm9, %xmm8
vpslldq $4, %xmm7, %xmm9
vpslldq $8, %xmm7, %xmm10
vpxor %xmm10, %xmm9, %xmm9
vpslldq $12, %xmm7, %xmm10
vpxor %xmm10, %xmm9, %xmm9
vpshufd $255, %xmm8, %xmm10
vaesenclast %xmm6, %xmm10, %xmm10
vpxor %xmm7, %xmm9, %xmm9
vpxor %xmm9, %xmm10, %xmm9
vpslldq $4, %xmm8, %xmm10
vpslldq $8, %xmm8, %xmm11
vpxor %xmm11, %xmm10, %xmm10
vpslldq $12, %xmm8, %xmm11
vpxor %xmm11, %xmm10, %xmm10
vpshufb %xmm3, %xmm9, %xmm11
vaesenclast .LCPI0_4(%rip), %xmm11, %xmm11
vpxor %xmm8, %xmm10, %xmm10
vpxor %xmm10, %xmm11, %xmm10
vpslldq $4, %xmm9, %xmm11
vpslldq $8, %xmm9, %xmm12
vpxor %xmm12, %xmm11, %xmm11
vpslldq $12, %xmm9, %xmm12
vpxor %xmm12, %xmm11, %xmm11
vpshufd $255, %xmm10, %xmm12
vaesenclast %xmm6, %xmm12, %xmm12
vpxor %xmm9, %xmm11, %xmm11
vpxor %xmm11, %xmm12, %xmm11
vpslldq $4, %xmm10, %xmm12
vpslldq $8, %xmm10, %xmm13
vpxor %xmm13, %xmm12, %xmm12
vpslldq $12, %xmm10, %xmm13
vpxor %xmm13, %xmm12, %xmm12
vpshufb %xmm3, %xmm11, %xmm13
vaesenclast .LCPI0_5(%rip), %xmm13, %xmm13
vpxor %xmm10, %xmm12, %xmm12
vpxor %xmm12, %xmm13, %xmm12
vpslldq $4, %xmm11, %xmm13
vpslldq $8, %xmm11, %xmm14
vpxor %xmm14, %xmm13, %xmm13
vpslldq $12, %xmm11, %xmm14
vpxor %xmm14, %xmm13, %xmm13
vpshufd $255, %xmm12, %xmm14
vaesenclast %xmm6, %xmm14, %xmm14
vpxor %xmm11, %xmm13, %xmm13
vpxor %xmm13, %xmm14, %xmm13
vpslldq $4, %xmm12, %xmm14
vpslldq $8, %xmm12, %xmm15
vpxor %xmm15, %xmm14, %xmm14
vpshufb %xmm3, %xmm13, %xmm15
vaesenclast .LCPI0_6(%rip), %xmm15, %xmm15
vpslldq $12, %xmm12, %xmm3
vpxor %xmm3, %xmm14, %xmm3
vpxor %xmm3, %xmm12, %xmm3
vpxor %xmm3, %xmm15, %xmm3
vpslldq $4, %xmm13, %xmm14
vpslldq $8, %xmm13, %xmm15
vpxor %xmm15, %xmm14, %xmm14
vpslldq $12, %xmm13, %xmm15
vpxor %xmm15, %xmm14, %xmm14
vpshufd $255, %xmm3, %xmm15
vaesenclast %xmm6, %xmm15, %xmm6
vpxor %xmm13, %xmm14, %xmm14
vpxor %xmm6, %xmm14, %xmm6
vpslldq $4, %xmm3, %xmm14
vpslldq $8, %xmm3, %xmm15
vpxor %xmm15, %xmm14, %xmm14
vpslldq $12, %xmm3, %xmm15
vpxor %xmm15, %xmm14, %xmm14
vpshufb .LCPI0_0(%rip), %xmm6, %xmm15
vaesenclast .LCPI0_7(%rip), %xmm15, %xmm15
vpxor %xmm3, %xmm14, %xmm14
vpxor %xmm14, %xmm15, %xmm14
vmovdqa %xmm0, (%rdi)
vmovdqa %xmm1, 16(%rdi)
vmovdqa %xmm2, 32(%rdi)
vmovdqa %xmm4, 48(%rdi)
vmovdqa %xmm5, 64(%rdi)
vmovdqa %xmm7, 80(%rdi)
vmovdqa %xmm8, 96(%rdi)
vmovdqa %xmm9, 112(%rdi)
vmovdqa %xmm10, 128(%rdi)
vmovdqa %xmm11, 144(%rdi)
vmovdqa %xmm12, 160(%rdi)
vmovdqa %xmm13, 176(%rdi)
vmovdqa %xmm3, 192(%rdi)
vmovdqa %xmm6, 208(%rdi)
vmovdqa %xmm14, 224(%rdi)
.LBB0_2:
xorl %eax, %eax
cmpq $32, %rdx
sete %al
retq
.Lfunc_end0:
.size haberdashery_aes256gcmdndkv2kc_broadwell_init, .Lfunc_end0-haberdashery_aes256gcmdndkv2kc_broadwell_init
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI1_0:
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 0
.LCPI1_1:
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 224
.LCPI1_2:
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 225
.LCPI1_3:
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 226
.LCPI1_4:
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 227
.LCPI1_5:
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 228
.LCPI1_6:
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.LCPI1_7:
.quad 4294967297
.quad 4294967297
.LCPI1_14:
.quad 274877907008
.quad 274877907008
.LCPI1_15:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI1_16:
.zero 8
.quad -4467570830351532032
.LCPI1_17:
.byte 15
.byte 128
.byte 128
.byte 128
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI1_18:
.long 1
.long 0
.long 0
.long 0
.LCPI1_19:
.long 2
.long 0
.long 0
.long 0
.LCPI1_20:
.long 3
.long 0
.long 0
.long 0
.LCPI1_21:
.long 4
.long 0
.long 0
.long 0
.LCPI1_22:
.long 5
.long 0
.long 0
.long 0
.LCPI1_23:
.long 6
.long 0
.long 0
.long 0
.LCPI1_24:
.long 7
.long 0
.long 0
.long 0
.LCPI1_25:
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.LCPI1_26:
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.LCPI1_27:
.zero 16
.section .rodata.cst4,"aM",@progbits,4
.p2align 2, 0x0
.LCPI1_8:
.long 0x00000002
.LCPI1_9:
.long 0x0c0f0e0d
.LCPI1_10:
.long 0x00000004
.LCPI1_11:
.long 0x00000008
.LCPI1_12:
.long 0x00000010
.LCPI1_13:
.long 0x00000020
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI1_28:
.quad -4467570830351532032
.section .text.haberdashery_aes256gcmdndkv2kc_broadwell_encrypt,"ax",@progbits
.globl haberdashery_aes256gcmdndkv2kc_broadwell_encrypt
.p2align 4, 0x90
.type haberdashery_aes256gcmdndkv2kc_broadwell_encrypt,@function
haberdashery_aes256gcmdndkv2kc_broadwell_encrypt:
.cfi_startproc
pushq %rbp
.cfi_def_cfa_offset 16
pushq %r15
.cfi_def_cfa_offset 24
pushq %r14
.cfi_def_cfa_offset 32
pushq %r13
.cfi_def_cfa_offset 40
pushq %r12
.cfi_def_cfa_offset 48
pushq %rbx
.cfi_def_cfa_offset 56
subq $456, %rsp
.cfi_def_cfa_offset 512
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
.cfi_offset %rbp, -16
movq 512(%rsp), %r15
xorl %eax, %eax
cmpq 528(%rsp), %r15
jne .LBB1_49
movq %r15, %r10
shrq $5, %r10
cmpq $2147483646, %r10
ja .LBB1_49
movabsq $2305843009213693950, %r10
cmpq %r10, %r8
ja .LBB1_49
cmpq $24, %rdx
jne .LBB1_49
cmpq $48, 544(%rsp)
jne .LBB1_49
vmovdqu (%rsi), %xmm0
vpextrb $15, %xmm0, %edx
vpand .LCPI1_0(%rip), %xmm0, %xmm0
vpxor (%rdi), %xmm0, %xmm10
vpxor .LCPI1_1(%rip), %xmm10, %xmm2
vmovdqa 16(%rdi), %xmm11
vmovdqa 32(%rdi), %xmm9
vmovdqa 48(%rdi), %xmm1
vmovdqa 64(%rdi), %xmm0
vmovdqa %xmm0, 16(%rsp)
vaesenc %xmm11, %xmm2, %xmm2
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm1, %xmm2, %xmm2
vaesenc %xmm0, %xmm2, %xmm3
vmovdqa 80(%rdi), %xmm2
vaesenc %xmm2, %xmm3, %xmm4
vmovdqa 96(%rdi), %xmm3
vaesenc %xmm3, %xmm4, %xmm5
vmovdqa 112(%rdi), %xmm4
vaesenc %xmm4, %xmm5, %xmm6
vmovdqa 128(%rdi), %xmm5
vaesenc %xmm5, %xmm6, %xmm7
vmovdqa 144(%rdi), %xmm6
vaesenc %xmm6, %xmm7, %xmm8
vmovdqa 160(%rdi), %xmm7
vaesenc %xmm7, %xmm8, %xmm12
vmovdqa 176(%rdi), %xmm8
vaesenc %xmm8, %xmm12, %xmm12
vpxor .LCPI1_2(%rip), %xmm10, %xmm13
vaesenc %xmm11, %xmm13, %xmm13
vpxor .LCPI1_3(%rip), %xmm10, %xmm14
vpxor .LCPI1_4(%rip), %xmm10, %xmm15
vaesenc %xmm11, %xmm14, %xmm14
vaesenc %xmm11, %xmm15, %xmm15
vpxor .LCPI1_5(%rip), %xmm10, %xmm10
vaesenc %xmm11, %xmm10, %xmm11
vmovdqa 192(%rdi), %xmm10
vaesenc %xmm10, %xmm12, %xmm12
vaesenc %xmm9, %xmm13, %xmm13
vaesenc %xmm9, %xmm14, %xmm14
vaesenc %xmm9, %xmm15, %xmm15
vaesenc %xmm9, %xmm11, %xmm9
vmovdqa 208(%rdi), %xmm11
vaesenc %xmm11, %xmm12, %xmm0
vaesenc %xmm1, %xmm13, %xmm13
vaesenc %xmm1, %xmm14, %xmm14
vaesenc %xmm1, %xmm15, %xmm15
vaesenc %xmm1, %xmm9, %xmm1
vmovdqa 224(%rdi), %xmm12
vaesenclast %xmm12, %xmm0, %xmm0
vmovdqa %xmm0, (%rsp)
vmovdqa 16(%rsp), %xmm0
vaesenc %xmm0, %xmm13, %xmm9
vaesenc %xmm2, %xmm9, %xmm9
vaesenc %xmm3, %xmm9, %xmm9
vaesenc %xmm4, %xmm9, %xmm9
vaesenc %xmm5, %xmm9, %xmm9
vaesenc %xmm6, %xmm9, %xmm9
vaesenc %xmm7, %xmm9, %xmm9
vaesenc %xmm8, %xmm9, %xmm9
vaesenc %xmm10, %xmm9, %xmm9
vaesenc %xmm11, %xmm9, %xmm9
vaesenclast %xmm12, %xmm9, %xmm13
vaesenc %xmm0, %xmm14, %xmm9
vaesenc %xmm2, %xmm9, %xmm9
vaesenc %xmm3, %xmm9, %xmm9
vaesenc %xmm4, %xmm9, %xmm9
vaesenc %xmm5, %xmm9, %xmm9
vaesenc %xmm6, %xmm9, %xmm9
vaesenc %xmm7, %xmm9, %xmm9
vaesenc %xmm8, %xmm9, %xmm9
vaesenc %xmm10, %xmm9, %xmm9
vaesenc %xmm11, %xmm9, %xmm9
vaesenclast %xmm12, %xmm9, %xmm14
vaesenc %xmm0, %xmm15, %xmm9
vaesenc %xmm2, %xmm9, %xmm9
vaesenc %xmm3, %xmm9, %xmm9
vaesenc %xmm4, %xmm9, %xmm9
vaesenc %xmm5, %xmm9, %xmm9
vaesenc %xmm6, %xmm9, %xmm9
vaesenc %xmm7, %xmm9, %xmm9
vaesenc %xmm8, %xmm9, %xmm9
vaesenc %xmm10, %xmm9, %xmm9
vaesenc %xmm11, %xmm9, %xmm9
vaesenclast %xmm12, %xmm9, %xmm9
vaesenc %xmm0, %xmm1, %xmm1
vaesenc %xmm2, %xmm1, %xmm1
vaesenc %xmm3, %xmm1, %xmm1
vaesenc %xmm4, %xmm1, %xmm1
vaesenc %xmm5, %xmm1, %xmm1
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm8, %xmm1, %xmm1
vaesenc %xmm10, %xmm1, %xmm1
vaesenc %xmm11, %xmm1, %xmm1
vaesenclast %xmm12, %xmm1, %xmm2
vmovdqa (%rsp), %xmm0
vpxor %xmm0, %xmm13, %xmm5
vpxor %xmm0, %xmm14, %xmm6
vpslldq $4, %xmm5, %xmm1
vpslldq $8, %xmm5, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpslldq $12, %xmm5, %xmm3
vpxor %xmm3, %xmm1, %xmm3
vpbroadcastd .LCPI1_9(%rip), %xmm1
vpshufb %xmm1, %xmm6, %xmm4
vaesenclast .LCPI1_7(%rip), %xmm4, %xmm4
vpxor %xmm5, %xmm3, %xmm3
vpxor %xmm3, %xmm4, %xmm8
vmovdqa %xmm5, 16(%rsp)
vaesenc %xmm6, %xmm5, %xmm3
vpslldq $4, %xmm6, %xmm4
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpslldq $12, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpshufd $255, %xmm8, %xmm5
vpxor %xmm13, %xmm13, %xmm13
vaesenclast %xmm13, %xmm5, %xmm5
vmovdqa %xmm6, 64(%rsp)
vpxor %xmm6, %xmm4, %xmm4
vpxor %xmm4, %xmm5, %xmm11
vbroadcastss .LCPI1_8(%rip), %xmm5
vbroadcastss .LCPI1_9(%rip), %xmm4
vmovdqa %xmm8, 288(%rsp)
#APP
vaesenc %xmm8, %xmm3, %xmm3
vpslldq $4, %xmm8, %xmm6
vpslldq $8, %xmm8, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpslldq $12, %xmm8, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpxor %xmm6, %xmm8, %xmm6
vpshufb %xmm4, %xmm11, %xmm10
vaesenclast %xmm5, %xmm10, %xmm10
vpxor %xmm6, %xmm10, %xmm10
#NO_APP
vmovdqa %xmm11, 272(%rsp)
#APP
vaesenc %xmm11, %xmm3, %xmm3
vpslldq $4, %xmm11, %xmm5
vpslldq $8, %xmm11, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vpslldq $12, %xmm11, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vpxor %xmm5, %xmm11, %xmm5
vpshufd $255, %xmm10, %xmm8
vaesenclast %xmm13, %xmm8, %xmm8
vpxor %xmm5, %xmm8, %xmm8
#NO_APP
vbroadcastss .LCPI1_10(%rip), %xmm5
vmovaps %xmm10, 128(%rsp)
#APP
vaesenc %xmm10, %xmm3, %xmm3
vpslldq $4, %xmm10, %xmm6
vpslldq $8, %xmm10, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpslldq $12, %xmm10, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpxor %xmm6, %xmm10, %xmm6
vpshufb %xmm4, %xmm8, %xmm12
vaesenclast %xmm5, %xmm12, %xmm12
vpxor %xmm6, %xmm12, %xmm12
#NO_APP
vmovaps %xmm8, 192(%rsp)
#APP
vaesenc %xmm8, %xmm3, %xmm3
vpslldq $4, %xmm8, %xmm5
vpslldq $8, %xmm8, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vpslldq $12, %xmm8, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vpxor %xmm5, %xmm8, %xmm5
vpshufd $255, %xmm12, %xmm14
vaesenclast %xmm13, %xmm14, %xmm14
vpxor %xmm5, %xmm14, %xmm14
#NO_APP
vbroadcastss .LCPI1_11(%rip), %xmm5
#APP
vaesenc %xmm12, %xmm3, %xmm3
vpslldq $4, %xmm12, %xmm6
vpslldq $8, %xmm12, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpslldq $12, %xmm12, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpxor %xmm6, %xmm12, %xmm6
vpshufb %xmm4, %xmm14, %xmm15
vaesenclast %xmm5, %xmm15, %xmm15
vpxor %xmm6, %xmm15, %xmm15
#NO_APP
vmovaps %xmm14, 96(%rsp)
#APP
vaesenc %xmm14, %xmm3, %xmm3
vpslldq $4, %xmm14, %xmm5
vpslldq $8, %xmm14, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vpslldq $12, %xmm14, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vpxor %xmm5, %xmm14, %xmm5
vpshufd $255, %xmm15, %xmm8
vaesenclast %xmm13, %xmm8, %xmm8
vpxor %xmm5, %xmm8, %xmm8
#NO_APP
vbroadcastss .LCPI1_12(%rip), %xmm5
vmovdqa %xmm15, %xmm10
#APP
vaesenc %xmm15, %xmm3, %xmm3
vpslldq $4, %xmm15, %xmm6
vpslldq $8, %xmm15, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpslldq $12, %xmm15, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpxor %xmm6, %xmm15, %xmm6
vpshufb %xmm4, %xmm8, %xmm14
vaesenclast %xmm5, %xmm14, %xmm14
vpxor %xmm6, %xmm14, %xmm14
#NO_APP
#APP
vaesenc %xmm8, %xmm3, %xmm3
vpslldq $4, %xmm8, %xmm5
vpslldq $8, %xmm8, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vpslldq $12, %xmm8, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vpxor %xmm5, %xmm8, %xmm5
vpshufd $255, %xmm14, %xmm15
vaesenclast %xmm13, %xmm15, %xmm15
vpxor %xmm5, %xmm15, %xmm15
#NO_APP
vbroadcastss .LCPI1_13(%rip), %xmm5
vmovaps %xmm14, 112(%rsp)
#APP
vaesenc %xmm14, %xmm3, %xmm3
vpslldq $4, %xmm14, %xmm6
vpslldq $8, %xmm14, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpslldq $12, %xmm14, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpxor %xmm6, %xmm14, %xmm6
vpshufb %xmm4, %xmm15, %xmm11
vaesenclast %xmm5, %xmm11, %xmm11
vpxor %xmm6, %xmm11, %xmm11
#NO_APP
vmovdqa %xmm15, %xmm7
vpslldq $4, %xmm15, %xmm4
vpunpcklqdq %xmm15, %xmm13, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vinsertps $55, %xmm15, %xmm0, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpshufd $255, %xmm11, %xmm5
vaesenclast %xmm13, %xmm5, %xmm5
vpxor %xmm4, %xmm15, %xmm4
vpxor %xmm4, %xmm5, %xmm6
vpslldq $4, %xmm11, %xmm4
vpunpcklqdq %xmm11, %xmm13, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vinsertps $55, %xmm11, %xmm0, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpshufb %xmm1, %xmm6, %xmm1
vaesenclast .LCPI1_14(%rip), %xmm1, %xmm1
vpxor %xmm4, %xmm11, %xmm4
vpxor %xmm4, %xmm1, %xmm15
vpxor %xmm0, %xmm9, %xmm1
vmovdqa %xmm11, %xmm9
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm11, %xmm3, %xmm3
vmovdqa %xmm6, 48(%rsp)
vaesenc %xmm6, %xmm3, %xmm3
vaesenclast %xmm15, %xmm3, %xmm3
vpshufb .LCPI1_15(%rip), %xmm3, %xmm3
vpxor %xmm0, %xmm2, %xmm0
vpsrlq $63, %xmm3, %xmm2
vpaddq %xmm3, %xmm3, %xmm3
vpshufd $78, %xmm2, %xmm4
vpor %xmm4, %xmm3, %xmm3
vpblendd $12, %xmm2, %xmm13, %xmm2
vpsllq $63, %xmm2, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpsllq $62, %xmm2, %xmm4
vpsllq $57, %xmm2, %xmm2
vpxor %xmm2, %xmm4, %xmm2
vpxor %xmm2, %xmm3, %xmm11
vpclmulqdq $0, %xmm11, %xmm11, %xmm2
vpbroadcastq .LCPI1_28(%rip), %xmm6
vpclmulqdq $16, %xmm6, %xmm2, %xmm3
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $17, %xmm11, %xmm11, %xmm3
vpshufd $78, %xmm2, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpclmulqdq $16, %xmm6, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm5
vpclmulqdq $16, %xmm11, %xmm5, %xmm2
vpclmulqdq $1, %xmm11, %xmm5, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $0, %xmm11, %xmm5, %xmm3
vpslldq $8, %xmm2, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpclmulqdq $16, %xmm6, %xmm3, %xmm4
vpshufd $78, %xmm3, %xmm3
vpxor %xmm3, %xmm4, %xmm3
vpsrldq $8, %xmm2, %xmm2
vpclmulqdq $17, %xmm11, %xmm5, %xmm4
vpxor %xmm2, %xmm4, %xmm2
vpshufd $78, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpclmulqdq $16, %xmm6, %xmm3, %xmm3
vpxor %xmm3, %xmm2, %xmm14
vpclmulqdq $0, %xmm14, %xmm14, %xmm2
vpclmulqdq $16, %xmm6, %xmm2, %xmm3
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $17, %xmm14, %xmm14, %xmm3
vpshufd $78, %xmm2, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpclmulqdq $16, %xmm6, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vmovdqa %xmm2, 368(%rsp)
vpclmulqdq $0, %xmm5, %xmm5, %xmm2
vpclmulqdq $16, %xmm6, %xmm2, %xmm3
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vmovdqa %xmm5, 320(%rsp)
vpclmulqdq $17, %xmm5, %xmm5, %xmm3
vpshufd $78, %xmm2, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpclmulqdq $16, %xmm6, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm13
vpclmulqdq $16, %xmm11, %xmm13, %xmm2
vpclmulqdq $1, %xmm11, %xmm13, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $0, %xmm11, %xmm13, %xmm3
vpslldq $8, %xmm2, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpclmulqdq $16, %xmm6, %xmm3, %xmm4
vpshufd $78, %xmm3, %xmm3
vpxor %xmm3, %xmm4, %xmm3
vpsrldq $8, %xmm2, %xmm2
vpclmulqdq $17, %xmm11, %xmm13, %xmm4
vpxor %xmm2, %xmm4, %xmm2
vpshufd $78, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpclmulqdq $16, %xmm6, %xmm3, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vmovdqa %xmm2, 352(%rsp)
movq 536(%rsp), %r12
movzbl 16(%rsi), %edi
movzbl 17(%rsi), %r10d
movzbl 23(%rsi), %r11d
shll $8, %edi
orl %edx, %edi
shll $16, %r10d
orl %edi, %r10d
movzbl 18(%rsi), %edx
shll $24, %edx
orl %r10d, %edx
vmovd %edx, %xmm2
vpinsrd $1, 19(%rsi), %xmm2, %xmm2
vmovdqu %xmm1, (%r12)
vmovdqu %xmm0, 16(%r12)
vpinsrd $2, %r11d, %xmm2, %xmm0
movl $16777216, %edx
vpinsrd $3, %edx, %xmm0, %xmm0
vmovdqa %xmm0, 384(%rsp)
testq %r8, %r8
vmovaps %xmm12, 240(%rsp)
vmovdqa %xmm15, 208(%rsp)
vmovdqa %xmm11, 80(%rsp)
vmovdqa %xmm14, 336(%rsp)
vmovdqa %xmm10, 256(%rsp)
vmovdqa %xmm8, 176(%rsp)
vmovdqa %xmm7, 160(%rsp)
vmovdqa %xmm9, 224(%rsp)
je .LBB1_24
cmpq $96, %r8
jb .LBB1_7
vmovdqu 32(%rcx), %xmm1
vmovdqu 48(%rcx), %xmm2
vmovdqu 64(%rcx), %xmm3
vmovdqu 80(%rcx), %xmm4
vmovdqa .LCPI1_15(%rip), %xmm0
vpshufb %xmm0, %xmm1, %xmm5
vpshufb %xmm0, %xmm2, %xmm1
vpshufb %xmm0, %xmm3, %xmm2
vpshufb %xmm0, %xmm4, %xmm3
vpclmulqdq $0, %xmm3, %xmm11, %xmm4
vpclmulqdq $1, %xmm3, %xmm11, %xmm6
vpclmulqdq $16, %xmm3, %xmm11, %xmm7
vpxor %xmm6, %xmm7, %xmm6
vpclmulqdq $17, %xmm3, %xmm11, %xmm3
vmovdqa 320(%rsp), %xmm8
vpclmulqdq $0, %xmm2, %xmm8, %xmm7
vpxor %xmm4, %xmm7, %xmm4
vpclmulqdq $1, %xmm2, %xmm8, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm8, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpclmulqdq $17, %xmm2, %xmm8, %xmm2
vpxor %xmm3, %xmm2, %xmm2
vpclmulqdq $0, %xmm1, %xmm14, %xmm3
vpclmulqdq $1, %xmm1, %xmm14, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm13, %xmm7
vpxor %xmm7, %xmm4, %xmm4
vpclmulqdq $16, %xmm1, %xmm14, %xmm7
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $1, %xmm5, %xmm13, %xmm4
vpxor %xmm4, %xmm7, %xmm4
vpxor %xmm4, %xmm6, %xmm4
vpclmulqdq $16, %xmm5, %xmm13, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vmovdqu (%rcx), %xmm6
vmovdqa %xmm13, %xmm12
vpclmulqdq $17, %xmm5, %xmm13, %xmm5
vpxor %xmm5, %xmm2, %xmm2
vmovdqu 16(%rcx), %xmm5
vpshufb %xmm0, %xmm6, %xmm6
vpshufb %xmm0, %xmm5, %xmm5
vpclmulqdq $17, %xmm1, %xmm14, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vmovdqa 352(%rsp), %xmm15
vpclmulqdq $0, %xmm5, %xmm15, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $1, %xmm5, %xmm15, %xmm3
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $16, %xmm5, %xmm15, %xmm4
vpclmulqdq $17, %xmm5, %xmm15, %xmm5
vpxor %xmm5, %xmm1, %xmm5
vmovdqa 368(%rsp), %xmm14
vpclmulqdq $0, %xmm6, %xmm14, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpclmulqdq $1, %xmm6, %xmm14, %xmm2
vpxor %xmm2, %xmm4, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $16, %xmm6, %xmm14, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vpclmulqdq $17, %xmm6, %xmm14, %xmm3
vpxor %xmm3, %xmm5, %xmm3
addq $96, %rcx
leaq -96(%r8), %rsi
cmpq $96, %rsi
jb .LBB1_14
vmovdqa 80(%rsp), %xmm11
vmovdqa 320(%rsp), %xmm10
vmovdqa 336(%rsp), %xmm13
.p2align 4, 0x90
.LBB1_22:
vmovdqu (%rcx), %xmm4
vmovdqu 32(%rcx), %xmm5
vmovdqu 48(%rcx), %xmm6
vmovdqu 64(%rcx), %xmm7
vmovdqu 80(%rcx), %xmm8
vpslldq $8, %xmm2, %xmm9
vpxor %xmm1, %xmm9, %xmm1
vpsrldq $8, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpbroadcastq .LCPI1_28(%rip), %xmm9
vpclmulqdq $16, %xmm9, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm9, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpshufb %xmm0, %xmm4, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpxor %xmm1, %xmm2, %xmm1
vpxor %xmm3, %xmm1, %xmm3
vpshufb %xmm0, %xmm5, %xmm1
vpshufb %xmm0, %xmm6, %xmm2
vpshufb %xmm0, %xmm7, %xmm4
vpshufb %xmm0, %xmm8, %xmm5
vpclmulqdq $0, %xmm5, %xmm11, %xmm6
vpclmulqdq $1, %xmm5, %xmm11, %xmm7
vpclmulqdq $16, %xmm5, %xmm11, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $17, %xmm5, %xmm11, %xmm5
vpclmulqdq $0, %xmm4, %xmm10, %xmm8
vpxor %xmm6, %xmm8, %xmm6
vpclmulqdq $1, %xmm4, %xmm10, %xmm8
vpclmulqdq $16, %xmm4, %xmm10, %xmm9
vpxor %xmm9, %xmm8, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $17, %xmm4, %xmm10, %xmm4
vpxor %xmm5, %xmm4, %xmm4
vpclmulqdq $0, %xmm2, %xmm13, %xmm5
vpclmulqdq $1, %xmm2, %xmm13, %xmm8
vpclmulqdq $16, %xmm2, %xmm13, %xmm9
vpxor %xmm9, %xmm8, %xmm8
vpclmulqdq $0, %xmm1, %xmm12, %xmm9
vpxor %xmm5, %xmm9, %xmm5
vpxor %xmm5, %xmm6, %xmm5
vpclmulqdq $1, %xmm1, %xmm12, %xmm6
vpxor %xmm6, %xmm8, %xmm6
vpclmulqdq $17, %xmm2, %xmm13, %xmm2
vpxor %xmm6, %xmm7, %xmm6
vpclmulqdq $17, %xmm1, %xmm12, %xmm7
vpxor %xmm7, %xmm2, %xmm2
vmovdqu 16(%rcx), %xmm7
vpshufb %xmm0, %xmm7, %xmm7
vpclmulqdq $16, %xmm1, %xmm12, %xmm1
vpxor %xmm2, %xmm4, %xmm2
vpclmulqdq $0, %xmm7, %xmm15, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $1, %xmm7, %xmm15, %xmm5
vpxor %xmm5, %xmm1, %xmm1
vpclmulqdq $16, %xmm7, %xmm15, %xmm5
vpxor %xmm5, %xmm1, %xmm1
vpxor %xmm1, %xmm6, %xmm5
vpclmulqdq $17, %xmm7, %xmm15, %xmm1
vpxor %xmm1, %xmm2, %xmm6
vpclmulqdq $0, %xmm3, %xmm14, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $1, %xmm3, %xmm14, %xmm2
vpxor %xmm2, %xmm5, %xmm2
vpclmulqdq $16, %xmm3, %xmm14, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpclmulqdq $17, %xmm3, %xmm14, %xmm3
vpxor %xmm3, %xmm6, %xmm3
addq $96, %rcx
addq $-96, %rsi
cmpq $95, %rsi
ja .LBB1_22
jmp .LBB1_23
.LBB1_24:
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, (%rsp)
testq %r15, %r15
vmovdqa 96(%rsp), %xmm14
vmovdqa 112(%rsp), %xmm15
vmovdqa 64(%rsp), %xmm12
vmovdqa 48(%rsp), %xmm5
vmovdqa 192(%rsp), %xmm6
vmovdqa 128(%rsp), %xmm10
vmovdqa 16(%rsp), %xmm9
jne .LBB1_29
jmp .LBB1_48
.LBB1_7:
movq %r8, %rsi
vmovdqa 64(%rsp), %xmm12
vmovdqa 48(%rsp), %xmm5
vpxor %xmm3, %xmm3, %xmm3
vmovdqa 16(%rsp), %xmm15
cmpq $16, %rsi
vmovdqa 128(%rsp), %xmm10
jae .LBB1_15
.LBB1_9:
movq %rsi, %rdx
testq %rdx, %rdx
vmovdqa %xmm3, (%rsp)
jne .LBB1_11
jmp .LBB1_25
.LBB1_14:
vmovdqa 80(%rsp), %xmm11
.LBB1_23:
vpslldq $8, %xmm2, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpsrldq $8, %xmm2, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpbroadcastq .LCPI1_28(%rip), %xmm6
vpclmulqdq $16, %xmm6, %xmm0, %xmm2
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vpclmulqdq $16, %xmm6, %xmm0, %xmm2
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpxor %xmm2, %xmm0, %xmm3
vmovdqa 176(%rsp), %xmm8
vmovdqa 160(%rsp), %xmm7
vmovdqa %xmm12, %xmm13
vmovdqa 16(%rsp), %xmm15
vmovdqa 64(%rsp), %xmm12
vmovdqa 48(%rsp), %xmm5
cmpq $16, %rsi
vmovdqa 128(%rsp), %xmm10
jb .LBB1_9
.LBB1_15:
leaq -16(%rsi), %rdx
testb $16, %dl
je .LBB1_16
cmpq $16, %rdx
jae .LBB1_18
.LBB1_10:
testq %rdx, %rdx
vmovdqa %xmm3, (%rsp)
je .LBB1_25
.LBB1_11:
vmovdqa %xmm13, 304(%rsp)
movq %r9, %r14
movq %r8, %rbx
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, 144(%rsp)
leaq 144(%rsp), %rdi
movq %rcx, %rsi
callq *memcpy@GOTPCREL(%rip)
vmovdqa 144(%rsp), %xmm0
testq %r15, %r15
je .LBB1_12
movabsq $-68719476704, %rax
leaq (%r15,%rax), %rcx
incq %rax
cmpq %rax, %rcx
movl $0, %eax
vmovdqa 16(%rsp), %xmm9
vmovdqa 64(%rsp), %xmm12
vmovdqa 128(%rsp), %xmm10
vmovdqa 192(%rsp), %xmm6
vmovdqa 176(%rsp), %xmm8
vmovdqa 112(%rsp), %xmm15
vmovdqa 160(%rsp), %xmm7
vmovdqa 48(%rsp), %xmm5
vmovdqa 80(%rsp), %xmm4
vmovdqa 304(%rsp), %xmm13
jb .LBB1_49
movq %rbx, %r8
movq %r14, %r9
vpshufb .LCPI1_15(%rip), %xmm0, %xmm0
vpxor (%rsp), %xmm0, %xmm0
vpclmulqdq $0, %xmm0, %xmm4, %xmm1
vpclmulqdq $1, %xmm0, %xmm4, %xmm2
vpclmulqdq $16, %xmm0, %xmm4, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $17, %xmm0, %xmm4, %xmm0
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpsrldq $8, %xmm2, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI1_28(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vmovdqa %xmm0, (%rsp)
jmp .LBB1_29
.LBB1_16:
vmovdqu (%rcx), %xmm0
addq $16, %rcx
vpshufb .LCPI1_15(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm0
vpclmulqdq $0, %xmm0, %xmm11, %xmm1
vpclmulqdq $1, %xmm0, %xmm11, %xmm2
vpclmulqdq $16, %xmm0, %xmm11, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $17, %xmm0, %xmm11, %xmm0
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpsrldq $8, %xmm2, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpclmulqdq $16, %xmm6, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpclmulqdq $16, %xmm6, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm3
movq %rdx, %rsi
cmpq $16, %rdx
jb .LBB1_10
.LBB1_18:
vmovdqa .LCPI1_15(%rip), %xmm0
.p2align 4, 0x90
.LBB1_19:
vmovdqu (%rcx), %xmm1
vmovdqu 16(%rcx), %xmm2
vpshufb %xmm0, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $0, %xmm1, %xmm11, %xmm3
vpclmulqdq $1, %xmm1, %xmm11, %xmm4
vpclmulqdq $16, %xmm1, %xmm11, %xmm5
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $17, %xmm1, %xmm11, %xmm1
vpslldq $8, %xmm4, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpsrldq $8, %xmm4, %xmm4
vpxor %xmm4, %xmm1, %xmm1
vpclmulqdq $16, %xmm6, %xmm3, %xmm4
vpshufd $78, %xmm3, %xmm3
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $16, %xmm6, %xmm3, %xmm4
vpshufd $78, %xmm3, %xmm3
vpxor %xmm3, %xmm1, %xmm1
addq $32, %rcx
addq $-32, %rsi
vpshufb %xmm0, %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $0, %xmm1, %xmm11, %xmm2
vpclmulqdq $1, %xmm1, %xmm11, %xmm3
vpclmulqdq $16, %xmm1, %xmm11, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm11, %xmm1
vpslldq $8, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpsrldq $8, %xmm3, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpclmulqdq $16, %xmm6, %xmm2, %xmm3
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $16, %xmm6, %xmm2, %xmm3
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm3
cmpq $15, %rsi
ja .LBB1_19
movq %rsi, %rdx
vmovdqa 48(%rsp), %xmm5
testq %rdx, %rdx
vmovdqa %xmm3, (%rsp)
jne .LBB1_11
.LBB1_25:
vmovdqa %xmm15, %xmm9
testq %r15, %r15
vmovdqa 96(%rsp), %xmm14
vmovdqa 112(%rsp), %xmm15
vmovdqa 192(%rsp), %xmm6
je .LBB1_48
movabsq $-68719476704, %rcx
leaq (%r15,%rcx), %rdx
incq %rcx
cmpq %rcx, %rdx
jb .LBB1_49
.LBB1_29:
vmovdqa 384(%rsp), %xmm0
vpshufb .LCPI1_17(%rip), %xmm0, %xmm1
movq 520(%rsp), %rdx
vpaddd .LCPI1_18(%rip), %xmm1, %xmm0
cmpq $96, %r15
jb .LBB1_30
leaq 96(%r9), %rax
leaq 96(%rdx), %rcx
vmovdqa .LCPI1_15(%rip), %xmm14
vpshufb %xmm14, %xmm0, %xmm2
vpaddd .LCPI1_19(%rip), %xmm1, %xmm3
vpshufb %xmm14, %xmm3, %xmm3
vpaddd .LCPI1_20(%rip), %xmm1, %xmm4
vpaddd .LCPI1_21(%rip), %xmm1, %xmm5
vpshufb %xmm14, %xmm4, %xmm4
vpshufb %xmm14, %xmm5, %xmm5
vmovdqa %xmm6, %xmm11
vpaddd .LCPI1_22(%rip), %xmm1, %xmm6
vpshufb %xmm14, %xmm6, %xmm6
vmovdqa %xmm7, %xmm15
vpaddd .LCPI1_23(%rip), %xmm1, %xmm7
vpshufb %xmm14, %xmm7, %xmm7
vpaddd .LCPI1_24(%rip), %xmm1, %xmm0
vmovdqa %xmm0, 32(%rsp)
vpxor %xmm2, %xmm9, %xmm1
vpxor %xmm3, %xmm9, %xmm2
vpxor %xmm4, %xmm9, %xmm4
vpxor %xmm5, %xmm9, %xmm5
vpxor %xmm6, %xmm9, %xmm6
vpxor %xmm7, %xmm9, %xmm7
#APP
vaesenc %xmm12, %xmm1, %xmm1
vaesenc %xmm12, %xmm2, %xmm2
vaesenc %xmm12, %xmm4, %xmm4
vaesenc %xmm12, %xmm5, %xmm5
vaesenc %xmm12, %xmm6, %xmm6
vaesenc %xmm12, %xmm7, %xmm7
#NO_APP
vmovdqa 288(%rsp), %xmm9
#APP
vaesenc %xmm9, %xmm1, %xmm1
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm9, %xmm4, %xmm4
vaesenc %xmm9, %xmm5, %xmm5
vaesenc %xmm9, %xmm6, %xmm6
vaesenc %xmm9, %xmm7, %xmm7
#NO_APP
vmovaps 272(%rsp), %xmm0
#APP
vaesenc %xmm0, %xmm1, %xmm1
vaesenc %xmm0, %xmm2, %xmm2
vaesenc %xmm0, %xmm4, %xmm4
vaesenc %xmm0, %xmm5, %xmm5
vaesenc %xmm0, %xmm6, %xmm6
vaesenc %xmm0, %xmm7, %xmm7
#NO_APP
#APP
vaesenc %xmm10, %xmm1, %xmm1
vaesenc %xmm10, %xmm2, %xmm2
vaesenc %xmm10, %xmm4, %xmm4
vaesenc %xmm10, %xmm5, %xmm5
vaesenc %xmm10, %xmm6, %xmm6
vaesenc %xmm10, %xmm7, %xmm7
#NO_APP
#APP
vaesenc %xmm11, %xmm1, %xmm1
vaesenc %xmm11, %xmm2, %xmm2
vaesenc %xmm11, %xmm4, %xmm4
vaesenc %xmm11, %xmm5, %xmm5
vaesenc %xmm11, %xmm6, %xmm6
vaesenc %xmm11, %xmm7, %xmm7
#NO_APP
vmovaps 240(%rsp), %xmm3
#APP
vaesenc %xmm3, %xmm1, %xmm1
vaesenc %xmm3, %xmm2, %xmm2
vaesenc %xmm3, %xmm4, %xmm4
vaesenc %xmm3, %xmm5, %xmm5
vaesenc %xmm3, %xmm6, %xmm6
vaesenc %xmm3, %xmm7, %xmm7
#NO_APP
vmovaps 96(%rsp), %xmm3
#APP
vaesenc %xmm3, %xmm1, %xmm1
vaesenc %xmm3, %xmm2, %xmm2
vaesenc %xmm3, %xmm4, %xmm4
vaesenc %xmm3, %xmm5, %xmm5
vaesenc %xmm3, %xmm6, %xmm6
vaesenc %xmm3, %xmm7, %xmm7
#NO_APP
vmovaps 256(%rsp), %xmm3
#APP
vaesenc %xmm3, %xmm1, %xmm1
vaesenc %xmm3, %xmm2, %xmm2
vaesenc %xmm3, %xmm4, %xmm4
vaesenc %xmm3, %xmm5, %xmm5
vaesenc %xmm3, %xmm6, %xmm6
vaesenc %xmm3, %xmm7, %xmm7
#NO_APP
#APP
vaesenc %xmm8, %xmm1, %xmm1
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm8, %xmm4, %xmm4
vaesenc %xmm8, %xmm5, %xmm5
vaesenc %xmm8, %xmm6, %xmm6
vaesenc %xmm8, %xmm7, %xmm7
#NO_APP
vmovaps 112(%rsp), %xmm3
#APP
vaesenc %xmm3, %xmm1, %xmm1
vaesenc %xmm3, %xmm2, %xmm2
vaesenc %xmm3, %xmm4, %xmm4
vaesenc %xmm3, %xmm5, %xmm5
vaesenc %xmm3, %xmm6, %xmm6
vaesenc %xmm3, %xmm7, %xmm7
#NO_APP
#APP
vaesenc %xmm15, %xmm1, %xmm1
vaesenc %xmm15, %xmm2, %xmm2
vaesenc %xmm15, %xmm4, %xmm4
vaesenc %xmm15, %xmm5, %xmm5
vaesenc %xmm15, %xmm6, %xmm6
vaesenc %xmm15, %xmm7, %xmm7
#NO_APP
vmovaps 224(%rsp), %xmm3
#APP
vaesenc %xmm3, %xmm1, %xmm1
vaesenc %xmm3, %xmm2, %xmm2
vaesenc %xmm3, %xmm4, %xmm4
vaesenc %xmm3, %xmm5, %xmm5
vaesenc %xmm3, %xmm6, %xmm6
vaesenc %xmm3, %xmm7, %xmm7
#NO_APP
vmovaps 48(%rsp), %xmm3
#APP
vaesenc %xmm3, %xmm1, %xmm1
vaesenc %xmm3, %xmm2, %xmm2
vaesenc %xmm3, %xmm4, %xmm4
vaesenc %xmm3, %xmm5, %xmm5
vaesenc %xmm3, %xmm6, %xmm6
vaesenc %xmm3, %xmm7, %xmm7
#NO_APP
vmovaps 208(%rsp), %xmm3
#APP
vaesenclast %xmm3, %xmm1, %xmm1
vaesenclast %xmm3, %xmm2, %xmm2
vaesenclast %xmm3, %xmm4, %xmm4
vaesenclast %xmm3, %xmm5, %xmm5
vaesenclast %xmm3, %xmm6, %xmm6
vaesenclast %xmm3, %xmm7, %xmm7
#NO_APP
vpxor (%r9), %xmm1, %xmm3
vpxor 16(%r9), %xmm2, %xmm10
vpxor 32(%r9), %xmm4, %xmm4
vpxor 48(%r9), %xmm5, %xmm5
vpxor 64(%r9), %xmm6, %xmm11
vpxor 80(%r9), %xmm7, %xmm1
vmovdqu %xmm3, (%rdx)
vmovdqu %xmm10, 16(%rdx)
vmovdqu %xmm4, 32(%rdx)
vmovdqu %xmm5, 48(%rdx)
vmovdqu %xmm11, 64(%rdx)
leaq -96(%r15), %rbx
vmovdqu %xmm1, 80(%rdx)
cmpq $96, %rbx
jb .LBB1_36
vmovdqa %xmm13, 304(%rsp)
vmovdqa (%rsp), %xmm0
vmovdqa 32(%rsp), %xmm9
.p2align 4, 0x90
.LBB1_39:
vmovdqa %xmm5, 400(%rsp)
vmovdqa %xmm4, 416(%rsp)
vmovdqa %xmm10, 32(%rsp)
vmovdqa .LCPI1_15(%rip), %xmm8
vpshufb %xmm8, %xmm9, %xmm2
vpaddd .LCPI1_18(%rip), %xmm9, %xmm4
vpshufb %xmm8, %xmm4, %xmm4
vpaddd .LCPI1_19(%rip), %xmm9, %xmm5
vpshufb %xmm8, %xmm5, %xmm5
vpaddd .LCPI1_20(%rip), %xmm9, %xmm6
vpshufb %xmm8, %xmm6, %xmm6
vpaddd .LCPI1_21(%rip), %xmm9, %xmm12
vpshufb %xmm8, %xmm12, %xmm12
vpaddd .LCPI1_22(%rip), %xmm9, %xmm13
vpshufb %xmm8, %xmm13, %xmm7
vpshufb %xmm8, %xmm3, %xmm3
vpxor %xmm3, %xmm0, %xmm0
vmovdqa %xmm0, (%rsp)
vpshufb %xmm8, %xmm1, %xmm0
vmovdqa 16(%rsp), %xmm10
vpxor %xmm2, %xmm10, %xmm13
vpxor %xmm4, %xmm10, %xmm14
vpxor %xmm5, %xmm10, %xmm15
vpxor %xmm6, %xmm10, %xmm1
vpxor %xmm12, %xmm10, %xmm2
vpxor %xmm7, %xmm10, %xmm12
vmovaps 64(%rsp), %xmm4
#APP
vaesenc %xmm4, %xmm13, %xmm13
vaesenc %xmm4, %xmm14, %xmm14
vaesenc %xmm4, %xmm15, %xmm15
vaesenc %xmm4, %xmm1, %xmm1
vaesenc %xmm4, %xmm2, %xmm2
vaesenc %xmm4, %xmm12, %xmm12
#NO_APP
vxorps %xmm4, %xmm4, %xmm4
vpxor %xmm5, %xmm5, %xmm5
vpxor %xmm6, %xmm6, %xmm6
vmovaps 288(%rsp), %xmm10
vmovaps 80(%rsp), %xmm3
#APP
vaesenc %xmm10, %xmm13, %xmm13
vaesenc %xmm10, %xmm14, %xmm14
vaesenc %xmm10, %xmm15, %xmm15
vaesenc %xmm10, %xmm1, %xmm1
vaesenc %xmm10, %xmm2, %xmm2
vaesenc %xmm10, %xmm12, %xmm12
vpclmulqdq $16, %xmm3, %xmm0, %xmm7
vpxor %xmm7, %xmm4, %xmm4
vpclmulqdq $0, %xmm3, %xmm0, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpclmulqdq $17, %xmm3, %xmm0, %xmm7
vpxor %xmm7, %xmm5, %xmm5
vpclmulqdq $1, %xmm3, %xmm0, %xmm7
vpxor %xmm7, %xmm4, %xmm4
#NO_APP
vpshufb %xmm8, %xmm11, %xmm0
vmovaps 272(%rsp), %xmm7
#APP
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm14, %xmm14
vaesenc %xmm7, %xmm15, %xmm15
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm7, %xmm12, %xmm12
#NO_APP
vmovaps 128(%rsp), %xmm10
vmovaps 320(%rsp), %xmm3
#APP
vaesenc %xmm10, %xmm13, %xmm13
vaesenc %xmm10, %xmm14, %xmm14
vaesenc %xmm10, %xmm15, %xmm15
vaesenc %xmm10, %xmm1, %xmm1
vaesenc %xmm10, %xmm2, %xmm2
vaesenc %xmm10, %xmm12, %xmm12
vpclmulqdq $16, %xmm3, %xmm0, %xmm7
vpxor %xmm7, %xmm4, %xmm4
vpclmulqdq $0, %xmm3, %xmm0, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpclmulqdq $17, %xmm3, %xmm0, %xmm7
vpxor %xmm7, %xmm5, %xmm5
vpclmulqdq $1, %xmm3, %xmm0, %xmm7
vpxor %xmm7, %xmm4, %xmm4
#NO_APP
vmovdqa 400(%rsp), %xmm0
vpshufb %xmm8, %xmm0, %xmm0
vmovaps 192(%rsp), %xmm7
#APP
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm14, %xmm14
vaesenc %xmm7, %xmm15, %xmm15
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm7, %xmm12, %xmm12
#NO_APP
vmovaps 240(%rsp), %xmm10
vmovaps 336(%rsp), %xmm11
#APP
vaesenc %xmm10, %xmm13, %xmm13
vaesenc %xmm10, %xmm14, %xmm14
vaesenc %xmm10, %xmm15, %xmm15
vaesenc %xmm10, %xmm1, %xmm1
vaesenc %xmm10, %xmm2, %xmm2
vaesenc %xmm10, %xmm12, %xmm12
vpclmulqdq $16, %xmm11, %xmm0, %xmm7
vpxor %xmm7, %xmm4, %xmm4
vpclmulqdq $0, %xmm11, %xmm0, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpclmulqdq $17, %xmm11, %xmm0, %xmm7
vpxor %xmm7, %xmm5, %xmm5
vpclmulqdq $1, %xmm11, %xmm0, %xmm7
vpxor %xmm7, %xmm4, %xmm4
#NO_APP
vmovdqa 416(%rsp), %xmm0
vpshufb %xmm8, %xmm0, %xmm0
vmovaps 96(%rsp), %xmm7
#APP
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm14, %xmm14
vaesenc %xmm7, %xmm15, %xmm15
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm7, %xmm12, %xmm12
#NO_APP
vmovaps 256(%rsp), %xmm10
vmovaps 304(%rsp), %xmm11
#APP
vaesenc %xmm10, %xmm13, %xmm13
vaesenc %xmm10, %xmm14, %xmm14
vaesenc %xmm10, %xmm15, %xmm15
vaesenc %xmm10, %xmm1, %xmm1
vaesenc %xmm10, %xmm2, %xmm2
vaesenc %xmm10, %xmm12, %xmm12
vpclmulqdq $16, %xmm11, %xmm0, %xmm7
vpxor %xmm7, %xmm4, %xmm4
vpclmulqdq $0, %xmm11, %xmm0, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpclmulqdq $17, %xmm11, %xmm0, %xmm7
vpxor %xmm7, %xmm5, %xmm5
vpclmulqdq $1, %xmm11, %xmm0, %xmm7
vpxor %xmm7, %xmm4, %xmm4
#NO_APP
vmovdqa 32(%rsp), %xmm0
vpshufb %xmm8, %xmm0, %xmm0
vmovaps 176(%rsp), %xmm7
#APP
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm14, %xmm14
vaesenc %xmm7, %xmm15, %xmm15
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm7, %xmm12, %xmm12
#NO_APP
vmovaps 112(%rsp), %xmm3
vmovaps 352(%rsp), %xmm8
#APP
vaesenc %xmm3, %xmm13, %xmm13
vaesenc %xmm3, %xmm14, %xmm14
vaesenc %xmm3, %xmm15, %xmm15
vaesenc %xmm3, %xmm1, %xmm1
vaesenc %xmm3, %xmm2, %xmm2
vaesenc %xmm3, %xmm12, %xmm12
vpclmulqdq $16, %xmm8, %xmm0, %xmm7
vpxor %xmm7, %xmm4, %xmm4
vpclmulqdq $0, %xmm8, %xmm0, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpclmulqdq $17, %xmm8, %xmm0, %xmm7
vpxor %xmm7, %xmm5, %xmm5
vpclmulqdq $1, %xmm8, %xmm0, %xmm7
vpxor %xmm7, %xmm4, %xmm4
#NO_APP
vmovaps 160(%rsp), %xmm0
#APP
vaesenc %xmm0, %xmm13, %xmm13
vaesenc %xmm0, %xmm14, %xmm14
vaesenc %xmm0, %xmm15, %xmm15
vaesenc %xmm0, %xmm1, %xmm1
vaesenc %xmm0, %xmm2, %xmm2
vaesenc %xmm0, %xmm12, %xmm12
#NO_APP
vmovdqa 224(%rsp), %xmm7
vmovdqa 368(%rsp), %xmm3
vmovdqa (%rsp), %xmm8
#APP
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm14, %xmm14
vaesenc %xmm7, %xmm15, %xmm15
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm7, %xmm12, %xmm12
vpclmulqdq $16, %xmm3, %xmm8, %xmm0
vpxor %xmm0, %xmm4, %xmm4
vpclmulqdq $0, %xmm3, %xmm8, %xmm0
vpxor %xmm0, %xmm6, %xmm6
vpclmulqdq $17, %xmm3, %xmm8, %xmm0
vpxor %xmm0, %xmm5, %xmm5
vpclmulqdq $1, %xmm3, %xmm8, %xmm0
vpxor %xmm0, %xmm4, %xmm4
#NO_APP
vpxor %xmm3, %xmm3, %xmm3
vpunpcklqdq %xmm4, %xmm3, %xmm0
vpxor %xmm0, %xmm6, %xmm0
vpunpckhqdq %xmm3, %xmm4, %xmm3
vpxor %xmm3, %xmm5, %xmm3
vpbroadcastq .LCPI1_28(%rip), %xmm5
vpclmulqdq $16, %xmm5, %xmm0, %xmm4
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm4, %xmm0
vpshufd $78, %xmm0, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpclmulqdq $16, %xmm5, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm0
vmovaps 48(%rsp), %xmm3
#APP
vaesenc %xmm3, %xmm13, %xmm13
vaesenc %xmm3, %xmm14, %xmm14
vaesenc %xmm3, %xmm15, %xmm15
vaesenc %xmm3, %xmm1, %xmm1
vaesenc %xmm3, %xmm2, %xmm2
vaesenc %xmm3, %xmm12, %xmm12
#NO_APP
vmovaps 208(%rsp), %xmm3
#APP
vaesenclast %xmm3, %xmm13, %xmm13
vaesenclast %xmm3, %xmm14, %xmm14
vaesenclast %xmm3, %xmm15, %xmm15
vaesenclast %xmm3, %xmm1, %xmm1
vaesenclast %xmm3, %xmm2, %xmm2
vaesenclast %xmm3, %xmm12, %xmm12
#NO_APP
vpxor (%rax), %xmm13, %xmm3
vpxor 16(%rax), %xmm14, %xmm10
vpxor 32(%rax), %xmm15, %xmm4
vpxor 48(%rax), %xmm1, %xmm5
vpxor 64(%rax), %xmm2, %xmm11
vpxor 80(%rax), %xmm12, %xmm1
addq $96, %rax
vmovdqu %xmm3, (%rcx)
vmovdqu %xmm10, 16(%rcx)
vmovdqu %xmm4, 32(%rcx)
vmovdqu %xmm5, 48(%rcx)
vmovdqu %xmm11, 64(%rcx)
vmovdqu %xmm1, 80(%rcx)
addq $96, %rcx
addq $-96, %rbx
vpaddd .LCPI1_23(%rip), %xmm9, %xmm9
cmpq $95, %rbx
ja .LBB1_39
vmovdqa %xmm9, 32(%rsp)
vmovdqa 304(%rsp), %xmm13
jmp .LBB1_37
.LBB1_30:
vmovdqa %xmm0, 32(%rsp)
movq %r15, %rbx
vmovdqa (%rsp), %xmm0
vmovdqa %xmm15, %xmm8
movq %r8, %r13
cmpq $16, %rbx
jae .LBB1_41
.LBB1_32:
movq %rdx, %r14
movq %r9, %rsi
vmovdqa 32(%rsp), %xmm10
jmp .LBB1_33
.LBB1_12:
movq %rbx, %r8
jmp .LBB1_46
.LBB1_36:
vmovdqa (%rsp), %xmm0
.LBB1_37:
vmovdqa .LCPI1_15(%rip), %xmm7
vpshufb %xmm7, %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm2
vpshufb %xmm7, %xmm10, %xmm3
vpshufb %xmm7, %xmm4, %xmm4
vpshufb %xmm7, %xmm5, %xmm5
vpshufb %xmm7, %xmm11, %xmm6
vpshufb %xmm7, %xmm1, %xmm0
vmovdqa 80(%rsp), %xmm10
vpclmulqdq $0, %xmm0, %xmm10, %xmm1
vpclmulqdq $1, %xmm0, %xmm10, %xmm7
vpclmulqdq $16, %xmm0, %xmm10, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vmovdqa 320(%rsp), %xmm11
vpclmulqdq $0, %xmm6, %xmm11, %xmm8
vpxor %xmm1, %xmm8, %xmm1
vpclmulqdq $1, %xmm6, %xmm11, %xmm8
vpclmulqdq $16, %xmm6, %xmm11, %xmm9
vpxor %xmm9, %xmm8, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $17, %xmm0, %xmm10, %xmm0
vpclmulqdq $17, %xmm6, %xmm11, %xmm6
vpxor %xmm0, %xmm6, %xmm0
vmovdqa 336(%rsp), %xmm9
vpclmulqdq $1, %xmm5, %xmm9, %xmm6
vpclmulqdq $16, %xmm5, %xmm9, %xmm8
vpxor %xmm6, %xmm8, %xmm6
vpclmulqdq $0, %xmm5, %xmm9, %xmm8
vpclmulqdq $17, %xmm5, %xmm9, %xmm5
vpclmulqdq $0, %xmm4, %xmm13, %xmm9
vpxor %xmm9, %xmm8, %xmm8
vpxor %xmm1, %xmm8, %xmm1
vpclmulqdq $1, %xmm4, %xmm13, %xmm8
vpxor %xmm6, %xmm8, %xmm6
vpxor %xmm6, %xmm7, %xmm6
vpclmulqdq $16, %xmm4, %xmm13, %xmm7
vpclmulqdq $17, %xmm4, %xmm13, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpxor %xmm4, %xmm0, %xmm0
vmovdqa 352(%rsp), %xmm8
vpclmulqdq $0, %xmm3, %xmm8, %xmm4
vpxor %xmm4, %xmm1, %xmm1
vpclmulqdq $1, %xmm3, %xmm8, %xmm4
vpxor %xmm4, %xmm7, %xmm4
vpclmulqdq $16, %xmm3, %xmm8, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpxor %xmm4, %xmm6, %xmm4
vpclmulqdq $17, %xmm3, %xmm8, %xmm3
vpxor %xmm3, %xmm0, %xmm0
vmovdqa 368(%rsp), %xmm5
vpclmulqdq $0, %xmm2, %xmm5, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpclmulqdq $1, %xmm2, %xmm5, %xmm3
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $16, %xmm2, %xmm5, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpclmulqdq $17, %xmm2, %xmm5, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpslldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI1_28(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpshufd $78, %xmm1, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpclmulqdq $16, %xmm3, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
movq %rcx, %rdx
movq %rax, %r9
vmovdqa 192(%rsp), %xmm6
vmovdqa 112(%rsp), %xmm8
vmovdqa 48(%rsp), %xmm5
movq %r8, %r13
cmpq $16, %rbx
jb .LBB1_32
.LBB1_41:
vmovdqa 80(%rsp), %xmm14
vmovdqa 176(%rsp), %xmm7
vmovdqa 160(%rsp), %xmm9
vmovdqa 224(%rsp), %xmm1
vmovdqa 128(%rsp), %xmm11
vmovdqa 32(%rsp), %xmm10
vmovdqa 240(%rsp), %xmm13
vmovdqa 208(%rsp), %xmm12
vmovdqa 96(%rsp), %xmm15
.p2align 4, 0x90
.LBB1_42:
vmovdqa .LCPI1_15(%rip), %xmm4
vpshufb %xmm4, %xmm10, %xmm2
vpxor 16(%rsp), %xmm2, %xmm2
vaesenc 64(%rsp), %xmm2, %xmm2
vaesenc 288(%rsp), %xmm2, %xmm2
vaesenc 272(%rsp), %xmm2, %xmm2
vaesenc %xmm11, %xmm2, %xmm2
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm13, %xmm2, %xmm2
vaesenc %xmm15, %xmm2, %xmm2
vaesenc 256(%rsp), %xmm2, %xmm2
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm1, %xmm2, %xmm2
vaesenc %xmm5, %xmm2, %xmm2
vaesenclast %xmm12, %xmm2, %xmm2
vpxor (%r9), %xmm2, %xmm2
vpshufb %xmm4, %xmm2, %xmm3
vmovdqu %xmm2, (%rdx)
vpxor %xmm3, %xmm0, %xmm2
vpclmulqdq $1, %xmm2, %xmm14, %xmm3
vpclmulqdq $16, %xmm2, %xmm14, %xmm4
vmovdqa %xmm6, %xmm0
vmovdqa %xmm5, %xmm6
vpclmulqdq $0, %xmm2, %xmm14, %xmm5
vpxor %xmm3, %xmm4, %xmm3
vpslldq $8, %xmm3, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vmovdqa %xmm6, %xmm5
vmovdqa %xmm0, %xmm6
vpclmulqdq $17, %xmm2, %xmm14, %xmm2
vpsrldq $8, %xmm3, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vpbroadcastq .LCPI1_28(%rip), %xmm0
vpclmulqdq $16, %xmm0, %xmm4, %xmm3
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpshufd $78, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpclmulqdq $16, %xmm0, %xmm3, %xmm3
vpxor %xmm2, %xmm3, %xmm0
leaq 16(%r9), %rsi
leaq 16(%rdx), %r14
addq $-16, %rbx
vpaddd .LCPI1_18(%rip), %xmm10, %xmm10
movq %r14, %rdx
movq %rsi, %r9
cmpq $15, %rbx
ja .LBB1_42
.LBB1_33:
vmovdqa %xmm10, 32(%rsp)
vmovdqa %xmm0, (%rsp)
testq %rbx, %rbx
je .LBB1_34
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, 144(%rsp)
leaq 144(%rsp), %rdi
movq memcpy@GOTPCREL(%rip), %rbp
movq %rbx, %rdx
callq *%rbp
vmovdqa 32(%rsp), %xmm0
vpshufb .LCPI1_15(%rip), %xmm0, %xmm0
vpxor 16(%rsp), %xmm0, %xmm0
vaesenc 64(%rsp), %xmm0, %xmm0
vaesenc 288(%rsp), %xmm0, %xmm0
vaesenc 272(%rsp), %xmm0, %xmm0
vaesenc 128(%rsp), %xmm0, %xmm0
vaesenc 192(%rsp), %xmm0, %xmm0
vaesenc 240(%rsp), %xmm0, %xmm0
vaesenc 96(%rsp), %xmm0, %xmm0
vaesenc 256(%rsp), %xmm0, %xmm0
vaesenc 176(%rsp), %xmm0, %xmm0
vaesenc 112(%rsp), %xmm0, %xmm0
vaesenc 160(%rsp), %xmm0, %xmm0
vaesenc 224(%rsp), %xmm0, %xmm0
vaesenc 48(%rsp), %xmm0, %xmm0
vaesenclast 208(%rsp), %xmm0, %xmm0
vpxor 144(%rsp), %xmm0, %xmm0
vmovdqa %xmm0, 32(%rsp)
vmovdqa %xmm0, 144(%rsp)
leaq 144(%rsp), %rsi
movq %r14, %rdi
movq %rbx, %rdx
callq *%rbp
testq %r15, %r15
je .LBB1_44
vmovaps 32(%rsp), %xmm0
vmovaps %xmm0, 432(%rsp)
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, 144(%rsp)
leaq 144(%rsp), %rdi
leaq 432(%rsp), %rsi
movq %rbx, %rdx
callq *memcpy@GOTPCREL(%rip)
vmovdqa 144(%rsp), %xmm0
movq %r13, %r8
.LBB1_46:
vmovdqa 16(%rsp), %xmm9
vmovdqa 64(%rsp), %xmm12
vmovdqa 128(%rsp), %xmm10
vmovdqa 192(%rsp), %xmm6
vmovdqa 96(%rsp), %xmm14
vmovdqa 176(%rsp), %xmm8
vmovdqa 112(%rsp), %xmm15
vmovdqa 160(%rsp), %xmm7
vmovdqa 48(%rsp), %xmm5
vmovdqa 80(%rsp), %xmm11
jmp .LBB1_47
.LBB1_34:
vmovdqa %xmm8, %xmm15
movq %r13, %r8
vmovdqa 80(%rsp), %xmm11
vmovdqa 64(%rsp), %xmm12
vmovdqa 16(%rsp), %xmm9
vmovdqa 176(%rsp), %xmm8
vmovdqa 160(%rsp), %xmm7
vmovdqa 128(%rsp), %xmm10
vmovdqa 96(%rsp), %xmm14
jmp .LBB1_48
.LBB1_44:
movq %r13, %r8
vmovdqa 16(%rsp), %xmm9
vmovdqa 64(%rsp), %xmm12
vmovdqa 128(%rsp), %xmm10
vmovdqa 192(%rsp), %xmm6
vmovdqa 96(%rsp), %xmm14
vmovdqa 176(%rsp), %xmm8
vmovdqa 112(%rsp), %xmm15
vmovdqa 160(%rsp), %xmm7
vmovdqa 48(%rsp), %xmm5
vmovdqa 80(%rsp), %xmm11
vmovdqa 32(%rsp), %xmm0
.LBB1_47:
vpshufb .LCPI1_15(%rip), %xmm0, %xmm0
vpxor (%rsp), %xmm0, %xmm0
vpclmulqdq $0, %xmm0, %xmm11, %xmm1
vpclmulqdq $1, %xmm0, %xmm11, %xmm2
vpclmulqdq $16, %xmm0, %xmm11, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $17, %xmm0, %xmm11, %xmm0
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpsrldq $8, %xmm2, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI1_28(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vmovdqa %xmm0, (%rsp)
.LBB1_48:
vmovq %r8, %xmm0
vmovq %r15, %xmm1
vpunpcklqdq %xmm0, %xmm1, %xmm0
vpsllq $3, %xmm0, %xmm0
vpxor (%rsp), %xmm0, %xmm0
vpclmulqdq $1, %xmm0, %xmm11, %xmm1
vpclmulqdq $16, %xmm0, %xmm11, %xmm2
vpxor %xmm1, %xmm2, %xmm1
vpclmulqdq $0, %xmm0, %xmm11, %xmm2
vpclmulqdq $17, %xmm0, %xmm11, %xmm0
vpslldq $8, %xmm1, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vpbroadcastq .LCPI1_28(%rip), %xmm4
vpclmulqdq $16, %xmm4, %xmm2, %xmm3
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $16, %xmm4, %xmm2, %xmm3
vpxor %xmm0, %xmm3, %xmm0
vpxor 384(%rsp), %xmm9, %xmm3
vaesenc %xmm12, %xmm3, %xmm3
vaesenc 288(%rsp), %xmm3, %xmm3
vaesenc 272(%rsp), %xmm3, %xmm3
vaesenc %xmm10, %xmm3, %xmm3
vaesenc %xmm6, %xmm3, %xmm3
vaesenc 240(%rsp), %xmm3, %xmm3
vaesenc %xmm14, %xmm3, %xmm3
vaesenc 256(%rsp), %xmm3, %xmm3
vaesenc %xmm8, %xmm3, %xmm3
vaesenc %xmm15, %xmm3, %xmm3
vaesenc %xmm7, %xmm3, %xmm3
vaesenc 224(%rsp), %xmm3, %xmm3
vaesenc %xmm5, %xmm3, %xmm3
vaesenclast 208(%rsp), %xmm3, %xmm3
vpshufb .LCPI1_25(%rip), %xmm1, %xmm1
vpshufb .LCPI1_26(%rip), %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpshufb .LCPI1_15(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vmovdqu %xmm0, 32(%r12)
movl $1, %eax
.LBB1_49:
addq $456, %rsp
.cfi_def_cfa_offset 56
popq %rbx
.cfi_def_cfa_offset 48
popq %r12
.cfi_def_cfa_offset 40
popq %r13
.cfi_def_cfa_offset 32
popq %r14
.cfi_def_cfa_offset 24
popq %r15
.cfi_def_cfa_offset 16
popq %rbp
.cfi_def_cfa_offset 8
retq
.Lfunc_end1:
.size haberdashery_aes256gcmdndkv2kc_broadwell_encrypt, .Lfunc_end1-haberdashery_aes256gcmdndkv2kc_broadwell_encrypt
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI2_0:
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 0
.LCPI2_1:
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 224
.LCPI2_2:
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 225
.LCPI2_3:
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 226
.LCPI2_4:
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 227
.LCPI2_5:
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 228
.LCPI2_6:
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.LCPI2_7:
.quad 4294967297
.quad 4294967297
.LCPI2_14:
.quad 274877907008
.quad 274877907008
.LCPI2_15:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI2_16:
.zero 8
.quad -4467570830351532032
.LCPI2_17:
.byte 15
.byte 128
.byte 128
.byte 128
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI2_18:
.long 1
.long 0
.long 0
.long 0
.LCPI2_19:
.long 2
.long 0
.long 0
.long 0
.LCPI2_20:
.long 3
.long 0
.long 0
.long 0
.LCPI2_21:
.long 4
.long 0
.long 0
.long 0
.LCPI2_22:
.long 5
.long 0
.long 0
.long 0
.LCPI2_23:
.long 6
.long 0
.long 0
.long 0
.LCPI2_24:
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.LCPI2_25:
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.LCPI2_26:
.zero 16
.section .rodata.cst4,"aM",@progbits,4
.p2align 2, 0x0
.LCPI2_8:
.long 0x00000002
.LCPI2_9:
.long 0x0c0f0e0d
.LCPI2_10:
.long 0x00000004
.LCPI2_11:
.long 0x00000008
.LCPI2_12:
.long 0x00000010
.LCPI2_13:
.long 0x00000020
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI2_27:
.quad -4467570830351532032
.section .text.haberdashery_aes256gcmdndkv2kc_broadwell_decrypt,"ax",@progbits
.globl haberdashery_aes256gcmdndkv2kc_broadwell_decrypt
.p2align 4, 0x90
.type haberdashery_aes256gcmdndkv2kc_broadwell_decrypt,@function
haberdashery_aes256gcmdndkv2kc_broadwell_decrypt:
.cfi_startproc
pushq %rbp
.cfi_def_cfa_offset 16
pushq %r15
.cfi_def_cfa_offset 24
pushq %r14
.cfi_def_cfa_offset 32
pushq %r13
.cfi_def_cfa_offset 40
pushq %r12
.cfi_def_cfa_offset 48
pushq %rbx
.cfi_def_cfa_offset 56
subq $520, %rsp
.cfi_def_cfa_offset 576
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
.cfi_offset %rbp, -16
movq 576(%rsp), %r15
xorl %eax, %eax
cmpq 608(%rsp), %r15
jne .LBB2_45
movq %r15, %r10
shrq $5, %r10
cmpq $2147483646, %r10
ja .LBB2_45
movabsq $2305843009213693950, %r10
cmpq %r10, %r8
ja .LBB2_45
cmpq $24, %rdx
jne .LBB2_45
cmpq $48, 592(%rsp)
jne .LBB2_45
vmovdqu (%rsi), %xmm0
vmovdqa %xmm0, 336(%rsp)
vpand .LCPI2_0(%rip), %xmm0, %xmm0
vpxor (%rdi), %xmm0, %xmm12
movq 584(%rsp), %r12
vpxor .LCPI2_1(%rip), %xmm12, %xmm0
vmovdqa 16(%rdi), %xmm1
vmovdqa %xmm1, 16(%rsp)
vmovdqa 32(%rdi), %xmm2
vmovdqa 48(%rdi), %xmm15
vmovdqa 64(%rdi), %xmm3
vaesenc %xmm1, %xmm0, %xmm0
vaesenc %xmm2, %xmm0, %xmm0
vmovdqa %xmm2, 32(%rsp)
vaesenc %xmm15, %xmm0, %xmm0
vaesenc %xmm3, %xmm0, %xmm0
vmovdqa 80(%rdi), %xmm4
vaesenc %xmm4, %xmm0, %xmm0
vmovdqa 96(%rdi), %xmm5
vaesenc %xmm5, %xmm0, %xmm0
vmovdqa 112(%rdi), %xmm6
vaesenc %xmm6, %xmm0, %xmm0
vmovdqa 128(%rdi), %xmm7
vaesenc %xmm7, %xmm0, %xmm0
vmovdqa 144(%rdi), %xmm8
vaesenc %xmm8, %xmm0, %xmm0
vmovdqa 160(%rdi), %xmm9
vaesenc %xmm9, %xmm0, %xmm0
vmovdqa 176(%rdi), %xmm10
vaesenc %xmm10, %xmm0, %xmm0
vmovdqa 192(%rdi), %xmm11
vaesenc %xmm11, %xmm0, %xmm0
vmovdqa 208(%rdi), %xmm13
vaesenc %xmm13, %xmm0, %xmm0
vmovdqa 224(%rdi), %xmm14
vpxor .LCPI2_4(%rip), %xmm12, %xmm1
vaesenclast %xmm14, %xmm0, %xmm0
vmovdqa %xmm0, (%rsp)
vmovdqa 16(%rsp), %xmm0
vaesenc %xmm0, %xmm1, %xmm1
vaesenc %xmm2, %xmm1, %xmm1
vaesenc %xmm15, %xmm1, %xmm1
vaesenc %xmm3, %xmm1, %xmm1
vaesenc %xmm4, %xmm1, %xmm1
vaesenc %xmm5, %xmm1, %xmm1
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm8, %xmm1, %xmm1
vaesenc %xmm9, %xmm1, %xmm1
vaesenc %xmm10, %xmm1, %xmm1
vaesenc %xmm11, %xmm1, %xmm1
vaesenc %xmm13, %xmm1, %xmm2
vmovdqa %xmm12, 368(%rsp)
vpxor .LCPI2_5(%rip), %xmm12, %xmm1
vaesenclast %xmm14, %xmm2, %xmm2
vaesenc %xmm0, %xmm1, %xmm0
vaesenc 32(%rsp), %xmm0, %xmm0
vmovdqa %xmm15, 176(%rsp)
vaesenc %xmm15, %xmm0, %xmm0
vmovdqa %xmm3, 64(%rsp)
vaesenc %xmm3, %xmm0, %xmm0
vmovdqa %xmm4, 128(%rsp)
vaesenc %xmm4, %xmm0, %xmm0
vmovdqa %xmm5, 160(%rsp)
vaesenc %xmm5, %xmm0, %xmm0
vmovdqa %xmm6, 272(%rsp)
vaesenc %xmm6, %xmm0, %xmm0
vmovdqa %xmm7, 256(%rsp)
vaesenc %xmm7, %xmm0, %xmm0
vmovdqa %xmm8, 240(%rsp)
vaesenc %xmm8, %xmm0, %xmm0
vmovdqa %xmm9, 224(%rsp)
vaesenc %xmm9, %xmm0, %xmm0
vmovdqa %xmm10, 320(%rsp)
vaesenc %xmm10, %xmm0, %xmm0
vmovdqa %xmm11, 384(%rsp)
vaesenc %xmm11, %xmm0, %xmm0
vaesenc %xmm13, %xmm0, %xmm0
vpxor (%r12), %xmm2, %xmm1
vaesenclast %xmm14, %xmm0, %xmm0
vmovdqa (%rsp), %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpxor 16(%r12), %xmm0, %xmm0
vpxor %xmm2, %xmm0, %xmm0
vpor %xmm1, %xmm0, %xmm0
vptest %xmm0, %xmm0
jne .LBB2_45
vmovdqa 368(%rsp), %xmm1
vpxor .LCPI2_2(%rip), %xmm1, %xmm0
vpxor .LCPI2_3(%rip), %xmm1, %xmm1
vmovdqa 16(%rsp), %xmm2
vaesenc %xmm2, %xmm0, %xmm0
vaesenc %xmm2, %xmm1, %xmm1
vmovdqa 32(%rsp), %xmm2
vaesenc %xmm2, %xmm0, %xmm0
vaesenc %xmm2, %xmm1, %xmm1
vmovdqa 176(%rsp), %xmm2
vaesenc %xmm2, %xmm0, %xmm0
vmovdqa 64(%rsp), %xmm3
vaesenc %xmm3, %xmm0, %xmm0
vmovdqa 128(%rsp), %xmm4
vaesenc %xmm4, %xmm0, %xmm0
vmovdqa 160(%rsp), %xmm5
vaesenc %xmm5, %xmm0, %xmm0
vmovdqa 272(%rsp), %xmm6
vaesenc %xmm6, %xmm0, %xmm0
vmovdqa 256(%rsp), %xmm7
vaesenc %xmm7, %xmm0, %xmm0
vmovdqa 240(%rsp), %xmm8
vaesenc %xmm8, %xmm0, %xmm0
vmovdqa 224(%rsp), %xmm9
vaesenc %xmm9, %xmm0, %xmm0
vmovdqa 320(%rsp), %xmm10
vaesenc %xmm10, %xmm0, %xmm0
vmovdqa 384(%rsp), %xmm11
vaesenc %xmm11, %xmm0, %xmm0
vaesenc %xmm13, %xmm0, %xmm0
vaesenclast %xmm14, %xmm0, %xmm0
vaesenc %xmm2, %xmm1, %xmm1
vaesenc %xmm3, %xmm1, %xmm1
vaesenc %xmm4, %xmm1, %xmm1
vaesenc %xmm5, %xmm1, %xmm1
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm8, %xmm1, %xmm1
vaesenc %xmm9, %xmm1, %xmm1
vaesenc %xmm10, %xmm1, %xmm1
vaesenc %xmm11, %xmm1, %xmm1
vaesenc %xmm13, %xmm1, %xmm1
vaesenclast %xmm14, %xmm1, %xmm1
vmovdqa (%rsp), %xmm2
vpxor %xmm2, %xmm0, %xmm13
vpxor %xmm2, %xmm1, %xmm9
vpslldq $4, %xmm13, %xmm0
vpslldq $8, %xmm13, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpslldq $12, %xmm13, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpbroadcastd .LCPI2_9(%rip), %xmm1
vpshufb %xmm1, %xmm9, %xmm2
vaesenclast .LCPI2_7(%rip), %xmm2, %xmm2
vpxor %xmm0, %xmm13, %xmm0
vpxor %xmm0, %xmm2, %xmm7
vaesenc %xmm9, %xmm13, %xmm2
vpslldq $4, %xmm9, %xmm0
vpslldq $8, %xmm9, %xmm3
vpxor %xmm3, %xmm0, %xmm0
vpslldq $12, %xmm9, %xmm3
vpxor %xmm3, %xmm0, %xmm3
vpshufd $255, %xmm7, %xmm4
vpxor %xmm0, %xmm0, %xmm0
vaesenclast %xmm0, %xmm4, %xmm4
vpxor %xmm3, %xmm9, %xmm3
vpxor %xmm3, %xmm4, %xmm8
vbroadcastss .LCPI2_8(%rip), %xmm4
vbroadcastss .LCPI2_9(%rip), %xmm3
vmovdqa %xmm7, 272(%rsp)
#APP
vaesenc %xmm7, %xmm2, %xmm2
vpslldq $4, %xmm7, %xmm5
vpslldq $8, %xmm7, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vpslldq $12, %xmm7, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vpxor %xmm7, %xmm5, %xmm5
vpshufb %xmm3, %xmm8, %xmm11
vaesenclast %xmm4, %xmm11, %xmm11
vpxor %xmm5, %xmm11, %xmm11
#NO_APP
vmovdqa %xmm8, 48(%rsp)
#APP
vaesenc %xmm8, %xmm2, %xmm2
vpslldq $4, %xmm8, %xmm4
vpslldq $8, %xmm8, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpslldq $12, %xmm8, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpxor %xmm4, %xmm8, %xmm4
vpshufd $255, %xmm11, %xmm12
vaesenclast %xmm0, %xmm12, %xmm12
vpxor %xmm4, %xmm12, %xmm12
#NO_APP
vbroadcastss .LCPI2_10(%rip), %xmm4
vmovaps %xmm11, 112(%rsp)
#APP
vaesenc %xmm11, %xmm2, %xmm2
vpslldq $4, %xmm11, %xmm5
vpslldq $8, %xmm11, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vpslldq $12, %xmm11, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vpxor %xmm5, %xmm11, %xmm5
vpshufb %xmm3, %xmm12, %xmm7
vaesenclast %xmm4, %xmm7, %xmm7
vpxor %xmm5, %xmm7, %xmm7
#NO_APP
vmovaps %xmm12, 256(%rsp)
#APP
vaesenc %xmm12, %xmm2, %xmm2
vpslldq $4, %xmm12, %xmm4
vpslldq $8, %xmm12, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpslldq $12, %xmm12, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpxor %xmm4, %xmm12, %xmm4
vpshufd $255, %xmm7, %xmm11
vaesenclast %xmm0, %xmm11, %xmm11
vpxor %xmm4, %xmm11, %xmm11
#NO_APP
vbroadcastss .LCPI2_11(%rip), %xmm4
vmovaps %xmm7, 240(%rsp)
#APP
vaesenc %xmm7, %xmm2, %xmm2
vpslldq $4, %xmm7, %xmm5
vpslldq $8, %xmm7, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vpslldq $12, %xmm7, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vpxor %xmm7, %xmm5, %xmm5
vpshufb %xmm3, %xmm11, %xmm8
vaesenclast %xmm4, %xmm8, %xmm8
vpxor %xmm5, %xmm8, %xmm8
#NO_APP
vmovaps %xmm11, 96(%rsp)
#APP
vaesenc %xmm11, %xmm2, %xmm2
vpslldq $4, %xmm11, %xmm4
vpslldq $8, %xmm11, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpslldq $12, %xmm11, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpxor %xmm4, %xmm11, %xmm4
vpshufd $255, %xmm8, %xmm7
vaesenclast %xmm0, %xmm7, %xmm7
vpxor %xmm4, %xmm7, %xmm7
#NO_APP
vbroadcastss .LCPI2_12(%rip), %xmm4
vmovaps %xmm8, 176(%rsp)
#APP
vaesenc %xmm8, %xmm2, %xmm2
vpslldq $4, %xmm8, %xmm5
vpslldq $8, %xmm8, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vpslldq $12, %xmm8, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vpxor %xmm5, %xmm8, %xmm5
vpshufb %xmm3, %xmm7, %xmm10
vaesenclast %xmm4, %xmm10, %xmm10
vpxor %xmm5, %xmm10, %xmm10
#NO_APP
#APP
vaesenc %xmm7, %xmm2, %xmm2
vpslldq $4, %xmm7, %xmm4
vpslldq $8, %xmm7, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpslldq $12, %xmm7, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpxor %xmm7, %xmm4, %xmm4
vpshufd $255, %xmm10, %xmm14
vaesenclast %xmm0, %xmm14, %xmm14
vpxor %xmm4, %xmm14, %xmm14
#NO_APP
vbroadcastss .LCPI2_13(%rip), %xmm4
#APP
vaesenc %xmm10, %xmm2, %xmm2
vpslldq $4, %xmm10, %xmm5
vpslldq $8, %xmm10, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vpslldq $12, %xmm10, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vpxor %xmm5, %xmm10, %xmm5
vpshufb %xmm3, %xmm14, %xmm15
vaesenclast %xmm4, %xmm15, %xmm15
vpxor %xmm5, %xmm15, %xmm15
#NO_APP
vmovdqa %xmm14, %xmm6
vpslldq $4, %xmm14, %xmm3
vpunpcklqdq %xmm14, %xmm0, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vinsertps $55, %xmm14, %xmm0, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpshufd $255, %xmm15, %xmm4
vaesenclast %xmm0, %xmm4, %xmm4
vpxor %xmm3, %xmm14, %xmm3
vpxor %xmm3, %xmm4, %xmm5
vpslldq $4, %xmm15, %xmm3
vpunpcklqdq %xmm15, %xmm0, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vinsertps $55, %xmm15, %xmm0, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpshufb %xmm1, %xmm5, %xmm1
vaesenclast .LCPI2_14(%rip), %xmm1, %xmm1
vpxor %xmm3, %xmm15, %xmm3
vpxor %xmm3, %xmm1, %xmm4
vaesenc %xmm14, %xmm2, %xmm1
vmovaps %xmm15, 192(%rsp)
vaesenc %xmm15, %xmm1, %xmm1
vmovdqa %xmm5, 304(%rsp)
vaesenc %xmm5, %xmm1, %xmm1
vaesenclast %xmm4, %xmm1, %xmm1
vpshufb .LCPI2_15(%rip), %xmm1, %xmm1
vpsrlq $63, %xmm1, %xmm2
vpaddq %xmm1, %xmm1, %xmm1
vpshufd $78, %xmm2, %xmm3
vpor %xmm3, %xmm1, %xmm1
vpblendd $12, %xmm2, %xmm0, %xmm0
vpsllq $63, %xmm0, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpsllq $62, %xmm0, %xmm2
vpsllq $57, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vpxor %xmm0, %xmm1, %xmm12
vpclmulqdq $0, %xmm12, %xmm12, %xmm0
vpbroadcastq .LCPI2_27(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpclmulqdq $17, %xmm12, %xmm12, %xmm1
vpshufd $78, %xmm0, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $16, %xmm3, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm5
vpclmulqdq $16, %xmm12, %xmm5, %xmm0
vpclmulqdq $1, %xmm12, %xmm5, %xmm1
vpxor %xmm0, %xmm1, %xmm0
vpclmulqdq $0, %xmm12, %xmm5, %xmm1
vpslldq $8, %xmm0, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm0, %xmm0
vpclmulqdq $17, %xmm12, %xmm5, %xmm2
vpxor %xmm0, %xmm2, %xmm0
vpshufd $78, %xmm1, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpclmulqdq $16, %xmm3, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm11
vpclmulqdq $0, %xmm11, %xmm11, %xmm0
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpclmulqdq $17, %xmm11, %xmm11, %xmm1
vpshufd $78, %xmm0, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $16, %xmm3, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vmovdqa %xmm0, 448(%rsp)
vpclmulqdq $0, %xmm5, %xmm5, %xmm0
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpclmulqdq $17, %xmm5, %xmm5, %xmm1
vpshufd $78, %xmm0, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $16, %xmm3, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm14
vpclmulqdq $16, %xmm12, %xmm14, %xmm0
vpclmulqdq $1, %xmm12, %xmm14, %xmm1
vpxor %xmm0, %xmm1, %xmm0
vpclmulqdq $0, %xmm12, %xmm14, %xmm1
vpslldq $8, %xmm0, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm0, %xmm0
vpclmulqdq $17, %xmm12, %xmm14, %xmm2
vpxor %xmm0, %xmm2, %xmm0
vpshufd $78, %xmm1, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vmovdqa 336(%rsp), %xmm2
vpextrb $15, %xmm2, %edx
vpclmulqdq $16, %xmm3, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm8
movzbl 23(%rsi), %edi
movzbl 17(%rsi), %r10d
movzbl 16(%rsi), %r11d
shll $8, %r11d
orl %edx, %r11d
shll $16, %r10d
orl %r11d, %r10d
movzbl 18(%rsi), %edx
shll $24, %edx
orl %r10d, %edx
vmovd %edx, %xmm0
vpinsrd $1, 19(%rsi), %xmm0, %xmm0
vpinsrd $2, %edi, %xmm0, %xmm0
movl $16777216, %edx
vpinsrd $3, %edx, %xmm0, %xmm0
vmovdqa %xmm0, 400(%rsp)
testq %r8, %r8
vmovdqa %xmm4, 224(%rsp)
vmovdqa %xmm12, 144(%rsp)
vmovdqa %xmm5, 352(%rsp)
vmovdqa %xmm11, 432(%rsp)
vmovdqa %xmm14, 416(%rsp)
vmovdqa %xmm13, 32(%rsp)
vmovdqa %xmm9, 160(%rsp)
vmovdqa %xmm7, 128(%rsp)
vmovdqa %xmm10, 64(%rsp)
vmovdqa %xmm6, 208(%rsp)
vpxor %xmm4, %xmm4, %xmm4
je .LBB2_38
cmpq $96, %r8
jb .LBB2_8
vmovdqu 32(%rcx), %xmm1
vmovdqu 48(%rcx), %xmm2
vmovdqu 64(%rcx), %xmm3
vmovdqu 80(%rcx), %xmm4
vmovdqa .LCPI2_15(%rip), %xmm9
vpshufb %xmm9, %xmm1, %xmm5
vpshufb %xmm9, %xmm2, %xmm1
vpshufb %xmm9, %xmm3, %xmm2
vpshufb %xmm9, %xmm4, %xmm3
vpclmulqdq $0, %xmm3, %xmm12, %xmm4
vpclmulqdq $1, %xmm3, %xmm12, %xmm6
vpclmulqdq $16, %xmm3, %xmm12, %xmm7
vpxor %xmm6, %xmm7, %xmm6
vpclmulqdq $17, %xmm3, %xmm12, %xmm3
vmovdqa 352(%rsp), %xmm0
vpclmulqdq $0, %xmm2, %xmm0, %xmm7
vpxor %xmm4, %xmm7, %xmm4
vpclmulqdq $1, %xmm2, %xmm0, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vpxor %xmm3, %xmm2, %xmm2
vpclmulqdq $0, %xmm1, %xmm11, %xmm3
vpclmulqdq $1, %xmm1, %xmm11, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm14, %xmm7
vpxor %xmm7, %xmm4, %xmm4
vpclmulqdq $16, %xmm1, %xmm11, %xmm7
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $1, %xmm5, %xmm14, %xmm4
vpxor %xmm4, %xmm7, %xmm4
vpxor %xmm4, %xmm6, %xmm4
vpclmulqdq $16, %xmm5, %xmm14, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vmovdqu (%rcx), %xmm6
vpclmulqdq $17, %xmm5, %xmm14, %xmm5
vpxor %xmm5, %xmm2, %xmm2
vmovdqu 16(%rcx), %xmm5
vpshufb %xmm9, %xmm6, %xmm6
vpshufb %xmm9, %xmm5, %xmm5
vpclmulqdq $17, %xmm1, %xmm11, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpclmulqdq $0, %xmm5, %xmm8, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $1, %xmm5, %xmm8, %xmm3
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $16, %xmm5, %xmm8, %xmm4
vpclmulqdq $17, %xmm5, %xmm8, %xmm5
vpxor %xmm5, %xmm1, %xmm5
vmovdqa 448(%rsp), %xmm0
vpclmulqdq $0, %xmm6, %xmm0, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpclmulqdq $1, %xmm6, %xmm0, %xmm2
vpxor %xmm2, %xmm4, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $16, %xmm6, %xmm0, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vpclmulqdq $17, %xmm6, %xmm0, %xmm3
vpxor %xmm3, %xmm5, %xmm3
addq $96, %rcx
leaq -96(%r8), %rsi
cmpq $96, %rsi
jb .LBB2_12
vmovdqa %xmm0, %xmm14
vmovdqa 144(%rsp), %xmm12
vmovdqa 352(%rsp), %xmm15
vmovdqa 432(%rsp), %xmm11
vmovdqa 416(%rsp), %xmm10
vmovdqa %xmm9, %xmm13
.p2align 4, 0x90
.LBB2_23:
vmovdqu (%rcx), %xmm4
vmovdqu 32(%rcx), %xmm5
vmovdqu 48(%rcx), %xmm6
vmovdqu 64(%rcx), %xmm7
vmovdqa %xmm8, %xmm0
vmovdqu 80(%rcx), %xmm8
vpslldq $8, %xmm2, %xmm9
vpxor %xmm1, %xmm9, %xmm1
vpsrldq $8, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpbroadcastq .LCPI2_27(%rip), %xmm9
vpclmulqdq $16, %xmm9, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm9, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpshufb %xmm13, %xmm4, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpxor %xmm1, %xmm2, %xmm1
vpxor %xmm3, %xmm1, %xmm3
vpshufb %xmm13, %xmm5, %xmm1
vpshufb %xmm13, %xmm6, %xmm2
vpshufb %xmm13, %xmm7, %xmm4
vpshufb %xmm13, %xmm8, %xmm5
vpclmulqdq $0, %xmm5, %xmm12, %xmm6
vpclmulqdq $1, %xmm5, %xmm12, %xmm7
vpclmulqdq $16, %xmm5, %xmm12, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $17, %xmm5, %xmm12, %xmm5
vpclmulqdq $0, %xmm4, %xmm15, %xmm8
vpxor %xmm6, %xmm8, %xmm6
vpclmulqdq $1, %xmm4, %xmm15, %xmm8
vpclmulqdq $16, %xmm4, %xmm15, %xmm9
vpxor %xmm9, %xmm8, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $17, %xmm4, %xmm15, %xmm4
vpxor %xmm5, %xmm4, %xmm4
vpclmulqdq $0, %xmm2, %xmm11, %xmm5
vpclmulqdq $1, %xmm2, %xmm11, %xmm8
vpclmulqdq $16, %xmm2, %xmm11, %xmm9
vpxor %xmm9, %xmm8, %xmm8
vpclmulqdq $0, %xmm1, %xmm10, %xmm9
vpxor %xmm5, %xmm9, %xmm5
vpxor %xmm5, %xmm6, %xmm5
vpclmulqdq $1, %xmm1, %xmm10, %xmm6
vpxor %xmm6, %xmm8, %xmm6
vmovdqa %xmm0, %xmm8
vpclmulqdq $17, %xmm2, %xmm11, %xmm2
vpxor %xmm6, %xmm7, %xmm6
vpclmulqdq $17, %xmm1, %xmm10, %xmm7
vpxor %xmm7, %xmm2, %xmm2
vmovdqu 16(%rcx), %xmm7
vpshufb %xmm13, %xmm7, %xmm7
vpclmulqdq $16, %xmm1, %xmm10, %xmm1
vpxor %xmm2, %xmm4, %xmm2
vpclmulqdq $0, %xmm7, %xmm0, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $1, %xmm7, %xmm0, %xmm5
vpxor %xmm5, %xmm1, %xmm1
vpclmulqdq $16, %xmm7, %xmm0, %xmm5
vpxor %xmm5, %xmm1, %xmm1
vpxor %xmm1, %xmm6, %xmm5
vpclmulqdq $17, %xmm7, %xmm0, %xmm1
vpxor %xmm1, %xmm2, %xmm6
vpclmulqdq $0, %xmm3, %xmm14, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $1, %xmm3, %xmm14, %xmm2
vpxor %xmm2, %xmm5, %xmm2
vpclmulqdq $16, %xmm3, %xmm14, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpclmulqdq $17, %xmm3, %xmm14, %xmm3
vpxor %xmm3, %xmm6, %xmm3
addq $96, %rcx
addq $-96, %rsi
cmpq $95, %rsi
ja .LBB2_23
jmp .LBB2_24
.LBB2_38:
xorl %r8d, %r8d
testq %r15, %r15
vmovdqa 48(%rsp), %xmm5
vmovdqa 112(%rsp), %xmm15
vmovdqa 96(%rsp), %xmm6
jne .LBB2_28
jmp .LBB2_39
.LBB2_8:
movq %r8, %rsi
vmovdqa 48(%rsp), %xmm5
vmovdqa 112(%rsp), %xmm15
vmovdqa 96(%rsp), %xmm6
cmpq $16, %rsi
jae .LBB2_13
.LBB2_10:
movq %rsi, %rdx
testq %rdx, %rdx
jne .LBB2_25
jmp .LBB2_20
.LBB2_12:
vmovdqa 144(%rsp), %xmm12
.LBB2_24:
vpslldq $8, %xmm2, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpsrldq $8, %xmm2, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpbroadcastq .LCPI2_27(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm0, %xmm2
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vpclmulqdq $16, %xmm3, %xmm0, %xmm2
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpxor %xmm2, %xmm0, %xmm4
vmovdqa 64(%rsp), %xmm10
vmovdqa 48(%rsp), %xmm5
vmovdqa 112(%rsp), %xmm15
vmovdqa 96(%rsp), %xmm6
vmovdqa 128(%rsp), %xmm7
cmpq $16, %rsi
jb .LBB2_10
.LBB2_13:
leaq -16(%rsi), %rdx
testb $16, %dl
je .LBB2_14
cmpq $16, %rdx
jae .LBB2_16
.LBB2_19:
testq %rdx, %rdx
je .LBB2_20
.LBB2_25:
vmovdqa %xmm4, 16(%rsp)
vmovdqa %xmm8, 288(%rsp)
movq %r9, %rbx
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, 80(%rsp)
leaq 80(%rsp), %rdi
movq %rcx, %rsi
movq %r8, %r14
callq *memcpy@GOTPCREL(%rip)
movq %r14, %r8
vmovdqa 80(%rsp), %xmm0
shlq $3, %r8
testq %r15, %r15
je .LBB2_46
movabsq $-68719476704, %rax
leaq (%r15,%rax), %rcx
incq %rax
cmpq %rax, %rcx
movl $0, %eax
vmovdqa 48(%rsp), %xmm5
vmovdqa 112(%rsp), %xmm15
vmovdqa 96(%rsp), %xmm6
vmovdqa 144(%rsp), %xmm12
vmovdqa 288(%rsp), %xmm8
vmovdqa 16(%rsp), %xmm1
jb .LBB2_45
movq %rbx, %r9
vpshufb .LCPI2_15(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpclmulqdq $0, %xmm0, %xmm12, %xmm1
vpclmulqdq $1, %xmm0, %xmm12, %xmm2
vpclmulqdq $16, %xmm0, %xmm12, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $17, %xmm0, %xmm12, %xmm0
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpbroadcastq .LCPI2_27(%rip), %xmm3
vpsrldq $8, %xmm2, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpclmulqdq $16, %xmm3, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm4
jmp .LBB2_28
.LBB2_14:
vmovdqu (%rcx), %xmm0
addq $16, %rcx
vpshufb .LCPI2_15(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm4, %xmm0
vpclmulqdq $0, %xmm0, %xmm12, %xmm1
vpclmulqdq $1, %xmm0, %xmm12, %xmm2
vpclmulqdq $16, %xmm0, %xmm12, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $17, %xmm0, %xmm12, %xmm0
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpbroadcastq .LCPI2_27(%rip), %xmm3
vpsrldq $8, %xmm2, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpclmulqdq $16, %xmm3, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm4
movq %rdx, %rsi
cmpq $16, %rdx
jb .LBB2_19
.LBB2_16:
vmovdqa %xmm8, 288(%rsp)
vmovdqa %xmm7, %xmm8
vmovdqa .LCPI2_15(%rip), %xmm0
vmovdqa %xmm12, %xmm10
vmovdqa %xmm3, %xmm12
.p2align 4, 0x90
.LBB2_17:
vmovdqu (%rcx), %xmm1
vmovdqu 16(%rcx), %xmm2
vpshufb %xmm0, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $0, %xmm1, %xmm10, %xmm3
vpclmulqdq $1, %xmm1, %xmm10, %xmm4
vpclmulqdq $16, %xmm1, %xmm10, %xmm5
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $17, %xmm1, %xmm10, %xmm1
vpslldq $8, %xmm4, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpsrldq $8, %xmm4, %xmm4
vpxor %xmm4, %xmm1, %xmm1
vpclmulqdq $16, %xmm12, %xmm3, %xmm4
vpshufd $78, %xmm3, %xmm3
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $16, %xmm12, %xmm3, %xmm4
vpshufd $78, %xmm3, %xmm3
vpxor %xmm3, %xmm1, %xmm1
addq $32, %rcx
addq $-32, %rsi
vpshufb %xmm0, %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $0, %xmm1, %xmm10, %xmm2
vpclmulqdq $1, %xmm1, %xmm10, %xmm3
vpclmulqdq $16, %xmm1, %xmm10, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm10, %xmm1
vpslldq $8, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpsrldq $8, %xmm3, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpclmulqdq $16, %xmm12, %xmm2, %xmm3
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $16, %xmm12, %xmm2, %xmm3
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm4
cmpq $15, %rsi
ja .LBB2_17
movq %rsi, %rdx
vmovdqa %xmm12, %xmm3
vmovdqa %xmm10, %xmm12
vmovdqa 48(%rsp), %xmm5
vmovdqa %xmm8, %xmm7
vmovdqa 288(%rsp), %xmm8
vmovdqa 64(%rsp), %xmm10
testq %rdx, %rdx
jne .LBB2_25
.LBB2_20:
shlq $3, %r8
testq %r15, %r15
je .LBB2_39
movabsq $-68719476704, %rcx
leaq (%r15,%rcx), %rdx
incq %rcx
cmpq %rcx, %rdx
jb .LBB2_45
.LBB2_28:
vmovdqa 400(%rsp), %xmm0
vpshufb .LCPI2_17(%rip), %xmm0, %xmm0
movq 600(%rsp), %rax
vpaddd .LCPI2_18(%rip), %xmm0, %xmm3
movq %r15, %rbx
cmpq $96, %r15
jb .LBB2_29
vmovdqa %xmm8, 288(%rsp)
vmovdqa 32(%rsp), %xmm13
.p2align 4, 0x90
.LBB2_32:
vmovdqa %xmm3, (%rsp)
vmovdqu (%r9), %xmm7
vmovdqa %xmm7, 320(%rsp)
vmovups 32(%r9), %xmm1
vmovaps %xmm1, 16(%rsp)
vmovdqu 48(%r9), %xmm11
vmovdqa %xmm11, 480(%rsp)
vmovdqa %xmm4, %xmm9
vmovdqu 64(%r9), %xmm4
vmovdqa %xmm4, 384(%rsp)
vmovdqu 80(%r9), %xmm8
vmovdqa %xmm8, 336(%rsp)
vmovdqa .LCPI2_15(%rip), %xmm12
vmovdqa (%rsp), %xmm0
vpshufb %xmm12, %xmm0, %xmm0
vmovdqa (%rsp), %xmm1
vpaddd .LCPI2_18(%rip), %xmm1, %xmm1
vpshufb %xmm12, %xmm1, %xmm1
vmovdqa (%rsp), %xmm2
vpaddd .LCPI2_19(%rip), %xmm2, %xmm2
vpshufb %xmm12, %xmm2, %xmm2
vmovdqa (%rsp), %xmm3
vpaddd .LCPI2_20(%rip), %xmm3, %xmm3
vpshufb %xmm12, %xmm3, %xmm3
vmovdqa (%rsp), %xmm5
vpaddd .LCPI2_21(%rip), %xmm5, %xmm5
vpshufb %xmm12, %xmm5, %xmm5
vmovdqa (%rsp), %xmm6
vpaddd .LCPI2_22(%rip), %xmm6, %xmm6
vpshufb %xmm12, %xmm6, %xmm6
vpshufb %xmm12, %xmm7, %xmm7
vpxor %xmm7, %xmm9, %xmm7
vmovdqa %xmm7, 368(%rsp)
vpshufb %xmm12, %xmm8, %xmm10
vpxor %xmm0, %xmm13, %xmm14
vpxor %xmm1, %xmm13, %xmm15
vpxor %xmm2, %xmm13, %xmm1
vpxor %xmm3, %xmm13, %xmm2
vpxor %xmm5, %xmm13, %xmm3
vpxor 32(%rsp), %xmm6, %xmm13
vmovaps 160(%rsp), %xmm0
#APP
vaesenc %xmm0, %xmm14, %xmm14
vaesenc %xmm0, %xmm15, %xmm15
vaesenc %xmm0, %xmm1, %xmm1
vaesenc %xmm0, %xmm2, %xmm2
vaesenc %xmm0, %xmm3, %xmm3
vaesenc %xmm0, %xmm13, %xmm13
#NO_APP
vpxor %xmm5, %xmm5, %xmm5
vpxor %xmm6, %xmm6, %xmm6
vpxor %xmm7, %xmm7, %xmm7
vmovaps 144(%rsp), %xmm8
vmovaps 272(%rsp), %xmm9
#APP
vaesenc %xmm9, %xmm14, %xmm14
vaesenc %xmm9, %xmm15, %xmm15
vaesenc %xmm9, %xmm1, %xmm1
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm9, %xmm13, %xmm13
vpclmulqdq $16, %xmm8, %xmm10, %xmm0
vpxor %xmm0, %xmm5, %xmm5
vpclmulqdq $0, %xmm8, %xmm10, %xmm0
vpxor %xmm0, %xmm7, %xmm7
vpclmulqdq $17, %xmm8, %xmm10, %xmm0
vpxor %xmm0, %xmm6, %xmm6
vpclmulqdq $1, %xmm8, %xmm10, %xmm0
vpxor %xmm0, %xmm5, %xmm5
#NO_APP
vpshufb %xmm12, %xmm4, %xmm0
vmovaps 48(%rsp), %xmm4
#APP
vaesenc %xmm4, %xmm14, %xmm14
vaesenc %xmm4, %xmm15, %xmm15
vaesenc %xmm4, %xmm1, %xmm1
vaesenc %xmm4, %xmm2, %xmm2
vaesenc %xmm4, %xmm3, %xmm3
vaesenc %xmm4, %xmm13, %xmm13
#NO_APP
vmovaps 112(%rsp), %xmm8
vmovaps 352(%rsp), %xmm9
#APP
vaesenc %xmm8, %xmm14, %xmm14
vaesenc %xmm8, %xmm15, %xmm15
vaesenc %xmm8, %xmm1, %xmm1
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm8, %xmm3, %xmm3
vaesenc %xmm8, %xmm13, %xmm13
vpclmulqdq $16, %xmm9, %xmm0, %xmm4
vpxor %xmm4, %xmm5, %xmm5
vpclmulqdq $0, %xmm9, %xmm0, %xmm4
vpxor %xmm4, %xmm7, %xmm7
vpclmulqdq $17, %xmm9, %xmm0, %xmm4
vpxor %xmm4, %xmm6, %xmm6
vpclmulqdq $1, %xmm9, %xmm0, %xmm4
vpxor %xmm4, %xmm5, %xmm5
#NO_APP
vpshufb %xmm12, %xmm11, %xmm0
vmovaps 256(%rsp), %xmm4
#APP
vaesenc %xmm4, %xmm14, %xmm14
vaesenc %xmm4, %xmm15, %xmm15
vaesenc %xmm4, %xmm1, %xmm1
vaesenc %xmm4, %xmm2, %xmm2
vaesenc %xmm4, %xmm3, %xmm3
vaesenc %xmm4, %xmm13, %xmm13
#NO_APP
vmovaps 240(%rsp), %xmm8
vmovaps 432(%rsp), %xmm9
#APP
vaesenc %xmm8, %xmm14, %xmm14
vaesenc %xmm8, %xmm15, %xmm15
vaesenc %xmm8, %xmm1, %xmm1
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm8, %xmm3, %xmm3
vaesenc %xmm8, %xmm13, %xmm13
vpclmulqdq $16, %xmm9, %xmm0, %xmm4
vpxor %xmm4, %xmm5, %xmm5
vpclmulqdq $0, %xmm9, %xmm0, %xmm4
vpxor %xmm4, %xmm7, %xmm7
vpclmulqdq $17, %xmm9, %xmm0, %xmm4
vpxor %xmm4, %xmm6, %xmm6
vpclmulqdq $1, %xmm9, %xmm0, %xmm4
vpxor %xmm4, %xmm5, %xmm5
#NO_APP
vmovdqa 16(%rsp), %xmm0
vpshufb %xmm12, %xmm0, %xmm0
vmovaps 96(%rsp), %xmm4
#APP
vaesenc %xmm4, %xmm14, %xmm14
vaesenc %xmm4, %xmm15, %xmm15
vaesenc %xmm4, %xmm1, %xmm1
vaesenc %xmm4, %xmm2, %xmm2
vaesenc %xmm4, %xmm3, %xmm3
vaesenc %xmm4, %xmm13, %xmm13
#NO_APP
vmovaps 416(%rsp), %xmm8
vmovdqa 176(%rsp), %xmm11
#APP
vaesenc %xmm11, %xmm14, %xmm14
vaesenc %xmm11, %xmm15, %xmm15
vaesenc %xmm11, %xmm1, %xmm1
vaesenc %xmm11, %xmm2, %xmm2
vaesenc %xmm11, %xmm3, %xmm3
vaesenc %xmm11, %xmm13, %xmm13
vpclmulqdq $16, %xmm8, %xmm0, %xmm4
vpxor %xmm4, %xmm5, %xmm5
vpclmulqdq $0, %xmm8, %xmm0, %xmm4
vpxor %xmm4, %xmm7, %xmm7
vpclmulqdq $17, %xmm8, %xmm0, %xmm4
vpxor %xmm4, %xmm6, %xmm6
vpclmulqdq $1, %xmm8, %xmm0, %xmm4
vpxor %xmm4, %xmm5, %xmm5
#NO_APP
vmovdqu 16(%r9), %xmm0
vmovdqa %xmm0, 464(%rsp)
vmovaps 128(%rsp), %xmm4
#APP
vaesenc %xmm4, %xmm14, %xmm14
vaesenc %xmm4, %xmm15, %xmm15
vaesenc %xmm4, %xmm1, %xmm1
vaesenc %xmm4, %xmm2, %xmm2
vaesenc %xmm4, %xmm3, %xmm3
vaesenc %xmm4, %xmm13, %xmm13
#NO_APP
vpshufb %xmm12, %xmm0, %xmm4
vmovaps 64(%rsp), %xmm8
vmovaps 288(%rsp), %xmm12
#APP
vaesenc %xmm8, %xmm14, %xmm14
vaesenc %xmm8, %xmm15, %xmm15
vaesenc %xmm8, %xmm1, %xmm1
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm8, %xmm3, %xmm3
vaesenc %xmm8, %xmm13, %xmm13
vpclmulqdq $16, %xmm12, %xmm4, %xmm9
vpxor %xmm5, %xmm9, %xmm5
vpclmulqdq $0, %xmm12, %xmm4, %xmm9
vpxor %xmm7, %xmm9, %xmm7
vpclmulqdq $17, %xmm12, %xmm4, %xmm9
vpxor %xmm6, %xmm9, %xmm6
vpclmulqdq $1, %xmm12, %xmm4, %xmm9
vpxor %xmm5, %xmm9, %xmm5
#NO_APP
vmovdqa 224(%rsp), %xmm8
vmovaps 208(%rsp), %xmm4
#APP
vaesenc %xmm4, %xmm14, %xmm14
vaesenc %xmm4, %xmm15, %xmm15
vaesenc %xmm4, %xmm1, %xmm1
vaesenc %xmm4, %xmm2, %xmm2
vaesenc %xmm4, %xmm3, %xmm3
vaesenc %xmm4, %xmm13, %xmm13
#NO_APP
vmovdqa 192(%rsp), %xmm12
vmovdqa 448(%rsp), %xmm9
vmovaps 368(%rsp), %xmm0
#APP
vaesenc %xmm12, %xmm14, %xmm14
vaesenc %xmm12, %xmm15, %xmm15
vaesenc %xmm12, %xmm1, %xmm1
vaesenc %xmm12, %xmm2, %xmm2
vaesenc %xmm12, %xmm3, %xmm3
vaesenc %xmm12, %xmm13, %xmm13
vpclmulqdq $16, %xmm9, %xmm0, %xmm4
vpxor %xmm4, %xmm5, %xmm5
vpclmulqdq $0, %xmm9, %xmm0, %xmm4
vpxor %xmm4, %xmm7, %xmm7
vpclmulqdq $17, %xmm9, %xmm0, %xmm4
vpxor %xmm4, %xmm6, %xmm6
vpclmulqdq $1, %xmm9, %xmm0, %xmm4
vpxor %xmm4, %xmm5, %xmm5
#NO_APP
vpxor %xmm12, %xmm12, %xmm12
vpunpcklqdq %xmm5, %xmm12, %xmm4
vpxor %xmm4, %xmm7, %xmm4
vpunpckhqdq %xmm12, %xmm5, %xmm5
vpxor %xmm5, %xmm6, %xmm5
vpbroadcastq .LCPI2_27(%rip), %xmm7
vpclmulqdq $16, %xmm7, %xmm4, %xmm6
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm6, %xmm4
vpshufd $78, %xmm4, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vpclmulqdq $16, %xmm7, %xmm4, %xmm4
vpxor %xmm4, %xmm5, %xmm5
vmovaps 304(%rsp), %xmm4
#APP
vaesenc %xmm4, %xmm14, %xmm14
vaesenc %xmm4, %xmm15, %xmm15
vaesenc %xmm4, %xmm1, %xmm1
vaesenc %xmm4, %xmm2, %xmm2
vaesenc %xmm4, %xmm3, %xmm3
vaesenc %xmm4, %xmm13, %xmm13
#NO_APP
#APP
vaesenclast %xmm8, %xmm14, %xmm14
vaesenclast %xmm8, %xmm15, %xmm15
vaesenclast %xmm8, %xmm1, %xmm1
vaesenclast %xmm8, %xmm2, %xmm2
vaesenclast %xmm8, %xmm3, %xmm3
vaesenclast %xmm8, %xmm13, %xmm13
#NO_APP
vpxor 320(%rsp), %xmm14, %xmm4
vpxor 464(%rsp), %xmm15, %xmm0
vpxor 16(%rsp), %xmm1, %xmm1
vpxor 480(%rsp), %xmm2, %xmm2
vxorps 384(%rsp), %xmm3, %xmm3
vmovdqu %xmm4, (%rax)
vmovdqa %xmm5, %xmm4
vmovdqu %xmm0, 16(%rax)
vmovdqu %xmm1, 32(%rax)
vmovdqu %xmm2, 48(%rax)
vmovups %xmm3, 64(%rax)
vpxor 336(%rsp), %xmm13, %xmm0
vmovdqa 32(%rsp), %xmm13
vmovdqu %xmm0, 80(%rax)
vmovdqa (%rsp), %xmm3
addq $96, %r9
addq $96, %rax
addq $-96, %rbx
vpaddd .LCPI2_23(%rip), %xmm3, %xmm3
cmpq $95, %rbx
ja .LBB2_32
vmovdqa 48(%rsp), %xmm5
vmovdqa 112(%rsp), %xmm15
vmovdqa 96(%rsp), %xmm6
.LBB2_29:
vmovdqa 192(%rsp), %xmm0
vmovdqa 304(%rsp), %xmm11
cmpq $16, %rbx
vmovdqa 176(%rsp), %xmm13
movq %r8, %r13
jb .LBB2_30
vmovdqa 144(%rsp), %xmm10
vmovdqa %xmm3, %xmm1
vmovdqa 208(%rsp), %xmm14
vmovdqa 256(%rsp), %xmm12
vmovdqa 224(%rsp), %xmm7
vmovdqa 176(%rsp), %xmm13
.p2align 4, 0x90
.LBB2_35:
vmovdqu (%r9), %xmm2
vmovdqa .LCPI2_15(%rip), %xmm3
vpshufb %xmm3, %xmm2, %xmm3
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $0, %xmm3, %xmm10, %xmm4
vmovdqa %xmm5, %xmm9
vpclmulqdq $1, %xmm3, %xmm10, %xmm5
vmovdqa %xmm6, %xmm8
vpclmulqdq $16, %xmm3, %xmm10, %xmm6
vpxor %xmm5, %xmm6, %xmm5
vpslldq $8, %xmm5, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpclmulqdq $17, %xmm3, %xmm10, %xmm3
vpsrldq $8, %xmm5, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpbroadcastq .LCPI2_27(%rip), %xmm6
vpclmulqdq $16, %xmm6, %xmm4, %xmm5
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpshufd $78, %xmm4, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vmovdqa %xmm9, %xmm5
vmovdqa 240(%rsp), %xmm9
vpclmulqdq $16, %xmm6, %xmm4, %xmm4
vmovdqa %xmm8, %xmm6
vpxor %xmm3, %xmm4, %xmm4
vpshufb .LCPI2_15(%rip), %xmm1, %xmm3
vpxor 32(%rsp), %xmm3, %xmm3
vaesenc 160(%rsp), %xmm3, %xmm3
vaesenc 272(%rsp), %xmm3, %xmm3
vaesenc %xmm5, %xmm3, %xmm3
vaesenc %xmm15, %xmm3, %xmm3
vaesenc %xmm12, %xmm3, %xmm3
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm8, %xmm3, %xmm3
vaesenc %xmm13, %xmm3, %xmm3
vaesenc 128(%rsp), %xmm3, %xmm3
vaesenc 64(%rsp), %xmm3, %xmm3
vaesenc %xmm14, %xmm3, %xmm3
vaesenc %xmm0, %xmm3, %xmm3
vaesenc %xmm11, %xmm3, %xmm3
vaesenclast %xmm7, %xmm3, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vmovdqu %xmm2, (%rax)
leaq 16(%rax), %r14
addq $-16, %rbx
addq $16, %r9
vpaddd .LCPI2_18(%rip), %xmm1, %xmm1
movq %r14, %rax
cmpq $15, %rbx
ja .LBB2_35
vmovdqa %xmm1, (%rsp)
vmovdqa %xmm4, 16(%rsp)
testq %rbx, %rbx
je .LBB2_37
.LBB2_40:
vpxor %xmm1, %xmm1, %xmm1
vmovdqa %xmm1, 80(%rsp)
leaq 80(%rsp), %rdi
movq memcpy@GOTPCREL(%rip), %rbp
movq %r9, %rsi
movq %rbx, %rdx
callq *%rbp
vmovdqa 80(%rsp), %xmm1
vmovdqa (%rsp), %xmm0
vpshufb .LCPI2_15(%rip), %xmm0, %xmm0
vpxor 32(%rsp), %xmm0, %xmm0
vaesenc 160(%rsp), %xmm0, %xmm0
vaesenc 272(%rsp), %xmm0, %xmm0
vaesenc 48(%rsp), %xmm0, %xmm0
vaesenc 112(%rsp), %xmm0, %xmm0
vaesenc 256(%rsp), %xmm0, %xmm0
vaesenc 240(%rsp), %xmm0, %xmm0
vaesenc 96(%rsp), %xmm0, %xmm0
vaesenc 176(%rsp), %xmm0, %xmm0
vaesenc 128(%rsp), %xmm0, %xmm0
vaesenc 64(%rsp), %xmm0, %xmm0
vaesenc 208(%rsp), %xmm0, %xmm0
vaesenc 192(%rsp), %xmm0, %xmm0
vaesenc 304(%rsp), %xmm0, %xmm0
vaesenclast 224(%rsp), %xmm0, %xmm0
vmovdqa %xmm1, 336(%rsp)
vpxor %xmm1, %xmm0, %xmm0
vmovdqa %xmm0, 320(%rsp)
vmovdqa %xmm0, 80(%rsp)
leaq 80(%rsp), %rsi
movq %r14, %rdi
movq %rbx, %rdx
callq *%rbp
vmovups 32(%r12), %xmm0
vmovaps %xmm0, (%rsp)
testq %r15, %r15
je .LBB2_41
vmovaps 336(%rsp), %xmm0
vmovaps %xmm0, 496(%rsp)
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, 80(%rsp)
leaq 80(%rsp), %rdi
leaq 496(%rsp), %rsi
movq %rbx, %rdx
callq *memcpy@GOTPCREL(%rip)
vmovdqa 80(%rsp), %xmm0
movq %r13, %r8
jmp .LBB2_43
.LBB2_30:
movq %rax, %r14
vmovdqa %xmm3, %xmm1
vmovdqa 208(%rsp), %xmm14
vmovdqa %xmm1, (%rsp)
vmovdqa %xmm4, 16(%rsp)
testq %rbx, %rbx
jne .LBB2_40
.LBB2_37:
vmovdqa %xmm15, %xmm8
vmovdqu 32(%r12), %xmm1
vmovdqa %xmm1, (%rsp)
movq %r13, %r8
vpbroadcastq .LCPI2_27(%rip), %xmm4
vmovdqa 144(%rsp), %xmm12
vmovdqa 160(%rsp), %xmm9
vmovdqa %xmm0, %xmm11
vmovdqa 128(%rsp), %xmm7
vmovdqa 64(%rsp), %xmm10
vmovdqa 16(%rsp), %xmm2
vmovdqa 32(%rsp), %xmm15
jmp .LBB2_44
.LBB2_46:
vpshufb .LCPI2_15(%rip), %xmm0, %xmm0
vpxor 16(%rsp), %xmm0, %xmm0
vmovdqa 144(%rsp), %xmm12
vpclmulqdq $0, %xmm0, %xmm12, %xmm1
vpclmulqdq $1, %xmm0, %xmm12, %xmm2
vpclmulqdq $16, %xmm0, %xmm12, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $17, %xmm0, %xmm12, %xmm0
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpsrldq $8, %xmm2, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI2_27(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm4
vmovdqa 48(%rsp), %xmm5
vmovdqa 112(%rsp), %xmm15
vmovdqa 96(%rsp), %xmm6
vmovdqa 128(%rsp), %xmm7
vmovdqa 64(%rsp), %xmm10
.LBB2_39:
vmovdqu 32(%r12), %xmm0
vmovdqa %xmm0, (%rsp)
vmovdqa %xmm4, %xmm2
vmovdqa %xmm3, %xmm4
vmovdqa 176(%rsp), %xmm13
vmovdqa %xmm15, %xmm8
vmovdqa 192(%rsp), %xmm11
vmovdqa 160(%rsp), %xmm9
vmovdqa 208(%rsp), %xmm14
vmovdqa 32(%rsp), %xmm15
jmp .LBB2_44
.LBB2_41:
movq %r13, %r8
vmovdqa 320(%rsp), %xmm0
.LBB2_43:
vpshufb .LCPI2_15(%rip), %xmm0, %xmm0
vpxor 16(%rsp), %xmm0, %xmm0
vmovdqa 144(%rsp), %xmm12
vpclmulqdq $0, %xmm0, %xmm12, %xmm1
vpclmulqdq $1, %xmm0, %xmm12, %xmm2
vpclmulqdq $16, %xmm0, %xmm12, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $17, %xmm0, %xmm12, %xmm0
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpsrldq $8, %xmm2, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI2_27(%rip), %xmm4
vpclmulqdq $16, %xmm4, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpclmulqdq $16, %xmm4, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm2
vmovdqa 32(%rsp), %xmm15
vmovdqa 160(%rsp), %xmm9
vmovdqa 48(%rsp), %xmm5
vmovdqa 112(%rsp), %xmm8
vmovdqa 96(%rsp), %xmm6
vmovdqa 176(%rsp), %xmm13
vmovdqa 128(%rsp), %xmm7
vmovdqa 64(%rsp), %xmm10
vmovdqa 208(%rsp), %xmm14
vmovdqa 192(%rsp), %xmm11
.LBB2_44:
shlq $3, %r15
vmovq %r8, %xmm0
vmovq %r15, %xmm1
vpunpcklqdq %xmm0, %xmm1, %xmm0
vpxor %xmm2, %xmm0, %xmm0
vpclmulqdq $1, %xmm0, %xmm12, %xmm1
vpclmulqdq $16, %xmm0, %xmm12, %xmm2
vpxor %xmm1, %xmm2, %xmm1
vpclmulqdq $0, %xmm0, %xmm12, %xmm2
vpclmulqdq $17, %xmm0, %xmm12, %xmm0
vpslldq $8, %xmm1, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vpclmulqdq $16, %xmm4, %xmm2, %xmm3
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $16, %xmm4, %xmm2, %xmm3
vpxor %xmm0, %xmm3, %xmm0
vpxor 400(%rsp), %xmm15, %xmm3
vaesenc %xmm9, %xmm3, %xmm3
vaesenc 272(%rsp), %xmm3, %xmm3
vaesenc %xmm5, %xmm3, %xmm3
vaesenc %xmm8, %xmm3, %xmm3
vaesenc 256(%rsp), %xmm3, %xmm3
vaesenc 240(%rsp), %xmm3, %xmm3
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm13, %xmm3, %xmm3
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm10, %xmm3, %xmm3
vaesenc %xmm14, %xmm3, %xmm3
vaesenc %xmm11, %xmm3, %xmm3
vaesenc 304(%rsp), %xmm3, %xmm3
vaesenclast 224(%rsp), %xmm3, %xmm3
vpshufb .LCPI2_24(%rip), %xmm1, %xmm1
vpshufb .LCPI2_25(%rip), %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpxor (%rsp), %xmm1, %xmm1
vpshufb .LCPI2_15(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpxor %xmm3, %xmm0, %xmm0
xorl %eax, %eax
vptest %xmm0, %xmm0
sete %al
.LBB2_45:
addq $520, %rsp
.cfi_def_cfa_offset 56
popq %rbx
.cfi_def_cfa_offset 48
popq %r12
.cfi_def_cfa_offset 40
popq %r13
.cfi_def_cfa_offset 32
popq %r14
.cfi_def_cfa_offset 24
popq %r15
.cfi_def_cfa_offset 16
popq %rbp
.cfi_def_cfa_offset 8
retq
.Lfunc_end2:
.size haberdashery_aes256gcmdndkv2kc_broadwell_decrypt, .Lfunc_end2-haberdashery_aes256gcmdndkv2kc_broadwell_decrypt
.cfi_endproc
.section .text.haberdashery_aes256gcmdndkv2kc_broadwell_is_supported,"ax",@progbits
.globl haberdashery_aes256gcmdndkv2kc_broadwell_is_supported
.p2align 4, 0x90
.type haberdashery_aes256gcmdndkv2kc_broadwell_is_supported,@function
haberdashery_aes256gcmdndkv2kc_broadwell_is_supported:
.cfi_startproc
movl $1, %eax
xorl %ecx, %ecx
#APP
movq %rbx, %rsi
cpuid
xchgq %rbx, %rsi
#NO_APP
movl %ecx, %esi
movl %edx, %edi
notl %edi
notl %esi
movl $7, %eax
xorl %ecx, %ecx
#APP
movq %rbx, %r8
cpuid
xchgq %rbx, %r8
#NO_APP
andl $1993871875, %esi
andl $125829120, %edi
orl %esi, %edi
notl %r8d
andl $786729, %r8d
xorl %eax, %eax
orl %edi, %r8d
sete %al
retq
.Lfunc_end3:
.size haberdashery_aes256gcmdndkv2kc_broadwell_is_supported, .Lfunc_end3-haberdashery_aes256gcmdndkv2kc_broadwell_is_supported
.cfi_endproc
.ident "rustc version 1.86.0-nightly (9cd60bd2c 2025-02-15)"
.section ".note.GNU-stack","",@progbits
|
ts-phantomnk90/haberdashery
| 67,750
|
asm/aes256gcm_haswell.s
|
# @generated
# https://github.com/facebookincubator/haberdashery/
.text
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI0_0:
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.LCPI0_1:
.quad 4294967297
.quad 4294967297
.LCPI0_8:
.quad 274877907008
.quad 274877907008
.LCPI0_9:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI0_10:
.zero 8
.quad -4467570830351532032
.section .rodata.cst4,"aM",@progbits,4
.p2align 2, 0x0
.LCPI0_2:
.long 0x00000002
.LCPI0_3:
.long 0x0c0f0e0d
.LCPI0_4:
.long 0x00000004
.LCPI0_5:
.long 0x00000008
.LCPI0_6:
.long 0x00000010
.LCPI0_7:
.long 0x00000020
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI0_11:
.quad -4467570830351532032
.section .text.haberdashery_aes256gcm_haswell_init,"ax",@progbits
.globl haberdashery_aes256gcm_haswell_init
.p2align 4, 0x90
.type haberdashery_aes256gcm_haswell_init,@function
haberdashery_aes256gcm_haswell_init:
.cfi_startproc
cmpq $32, %rdx
jne .LBB0_2
subq $24, %rsp
.cfi_def_cfa_offset 32
vmovdqu (%rsi), %xmm4
vmovdqa %xmm4, (%rsp)
vmovdqu 16(%rsi), %xmm5
vpslldq $4, %xmm4, %xmm0
vpslldq $8, %xmm4, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpslldq $12, %xmm4, %xmm2
vpbroadcastd .LCPI0_3(%rip), %xmm14
vpshufb %xmm14, %xmm5, %xmm3
vaesenclast .LCPI0_1(%rip), %xmm3, %xmm3
vpxor %xmm2, %xmm0, %xmm0
vpxor %xmm4, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm1
vaesenc %xmm5, %xmm4, %xmm15
vpslldq $4, %xmm5, %xmm0
vpslldq $8, %xmm5, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpslldq $12, %xmm5, %xmm2
vmovdqa %xmm5, -16(%rsp)
vpxor %xmm2, %xmm0, %xmm2
vmovdqa %xmm1, -32(%rsp)
vpshufd $255, %xmm1, %xmm3
vpxor %xmm0, %xmm0, %xmm0
vaesenclast %xmm0, %xmm3, %xmm3
vpxor %xmm5, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm4
vmovdqa %xmm4, -48(%rsp)
vbroadcastss .LCPI0_2(%rip), %xmm3
vbroadcastss .LCPI0_3(%rip), %xmm2
#APP
vaesenc %xmm1, %xmm15, %xmm15
vpslldq $4, %xmm1, %xmm6
vpslldq $8, %xmm1, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpslldq $12, %xmm1, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpxor %xmm1, %xmm6, %xmm6
vpshufb %xmm2, %xmm4, %xmm5
vaesenclast %xmm3, %xmm5, %xmm5
vpxor %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps %xmm5, %xmm1
vmovaps %xmm5, -64(%rsp)
#APP
vaesenc %xmm4, %xmm15, %xmm15
vpslldq $4, %xmm4, %xmm3
vpslldq $8, %xmm4, %xmm6
vpxor %xmm6, %xmm3, %xmm3
vpslldq $12, %xmm4, %xmm6
vpxor %xmm6, %xmm3, %xmm3
vpxor %xmm4, %xmm3, %xmm3
vpshufd $255, %xmm1, %xmm5
vaesenclast %xmm0, %xmm5, %xmm5
vpxor %xmm3, %xmm5, %xmm5
#NO_APP
vbroadcastss .LCPI0_4(%rip), %xmm3
vmovaps %xmm5, %xmm4
vmovaps %xmm5, -80(%rsp)
#APP
vaesenc %xmm1, %xmm15, %xmm15
vpslldq $4, %xmm1, %xmm7
vpslldq $8, %xmm1, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpslldq $12, %xmm1, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpxor %xmm1, %xmm7, %xmm7
vpshufb %xmm2, %xmm4, %xmm5
vaesenclast %xmm3, %xmm5, %xmm5
vpxor %xmm7, %xmm5, %xmm5
#NO_APP
vmovaps %xmm5, %xmm1
vmovaps %xmm5, -96(%rsp)
#APP
vaesenc %xmm4, %xmm15, %xmm15
vpslldq $4, %xmm4, %xmm3
vpslldq $8, %xmm4, %xmm8
vpxor %xmm3, %xmm8, %xmm3
vpslldq $12, %xmm4, %xmm8
vpxor %xmm3, %xmm8, %xmm3
vpxor %xmm4, %xmm3, %xmm3
vpshufd $255, %xmm1, %xmm5
vaesenclast %xmm0, %xmm5, %xmm5
vpxor %xmm3, %xmm5, %xmm5
#NO_APP
vbroadcastss .LCPI0_5(%rip), %xmm3
vmovaps %xmm5, -112(%rsp)
#APP
vaesenc %xmm1, %xmm15, %xmm15
vpslldq $4, %xmm1, %xmm9
vpslldq $8, %xmm1, %xmm10
vpxor %xmm10, %xmm9, %xmm9
vpslldq $12, %xmm1, %xmm10
vpxor %xmm10, %xmm9, %xmm9
vpxor %xmm1, %xmm9, %xmm9
vpshufb %xmm2, %xmm5, %xmm8
vaesenclast %xmm3, %xmm8, %xmm8
vpxor %xmm9, %xmm8, %xmm8
#NO_APP
#APP
vaesenc %xmm5, %xmm15, %xmm15
vpslldq $4, %xmm5, %xmm3
vpslldq $8, %xmm5, %xmm10
vpxor %xmm3, %xmm10, %xmm3
vpslldq $12, %xmm5, %xmm10
vpxor %xmm3, %xmm10, %xmm3
vpxor %xmm5, %xmm3, %xmm3
vpshufd $255, %xmm8, %xmm9
vaesenclast %xmm0, %xmm9, %xmm9
vpxor %xmm3, %xmm9, %xmm9
#NO_APP
vbroadcastss .LCPI0_6(%rip), %xmm3
#APP
vaesenc %xmm8, %xmm15, %xmm15
vpslldq $4, %xmm8, %xmm11
vpslldq $8, %xmm8, %xmm12
vpxor %xmm12, %xmm11, %xmm11
vpslldq $12, %xmm8, %xmm12
vpxor %xmm12, %xmm11, %xmm11
vpxor %xmm8, %xmm11, %xmm11
vpshufb %xmm2, %xmm9, %xmm10
vaesenclast %xmm3, %xmm10, %xmm10
vpxor %xmm11, %xmm10, %xmm10
#NO_APP
#APP
vaesenc %xmm9, %xmm15, %xmm15
vpslldq $4, %xmm9, %xmm3
vpslldq $8, %xmm9, %xmm12
vpxor %xmm3, %xmm12, %xmm3
vpslldq $12, %xmm9, %xmm12
vpxor %xmm3, %xmm12, %xmm3
vpxor %xmm3, %xmm9, %xmm3
vpshufd $255, %xmm10, %xmm11
vaesenclast %xmm0, %xmm11, %xmm11
vpxor %xmm3, %xmm11, %xmm11
#NO_APP
vbroadcastss .LCPI0_7(%rip), %xmm3
#APP
vaesenc %xmm10, %xmm15, %xmm15
vpslldq $4, %xmm10, %xmm13
vpslldq $8, %xmm10, %xmm1
vpxor %xmm1, %xmm13, %xmm13
vpslldq $12, %xmm10, %xmm1
vpxor %xmm1, %xmm13, %xmm13
vpxor %xmm10, %xmm13, %xmm13
vpshufb %xmm2, %xmm11, %xmm12
vaesenclast %xmm3, %xmm12, %xmm12
vpxor %xmm13, %xmm12, %xmm12
#NO_APP
vpslldq $4, %xmm11, %xmm1
vpunpcklqdq %xmm11, %xmm0, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vinsertps $55, %xmm11, %xmm0, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpshufd $255, %xmm12, %xmm2
vaesenclast %xmm0, %xmm2, %xmm2
vpxor %xmm1, %xmm11, %xmm1
vpxor %xmm1, %xmm2, %xmm13
vpslldq $4, %xmm12, %xmm1
vpunpcklqdq %xmm12, %xmm0, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vinsertps $55, %xmm12, %xmm0, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpshufb %xmm14, %xmm13, %xmm2
vaesenclast .LCPI0_8(%rip), %xmm2, %xmm2
vpxor %xmm1, %xmm12, %xmm1
vpxor %xmm1, %xmm2, %xmm2
vmovdqa %xmm2, -128(%rsp)
vaesenc %xmm11, %xmm15, %xmm1
vaesenc %xmm12, %xmm1, %xmm1
vaesenc %xmm13, %xmm1, %xmm1
vaesenclast %xmm2, %xmm1, %xmm1
vpshufb .LCPI0_9(%rip), %xmm1, %xmm1
vpsrlq $63, %xmm1, %xmm2
vpaddq %xmm1, %xmm1, %xmm1
vpshufd $78, %xmm2, %xmm3
vpor %xmm3, %xmm1, %xmm1
vpblendd $12, %xmm2, %xmm0, %xmm0
vpsllq $63, %xmm0, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpsllq $62, %xmm0, %xmm2
vpsllq $57, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vpxor %xmm0, %xmm1, %xmm15
vpclmulqdq $0, %xmm15, %xmm15, %xmm0
vpbroadcastq .LCPI0_11(%rip), %xmm5
vpclmulqdq $16, %xmm5, %xmm0, %xmm1
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpclmulqdq $17, %xmm15, %xmm15, %xmm1
vpshufd $78, %xmm0, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm1
vpclmulqdq $16, %xmm15, %xmm1, %xmm0
vpclmulqdq $1, %xmm15, %xmm1, %xmm3
vpxor %xmm0, %xmm3, %xmm0
vpclmulqdq $0, %xmm15, %xmm1, %xmm3
vpslldq $8, %xmm0, %xmm14
vpxor %xmm3, %xmm14, %xmm3
vpclmulqdq $16, %xmm5, %xmm3, %xmm14
vpshufd $78, %xmm3, %xmm3
vpclmulqdq $17, %xmm15, %xmm1, %xmm2
vpxor %xmm3, %xmm14, %xmm3
vpsrldq $8, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vpshufd $78, %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpclmulqdq $16, %xmm5, %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm6
vpclmulqdq $0, %xmm6, %xmm6, %xmm0
vpclmulqdq $16, %xmm5, %xmm0, %xmm3
vpclmulqdq $0, %xmm1, %xmm1, %xmm14
vpclmulqdq $16, %xmm5, %xmm14, %xmm2
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm3
vpshufd $78, %xmm14, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vpclmulqdq $17, %xmm1, %xmm1, %xmm2
vpshufd $78, %xmm0, %xmm14
vpxor %xmm2, %xmm14, %xmm2
vpclmulqdq $16, %xmm5, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vpclmulqdq $17, %xmm6, %xmm6, %xmm4
vpshufd $78, %xmm3, %xmm14
vpclmulqdq $16, %xmm15, %xmm0, %xmm2
vpxor %xmm4, %xmm14, %xmm4
vpclmulqdq $1, %xmm15, %xmm0, %xmm14
vpxor %xmm2, %xmm14, %xmm2
vpclmulqdq $16, %xmm5, %xmm3, %xmm3
vpclmulqdq $0, %xmm15, %xmm0, %xmm14
vpslldq $8, %xmm2, %xmm7
vpxor %xmm7, %xmm14, %xmm7
vpclmulqdq $16, %xmm5, %xmm7, %xmm14
vpxor %xmm3, %xmm4, %xmm3
vpshufd $78, %xmm7, %xmm4
vpxor %xmm4, %xmm14, %xmm4
vpsrldq $8, %xmm2, %xmm2
vpclmulqdq $17, %xmm15, %xmm0, %xmm7
vpxor %xmm2, %xmm7, %xmm2
vpclmulqdq $16, %xmm5, %xmm4, %xmm5
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpxor %xmm5, %xmm2, %xmm2
vmovaps (%rsp), %xmm4
vmovaps %xmm4, (%rdi)
vmovaps -16(%rsp), %xmm4
vmovaps %xmm4, 16(%rdi)
vmovaps -32(%rsp), %xmm4
vmovaps %xmm4, 32(%rdi)
vmovaps -48(%rsp), %xmm4
vmovaps %xmm4, 48(%rdi)
vmovaps -64(%rsp), %xmm4
vmovaps %xmm4, 64(%rdi)
vmovaps -80(%rsp), %xmm4
vmovaps %xmm4, 80(%rdi)
vmovaps -96(%rsp), %xmm4
vmovaps %xmm4, 96(%rdi)
vmovaps -112(%rsp), %xmm4
vmovaps %xmm4, 112(%rdi)
vmovaps %xmm8, 128(%rdi)
vmovaps %xmm9, 144(%rdi)
vmovaps %xmm10, 160(%rdi)
vmovaps %xmm11, 176(%rdi)
vmovaps %xmm12, 192(%rdi)
vmovdqa %xmm13, 208(%rdi)
vmovaps -128(%rsp), %xmm4
vmovaps %xmm4, 224(%rdi)
vmovdqa %xmm15, 240(%rdi)
vmovdqa %xmm1, 256(%rdi)
vmovdqa %xmm6, 272(%rdi)
vmovdqa %xmm0, 288(%rdi)
vmovdqa %xmm2, 304(%rdi)
vmovdqa %xmm3, 320(%rdi)
addq $24, %rsp
.cfi_def_cfa_offset 8
.LBB0_2:
xorl %eax, %eax
cmpq $32, %rdx
sete %al
retq
.Lfunc_end0:
.size haberdashery_aes256gcm_haswell_init, .Lfunc_end0-haberdashery_aes256gcm_haswell_init
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI1_0:
.byte 15
.byte 128
.byte 128
.byte 128
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI1_1:
.long 1
.long 0
.long 0
.long 0
.LCPI1_2:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI1_3:
.zero 8
.quad -4467570830351532032
.LCPI1_4:
.long 2
.long 0
.long 0
.long 0
.LCPI1_5:
.long 3
.long 0
.long 0
.long 0
.LCPI1_6:
.long 4
.long 0
.long 0
.long 0
.LCPI1_7:
.long 5
.long 0
.long 0
.long 0
.LCPI1_8:
.long 6
.long 0
.long 0
.long 0
.LCPI1_9:
.long 7
.long 0
.long 0
.long 0
.LCPI1_10:
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.LCPI1_11:
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.LCPI1_12:
.zero 16
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI1_13:
.quad -4467570830351532032
.section .text.haberdashery_aes256gcm_haswell_encrypt,"ax",@progbits
.globl haberdashery_aes256gcm_haswell_encrypt
.p2align 4, 0x90
.type haberdashery_aes256gcm_haswell_encrypt,@function
haberdashery_aes256gcm_haswell_encrypt:
.cfi_startproc
pushq %rbp
.cfi_def_cfa_offset 16
pushq %r15
.cfi_def_cfa_offset 24
pushq %r14
.cfi_def_cfa_offset 32
pushq %r13
.cfi_def_cfa_offset 40
pushq %r12
.cfi_def_cfa_offset 48
pushq %rbx
.cfi_def_cfa_offset 56
subq $456, %rsp
.cfi_def_cfa_offset 512
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
.cfi_offset %rbp, -16
movq 512(%rsp), %r15
xorl %eax, %eax
cmpq 528(%rsp), %r15
jne .LBB1_41
cmpq $16, 544(%rsp)
setne %r10b
movabsq $2305843009213693950, %r11
cmpq %r11, %r8
seta %r11b
orb %r10b, %r11b
jne .LBB1_41
movq %r15, %r10
shrq $5, %r10
cmpq $2147483647, %r10
setae %r10b
cmpq $12, %rdx
setne %dl
orb %r10b, %dl
jne .LBB1_41
vmovd (%rsi), %xmm0
vpinsrd $1, 4(%rsi), %xmm0, %xmm0
vpinsrd $2, 8(%rsi), %xmm0, %xmm0
movl $16777216, %edx
vpinsrd $3, %edx, %xmm0, %xmm0
vmovdqa %xmm0, 144(%rsp)
vpxor %xmm4, %xmm4, %xmm4
testq %r8, %r8
je .LBB1_20
cmpq $96, %r8
jb .LBB1_5
vmovdqu (%rcx), %xmm1
vmovdqu 16(%rcx), %xmm2
vmovdqu 32(%rcx), %xmm3
vmovdqu 48(%rcx), %xmm4
vmovdqu 64(%rcx), %xmm5
vmovdqu 80(%rcx), %xmm9
vmovdqa .LCPI1_2(%rip), %xmm0
vpshufb %xmm0, %xmm1, %xmm13
vpshufb %xmm0, %xmm2, %xmm8
vpshufb %xmm0, %xmm3, %xmm6
vpshufb %xmm0, %xmm9, %xmm3
vmovdqa 240(%rdi), %xmm1
vpclmulqdq $0, %xmm3, %xmm1, %xmm9
vpshufb %xmm0, %xmm4, %xmm10
vpclmulqdq $1, %xmm3, %xmm1, %xmm11
vpshufb %xmm0, %xmm5, %xmm5
vpclmulqdq $16, %xmm3, %xmm1, %xmm12
vmovdqa 256(%rdi), %xmm2
vpclmulqdq $17, %xmm3, %xmm1, %xmm7
vmovdqa 272(%rdi), %xmm4
vpclmulqdq $0, %xmm5, %xmm2, %xmm14
vmovdqa 288(%rdi), %xmm3
vpclmulqdq $1, %xmm5, %xmm2, %xmm15
vpxor %xmm11, %xmm12, %xmm11
vpclmulqdq $16, %xmm5, %xmm2, %xmm12
vpxor %xmm9, %xmm14, %xmm9
vpclmulqdq $17, %xmm5, %xmm2, %xmm5
vpxor %xmm12, %xmm15, %xmm12
vpclmulqdq $0, %xmm10, %xmm4, %xmm14
vpxor %xmm12, %xmm11, %xmm11
vpclmulqdq $1, %xmm10, %xmm4, %xmm12
vpxor %xmm7, %xmm5, %xmm7
vpclmulqdq $16, %xmm10, %xmm4, %xmm15
vmovdqa 304(%rdi), %xmm5
vpclmulqdq $17, %xmm10, %xmm4, %xmm10
vpxor %xmm15, %xmm12, %xmm12
vpclmulqdq $0, %xmm6, %xmm3, %xmm15
vpxor %xmm15, %xmm14, %xmm14
vpclmulqdq $1, %xmm6, %xmm3, %xmm15
vpxor %xmm14, %xmm9, %xmm9
vpclmulqdq $16, %xmm6, %xmm3, %xmm14
vpxor %xmm15, %xmm12, %xmm12
vpclmulqdq $17, %xmm6, %xmm3, %xmm6
vpxor %xmm12, %xmm11, %xmm11
vpclmulqdq $0, %xmm8, %xmm5, %xmm12
vpxor %xmm6, %xmm10, %xmm6
vpclmulqdq $1, %xmm8, %xmm5, %xmm10
vpxor %xmm6, %xmm7, %xmm6
vmovdqa %xmm6, (%rsp)
vpclmulqdq $16, %xmm8, %xmm5, %xmm15
vmovdqa 320(%rdi), %xmm6
vpclmulqdq $0, %xmm13, %xmm6, %xmm7
vpxor %xmm10, %xmm14, %xmm10
vpxor %xmm15, %xmm10, %xmm10
vpxor %xmm7, %xmm12, %xmm7
vpxor %xmm7, %xmm9, %xmm9
vpclmulqdq $1, %xmm13, %xmm6, %xmm7
vpxor %xmm7, %xmm10, %xmm7
vpxor %xmm7, %xmm11, %xmm7
vpclmulqdq $16, %xmm13, %xmm6, %xmm10
vpxor %xmm7, %xmm10, %xmm10
vpclmulqdq $17, %xmm8, %xmm5, %xmm7
vpclmulqdq $17, %xmm13, %xmm6, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpxor (%rsp), %xmm7, %xmm8
addq $96, %rcx
leaq -96(%r8), %rsi
cmpq $96, %rsi
jb .LBB1_19
vmovdqa %xmm6, (%rsp)
vmovdqa %xmm5, %xmm6
vmovdqa %xmm3, %xmm5
vmovdqa %xmm2, %xmm3
.p2align 4, 0x90
.LBB1_18:
vmovdqu (%rcx), %xmm12
vmovdqu 32(%rcx), %xmm13
vmovdqu 48(%rcx), %xmm11
vmovdqu 64(%rcx), %xmm14
vmovdqu 80(%rcx), %xmm15
vpslldq $8, %xmm10, %xmm7
vpxor %xmm7, %xmm9, %xmm7
vpsrldq $8, %xmm10, %xmm9
vpbroadcastq .LCPI1_13(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm7, %xmm10
vpshufd $78, %xmm7, %xmm7
vpxor %xmm7, %xmm10, %xmm7
vpclmulqdq $16, %xmm2, %xmm7, %xmm10
vpxor %xmm9, %xmm8, %xmm8
vpshufd $78, %xmm7, %xmm7
vpshufb %xmm0, %xmm12, %xmm9
vpxor %xmm9, %xmm8, %xmm8
vpshufb %xmm0, %xmm15, %xmm12
vpclmulqdq $0, %xmm12, %xmm1, %xmm15
vpxor %xmm7, %xmm8, %xmm7
vmovdqa %xmm1, %xmm2
vmovdqa %xmm0, %xmm1
vpclmulqdq $1, %xmm12, %xmm2, %xmm0
vpxor %xmm7, %xmm10, %xmm8
vpclmulqdq $16, %xmm12, %xmm2, %xmm7
vpshufb %xmm1, %xmm13, %xmm9
vpclmulqdq $17, %xmm12, %xmm2, %xmm10
vpshufb %xmm1, %xmm14, %xmm12
vpclmulqdq $0, %xmm12, %xmm3, %xmm13
vpxor %xmm0, %xmm7, %xmm0
vpclmulqdq $1, %xmm12, %xmm3, %xmm7
vpxor %xmm15, %xmm13, %xmm13
vpclmulqdq $16, %xmm12, %xmm3, %xmm14
vpshufb %xmm1, %xmm11, %xmm11
vpclmulqdq $17, %xmm12, %xmm3, %xmm12
vpxor %xmm7, %xmm14, %xmm7
vpclmulqdq $0, %xmm11, %xmm4, %xmm14
vpxor %xmm7, %xmm0, %xmm0
vpclmulqdq $1, %xmm11, %xmm4, %xmm7
vpxor %xmm10, %xmm12, %xmm10
vpclmulqdq $16, %xmm11, %xmm4, %xmm12
vpxor %xmm7, %xmm12, %xmm7
vpclmulqdq $0, %xmm9, %xmm5, %xmm12
vpxor %xmm12, %xmm14, %xmm12
vpclmulqdq $17, %xmm11, %xmm4, %xmm11
vpxor %xmm12, %xmm13, %xmm12
vpclmulqdq $1, %xmm9, %xmm5, %xmm13
vpxor %xmm7, %xmm13, %xmm7
vpclmulqdq $17, %xmm9, %xmm5, %xmm13
vpxor %xmm7, %xmm0, %xmm0
vpxor %xmm13, %xmm11, %xmm7
vmovdqu 16(%rcx), %xmm11
vpshufb %xmm1, %xmm11, %xmm11
vpclmulqdq $16, %xmm9, %xmm5, %xmm9
vpxor %xmm7, %xmm10, %xmm7
vpclmulqdq $0, %xmm11, %xmm6, %xmm10
vpxor %xmm10, %xmm12, %xmm10
vpclmulqdq $1, %xmm11, %xmm6, %xmm12
vpxor %xmm12, %xmm9, %xmm9
vpclmulqdq $16, %xmm11, %xmm6, %xmm12
vpxor %xmm12, %xmm9, %xmm9
vpxor %xmm0, %xmm9, %xmm0
vpclmulqdq $17, %xmm11, %xmm6, %xmm9
vpxor %xmm7, %xmm9, %xmm7
vmovdqa (%rsp), %xmm11
vpclmulqdq $0, %xmm8, %xmm11, %xmm9
vpxor %xmm9, %xmm10, %xmm9
vpclmulqdq $1, %xmm8, %xmm11, %xmm10
vpxor %xmm0, %xmm10, %xmm0
vpclmulqdq $16, %xmm8, %xmm11, %xmm10
vpxor %xmm0, %xmm10, %xmm10
vpclmulqdq $17, %xmm8, %xmm11, %xmm0
vpxor %xmm0, %xmm7, %xmm8
vmovdqa %xmm1, %xmm0
vmovdqa %xmm2, %xmm1
addq $96, %rcx
addq $-96, %rsi
cmpq $95, %rsi
ja .LBB1_18
.LBB1_19:
vpslldq $8, %xmm10, %xmm0
vpxor %xmm0, %xmm9, %xmm0
vpbroadcastq .LCPI1_13(%rip), %xmm1
vpclmulqdq $16, %xmm1, %xmm0, %xmm2
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vpsrldq $8, %xmm10, %xmm2
vpclmulqdq $16, %xmm1, %xmm0, %xmm1
vpxor %xmm2, %xmm8, %xmm2
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vpxor %xmm1, %xmm0, %xmm4
cmpq $16, %rsi
jae .LBB1_7
jmp .LBB1_12
.LBB1_20:
testq %r15, %r15
jne .LBB1_25
jmp .LBB1_40
.LBB1_5:
movq %r8, %rsi
cmpq $16, %rsi
jb .LBB1_12
.LBB1_7:
vmovdqa 240(%rdi), %xmm0
leaq -16(%rsi), %rdx
testb $16, %dl
je .LBB1_8
cmpq $16, %rdx
jae .LBB1_10
.LBB1_13:
testq %rdx, %rdx
je .LBB1_21
.LBB1_14:
vmovdqa %xmm4, 32(%rsp)
movq %r9, %r14
movq %r8, %rbx
movq %rdi, %r12
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, 16(%rsp)
leaq 16(%rsp), %rdi
movq %rcx, %rsi
callq *memcpy@GOTPCREL(%rip)
vmovdqa 16(%rsp), %xmm0
testq %r15, %r15
je .LBB1_15
movabsq $-68719476704, %rax
leaq (%r15,%rax), %rcx
incq %rax
cmpq %rax, %rcx
movl $0, %eax
vmovdqa 32(%rsp), %xmm2
jb .LBB1_41
movq %r12, %rdi
movq %rbx, %r8
movq %r14, %r9
vmovdqa 240(%r12), %xmm1
vpshufb .LCPI1_2(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpbroadcastq .LCPI1_13(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm1, %xmm4
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm3
vpxor %xmm2, %xmm0, %xmm0
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm4
jmp .LBB1_25
.LBB1_8:
vmovdqu (%rcx), %xmm1
vpshufb .LCPI1_2(%rip), %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpslldq $8, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpbroadcastq .LCPI1_13(%rip), %xmm4
vpclmulqdq $16, %xmm4, %xmm2, %xmm5
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm5, %xmm2
addq $16, %rcx
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
vpsrldq $8, %xmm3, %xmm3
vpclmulqdq $16, %xmm4, %xmm2, %xmm4
vpxor %xmm3, %xmm1, %xmm1
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm4
movq %rdx, %rsi
cmpq $16, %rdx
jb .LBB1_13
.LBB1_10:
vmovdqa .LCPI1_2(%rip), %xmm1
vpbroadcastq .LCPI1_13(%rip), %xmm2
.p2align 4, 0x90
.LBB1_11:
vmovdqu (%rcx), %xmm3
vpshufb %xmm1, %xmm3, %xmm3
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $0, %xmm3, %xmm0, %xmm4
vpclmulqdq $1, %xmm3, %xmm0, %xmm5
vmovdqu 16(%rcx), %xmm6
vpclmulqdq $16, %xmm3, %xmm0, %xmm7
vpxor %xmm5, %xmm7, %xmm5
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
vpslldq $8, %xmm5, %xmm7
vpxor %xmm7, %xmm4, %xmm4
vpsrldq $8, %xmm5, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpclmulqdq $16, %xmm2, %xmm4, %xmm5
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $16, %xmm2, %xmm4, %xmm5
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpshufb %xmm1, %xmm6, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpxor %xmm3, %xmm5, %xmm3
vpclmulqdq $0, %xmm3, %xmm0, %xmm4
addq $32, %rcx
vpclmulqdq $1, %xmm3, %xmm0, %xmm5
addq $-32, %rsi
vpclmulqdq $16, %xmm3, %xmm0, %xmm6
vpxor %xmm5, %xmm6, %xmm5
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
vpslldq $8, %xmm5, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpsrldq $8, %xmm5, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpclmulqdq $16, %xmm2, %xmm4, %xmm5
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $16, %xmm2, %xmm4, %xmm5
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpxor %xmm3, %xmm5, %xmm4
cmpq $15, %rsi
ja .LBB1_11
.LBB1_12:
movq %rsi, %rdx
testq %rdx, %rdx
jne .LBB1_14
.LBB1_21:
testq %r15, %r15
je .LBB1_40
movabsq $-68719476704, %rcx
leaq (%r15,%rcx), %rdx
incq %rcx
cmpq %rcx, %rdx
jb .LBB1_41
.LBB1_25:
vmovdqa 144(%rsp), %xmm0
vpshufb .LCPI1_0(%rip), %xmm0, %xmm1
movq 520(%rsp), %rdx
vpaddd .LCPI1_1(%rip), %xmm1, %xmm0
cmpq $96, %r15
jb .LBB1_26
vmovdqa %xmm4, %xmm8
leaq 96(%r9), %rcx
leaq 96(%rdx), %rax
vmovdqa .LCPI1_2(%rip), %xmm9
vpshufb %xmm9, %xmm0, %xmm2
vpaddd .LCPI1_4(%rip), %xmm1, %xmm3
vpshufb %xmm9, %xmm3, %xmm3
vpaddd .LCPI1_5(%rip), %xmm1, %xmm4
vpshufb %xmm9, %xmm4, %xmm4
vpaddd .LCPI1_6(%rip), %xmm1, %xmm5
vpaddd .LCPI1_7(%rip), %xmm1, %xmm6
vpshufb %xmm9, %xmm5, %xmm5
vpshufb %xmm9, %xmm6, %xmm6
vpaddd .LCPI1_8(%rip), %xmm1, %xmm7
vpshufb %xmm9, %xmm7, %xmm7
vpaddd .LCPI1_9(%rip), %xmm1, %xmm0
vmovdqa (%rdi), %xmm10
vmovaps 16(%rdi), %xmm1
vmovaps 32(%rdi), %xmm12
vmovaps 48(%rdi), %xmm11
vpxor %xmm2, %xmm10, %xmm2
vpxor %xmm3, %xmm10, %xmm3
vpxor %xmm4, %xmm10, %xmm4
vpxor %xmm5, %xmm10, %xmm5
vpxor %xmm6, %xmm10, %xmm6
vpxor %xmm7, %xmm10, %xmm7
vmovaps %xmm1, 304(%rsp)
#APP
vaesenc %xmm1, %xmm2, %xmm2
vaesenc %xmm1, %xmm3, %xmm3
vaesenc %xmm1, %xmm4, %xmm4
vaesenc %xmm1, %xmm5, %xmm5
vaesenc %xmm1, %xmm6, %xmm6
vaesenc %xmm1, %xmm7, %xmm7
#NO_APP
vmovaps %xmm12, 288(%rsp)
#APP
vaesenc %xmm12, %xmm2, %xmm2
vaesenc %xmm12, %xmm3, %xmm3
vaesenc %xmm12, %xmm4, %xmm4
vaesenc %xmm12, %xmm5, %xmm5
vaesenc %xmm12, %xmm6, %xmm6
vaesenc %xmm12, %xmm7, %xmm7
#NO_APP
vmovaps %xmm11, 96(%rsp)
#APP
vaesenc %xmm11, %xmm2, %xmm2
vaesenc %xmm11, %xmm3, %xmm3
vaesenc %xmm11, %xmm4, %xmm4
vaesenc %xmm11, %xmm5, %xmm5
vaesenc %xmm11, %xmm6, %xmm6
vaesenc %xmm11, %xmm7, %xmm7
#NO_APP
vmovaps 64(%rdi), %xmm11
vmovaps %xmm11, 80(%rsp)
#APP
vaesenc %xmm11, %xmm2, %xmm2
vaesenc %xmm11, %xmm3, %xmm3
vaesenc %xmm11, %xmm4, %xmm4
vaesenc %xmm11, %xmm5, %xmm5
vaesenc %xmm11, %xmm6, %xmm6
vaesenc %xmm11, %xmm7, %xmm7
#NO_APP
vmovaps 80(%rdi), %xmm11
vmovaps %xmm11, 64(%rsp)
#APP
vaesenc %xmm11, %xmm2, %xmm2
vaesenc %xmm11, %xmm3, %xmm3
vaesenc %xmm11, %xmm4, %xmm4
vaesenc %xmm11, %xmm5, %xmm5
vaesenc %xmm11, %xmm6, %xmm6
vaesenc %xmm11, %xmm7, %xmm7
#NO_APP
vmovaps 96(%rdi), %xmm11
vmovaps %xmm11, 416(%rsp)
#APP
vaesenc %xmm11, %xmm2, %xmm2
vaesenc %xmm11, %xmm3, %xmm3
vaesenc %xmm11, %xmm4, %xmm4
vaesenc %xmm11, %xmm5, %xmm5
vaesenc %xmm11, %xmm6, %xmm6
vaesenc %xmm11, %xmm7, %xmm7
#NO_APP
vmovaps 112(%rdi), %xmm11
vmovaps %xmm11, 400(%rsp)
#APP
vaesenc %xmm11, %xmm2, %xmm2
vaesenc %xmm11, %xmm3, %xmm3
vaesenc %xmm11, %xmm4, %xmm4
vaesenc %xmm11, %xmm5, %xmm5
vaesenc %xmm11, %xmm6, %xmm6
vaesenc %xmm11, %xmm7, %xmm7
#NO_APP
vmovaps 128(%rdi), %xmm11
vmovaps %xmm11, 384(%rsp)
#APP
vaesenc %xmm11, %xmm2, %xmm2
vaesenc %xmm11, %xmm3, %xmm3
vaesenc %xmm11, %xmm4, %xmm4
vaesenc %xmm11, %xmm5, %xmm5
vaesenc %xmm11, %xmm6, %xmm6
vaesenc %xmm11, %xmm7, %xmm7
#NO_APP
vmovaps 144(%rdi), %xmm11
vmovaps %xmm11, 368(%rsp)
#APP
vaesenc %xmm11, %xmm2, %xmm2
vaesenc %xmm11, %xmm3, %xmm3
vaesenc %xmm11, %xmm4, %xmm4
vaesenc %xmm11, %xmm5, %xmm5
vaesenc %xmm11, %xmm6, %xmm6
vaesenc %xmm11, %xmm7, %xmm7
#NO_APP
vmovaps 160(%rdi), %xmm11
vmovaps %xmm11, 352(%rsp)
#APP
vaesenc %xmm11, %xmm2, %xmm2
vaesenc %xmm11, %xmm3, %xmm3
vaesenc %xmm11, %xmm4, %xmm4
vaesenc %xmm11, %xmm5, %xmm5
vaesenc %xmm11, %xmm6, %xmm6
vaesenc %xmm11, %xmm7, %xmm7
#NO_APP
vmovaps 176(%rdi), %xmm11
vmovaps %xmm11, 336(%rsp)
#APP
vaesenc %xmm11, %xmm2, %xmm2
vaesenc %xmm11, %xmm3, %xmm3
vaesenc %xmm11, %xmm4, %xmm4
vaesenc %xmm11, %xmm5, %xmm5
vaesenc %xmm11, %xmm6, %xmm6
vaesenc %xmm11, %xmm7, %xmm7
#NO_APP
vmovaps 192(%rdi), %xmm11
vmovaps %xmm11, 320(%rsp)
#APP
vaesenc %xmm11, %xmm2, %xmm2
vaesenc %xmm11, %xmm3, %xmm3
vaesenc %xmm11, %xmm4, %xmm4
vaesenc %xmm11, %xmm5, %xmm5
vaesenc %xmm11, %xmm6, %xmm6
vaesenc %xmm11, %xmm7, %xmm7
#NO_APP
vmovdqa 208(%rdi), %xmm11
vmovdqa %xmm11, %xmm12
#APP
vaesenc %xmm11, %xmm2, %xmm2
vaesenc %xmm11, %xmm3, %xmm3
vaesenc %xmm11, %xmm4, %xmm4
vaesenc %xmm11, %xmm5, %xmm5
vaesenc %xmm11, %xmm6, %xmm6
vaesenc %xmm11, %xmm7, %xmm7
#NO_APP
vmovaps 224(%rdi), %xmm11
#APP
vaesenclast %xmm11, %xmm2, %xmm2
vaesenclast %xmm11, %xmm3, %xmm3
vaesenclast %xmm11, %xmm4, %xmm4
vaesenclast %xmm11, %xmm5, %xmm5
vaesenclast %xmm11, %xmm6, %xmm6
vaesenclast %xmm11, %xmm7, %xmm7
#NO_APP
vpxor (%r9), %xmm2, %xmm15
vpxor 16(%r9), %xmm3, %xmm3
vpxor 32(%r9), %xmm4, %xmm4
vpxor 48(%r9), %xmm5, %xmm5
vpxor 64(%r9), %xmm6, %xmm13
vpxor 80(%r9), %xmm7, %xmm14
vmovdqu %xmm15, (%rdx)
vmovdqu %xmm3, 16(%rdx)
vmovdqu %xmm4, 32(%rdx)
vmovdqu %xmm5, 48(%rdx)
vmovdqu %xmm13, 64(%rdx)
leaq -96(%r15), %rbx
vmovdqu %xmm14, 80(%rdx)
cmpq $96, %rbx
jb .LBB1_33
vmovaps 240(%rdi), %xmm2
vmovaps %xmm2, 272(%rsp)
vmovaps 256(%rdi), %xmm2
vmovaps %xmm2, 256(%rsp)
vmovaps 272(%rdi), %xmm2
vmovaps %xmm2, 240(%rsp)
vmovaps 288(%rdi), %xmm2
vmovaps %xmm2, 224(%rsp)
vmovaps 304(%rdi), %xmm2
vmovaps %xmm2, 208(%rsp)
vmovdqa 320(%rdi), %xmm2
vmovdqa %xmm2, 192(%rsp)
vmovdqa %xmm12, 176(%rsp)
vmovaps %xmm11, 160(%rsp)
.p2align 4, 0x90
.LBB1_35:
vmovdqa %xmm5, 112(%rsp)
vmovdqa %xmm4, 128(%rsp)
vmovdqa %xmm3, 48(%rsp)
vmovdqa %xmm0, (%rsp)
vpshufb %xmm9, %xmm0, %xmm3
vmovdqa %xmm8, %xmm12
vpaddd .LCPI1_1(%rip), %xmm0, %xmm4
vpshufb %xmm9, %xmm4, %xmm4
vpaddd .LCPI1_4(%rip), %xmm0, %xmm5
vpshufb %xmm9, %xmm5, %xmm5
vpaddd .LCPI1_5(%rip), %xmm0, %xmm6
vpshufb %xmm9, %xmm6, %xmm6
vpaddd .LCPI1_6(%rip), %xmm0, %xmm7
vpshufb %xmm9, %xmm7, %xmm8
vpaddd .LCPI1_7(%rip), %xmm0, %xmm7
vmovdqa %xmm9, %xmm1
vpshufb %xmm9, %xmm7, %xmm9
vpshufb %xmm1, %xmm15, %xmm7
vpxor %xmm7, %xmm12, %xmm0
vmovdqa %xmm0, 32(%rsp)
vpshufb %xmm1, %xmm14, %xmm0
vpxor %xmm3, %xmm10, %xmm15
vpxor %xmm4, %xmm10, %xmm3
vpxor %xmm5, %xmm10, %xmm4
vpxor %xmm6, %xmm10, %xmm5
vpxor %xmm8, %xmm10, %xmm6
vpxor %xmm9, %xmm10, %xmm14
vmovaps 304(%rsp), %xmm2
#APP
vaesenc %xmm2, %xmm15, %xmm15
vaesenc %xmm2, %xmm3, %xmm3
vaesenc %xmm2, %xmm4, %xmm4
vaesenc %xmm2, %xmm5, %xmm5
vaesenc %xmm2, %xmm6, %xmm6
vaesenc %xmm2, %xmm14, %xmm14
#NO_APP
vpxor %xmm8, %xmm8, %xmm8
vpxor %xmm12, %xmm12, %xmm12
vpxor %xmm9, %xmm9, %xmm9
vmovaps 272(%rsp), %xmm2
vmovaps 288(%rsp), %xmm11
#APP
vaesenc %xmm11, %xmm15, %xmm15
vaesenc %xmm11, %xmm3, %xmm3
vaesenc %xmm11, %xmm4, %xmm4
vaesenc %xmm11, %xmm5, %xmm5
vaesenc %xmm11, %xmm6, %xmm6
vaesenc %xmm11, %xmm14, %xmm14
vpclmulqdq $16, %xmm2, %xmm0, %xmm7
vpxor %xmm7, %xmm12, %xmm12
vpclmulqdq $0, %xmm2, %xmm0, %xmm7
vpxor %xmm7, %xmm8, %xmm8
vpclmulqdq $17, %xmm2, %xmm0, %xmm7
vpxor %xmm7, %xmm9, %xmm9
vpclmulqdq $1, %xmm2, %xmm0, %xmm7
vpxor %xmm7, %xmm12, %xmm12
#NO_APP
vpshufb %xmm1, %xmm13, %xmm0
vmovaps 96(%rsp), %xmm2
#APP
vaesenc %xmm2, %xmm15, %xmm15
vaesenc %xmm2, %xmm3, %xmm3
vaesenc %xmm2, %xmm4, %xmm4
vaesenc %xmm2, %xmm5, %xmm5
vaesenc %xmm2, %xmm6, %xmm6
vaesenc %xmm2, %xmm14, %xmm14
#NO_APP
vmovaps 256(%rsp), %xmm2
vmovaps 80(%rsp), %xmm13
#APP
vaesenc %xmm13, %xmm15, %xmm15
vaesenc %xmm13, %xmm3, %xmm3
vaesenc %xmm13, %xmm4, %xmm4
vaesenc %xmm13, %xmm5, %xmm5
vaesenc %xmm13, %xmm6, %xmm6
vaesenc %xmm13, %xmm14, %xmm14
vpclmulqdq $16, %xmm2, %xmm0, %xmm7
vpxor %xmm7, %xmm12, %xmm12
vpclmulqdq $0, %xmm2, %xmm0, %xmm7
vpxor %xmm7, %xmm8, %xmm8
vpclmulqdq $17, %xmm2, %xmm0, %xmm7
vpxor %xmm7, %xmm9, %xmm9
vpclmulqdq $1, %xmm2, %xmm0, %xmm7
vpxor %xmm7, %xmm12, %xmm12
#NO_APP
vmovdqa 112(%rsp), %xmm0
vpshufb %xmm1, %xmm0, %xmm0
vmovaps 64(%rsp), %xmm2
#APP
vaesenc %xmm2, %xmm15, %xmm15
vaesenc %xmm2, %xmm3, %xmm3
vaesenc %xmm2, %xmm4, %xmm4
vaesenc %xmm2, %xmm5, %xmm5
vaesenc %xmm2, %xmm6, %xmm6
vaesenc %xmm2, %xmm14, %xmm14
#NO_APP
vmovaps 240(%rsp), %xmm2
vmovaps 416(%rsp), %xmm11
#APP
vaesenc %xmm11, %xmm15, %xmm15
vaesenc %xmm11, %xmm3, %xmm3
vaesenc %xmm11, %xmm4, %xmm4
vaesenc %xmm11, %xmm5, %xmm5
vaesenc %xmm11, %xmm6, %xmm6
vaesenc %xmm11, %xmm14, %xmm14
vpclmulqdq $16, %xmm2, %xmm0, %xmm7
vpxor %xmm7, %xmm12, %xmm12
vpclmulqdq $0, %xmm2, %xmm0, %xmm7
vpxor %xmm7, %xmm8, %xmm8
vpclmulqdq $17, %xmm2, %xmm0, %xmm7
vpxor %xmm7, %xmm9, %xmm9
vpclmulqdq $1, %xmm2, %xmm0, %xmm7
vpxor %xmm7, %xmm12, %xmm12
#NO_APP
vmovdqa 128(%rsp), %xmm0
vpshufb %xmm1, %xmm0, %xmm0
vmovaps 400(%rsp), %xmm2
#APP
vaesenc %xmm2, %xmm15, %xmm15
vaesenc %xmm2, %xmm3, %xmm3
vaesenc %xmm2, %xmm4, %xmm4
vaesenc %xmm2, %xmm5, %xmm5
vaesenc %xmm2, %xmm6, %xmm6
vaesenc %xmm2, %xmm14, %xmm14
#NO_APP
vmovaps 224(%rsp), %xmm2
vmovaps 384(%rsp), %xmm11
#APP
vaesenc %xmm11, %xmm15, %xmm15
vaesenc %xmm11, %xmm3, %xmm3
vaesenc %xmm11, %xmm4, %xmm4
vaesenc %xmm11, %xmm5, %xmm5
vaesenc %xmm11, %xmm6, %xmm6
vaesenc %xmm11, %xmm14, %xmm14
vpclmulqdq $16, %xmm2, %xmm0, %xmm7
vpxor %xmm7, %xmm12, %xmm12
vpclmulqdq $0, %xmm2, %xmm0, %xmm7
vpxor %xmm7, %xmm8, %xmm8
vpclmulqdq $17, %xmm2, %xmm0, %xmm7
vpxor %xmm7, %xmm9, %xmm9
vpclmulqdq $1, %xmm2, %xmm0, %xmm7
vpxor %xmm7, %xmm12, %xmm12
#NO_APP
vmovdqa 48(%rsp), %xmm0
vpshufb %xmm1, %xmm0, %xmm0
vmovaps 368(%rsp), %xmm2
#APP
vaesenc %xmm2, %xmm15, %xmm15
vaesenc %xmm2, %xmm3, %xmm3
vaesenc %xmm2, %xmm4, %xmm4
vaesenc %xmm2, %xmm5, %xmm5
vaesenc %xmm2, %xmm6, %xmm6
vaesenc %xmm2, %xmm14, %xmm14
#NO_APP
vmovaps 208(%rsp), %xmm7
vmovaps 352(%rsp), %xmm11
#APP
vaesenc %xmm11, %xmm15, %xmm15
vaesenc %xmm11, %xmm3, %xmm3
vaesenc %xmm11, %xmm4, %xmm4
vaesenc %xmm11, %xmm5, %xmm5
vaesenc %xmm11, %xmm6, %xmm6
vaesenc %xmm11, %xmm14, %xmm14
vpclmulqdq $16, %xmm7, %xmm0, %xmm2
vpxor %xmm2, %xmm12, %xmm12
vpclmulqdq $0, %xmm7, %xmm0, %xmm2
vpxor %xmm2, %xmm8, %xmm8
vpclmulqdq $17, %xmm7, %xmm0, %xmm2
vpxor %xmm2, %xmm9, %xmm9
vpclmulqdq $1, %xmm7, %xmm0, %xmm2
vpxor %xmm2, %xmm12, %xmm12
#NO_APP
vmovaps 336(%rsp), %xmm0
#APP
vaesenc %xmm0, %xmm15, %xmm15
vaesenc %xmm0, %xmm3, %xmm3
vaesenc %xmm0, %xmm4, %xmm4
vaesenc %xmm0, %xmm5, %xmm5
vaesenc %xmm0, %xmm6, %xmm6
vaesenc %xmm0, %xmm14, %xmm14
#NO_APP
vmovdqa 192(%rsp), %xmm2
vmovaps 320(%rsp), %xmm7
vmovaps 32(%rsp), %xmm11
#APP
vaesenc %xmm7, %xmm15, %xmm15
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm4, %xmm4
vaesenc %xmm7, %xmm5, %xmm5
vaesenc %xmm7, %xmm6, %xmm6
vaesenc %xmm7, %xmm14, %xmm14
vpclmulqdq $16, %xmm2, %xmm11, %xmm0
vpxor %xmm0, %xmm12, %xmm12
vpclmulqdq $0, %xmm2, %xmm11, %xmm0
vpxor %xmm0, %xmm8, %xmm8
vpclmulqdq $17, %xmm2, %xmm11, %xmm0
vpxor %xmm0, %xmm9, %xmm9
vpclmulqdq $1, %xmm2, %xmm11, %xmm0
vpxor %xmm0, %xmm12, %xmm12
#NO_APP
vpxor %xmm2, %xmm2, %xmm2
vpunpcklqdq %xmm12, %xmm2, %xmm0
vpxor %xmm0, %xmm8, %xmm0
vpunpckhqdq %xmm2, %xmm12, %xmm2
vpbroadcastq .LCPI1_13(%rip), %xmm8
vpclmulqdq $16, %xmm8, %xmm0, %xmm7
vpxor %xmm2, %xmm9, %xmm2
vmovdqa %xmm1, %xmm9
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm7, %xmm0
vpshufd $78, %xmm0, %xmm7
vpxor %xmm7, %xmm2, %xmm7
vpclmulqdq $16, %xmm8, %xmm0, %xmm0
vmovaps 176(%rsp), %xmm1
#APP
vaesenc %xmm1, %xmm15, %xmm15
vaesenc %xmm1, %xmm3, %xmm3
vaesenc %xmm1, %xmm4, %xmm4
vaesenc %xmm1, %xmm5, %xmm5
vaesenc %xmm1, %xmm6, %xmm6
vaesenc %xmm1, %xmm14, %xmm14
#NO_APP
vmovaps 160(%rsp), %xmm1
#APP
vaesenclast %xmm1, %xmm15, %xmm15
vaesenclast %xmm1, %xmm3, %xmm3
vaesenclast %xmm1, %xmm4, %xmm4
vaesenclast %xmm1, %xmm5, %xmm5
vaesenclast %xmm1, %xmm6, %xmm6
vaesenclast %xmm1, %xmm14, %xmm14
#NO_APP
vpxor (%rcx), %xmm15, %xmm15
vpxor 16(%rcx), %xmm3, %xmm3
vpxor 32(%rcx), %xmm4, %xmm4
vpxor 48(%rcx), %xmm5, %xmm5
vpxor 64(%rcx), %xmm6, %xmm13
vpxor %xmm0, %xmm7, %xmm8
vmovdqa (%rsp), %xmm0
vpxor 80(%rcx), %xmm14, %xmm14
addq $96, %rcx
vmovdqu %xmm15, (%rax)
vmovdqu %xmm3, 16(%rax)
vmovdqu %xmm4, 32(%rax)
vmovdqu %xmm5, 48(%rax)
vmovdqu %xmm13, 64(%rax)
vmovdqu %xmm14, 80(%rax)
addq $96, %rax
addq $-96, %rbx
vpaddd .LCPI1_8(%rip), %xmm0, %xmm0
cmpq $95, %rbx
ja .LBB1_35
.LBB1_33:
vmovdqa %xmm0, (%rsp)
vpshufb %xmm9, %xmm15, %xmm1
vpxor %xmm1, %xmm8, %xmm2
vpshufb %xmm9, %xmm3, %xmm1
vpshufb %xmm9, %xmm4, %xmm3
vpshufb %xmm9, %xmm5, %xmm5
vpshufb %xmm9, %xmm14, %xmm4
vmovdqa 240(%rdi), %xmm6
vpclmulqdq $0, %xmm4, %xmm6, %xmm7
vpshufb %xmm9, %xmm13, %xmm8
vpclmulqdq $1, %xmm4, %xmm6, %xmm9
vmovdqa 256(%rdi), %xmm10
vpclmulqdq $16, %xmm4, %xmm6, %xmm11
vmovdqa 272(%rdi), %xmm12
vpclmulqdq $17, %xmm4, %xmm6, %xmm6
vmovdqa 288(%rdi), %xmm13
vpclmulqdq $0, %xmm8, %xmm10, %xmm14
vmovdqa 304(%rdi), %xmm0
vpclmulqdq $1, %xmm8, %xmm10, %xmm15
vpxor %xmm9, %xmm11, %xmm9
vpclmulqdq $16, %xmm8, %xmm10, %xmm11
vpclmulqdq $17, %xmm8, %xmm10, %xmm8
vmovdqa 320(%rdi), %xmm4
vpxor %xmm7, %xmm14, %xmm7
vpclmulqdq $0, %xmm5, %xmm12, %xmm10
vpxor %xmm11, %xmm15, %xmm11
vpclmulqdq $1, %xmm5, %xmm12, %xmm14
vpxor %xmm11, %xmm9, %xmm9
vpclmulqdq $16, %xmm5, %xmm12, %xmm11
vpxor %xmm6, %xmm8, %xmm6
vpclmulqdq $17, %xmm5, %xmm12, %xmm5
vpxor %xmm11, %xmm14, %xmm8
vpclmulqdq $0, %xmm3, %xmm13, %xmm11
vpxor %xmm11, %xmm10, %xmm10
vpclmulqdq $1, %xmm3, %xmm13, %xmm11
vpxor %xmm7, %xmm10, %xmm7
vpclmulqdq $16, %xmm3, %xmm13, %xmm10
vpxor %xmm11, %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm13, %xmm3
vpxor %xmm8, %xmm9, %xmm8
vpclmulqdq $0, %xmm1, %xmm0, %xmm9
vpxor %xmm3, %xmm5, %xmm3
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vpxor %xmm3, %xmm6, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm6
vpxor %xmm7, %xmm9, %xmm7
vpxor %xmm5, %xmm10, %xmm5
vpxor %xmm6, %xmm5, %xmm5
vpxor %xmm5, %xmm8, %xmm5
vpclmulqdq $17, %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm0
vmovdqa %xmm2, %xmm1
vpclmulqdq $0, %xmm2, %xmm4, %xmm2
vpxor %xmm2, %xmm7, %xmm2
vpclmulqdq $1, %xmm1, %xmm4, %xmm3
vpxor %xmm3, %xmm5, %xmm3
vpclmulqdq $16, %xmm1, %xmm4, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpclmulqdq $17, %xmm1, %xmm4, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpbroadcastq .LCPI1_13(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm1, %xmm4
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm3
vpxor %xmm2, %xmm0, %xmm0
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm3, %xmm0, %xmm4
movq %rax, %rdx
movq %rcx, %r9
cmpq $16, %rbx
jae .LBB1_36
.LBB1_28:
movq %rdx, %r14
movq %r9, %rsi
vmovdqa (%rsp), %xmm6
jmp .LBB1_29
.LBB1_26:
vmovdqa %xmm0, (%rsp)
movq %r15, %rbx
cmpq $16, %rbx
jb .LBB1_28
.LBB1_36:
vmovaps (%rdi), %xmm0
vmovaps %xmm0, 32(%rsp)
vmovaps 16(%rdi), %xmm0
vmovaps %xmm0, 48(%rsp)
vmovaps 32(%rdi), %xmm0
vmovaps %xmm0, 128(%rsp)
vmovaps 48(%rdi), %xmm0
vmovaps %xmm0, 112(%rsp)
vmovaps 64(%rdi), %xmm0
vmovaps %xmm0, 96(%rsp)
vmovaps 80(%rdi), %xmm0
vmovaps %xmm0, 80(%rsp)
vmovaps 96(%rdi), %xmm0
vmovaps %xmm0, 64(%rsp)
vmovdqa 112(%rdi), %xmm7
vmovdqa 128(%rdi), %xmm8
vmovdqa 144(%rdi), %xmm9
vmovdqa 160(%rdi), %xmm10
vmovdqa 176(%rdi), %xmm11
vmovdqa 192(%rdi), %xmm12
vmovdqa 208(%rdi), %xmm13
vmovdqa 224(%rdi), %xmm14
vmovdqa 240(%rdi), %xmm15
vmovdqa .LCPI1_2(%rip), %xmm0
vpbroadcastq .LCPI1_13(%rip), %xmm1
vmovdqa (%rsp), %xmm6
.p2align 4, 0x90
.LBB1_37:
vpshufb %xmm0, %xmm6, %xmm2
vpxor 32(%rsp), %xmm2, %xmm2
vaesenc 48(%rsp), %xmm2, %xmm2
vaesenc 128(%rsp), %xmm2, %xmm2
vaesenc 112(%rsp), %xmm2, %xmm2
vaesenc 96(%rsp), %xmm2, %xmm2
vaesenc 80(%rsp), %xmm2, %xmm2
vaesenc 64(%rsp), %xmm2, %xmm2
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm10, %xmm2, %xmm2
vaesenc %xmm11, %xmm2, %xmm2
vaesenc %xmm12, %xmm2, %xmm2
vaesenc %xmm13, %xmm2, %xmm2
vaesenclast %xmm14, %xmm2, %xmm2
vpxor (%r9), %xmm2, %xmm2
vpshufb %xmm0, %xmm2, %xmm3
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $1, %xmm3, %xmm15, %xmm4
vpclmulqdq $16, %xmm3, %xmm15, %xmm5
vmovdqu %xmm2, (%rdx)
vpclmulqdq $0, %xmm3, %xmm15, %xmm2
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $17, %xmm3, %xmm15, %xmm3
vpslldq $8, %xmm4, %xmm5
vpxor %xmm5, %xmm2, %xmm2
vpsrldq $8, %xmm4, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpclmulqdq $16, %xmm1, %xmm2, %xmm4
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm4, %xmm2
vpclmulqdq $16, %xmm1, %xmm2, %xmm4
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpxor %xmm2, %xmm4, %xmm4
leaq 16(%r9), %rsi
leaq 16(%rdx), %r14
addq $-16, %rbx
vpaddd .LCPI1_1(%rip), %xmm6, %xmm6
movq %r14, %rdx
movq %rsi, %r9
cmpq $15, %rbx
ja .LBB1_37
.LBB1_29:
vmovdqa %xmm6, (%rsp)
testq %rbx, %rbx
je .LBB1_40
vmovdqa %xmm4, 32(%rsp)
movq %r8, 48(%rsp)
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, 16(%rsp)
leaq 16(%rsp), %rax
movq memcpy@GOTPCREL(%rip), %rbp
movq %rdi, %r13
movq %rax, %rdi
movq %rbx, %rdx
callq *%rbp
vmovdqa (%rsp), %xmm0
vpshufb .LCPI1_2(%rip), %xmm0, %xmm0
vpxor (%r13), %xmm0, %xmm0
vaesenc 16(%r13), %xmm0, %xmm0
vaesenc 32(%r13), %xmm0, %xmm0
vaesenc 48(%r13), %xmm0, %xmm0
vaesenc 64(%r13), %xmm0, %xmm0
vaesenc 80(%r13), %xmm0, %xmm0
vaesenc 96(%r13), %xmm0, %xmm0
vaesenc 112(%r13), %xmm0, %xmm0
vaesenc 128(%r13), %xmm0, %xmm0
vaesenc 144(%r13), %xmm0, %xmm0
vaesenc 160(%r13), %xmm0, %xmm0
vaesenc 176(%r13), %xmm0, %xmm0
vaesenc 192(%r13), %xmm0, %xmm0
vaesenc 208(%r13), %xmm0, %xmm0
movq %r13, %r12
vaesenclast 224(%r13), %xmm0, %xmm0
vpxor 16(%rsp), %xmm0, %xmm0
vmovdqa %xmm0, (%rsp)
vmovdqa %xmm0, 16(%rsp)
leaq 16(%rsp), %rsi
movq %r14, %rdi
movq %rbx, %rdx
callq *%rbp
testq %r15, %r15
je .LBB1_31
vmovaps (%rsp), %xmm0
vmovaps %xmm0, 432(%rsp)
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, 16(%rsp)
leaq 16(%rsp), %rdi
leaq 432(%rsp), %rsi
movq %rbx, %rdx
callq *memcpy@GOTPCREL(%rip)
vmovdqa 16(%rsp), %xmm0
vpshufb .LCPI1_2(%rip), %xmm0, %xmm0
vpxor 32(%rsp), %xmm0, %xmm0
movq %r12, %rdi
vmovdqa 240(%r12), %xmm1
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
jmp .LBB1_39
.LBB1_15:
movq %r12, %rdi
vmovdqa 240(%r12), %xmm1
vpshufb .LCPI1_2(%rip), %xmm0, %xmm0
vpxor 32(%rsp), %xmm0, %xmm0
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpbroadcastq .LCPI1_13(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm1, %xmm4
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm3
vpxor %xmm2, %xmm0, %xmm0
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm4
movq %rbx, %r8
jmp .LBB1_40
.LBB1_31:
movq %r12, %rdi
vmovdqa 240(%r12), %xmm0
vmovdqa (%rsp), %xmm1
vpshufb .LCPI1_2(%rip), %xmm1, %xmm1
vpxor 32(%rsp), %xmm1, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm0, %xmm0
.LBB1_39:
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpbroadcastq .LCPI1_13(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm1, %xmm4
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm3
vpxor %xmm2, %xmm0, %xmm0
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm4
movq 48(%rsp), %r8
.LBB1_40:
vmovdqa 240(%rdi), %xmm0
vmovq %r8, %xmm1
vmovq %r15, %xmm2
vpunpcklqdq %xmm1, %xmm2, %xmm1
vpsllq $3, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpclmulqdq $17, %xmm1, %xmm0, %xmm0
vpxor %xmm3, %xmm4, %xmm1
vpslldq $8, %xmm1, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vpbroadcastq .LCPI1_13(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm2, %xmm4
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm4, %xmm2
vpclmulqdq $16, %xmm3, %xmm2, %xmm3
movq 536(%rsp), %rax
vpxor %xmm0, %xmm3, %xmm0
vmovdqa 144(%rsp), %xmm3
vpxor (%rdi), %xmm3, %xmm3
vaesenc 16(%rdi), %xmm3, %xmm3
vaesenc 32(%rdi), %xmm3, %xmm3
vaesenc 48(%rdi), %xmm3, %xmm3
vaesenc 64(%rdi), %xmm3, %xmm3
vaesenc 80(%rdi), %xmm3, %xmm3
vaesenc 96(%rdi), %xmm3, %xmm3
vaesenc 112(%rdi), %xmm3, %xmm3
vaesenc 128(%rdi), %xmm3, %xmm3
vaesenc 144(%rdi), %xmm3, %xmm3
vaesenc 160(%rdi), %xmm3, %xmm3
vaesenc 176(%rdi), %xmm3, %xmm3
vaesenc 192(%rdi), %xmm3, %xmm3
vaesenc 208(%rdi), %xmm3, %xmm3
vaesenclast 224(%rdi), %xmm3, %xmm3
vpshufb .LCPI1_2(%rip), %xmm0, %xmm0
vpshufb .LCPI1_10(%rip), %xmm1, %xmm1
vpshufb .LCPI1_11(%rip), %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm0
vmovdqu %xmm0, (%rax)
movl $1, %eax
.LBB1_41:
addq $456, %rsp
.cfi_def_cfa_offset 56
popq %rbx
.cfi_def_cfa_offset 48
popq %r12
.cfi_def_cfa_offset 40
popq %r13
.cfi_def_cfa_offset 32
popq %r14
.cfi_def_cfa_offset 24
popq %r15
.cfi_def_cfa_offset 16
popq %rbp
.cfi_def_cfa_offset 8
retq
.Lfunc_end1:
.size haberdashery_aes256gcm_haswell_encrypt, .Lfunc_end1-haberdashery_aes256gcm_haswell_encrypt
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI2_0:
.byte 15
.byte 128
.byte 128
.byte 128
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI2_1:
.long 1
.long 0
.long 0
.long 0
.LCPI2_2:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI2_3:
.zero 8
.quad -4467570830351532032
.LCPI2_4:
.long 2
.long 0
.long 0
.long 0
.LCPI2_5:
.long 3
.long 0
.long 0
.long 0
.LCPI2_6:
.long 4
.long 0
.long 0
.long 0
.LCPI2_7:
.long 5
.long 0
.long 0
.long 0
.LCPI2_8:
.long 6
.long 0
.long 0
.long 0
.LCPI2_9:
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.LCPI2_10:
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI2_11:
.quad -4467570830351532032
.section .rodata,"a",@progbits
.LCPI2_12:
.byte 5
.byte 0
.section .text.haberdashery_aes256gcm_haswell_decrypt,"ax",@progbits
.globl haberdashery_aes256gcm_haswell_decrypt
.p2align 4, 0x90
.type haberdashery_aes256gcm_haswell_decrypt,@function
haberdashery_aes256gcm_haswell_decrypt:
.cfi_startproc
pushq %rbp
.cfi_def_cfa_offset 16
pushq %r15
.cfi_def_cfa_offset 24
pushq %r14
.cfi_def_cfa_offset 32
pushq %r13
.cfi_def_cfa_offset 40
pushq %r12
.cfi_def_cfa_offset 48
pushq %rbx
.cfi_def_cfa_offset 56
subq $488, %rsp
.cfi_def_cfa_offset 544
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
.cfi_offset %rbp, -16
movq 544(%rsp), %r15
xorl %eax, %eax
cmpq 576(%rsp), %r15
jne .LBB2_39
cmpq $16, 560(%rsp)
setne %r10b
movabsq $2305843009213693950, %r11
cmpq %r11, %r8
seta %r11b
movq %r15, %rbx
shrq $5, %rbx
cmpq $2147483647, %rbx
setae %bl
orb %r10b, %r11b
orb %bl, %r11b
cmpq $12, %rdx
setne %dl
orb %r11b, %dl
jne .LBB2_39
movq 552(%rsp), %r13
vmovd (%rsi), %xmm0
vpinsrd $1, 4(%rsi), %xmm0, %xmm0
vpinsrd $2, 8(%rsi), %xmm0, %xmm0
movl $16777216, %edx
vpinsrd $3, %edx, %xmm0, %xmm0
vmovdqa %xmm0, 144(%rsp)
vpxor %xmm7, %xmm7, %xmm7
testq %r8, %r8
je .LBB2_3
cmpq $96, %r8
jb .LBB2_6
vmovdqu (%rcx), %xmm1
vmovdqu 16(%rcx), %xmm2
vmovdqu 32(%rcx), %xmm3
vmovdqu 48(%rcx), %xmm4
vmovdqu 64(%rcx), %xmm5
vmovdqu 80(%rcx), %xmm9
vmovdqa .LCPI2_2(%rip), %xmm0
vpshufb %xmm0, %xmm1, %xmm13
vpshufb %xmm0, %xmm2, %xmm8
vpshufb %xmm0, %xmm3, %xmm6
vpshufb %xmm0, %xmm9, %xmm3
vmovdqa 240(%rdi), %xmm1
vpclmulqdq $0, %xmm3, %xmm1, %xmm9
vpshufb %xmm0, %xmm4, %xmm10
vpclmulqdq $1, %xmm3, %xmm1, %xmm11
vpshufb %xmm0, %xmm5, %xmm5
vpclmulqdq $16, %xmm3, %xmm1, %xmm12
vmovdqa 256(%rdi), %xmm2
vpclmulqdq $17, %xmm3, %xmm1, %xmm7
vmovdqa 272(%rdi), %xmm4
vpclmulqdq $0, %xmm5, %xmm2, %xmm14
vmovdqa 288(%rdi), %xmm3
vpclmulqdq $1, %xmm5, %xmm2, %xmm15
vpxor %xmm11, %xmm12, %xmm11
vpclmulqdq $16, %xmm5, %xmm2, %xmm12
vpxor %xmm9, %xmm14, %xmm9
vpclmulqdq $17, %xmm5, %xmm2, %xmm5
vpxor %xmm12, %xmm15, %xmm12
vpclmulqdq $0, %xmm10, %xmm4, %xmm14
vpxor %xmm12, %xmm11, %xmm11
vpclmulqdq $1, %xmm10, %xmm4, %xmm12
vpxor %xmm7, %xmm5, %xmm7
vpclmulqdq $16, %xmm10, %xmm4, %xmm15
vmovdqa 304(%rdi), %xmm5
vpclmulqdq $17, %xmm10, %xmm4, %xmm10
vpxor %xmm15, %xmm12, %xmm12
vpclmulqdq $0, %xmm6, %xmm3, %xmm15
vpxor %xmm15, %xmm14, %xmm14
vpclmulqdq $1, %xmm6, %xmm3, %xmm15
vpxor %xmm14, %xmm9, %xmm9
vpclmulqdq $16, %xmm6, %xmm3, %xmm14
vpxor %xmm15, %xmm12, %xmm12
vpclmulqdq $17, %xmm6, %xmm3, %xmm6
vpxor %xmm12, %xmm11, %xmm11
vpclmulqdq $0, %xmm8, %xmm5, %xmm12
vpxor %xmm6, %xmm10, %xmm6
vpclmulqdq $1, %xmm8, %xmm5, %xmm10
vpxor %xmm6, %xmm7, %xmm6
vmovdqa %xmm6, (%rsp)
vpclmulqdq $16, %xmm8, %xmm5, %xmm15
vmovdqa 320(%rdi), %xmm6
vpclmulqdq $0, %xmm13, %xmm6, %xmm7
vpxor %xmm10, %xmm14, %xmm10
vpxor %xmm15, %xmm10, %xmm10
vpxor %xmm7, %xmm12, %xmm7
vpxor %xmm7, %xmm9, %xmm9
vpclmulqdq $1, %xmm13, %xmm6, %xmm7
vpxor %xmm7, %xmm10, %xmm7
vpxor %xmm7, %xmm11, %xmm7
vpclmulqdq $16, %xmm13, %xmm6, %xmm10
vpxor %xmm7, %xmm10, %xmm10
vpclmulqdq $17, %xmm8, %xmm5, %xmm7
vpclmulqdq $17, %xmm13, %xmm6, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpxor (%rsp), %xmm7, %xmm8
addq $96, %rcx
leaq -96(%r8), %rsi
cmpq $96, %rsi
jb .LBB2_16
vmovdqa %xmm6, (%rsp)
vmovdqa %xmm5, %xmm6
vmovdqa %xmm3, %xmm5
vmovdqa %xmm2, %xmm3
.p2align 4, 0x90
.LBB2_15:
vmovdqu (%rcx), %xmm12
vmovdqu 32(%rcx), %xmm13
vmovdqu 48(%rcx), %xmm11
vmovdqu 64(%rcx), %xmm14
vmovdqu 80(%rcx), %xmm15
vpslldq $8, %xmm10, %xmm7
vpxor %xmm7, %xmm9, %xmm7
vpsrldq $8, %xmm10, %xmm9
vpbroadcastq .LCPI2_11(%rip), %xmm2
vpclmulqdq $16, %xmm2, %xmm7, %xmm10
vpshufd $78, %xmm7, %xmm7
vpxor %xmm7, %xmm10, %xmm7
vpclmulqdq $16, %xmm2, %xmm7, %xmm10
vpxor %xmm9, %xmm8, %xmm8
vpshufd $78, %xmm7, %xmm7
vpshufb %xmm0, %xmm12, %xmm9
vpxor %xmm9, %xmm8, %xmm8
vpshufb %xmm0, %xmm15, %xmm12
vpclmulqdq $0, %xmm12, %xmm1, %xmm15
vpxor %xmm7, %xmm8, %xmm7
vmovdqa %xmm1, %xmm2
vmovdqa %xmm0, %xmm1
vpclmulqdq $1, %xmm12, %xmm2, %xmm0
vpxor %xmm7, %xmm10, %xmm8
vpclmulqdq $16, %xmm12, %xmm2, %xmm7
vpshufb %xmm1, %xmm13, %xmm9
vpclmulqdq $17, %xmm12, %xmm2, %xmm10
vpshufb %xmm1, %xmm14, %xmm12
vpclmulqdq $0, %xmm12, %xmm3, %xmm13
vpxor %xmm0, %xmm7, %xmm0
vpclmulqdq $1, %xmm12, %xmm3, %xmm7
vpxor %xmm15, %xmm13, %xmm13
vpclmulqdq $16, %xmm12, %xmm3, %xmm14
vpshufb %xmm1, %xmm11, %xmm11
vpclmulqdq $17, %xmm12, %xmm3, %xmm12
vpxor %xmm7, %xmm14, %xmm7
vpclmulqdq $0, %xmm11, %xmm4, %xmm14
vpxor %xmm7, %xmm0, %xmm0
vpclmulqdq $1, %xmm11, %xmm4, %xmm7
vpxor %xmm10, %xmm12, %xmm10
vpclmulqdq $16, %xmm11, %xmm4, %xmm12
vpxor %xmm7, %xmm12, %xmm7
vpclmulqdq $0, %xmm9, %xmm5, %xmm12
vpxor %xmm12, %xmm14, %xmm12
vpclmulqdq $17, %xmm11, %xmm4, %xmm11
vpxor %xmm12, %xmm13, %xmm12
vpclmulqdq $1, %xmm9, %xmm5, %xmm13
vpxor %xmm7, %xmm13, %xmm7
vpclmulqdq $17, %xmm9, %xmm5, %xmm13
vpxor %xmm7, %xmm0, %xmm0
vpxor %xmm13, %xmm11, %xmm7
vmovdqu 16(%rcx), %xmm11
vpshufb %xmm1, %xmm11, %xmm11
vpclmulqdq $16, %xmm9, %xmm5, %xmm9
vpxor %xmm7, %xmm10, %xmm7
vpclmulqdq $0, %xmm11, %xmm6, %xmm10
vpxor %xmm10, %xmm12, %xmm10
vpclmulqdq $1, %xmm11, %xmm6, %xmm12
vpxor %xmm12, %xmm9, %xmm9
vpclmulqdq $16, %xmm11, %xmm6, %xmm12
vpxor %xmm12, %xmm9, %xmm9
vpxor %xmm0, %xmm9, %xmm0
vpclmulqdq $17, %xmm11, %xmm6, %xmm9
vpxor %xmm7, %xmm9, %xmm7
vmovdqa (%rsp), %xmm11
vpclmulqdq $0, %xmm8, %xmm11, %xmm9
vpxor %xmm9, %xmm10, %xmm9
vpclmulqdq $1, %xmm8, %xmm11, %xmm10
vpxor %xmm0, %xmm10, %xmm0
vpclmulqdq $16, %xmm8, %xmm11, %xmm10
vpxor %xmm0, %xmm10, %xmm10
vpclmulqdq $17, %xmm8, %xmm11, %xmm0
vpxor %xmm0, %xmm7, %xmm8
vmovdqa %xmm1, %xmm0
vmovdqa %xmm2, %xmm1
addq $96, %rcx
addq $-96, %rsi
cmpq $95, %rsi
ja .LBB2_15
.LBB2_16:
vpslldq $8, %xmm10, %xmm0
vpxor %xmm0, %xmm9, %xmm0
vpbroadcastq .LCPI2_11(%rip), %xmm1
vpclmulqdq $16, %xmm1, %xmm0, %xmm2
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vpsrldq $8, %xmm10, %xmm2
vpclmulqdq $16, %xmm1, %xmm0, %xmm1
vpxor %xmm2, %xmm8, %xmm2
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vpxor %xmm1, %xmm0, %xmm7
cmpq $16, %rsi
jae .LBB2_17
jmp .LBB2_8
.LBB2_6:
movq %r8, %rsi
cmpq $16, %rsi
jb .LBB2_8
.LBB2_17:
vmovdqa 240(%rdi), %xmm0
leaq -16(%rsi), %rdx
testb $16, %dl
je .LBB2_18
cmpq $16, %rdx
jae .LBB2_20
.LBB2_9:
testq %rdx, %rdx
je .LBB2_3
.LBB2_10:
vmovdqa %xmm7, 16(%rsp)
movq %r9, %r14
movq %r8, %rbx
movq %rdi, %r12
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, 32(%rsp)
leaq 32(%rsp), %rdi
movq %rcx, %rsi
callq *memcpy@GOTPCREL(%rip)
vmovdqa 32(%rsp), %xmm0
testq %r15, %r15
je .LBB2_11
movabsq $-68719476704, %rax
leaq (%r15,%rax), %rcx
incq %rax
cmpq %rax, %rcx
movl $0, %eax
vmovdqa 16(%rsp), %xmm2
jb .LBB2_39
movq %r12, %rdi
movq %rbx, %r8
movq %r14, %r9
vmovdqa 240(%r12), %xmm1
vpshufb .LCPI2_2(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpbroadcastq .LCPI2_11(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm1, %xmm4
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm3
vpxor %xmm2, %xmm0, %xmm0
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm7
jmp .LBB2_24
.LBB2_18:
vmovdqu (%rcx), %xmm1
vpshufb .LCPI2_2(%rip), %xmm1, %xmm1
vpxor %xmm1, %xmm7, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpslldq $8, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpbroadcastq .LCPI2_11(%rip), %xmm4
vpclmulqdq $16, %xmm4, %xmm2, %xmm5
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm5, %xmm2
addq $16, %rcx
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
vpsrldq $8, %xmm3, %xmm3
vpclmulqdq $16, %xmm4, %xmm2, %xmm4
vpxor %xmm3, %xmm1, %xmm1
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm7
movq %rdx, %rsi
cmpq $16, %rdx
jb .LBB2_9
.LBB2_20:
vmovdqa .LCPI2_2(%rip), %xmm1
vpbroadcastq .LCPI2_11(%rip), %xmm2
.p2align 4, 0x90
.LBB2_21:
vmovdqu (%rcx), %xmm3
vpshufb %xmm1, %xmm3, %xmm3
vpxor %xmm3, %xmm7, %xmm3
vpclmulqdq $0, %xmm3, %xmm0, %xmm4
vpclmulqdq $1, %xmm3, %xmm0, %xmm5
vmovdqu 16(%rcx), %xmm6
vpclmulqdq $16, %xmm3, %xmm0, %xmm7
vpxor %xmm5, %xmm7, %xmm5
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
vpslldq $8, %xmm5, %xmm7
vpxor %xmm7, %xmm4, %xmm4
vpsrldq $8, %xmm5, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpclmulqdq $16, %xmm2, %xmm4, %xmm5
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $16, %xmm2, %xmm4, %xmm5
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpshufb %xmm1, %xmm6, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpxor %xmm3, %xmm5, %xmm3
vpclmulqdq $0, %xmm3, %xmm0, %xmm4
addq $32, %rcx
vpclmulqdq $1, %xmm3, %xmm0, %xmm5
addq $-32, %rsi
vpclmulqdq $16, %xmm3, %xmm0, %xmm6
vpxor %xmm5, %xmm6, %xmm5
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
vpslldq $8, %xmm5, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpsrldq $8, %xmm5, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpclmulqdq $16, %xmm2, %xmm4, %xmm5
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $16, %xmm2, %xmm4, %xmm5
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpxor %xmm3, %xmm5, %xmm7
cmpq $15, %rsi
ja .LBB2_21
.LBB2_8:
movq %rsi, %rdx
testq %rdx, %rdx
jne .LBB2_10
.LBB2_3:
testq %r15, %r15
je .LBB2_12
movabsq $-68719476704, %rcx
leaq (%r15,%rcx), %rdx
incq %rcx
cmpq %rcx, %rdx
jb .LBB2_39
.LBB2_24:
vmovdqa 144(%rsp), %xmm0
vpshufb .LCPI2_0(%rip), %xmm0, %xmm0
movq 568(%rsp), %rax
vpaddd .LCPI2_1(%rip), %xmm0, %xmm8
cmpq $96, %r15
jb .LBB2_25
vmovaps (%rdi), %xmm0
vmovaps %xmm0, 160(%rsp)
vmovaps 16(%rdi), %xmm0
vmovaps %xmm0, 64(%rsp)
vmovaps 32(%rdi), %xmm0
vmovaps %xmm0, 48(%rsp)
vmovaps 48(%rdi), %xmm0
vmovaps %xmm0, 448(%rsp)
vmovaps 64(%rdi), %xmm0
vmovaps %xmm0, 432(%rsp)
vmovaps 80(%rdi), %xmm0
vmovaps %xmm0, 416(%rsp)
vmovaps 96(%rdi), %xmm0
vmovaps %xmm0, 400(%rsp)
vmovaps 112(%rdi), %xmm0
vmovaps %xmm0, 384(%rsp)
vmovaps 128(%rdi), %xmm0
vmovaps %xmm0, 368(%rsp)
vmovaps 144(%rdi), %xmm0
vmovaps %xmm0, 352(%rsp)
vmovaps 160(%rdi), %xmm0
vmovaps %xmm0, 336(%rsp)
vmovaps 176(%rdi), %xmm0
vmovaps %xmm0, 320(%rsp)
vmovaps 192(%rdi), %xmm0
vmovaps %xmm0, 304(%rsp)
vmovaps 208(%rdi), %xmm0
vmovaps %xmm0, 288(%rsp)
vmovaps 224(%rdi), %xmm0
vmovaps %xmm0, 272(%rsp)
vmovaps 240(%rdi), %xmm0
vmovaps %xmm0, 256(%rsp)
movq %r15, %rbx
vmovaps 256(%rdi), %xmm0
vmovaps %xmm0, 240(%rsp)
vmovaps 272(%rdi), %xmm0
vmovaps %xmm0, 224(%rsp)
vmovaps 288(%rdi), %xmm0
vmovaps %xmm0, 208(%rsp)
vmovaps 304(%rdi), %xmm0
vmovaps %xmm0, 192(%rsp)
vmovdqa 320(%rdi), %xmm0
vmovdqa %xmm0, 176(%rsp)
.p2align 4, 0x90
.LBB2_29:
vmovdqa %xmm8, (%rsp)
vmovdqu (%r9), %xmm9
vmovdqa %xmm9, 112(%rsp)
vmovups 32(%r9), %xmm0
vmovaps %xmm0, 16(%rsp)
vmovdqu 48(%r9), %xmm12
vmovdqa %xmm12, 80(%rsp)
vmovdqu 64(%r9), %xmm10
vmovdqu 80(%r9), %xmm11
vmovdqa %xmm11, 128(%rsp)
vmovdqa .LCPI2_2(%rip), %xmm6
vpshufb %xmm6, %xmm8, %xmm0
vpaddd .LCPI2_1(%rip), %xmm8, %xmm1
vpshufb %xmm6, %xmm1, %xmm1
vpaddd .LCPI2_4(%rip), %xmm8, %xmm2
vpshufb %xmm6, %xmm2, %xmm2
vpaddd .LCPI2_5(%rip), %xmm8, %xmm3
vpshufb %xmm6, %xmm3, %xmm3
vpaddd .LCPI2_6(%rip), %xmm8, %xmm4
vpshufb %xmm6, %xmm4, %xmm4
vpmovsxbq .LCPI2_12(%rip), %xmm5
vpaddd (%rsp), %xmm5, %xmm5
vpshufb %xmm6, %xmm5, %xmm5
vmovdqa %xmm7, %xmm8
vpshufb %xmm6, %xmm9, %xmm7
vpxor %xmm7, %xmm8, %xmm7
vmovdqa %xmm7, 96(%rsp)
vpshufb %xmm6, %xmm11, %xmm9
vmovdqa 160(%rsp), %xmm7
vpxor %xmm0, %xmm7, %xmm15
vpxor %xmm1, %xmm7, %xmm1
vpxor %xmm2, %xmm7, %xmm2
vpxor %xmm3, %xmm7, %xmm3
vpxor %xmm4, %xmm7, %xmm4
vpxor %xmm5, %xmm7, %xmm14
vmovaps 64(%rsp), %xmm0
#APP
vaesenc %xmm0, %xmm15, %xmm15
vaesenc %xmm0, %xmm1, %xmm1
vaesenc %xmm0, %xmm2, %xmm2
vaesenc %xmm0, %xmm3, %xmm3
vaesenc %xmm0, %xmm4, %xmm4
vaesenc %xmm0, %xmm14, %xmm14
#NO_APP
vpxor %xmm7, %xmm7, %xmm7
vpxor %xmm8, %xmm8, %xmm8
vxorps %xmm0, %xmm0, %xmm0
vmovaps 48(%rsp), %xmm11
vmovaps 256(%rsp), %xmm13
#APP
vaesenc %xmm11, %xmm15, %xmm15
vaesenc %xmm11, %xmm1, %xmm1
vaesenc %xmm11, %xmm2, %xmm2
vaesenc %xmm11, %xmm3, %xmm3
vaesenc %xmm11, %xmm4, %xmm4
vaesenc %xmm11, %xmm14, %xmm14
vpclmulqdq $16, %xmm13, %xmm9, %xmm5
vpxor %xmm5, %xmm8, %xmm8
vpclmulqdq $0, %xmm13, %xmm9, %xmm5
vpxor %xmm5, %xmm7, %xmm7
vpclmulqdq $17, %xmm13, %xmm9, %xmm5
vpxor %xmm5, %xmm0, %xmm0
vpclmulqdq $1, %xmm13, %xmm9, %xmm5
vpxor %xmm5, %xmm8, %xmm8
#NO_APP
vpshufb %xmm6, %xmm10, %xmm5
vmovaps 448(%rsp), %xmm9
#APP
vaesenc %xmm9, %xmm15, %xmm15
vaesenc %xmm9, %xmm1, %xmm1
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm9, %xmm4, %xmm4
vaesenc %xmm9, %xmm14, %xmm14
#NO_APP
vmovaps 432(%rsp), %xmm11
vmovaps 240(%rsp), %xmm13
#APP
vaesenc %xmm11, %xmm15, %xmm15
vaesenc %xmm11, %xmm1, %xmm1
vaesenc %xmm11, %xmm2, %xmm2
vaesenc %xmm11, %xmm3, %xmm3
vaesenc %xmm11, %xmm4, %xmm4
vaesenc %xmm11, %xmm14, %xmm14
vpclmulqdq $16, %xmm13, %xmm5, %xmm9
vpxor %xmm9, %xmm8, %xmm8
vpclmulqdq $0, %xmm13, %xmm5, %xmm9
vpxor %xmm7, %xmm9, %xmm7
vpclmulqdq $17, %xmm13, %xmm5, %xmm9
vpxor %xmm0, %xmm9, %xmm0
vpclmulqdq $1, %xmm13, %xmm5, %xmm9
vpxor %xmm9, %xmm8, %xmm8
#NO_APP
vpshufb %xmm6, %xmm12, %xmm5
vmovaps 416(%rsp), %xmm9
#APP
vaesenc %xmm9, %xmm15, %xmm15
vaesenc %xmm9, %xmm1, %xmm1
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm9, %xmm4, %xmm4
vaesenc %xmm9, %xmm14, %xmm14
#NO_APP
vmovaps 400(%rsp), %xmm11
vmovaps 224(%rsp), %xmm13
#APP
vaesenc %xmm11, %xmm15, %xmm15
vaesenc %xmm11, %xmm1, %xmm1
vaesenc %xmm11, %xmm2, %xmm2
vaesenc %xmm11, %xmm3, %xmm3
vaesenc %xmm11, %xmm4, %xmm4
vaesenc %xmm11, %xmm14, %xmm14
vpclmulqdq $16, %xmm13, %xmm5, %xmm9
vpxor %xmm9, %xmm8, %xmm8
vpclmulqdq $0, %xmm13, %xmm5, %xmm9
vpxor %xmm7, %xmm9, %xmm7
vpclmulqdq $17, %xmm13, %xmm5, %xmm9
vpxor %xmm0, %xmm9, %xmm0
vpclmulqdq $1, %xmm13, %xmm5, %xmm9
vpxor %xmm9, %xmm8, %xmm8
#NO_APP
vmovdqa 16(%rsp), %xmm5
vpshufb %xmm6, %xmm5, %xmm5
vmovaps 384(%rsp), %xmm9
#APP
vaesenc %xmm9, %xmm15, %xmm15
vaesenc %xmm9, %xmm1, %xmm1
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm9, %xmm4, %xmm4
vaesenc %xmm9, %xmm14, %xmm14
#NO_APP
vmovaps 368(%rsp), %xmm11
vmovaps 208(%rsp), %xmm13
#APP
vaesenc %xmm11, %xmm15, %xmm15
vaesenc %xmm11, %xmm1, %xmm1
vaesenc %xmm11, %xmm2, %xmm2
vaesenc %xmm11, %xmm3, %xmm3
vaesenc %xmm11, %xmm4, %xmm4
vaesenc %xmm11, %xmm14, %xmm14
vpclmulqdq $16, %xmm13, %xmm5, %xmm9
vpxor %xmm9, %xmm8, %xmm8
vpclmulqdq $0, %xmm13, %xmm5, %xmm9
vpxor %xmm7, %xmm9, %xmm7
vpclmulqdq $17, %xmm13, %xmm5, %xmm9
vpxor %xmm0, %xmm9, %xmm0
vpclmulqdq $1, %xmm13, %xmm5, %xmm9
vpxor %xmm9, %xmm8, %xmm8
#NO_APP
vmovdqu 16(%r9), %xmm5
vmovaps 352(%rsp), %xmm9
#APP
vaesenc %xmm9, %xmm15, %xmm15
vaesenc %xmm9, %xmm1, %xmm1
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm9, %xmm4, %xmm4
vaesenc %xmm9, %xmm14, %xmm14
#NO_APP
vpshufb %xmm6, %xmm5, %xmm9
vmovdqa 336(%rsp), %xmm13
vmovaps 192(%rsp), %xmm12
#APP
vaesenc %xmm13, %xmm15, %xmm15
vaesenc %xmm13, %xmm1, %xmm1
vaesenc %xmm13, %xmm2, %xmm2
vaesenc %xmm13, %xmm3, %xmm3
vaesenc %xmm13, %xmm4, %xmm4
vaesenc %xmm13, %xmm14, %xmm14
vpclmulqdq $16, %xmm12, %xmm9, %xmm11
vpxor %xmm11, %xmm8, %xmm8
vpclmulqdq $0, %xmm12, %xmm9, %xmm11
vpxor %xmm7, %xmm11, %xmm7
vpclmulqdq $17, %xmm12, %xmm9, %xmm11
vpxor %xmm0, %xmm11, %xmm0
vpclmulqdq $1, %xmm12, %xmm9, %xmm11
vpxor %xmm11, %xmm8, %xmm8
#NO_APP
vmovaps 320(%rsp), %xmm9
#APP
vaesenc %xmm9, %xmm15, %xmm15
vaesenc %xmm9, %xmm1, %xmm1
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm9, %xmm4, %xmm4
vaesenc %xmm9, %xmm14, %xmm14
#NO_APP
vmovdqa 304(%rsp), %xmm11
vmovdqa 176(%rsp), %xmm12
vmovdqa 96(%rsp), %xmm6
#APP
vaesenc %xmm11, %xmm15, %xmm15
vaesenc %xmm11, %xmm1, %xmm1
vaesenc %xmm11, %xmm2, %xmm2
vaesenc %xmm11, %xmm3, %xmm3
vaesenc %xmm11, %xmm4, %xmm4
vaesenc %xmm11, %xmm14, %xmm14
vpclmulqdq $16, %xmm12, %xmm6, %xmm9
vpxor %xmm9, %xmm8, %xmm8
vpclmulqdq $0, %xmm12, %xmm6, %xmm9
vpxor %xmm7, %xmm9, %xmm7
vpclmulqdq $17, %xmm12, %xmm6, %xmm9
vpxor %xmm0, %xmm9, %xmm0
vpclmulqdq $1, %xmm12, %xmm6, %xmm9
vpxor %xmm9, %xmm8, %xmm8
#NO_APP
vpxor %xmm11, %xmm11, %xmm11
vpunpcklqdq %xmm8, %xmm11, %xmm9
vpxor %xmm7, %xmm9, %xmm7
vpunpckhqdq %xmm11, %xmm8, %xmm8
vpxor %xmm0, %xmm8, %xmm0
vpbroadcastq .LCPI2_11(%rip), %xmm9
vpclmulqdq $16, %xmm9, %xmm7, %xmm8
vpshufd $78, %xmm7, %xmm7
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $16, %xmm9, %xmm7, %xmm8
vpshufd $78, %xmm7, %xmm7
vpxor %xmm7, %xmm0, %xmm0
vpxor %xmm0, %xmm8, %xmm7
vmovaps 288(%rsp), %xmm0
#APP
vaesenc %xmm0, %xmm15, %xmm15
vaesenc %xmm0, %xmm1, %xmm1
vaesenc %xmm0, %xmm2, %xmm2
vaesenc %xmm0, %xmm3, %xmm3
vaesenc %xmm0, %xmm4, %xmm4
vaesenc %xmm0, %xmm14, %xmm14
#NO_APP
vmovaps 272(%rsp), %xmm0
#APP
vaesenclast %xmm0, %xmm15, %xmm15
vaesenclast %xmm0, %xmm1, %xmm1
vaesenclast %xmm0, %xmm2, %xmm2
vaesenclast %xmm0, %xmm3, %xmm3
vaesenclast %xmm0, %xmm4, %xmm4
vaesenclast %xmm0, %xmm14, %xmm14
#NO_APP
vpxor 112(%rsp), %xmm15, %xmm0
vpxor %xmm5, %xmm1, %xmm1
vmovdqa (%rsp), %xmm8
vpxor 16(%rsp), %xmm2, %xmm2
vpxor 80(%rsp), %xmm3, %xmm3
vpxor %xmm4, %xmm10, %xmm4
vmovdqu %xmm0, (%rax)
vmovdqu %xmm1, 16(%rax)
vmovdqu %xmm2, 32(%rax)
vmovdqu %xmm3, 48(%rax)
vmovdqu %xmm4, 64(%rax)
vpxor 128(%rsp), %xmm14, %xmm0
vmovdqu %xmm0, 80(%rax)
addq $96, %r9
addq $96, %rax
addq $-96, %rbx
vpaddd .LCPI2_8(%rip), %xmm8, %xmm8
cmpq $95, %rbx
ja .LBB2_29
cmpq $16, %rbx
jb .LBB2_27
.LBB2_30:
vmovdqa 240(%rdi), %xmm0
vmovaps (%rdi), %xmm1
vmovaps %xmm1, (%rsp)
vmovaps 16(%rdi), %xmm1
vmovaps %xmm1, 16(%rsp)
vmovaps 32(%rdi), %xmm1
vmovaps %xmm1, 128(%rsp)
vmovaps 48(%rdi), %xmm1
vmovaps %xmm1, 112(%rsp)
vmovaps 64(%rdi), %xmm1
vmovaps %xmm1, 96(%rsp)
vmovaps 80(%rdi), %xmm1
vmovaps %xmm1, 80(%rsp)
vmovaps 96(%rdi), %xmm1
vmovaps %xmm1, 64(%rsp)
vmovaps 112(%rdi), %xmm1
vmovaps %xmm1, 48(%rsp)
vmovdqa 128(%rdi), %xmm9
vmovdqa 144(%rdi), %xmm10
vmovdqa 160(%rdi), %xmm11
vmovdqa 176(%rdi), %xmm12
vmovdqa 192(%rdi), %xmm13
vmovdqa 208(%rdi), %xmm14
movq %rdi, %r13
vmovdqa 224(%rdi), %xmm15
vmovdqa .LCPI2_2(%rip), %xmm1
vpbroadcastq .LCPI2_11(%rip), %xmm2
.p2align 4, 0x90
.LBB2_31:
vmovdqu (%r9), %xmm3
vpshufb %xmm1, %xmm3, %xmm4
vpxor %xmm4, %xmm7, %xmm4
vpclmulqdq $0, %xmm4, %xmm0, %xmm5
vpclmulqdq $1, %xmm4, %xmm0, %xmm6
vpclmulqdq $16, %xmm4, %xmm0, %xmm7
vpxor %xmm6, %xmm7, %xmm6
vpslldq $8, %xmm6, %xmm7
vpxor %xmm7, %xmm5, %xmm5
vpclmulqdq $17, %xmm4, %xmm0, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpclmulqdq $16, %xmm2, %xmm5, %xmm6
vpshufd $78, %xmm5, %xmm5
vpxor %xmm5, %xmm6, %xmm5
vpshufd $78, %xmm5, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpclmulqdq $16, %xmm2, %xmm5, %xmm5
vpxor %xmm4, %xmm5, %xmm7
vpshufb %xmm1, %xmm8, %xmm4
vpxor (%rsp), %xmm4, %xmm4
vaesenc 16(%rsp), %xmm4, %xmm4
vaesenc 128(%rsp), %xmm4, %xmm4
vaesenc 112(%rsp), %xmm4, %xmm4
vaesenc 96(%rsp), %xmm4, %xmm4
vaesenc 80(%rsp), %xmm4, %xmm4
vaesenc 64(%rsp), %xmm4, %xmm4
vaesenc 48(%rsp), %xmm4, %xmm4
vaesenc %xmm9, %xmm4, %xmm4
vaesenc %xmm10, %xmm4, %xmm4
vaesenc %xmm11, %xmm4, %xmm4
vaesenc %xmm12, %xmm4, %xmm4
vaesenc %xmm13, %xmm4, %xmm4
vaesenc %xmm14, %xmm4, %xmm4
vaesenclast %xmm15, %xmm4, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vmovdqu %xmm3, (%rax)
leaq 16(%rax), %r14
addq $-16, %rbx
addq $16, %r9
vpaddd .LCPI2_1(%rip), %xmm8, %xmm8
movq %r14, %rax
cmpq $15, %rbx
ja .LBB2_31
jmp .LBB2_32
.LBB2_25:
movq %r15, %rbx
cmpq $16, %rbx
jae .LBB2_30
.LBB2_27:
movq %rdi, %r13
movq %rax, %r14
.LBB2_32:
vmovdqa %xmm7, 16(%rsp)
movq %r8, %rbp
vpxor %xmm1, %xmm1, %xmm1
vpxor %xmm2, %xmm2, %xmm2
testq %rbx, %rbx
je .LBB2_34
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, 32(%rsp)
leaq 32(%rsp), %rdi
movq memcpy@GOTPCREL(%rip), %r12
movq %r9, %rsi
movq %rbx, %rdx
vmovdqa %xmm8, (%rsp)
callq *%r12
vmovdqa (%rsp), %xmm0
vpshufb .LCPI2_2(%rip), %xmm0, %xmm0
vpxor (%r13), %xmm0, %xmm0
vaesenc 16(%r13), %xmm0, %xmm0
vaesenc 32(%r13), %xmm0, %xmm0
vaesenc 48(%r13), %xmm0, %xmm0
vaesenc 64(%r13), %xmm0, %xmm0
vaesenc 80(%r13), %xmm0, %xmm0
vaesenc 96(%r13), %xmm0, %xmm0
vaesenc 112(%r13), %xmm0, %xmm0
vaesenc 128(%r13), %xmm0, %xmm0
vaesenc 144(%r13), %xmm0, %xmm0
vaesenc 160(%r13), %xmm0, %xmm0
vaesenc 176(%r13), %xmm0, %xmm0
vaesenc 192(%r13), %xmm0, %xmm0
vaesenc 208(%r13), %xmm0, %xmm0
vaesenclast 224(%r13), %xmm0, %xmm0
vmovdqa 32(%rsp), %xmm1
vmovdqa %xmm1, (%rsp)
vpxor %xmm1, %xmm0, %xmm0
vmovdqa %xmm0, 32(%rsp)
leaq 32(%rsp), %rsi
movq %r14, %rdi
movq %rbx, %rdx
callq *%r12
vmovdqa (%rsp), %xmm2
vpxor %xmm1, %xmm1, %xmm1
.LBB2_34:
movq 552(%rsp), %rax
vmovdqu (%rax), %xmm0
vmovdqa %xmm0, (%rsp)
vmovdqa %xmm2, 464(%rsp)
vmovdqa %xmm1, 32(%rsp)
leaq 32(%rsp), %rdi
leaq 464(%rsp), %rsi
movq %rbx, %rdx
callq *memcpy@GOTPCREL(%rip)
testq %rbx, %rbx
je .LBB2_35
vmovdqa 32(%rsp), %xmm0
vpshufb .LCPI2_2(%rip), %xmm0, %xmm0
vpxor 16(%rsp), %xmm0, %xmm0
movq %r13, %rdi
vmovdqa 240(%r13), %xmm1
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpbroadcastq .LCPI2_11(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm1, %xmm4
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm3
vpxor %xmm2, %xmm0, %xmm0
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm7
movq %rbp, %r8
jmp .LBB2_37
.LBB2_11:
movq %r12, %rdi
vmovdqa 240(%r12), %xmm1
vpshufb .LCPI2_2(%rip), %xmm0, %xmm0
vpxor 16(%rsp), %xmm0, %xmm0
vpclmulqdq $0, %xmm0, %xmm1, %xmm2
vpclmulqdq $1, %xmm0, %xmm1, %xmm3
vpclmulqdq $16, %xmm0, %xmm1, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpbroadcastq .LCPI2_11(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm1, %xmm4
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm3
vpxor %xmm2, %xmm0, %xmm0
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm7
movq %rbx, %r8
.LBB2_12:
vmovdqu (%r13), %xmm5
jmp .LBB2_38
.LBB2_35:
movq %r13, %rdi
movq %rbp, %r8
vmovdqa 16(%rsp), %xmm7
.LBB2_37:
vmovdqa (%rsp), %xmm5
.LBB2_38:
vmovdqa 240(%rdi), %xmm0
vmovq %r8, %xmm1
vmovq %r15, %xmm2
vpunpcklqdq %xmm1, %xmm2, %xmm1
vpsllq $3, %xmm1, %xmm1
vpxor %xmm1, %xmm7, %xmm1
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpclmulqdq $1, %xmm1, %xmm0, %xmm3
vpclmulqdq $16, %xmm1, %xmm0, %xmm4
vpclmulqdq $17, %xmm1, %xmm0, %xmm0
vpxor %xmm3, %xmm4, %xmm1
vpslldq $8, %xmm1, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vpbroadcastq .LCPI2_11(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm2, %xmm4
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm4, %xmm2
vpclmulqdq $16, %xmm3, %xmm2, %xmm3
vpxor %xmm0, %xmm3, %xmm0
vmovdqa 144(%rsp), %xmm3
vpxor (%rdi), %xmm3, %xmm3
vaesenc 16(%rdi), %xmm3, %xmm3
vaesenc 32(%rdi), %xmm3, %xmm3
vaesenc 48(%rdi), %xmm3, %xmm3
vaesenc 64(%rdi), %xmm3, %xmm3
vaesenc 80(%rdi), %xmm3, %xmm3
vaesenc 96(%rdi), %xmm3, %xmm3
vaesenc 112(%rdi), %xmm3, %xmm3
vaesenc 128(%rdi), %xmm3, %xmm3
vaesenc 144(%rdi), %xmm3, %xmm3
vaesenc 160(%rdi), %xmm3, %xmm3
vaesenc 176(%rdi), %xmm3, %xmm3
vaesenc 192(%rdi), %xmm3, %xmm3
vaesenc 208(%rdi), %xmm3, %xmm3
vaesenclast 224(%rdi), %xmm3, %xmm3
vpshufb .LCPI2_2(%rip), %xmm0, %xmm0
vpshufb .LCPI2_9(%rip), %xmm1, %xmm1
vpshufb .LCPI2_10(%rip), %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpxor %xmm1, %xmm5, %xmm1
vpxor %xmm0, %xmm1, %xmm0
vpxor %xmm3, %xmm0, %xmm0
xorl %eax, %eax
vptest %xmm0, %xmm0
sete %al
.LBB2_39:
addq $488, %rsp
.cfi_def_cfa_offset 56
popq %rbx
.cfi_def_cfa_offset 48
popq %r12
.cfi_def_cfa_offset 40
popq %r13
.cfi_def_cfa_offset 32
popq %r14
.cfi_def_cfa_offset 24
popq %r15
.cfi_def_cfa_offset 16
popq %rbp
.cfi_def_cfa_offset 8
retq
.Lfunc_end2:
.size haberdashery_aes256gcm_haswell_decrypt, .Lfunc_end2-haberdashery_aes256gcm_haswell_decrypt
.cfi_endproc
.section .text.haberdashery_aes256gcm_haswell_is_supported,"ax",@progbits
.globl haberdashery_aes256gcm_haswell_is_supported
.p2align 4, 0x90
.type haberdashery_aes256gcm_haswell_is_supported,@function
haberdashery_aes256gcm_haswell_is_supported:
.cfi_startproc
movl $1, %eax
xorl %ecx, %ecx
#APP
movq %rbx, %rsi
cpuid
xchgq %rbx, %rsi
#NO_APP
movl %ecx, %esi
movl %edx, %edi
notl %edi
notl %esi
movl $7, %eax
xorl %ecx, %ecx
#APP
movq %rbx, %r8
cpuid
xchgq %rbx, %r8
#NO_APP
andl $1993871875, %esi
andl $125829120, %edi
orl %esi, %edi
notl %r8d
andl $297, %r8d
xorl %eax, %eax
orl %edi, %r8d
sete %al
retq
.Lfunc_end3:
.size haberdashery_aes256gcm_haswell_is_supported, .Lfunc_end3-haberdashery_aes256gcm_haswell_is_supported
.cfi_endproc
.ident "rustc version 1.86.0-nightly (9cd60bd2c 2025-02-15)"
.section ".note.GNU-stack","",@progbits
|
ts-phantomnk90/haberdashery
| 84,179
|
asm/aes256gcmdndkv2_broadwell.s
|
# @generated
# https://github.com/facebookincubator/haberdashery/
.text
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI0_0:
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.LCPI0_1:
.quad 4294967297
.quad 4294967297
.LCPI0_2:
.quad 8589934594
.quad 8589934594
.LCPI0_3:
.quad 17179869188
.quad 17179869188
.LCPI0_4:
.quad 34359738376
.quad 34359738376
.LCPI0_5:
.quad 68719476752
.quad 68719476752
.LCPI0_6:
.quad 137438953504
.quad 137438953504
.LCPI0_7:
.quad 274877907008
.quad 274877907008
.section .rodata.cst4,"aM",@progbits,4
.p2align 2, 0x0
.LCPI0_8:
.byte 13
.byte 14
.byte 15
.byte 12
.section .text.haberdashery_aes256gcmdndkv2_broadwell_init,"ax",@progbits
.globl haberdashery_aes256gcmdndkv2_broadwell_init
.p2align 4, 0x90
.type haberdashery_aes256gcmdndkv2_broadwell_init,@function
haberdashery_aes256gcmdndkv2_broadwell_init:
.cfi_startproc
cmpq $32, %rdx
jne .LBB0_2
vmovdqu (%rsi), %xmm0
vmovdqu 16(%rsi), %xmm1
vpslldq $4, %xmm0, %xmm2
vpslldq $8, %xmm0, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vpslldq $12, %xmm0, %xmm4
vpbroadcastd .LCPI0_8(%rip), %xmm3
vpshufb %xmm3, %xmm1, %xmm5
vaesenclast .LCPI0_1(%rip), %xmm5, %xmm5
vpxor %xmm4, %xmm2, %xmm2
vpxor %xmm0, %xmm2, %xmm2
vpxor %xmm2, %xmm5, %xmm2
vpslldq $4, %xmm1, %xmm4
vpslldq $8, %xmm1, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpslldq $12, %xmm1, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpshufd $255, %xmm2, %xmm5
vpxor %xmm6, %xmm6, %xmm6
vaesenclast %xmm6, %xmm5, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpslldq $4, %xmm2, %xmm5
vpslldq $8, %xmm2, %xmm7
vpxor %xmm7, %xmm5, %xmm5
vpslldq $12, %xmm2, %xmm7
vpshufb %xmm3, %xmm4, %xmm8
vaesenclast .LCPI0_2(%rip), %xmm8, %xmm8
vpxor %xmm7, %xmm5, %xmm5
vpxor %xmm2, %xmm5, %xmm5
vpxor %xmm5, %xmm8, %xmm5
vpslldq $4, %xmm4, %xmm7
vpslldq $8, %xmm4, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpslldq $12, %xmm4, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpshufd $255, %xmm5, %xmm8
vaesenclast %xmm6, %xmm8, %xmm8
vpxor %xmm4, %xmm7, %xmm7
vpxor %xmm7, %xmm8, %xmm7
vpslldq $4, %xmm5, %xmm8
vpslldq $8, %xmm5, %xmm9
vpxor %xmm9, %xmm8, %xmm8
vpslldq $12, %xmm5, %xmm9
vpxor %xmm9, %xmm8, %xmm8
vpshufb %xmm3, %xmm7, %xmm9
vaesenclast .LCPI0_3(%rip), %xmm9, %xmm9
vpxor %xmm5, %xmm8, %xmm8
vpxor %xmm8, %xmm9, %xmm8
vpslldq $4, %xmm7, %xmm9
vpslldq $8, %xmm7, %xmm10
vpxor %xmm10, %xmm9, %xmm9
vpslldq $12, %xmm7, %xmm10
vpxor %xmm10, %xmm9, %xmm9
vpshufd $255, %xmm8, %xmm10
vaesenclast %xmm6, %xmm10, %xmm10
vpxor %xmm7, %xmm9, %xmm9
vpxor %xmm9, %xmm10, %xmm9
vpslldq $4, %xmm8, %xmm10
vpslldq $8, %xmm8, %xmm11
vpxor %xmm11, %xmm10, %xmm10
vpslldq $12, %xmm8, %xmm11
vpxor %xmm11, %xmm10, %xmm10
vpshufb %xmm3, %xmm9, %xmm11
vaesenclast .LCPI0_4(%rip), %xmm11, %xmm11
vpxor %xmm8, %xmm10, %xmm10
vpxor %xmm10, %xmm11, %xmm10
vpslldq $4, %xmm9, %xmm11
vpslldq $8, %xmm9, %xmm12
vpxor %xmm12, %xmm11, %xmm11
vpslldq $12, %xmm9, %xmm12
vpxor %xmm12, %xmm11, %xmm11
vpshufd $255, %xmm10, %xmm12
vaesenclast %xmm6, %xmm12, %xmm12
vpxor %xmm9, %xmm11, %xmm11
vpxor %xmm11, %xmm12, %xmm11
vpslldq $4, %xmm10, %xmm12
vpslldq $8, %xmm10, %xmm13
vpxor %xmm13, %xmm12, %xmm12
vpslldq $12, %xmm10, %xmm13
vpxor %xmm13, %xmm12, %xmm12
vpshufb %xmm3, %xmm11, %xmm13
vaesenclast .LCPI0_5(%rip), %xmm13, %xmm13
vpxor %xmm10, %xmm12, %xmm12
vpxor %xmm12, %xmm13, %xmm12
vpslldq $4, %xmm11, %xmm13
vpslldq $8, %xmm11, %xmm14
vpxor %xmm14, %xmm13, %xmm13
vpslldq $12, %xmm11, %xmm14
vpxor %xmm14, %xmm13, %xmm13
vpshufd $255, %xmm12, %xmm14
vaesenclast %xmm6, %xmm14, %xmm14
vpxor %xmm11, %xmm13, %xmm13
vpxor %xmm13, %xmm14, %xmm13
vpslldq $4, %xmm12, %xmm14
vpslldq $8, %xmm12, %xmm15
vpxor %xmm15, %xmm14, %xmm14
vpshufb %xmm3, %xmm13, %xmm15
vaesenclast .LCPI0_6(%rip), %xmm15, %xmm15
vpslldq $12, %xmm12, %xmm3
vpxor %xmm3, %xmm14, %xmm3
vpxor %xmm3, %xmm12, %xmm3
vpxor %xmm3, %xmm15, %xmm3
vpslldq $4, %xmm13, %xmm14
vpslldq $8, %xmm13, %xmm15
vpxor %xmm15, %xmm14, %xmm14
vpslldq $12, %xmm13, %xmm15
vpxor %xmm15, %xmm14, %xmm14
vpshufd $255, %xmm3, %xmm15
vaesenclast %xmm6, %xmm15, %xmm6
vpxor %xmm13, %xmm14, %xmm14
vpxor %xmm6, %xmm14, %xmm6
vpslldq $4, %xmm3, %xmm14
vpslldq $8, %xmm3, %xmm15
vpxor %xmm15, %xmm14, %xmm14
vpslldq $12, %xmm3, %xmm15
vpxor %xmm15, %xmm14, %xmm14
vpshufb .LCPI0_0(%rip), %xmm6, %xmm15
vaesenclast .LCPI0_7(%rip), %xmm15, %xmm15
vpxor %xmm3, %xmm14, %xmm14
vpxor %xmm14, %xmm15, %xmm14
vmovdqa %xmm0, (%rdi)
vmovdqa %xmm1, 16(%rdi)
vmovdqa %xmm2, 32(%rdi)
vmovdqa %xmm4, 48(%rdi)
vmovdqa %xmm5, 64(%rdi)
vmovdqa %xmm7, 80(%rdi)
vmovdqa %xmm8, 96(%rdi)
vmovdqa %xmm9, 112(%rdi)
vmovdqa %xmm10, 128(%rdi)
vmovdqa %xmm11, 144(%rdi)
vmovdqa %xmm12, 160(%rdi)
vmovdqa %xmm13, 176(%rdi)
vmovdqa %xmm3, 192(%rdi)
vmovdqa %xmm6, 208(%rdi)
vmovdqa %xmm14, 224(%rdi)
.LBB0_2:
xorl %eax, %eax
cmpq $32, %rdx
sete %al
retq
.Lfunc_end0:
.size haberdashery_aes256gcmdndkv2_broadwell_init, .Lfunc_end0-haberdashery_aes256gcmdndkv2_broadwell_init
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI1_0:
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 0
.LCPI1_1:
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 96
.LCPI1_2:
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 97
.LCPI1_3:
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 98
.LCPI1_4:
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.LCPI1_5:
.quad 4294967297
.quad 4294967297
.LCPI1_12:
.quad 274877907008
.quad 274877907008
.LCPI1_13:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI1_14:
.zero 8
.quad -4467570830351532032
.LCPI1_15:
.byte 15
.byte 128
.byte 128
.byte 128
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI1_16:
.long 1
.long 0
.long 0
.long 0
.LCPI1_17:
.long 2
.long 0
.long 0
.long 0
.LCPI1_18:
.long 3
.long 0
.long 0
.long 0
.LCPI1_19:
.long 4
.long 0
.long 0
.long 0
.LCPI1_20:
.long 5
.long 0
.long 0
.long 0
.LCPI1_21:
.long 6
.long 0
.long 0
.long 0
.LCPI1_22:
.long 7
.long 0
.long 0
.long 0
.LCPI1_23:
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.LCPI1_24:
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.LCPI1_25:
.zero 16
.section .rodata.cst4,"aM",@progbits,4
.p2align 2, 0x0
.LCPI1_6:
.long 0x00000002
.LCPI1_7:
.long 0x0c0f0e0d
.LCPI1_8:
.long 0x00000004
.LCPI1_9:
.long 0x00000008
.LCPI1_10:
.long 0x00000010
.LCPI1_11:
.long 0x00000020
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI1_26:
.quad -4467570830351532032
.section .text.haberdashery_aes256gcmdndkv2_broadwell_encrypt,"ax",@progbits
.globl haberdashery_aes256gcmdndkv2_broadwell_encrypt
.p2align 4, 0x90
.type haberdashery_aes256gcmdndkv2_broadwell_encrypt,@function
haberdashery_aes256gcmdndkv2_broadwell_encrypt:
.cfi_startproc
pushq %r15
.cfi_def_cfa_offset 16
pushq %r14
.cfi_def_cfa_offset 24
pushq %r13
.cfi_def_cfa_offset 32
pushq %r12
.cfi_def_cfa_offset 40
pushq %rbx
.cfi_def_cfa_offset 48
subq $448, %rsp
.cfi_def_cfa_offset 496
.cfi_offset %rbx, -48
.cfi_offset %r12, -40
.cfi_offset %r13, -32
.cfi_offset %r14, -24
.cfi_offset %r15, -16
movq 496(%rsp), %r15
xorl %eax, %eax
cmpq 512(%rsp), %r15
jne .LBB1_50
movq %r15, %r10
shrq $5, %r10
cmpq $2147483646, %r10
ja .LBB1_50
movabsq $2305843009213693950, %r10
cmpq %r10, %r8
ja .LBB1_50
cmpq $24, %rdx
jne .LBB1_50
cmpq $16, 528(%rsp)
jne .LBB1_50
vmovdqu (%rsi), %xmm0
vpextrb $15, %xmm0, %edx
vpand .LCPI1_0(%rip), %xmm0, %xmm0
vpxor (%rdi), %xmm0, %xmm12
vpxor .LCPI1_1(%rip), %xmm12, %xmm3
vmovdqa 16(%rdi), %xmm13
vmovdqa 32(%rdi), %xmm0
vmovdqa 48(%rdi), %xmm1
vmovdqa 64(%rdi), %xmm2
vaesenc %xmm13, %xmm3, %xmm3
vaesenc %xmm0, %xmm3, %xmm3
vaesenc %xmm1, %xmm3, %xmm3
vaesenc %xmm2, %xmm3, %xmm4
vmovdqa 80(%rdi), %xmm3
vaesenc %xmm3, %xmm4, %xmm5
vmovdqa 96(%rdi), %xmm4
vaesenc %xmm4, %xmm5, %xmm6
vmovdqa 112(%rdi), %xmm5
vaesenc %xmm5, %xmm6, %xmm7
vmovdqa 128(%rdi), %xmm6
vaesenc %xmm6, %xmm7, %xmm8
vmovdqa 144(%rdi), %xmm7
vaesenc %xmm7, %xmm8, %xmm9
vmovdqa 160(%rdi), %xmm8
vaesenc %xmm8, %xmm9, %xmm10
vmovdqa 176(%rdi), %xmm9
vaesenc %xmm9, %xmm10, %xmm11
vmovdqa 192(%rdi), %xmm10
vaesenc %xmm10, %xmm11, %xmm14
vmovdqa 208(%rdi), %xmm11
vaesenc %xmm11, %xmm14, %xmm14
vpxor .LCPI1_2(%rip), %xmm12, %xmm15
vpxor .LCPI1_3(%rip), %xmm12, %xmm12
vaesenc %xmm13, %xmm15, %xmm15
vaesenc %xmm13, %xmm12, %xmm12
vmovdqa 224(%rdi), %xmm13
vaesenclast %xmm13, %xmm14, %xmm14
vaesenc %xmm0, %xmm15, %xmm15
vaesenc %xmm1, %xmm15, %xmm15
vaesenc %xmm2, %xmm15, %xmm15
vaesenc %xmm3, %xmm15, %xmm15
vaesenc %xmm4, %xmm15, %xmm15
vaesenc %xmm5, %xmm15, %xmm15
vaesenc %xmm6, %xmm15, %xmm15
vaesenc %xmm7, %xmm15, %xmm15
vaesenc %xmm8, %xmm15, %xmm15
vaesenc %xmm9, %xmm15, %xmm15
vaesenc %xmm10, %xmm15, %xmm15
vaesenc %xmm11, %xmm15, %xmm15
vaesenclast %xmm13, %xmm15, %xmm15
vaesenc %xmm0, %xmm12, %xmm0
vaesenc %xmm1, %xmm0, %xmm0
vaesenc %xmm2, %xmm0, %xmm0
vaesenc %xmm3, %xmm0, %xmm0
vaesenc %xmm4, %xmm0, %xmm0
vaesenc %xmm5, %xmm0, %xmm0
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm7, %xmm0, %xmm0
vaesenc %xmm8, %xmm0, %xmm0
vaesenc %xmm9, %xmm0, %xmm0
vaesenc %xmm10, %xmm0, %xmm0
vaesenc %xmm11, %xmm0, %xmm0
vaesenclast %xmm13, %xmm0, %xmm0
vpxor %xmm14, %xmm15, %xmm4
vpxor %xmm0, %xmm14, %xmm5
vpslldq $4, %xmm4, %xmm0
vpslldq $8, %xmm4, %xmm1
vpxor %xmm1, %xmm0, %xmm1
vpslldq $12, %xmm4, %xmm2
vpbroadcastd .LCPI1_7(%rip), %xmm0
vpshufb %xmm0, %xmm5, %xmm3
vaesenclast .LCPI1_5(%rip), %xmm3, %xmm3
vpxor %xmm2, %xmm1, %xmm1
vpxor %xmm4, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm6
vmovdqa %xmm4, 64(%rsp)
vaesenc %xmm5, %xmm4, %xmm1
vpslldq $4, %xmm5, %xmm2
vpslldq $8, %xmm5, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vpslldq $12, %xmm5, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vpshufd $255, %xmm6, %xmm3
vpxor %xmm10, %xmm10, %xmm10
vaesenclast %xmm10, %xmm3, %xmm3
vmovdqa %xmm5, 32(%rsp)
vpxor %xmm5, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm7
vbroadcastss .LCPI1_6(%rip), %xmm3
vbroadcastss .LCPI1_7(%rip), %xmm2
vmovdqa %xmm6, 288(%rsp)
#APP
vaesenc %xmm6, %xmm1, %xmm1
vpslldq $4, %xmm6, %xmm4
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpslldq $12, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpxor %xmm6, %xmm4, %xmm4
vpshufb %xmm2, %xmm7, %xmm8
vaesenclast %xmm3, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
#NO_APP
vmovdqa %xmm7, 256(%rsp)
#APP
vaesenc %xmm7, %xmm1, %xmm1
vpslldq $4, %xmm7, %xmm3
vpslldq $8, %xmm7, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpslldq $12, %xmm7, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpxor %xmm7, %xmm3, %xmm3
vpshufd $255, %xmm8, %xmm5
vaesenclast %xmm10, %xmm5, %xmm5
vpxor %xmm3, %xmm5, %xmm5
#NO_APP
vmovaps %xmm5, %xmm7
vbroadcastss .LCPI1_8(%rip), %xmm3
vmovaps %xmm8, 192(%rsp)
#APP
vaesenc %xmm8, %xmm1, %xmm1
vpslldq $4, %xmm8, %xmm4
vpslldq $8, %xmm8, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpslldq $12, %xmm8, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpxor %xmm4, %xmm8, %xmm4
vpshufb %xmm2, %xmm7, %xmm12
vaesenclast %xmm3, %xmm12, %xmm12
vpxor %xmm4, %xmm12, %xmm12
#NO_APP
vmovaps %xmm7, 240(%rsp)
#APP
vaesenc %xmm7, %xmm1, %xmm1
vpslldq $4, %xmm7, %xmm3
vpslldq $8, %xmm7, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpslldq $12, %xmm7, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpxor %xmm7, %xmm3, %xmm3
vpshufd $255, %xmm12, %xmm6
vaesenclast %xmm10, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
#NO_APP
vbroadcastss .LCPI1_9(%rip), %xmm3
#APP
vaesenc %xmm12, %xmm1, %xmm1
vpslldq $4, %xmm12, %xmm4
vpslldq $8, %xmm12, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpslldq $12, %xmm12, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpxor %xmm4, %xmm12, %xmm4
vpshufb %xmm2, %xmm6, %xmm8
vaesenclast %xmm3, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
#NO_APP
#APP
vaesenc %xmm6, %xmm1, %xmm1
vpslldq $4, %xmm6, %xmm3
vpslldq $8, %xmm6, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpslldq $12, %xmm6, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpxor %xmm6, %xmm3, %xmm3
vpshufd $255, %xmm8, %xmm7
vaesenclast %xmm10, %xmm7, %xmm7
vpxor %xmm3, %xmm7, %xmm7
#NO_APP
vbroadcastss .LCPI1_10(%rip), %xmm3
#APP
vaesenc %xmm8, %xmm1, %xmm1
vpslldq $4, %xmm8, %xmm4
vpslldq $8, %xmm8, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpslldq $12, %xmm8, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpxor %xmm4, %xmm8, %xmm4
vpshufb %xmm2, %xmm7, %xmm14
vaesenclast %xmm3, %xmm14, %xmm14
vpxor %xmm4, %xmm14, %xmm14
#NO_APP
#APP
vaesenc %xmm7, %xmm1, %xmm1
vpslldq $4, %xmm7, %xmm3
vpslldq $8, %xmm7, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpslldq $12, %xmm7, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpxor %xmm7, %xmm3, %xmm3
vpshufd $255, %xmm14, %xmm15
vaesenclast %xmm10, %xmm15, %xmm15
vpxor %xmm3, %xmm15, %xmm15
#NO_APP
vbroadcastss .LCPI1_11(%rip), %xmm3
vmovaps %xmm14, 16(%rsp)
#APP
vaesenc %xmm14, %xmm1, %xmm1
vpslldq $4, %xmm14, %xmm4
vpslldq $8, %xmm14, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpslldq $12, %xmm14, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpxor %xmm4, %xmm14, %xmm4
vpshufb %xmm2, %xmm15, %xmm11
vaesenclast %xmm3, %xmm11, %xmm11
vpxor %xmm4, %xmm11, %xmm11
#NO_APP
vmovdqa %xmm11, %xmm9
vpslldq $4, %xmm15, %xmm2
vpunpcklqdq %xmm15, %xmm10, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vinsertps $55, %xmm15, %xmm0, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vpshufd $255, %xmm11, %xmm3
vaesenclast %xmm10, %xmm3, %xmm3
vpxor %xmm2, %xmm15, %xmm2
vpxor %xmm2, %xmm3, %xmm11
vpslldq $4, %xmm9, %xmm2
vpunpcklqdq %xmm9, %xmm10, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vinsertps $55, %xmm9, %xmm0, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vpshufb %xmm0, %xmm11, %xmm0
vaesenclast .LCPI1_12(%rip), %xmm0, %xmm0
vpxor %xmm2, %xmm9, %xmm2
vpxor %xmm2, %xmm0, %xmm2
vmovdqa %xmm15, %xmm5
vaesenc %xmm15, %xmm1, %xmm0
vaesenc %xmm9, %xmm0, %xmm0
vaesenc %xmm11, %xmm0, %xmm0
vmovdqa %xmm2, 272(%rsp)
vaesenclast %xmm2, %xmm0, %xmm0
vpshufb .LCPI1_13(%rip), %xmm0, %xmm0
vpsrlq $63, %xmm0, %xmm1
vpaddq %xmm0, %xmm0, %xmm0
vpshufd $78, %xmm1, %xmm2
vpor %xmm2, %xmm0, %xmm0
vpblendd $12, %xmm1, %xmm10, %xmm1
vpsllq $63, %xmm1, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpsllq $62, %xmm1, %xmm2
vpsllq $57, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpxor %xmm1, %xmm0, %xmm14
vpclmulqdq $0, %xmm14, %xmm14, %xmm0
vpbroadcastq .LCPI1_26(%rip), %xmm4
vpclmulqdq $16, %xmm4, %xmm0, %xmm1
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpclmulqdq $17, %xmm14, %xmm14, %xmm1
vpshufd $78, %xmm0, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $16, %xmm4, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm3
vmovdqa %xmm3, 352(%rsp)
vpclmulqdq $16, %xmm14, %xmm3, %xmm0
vpclmulqdq $1, %xmm14, %xmm3, %xmm1
vpxor %xmm0, %xmm1, %xmm0
vpclmulqdq $0, %xmm14, %xmm3, %xmm1
vpslldq $8, %xmm0, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $16, %xmm4, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm0, %xmm0
vpclmulqdq $17, %xmm14, %xmm3, %xmm2
vpxor %xmm0, %xmm2, %xmm0
vpshufd $78, %xmm1, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpclmulqdq $16, %xmm4, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm10
vpclmulqdq $0, %xmm10, %xmm10, %xmm0
vpclmulqdq $16, %xmm4, %xmm0, %xmm1
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpclmulqdq $17, %xmm10, %xmm10, %xmm1
vpshufd $78, %xmm0, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $16, %xmm4, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm15
vpclmulqdq $0, %xmm3, %xmm3, %xmm0
vpclmulqdq $16, %xmm4, %xmm0, %xmm1
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpclmulqdq $17, %xmm3, %xmm3, %xmm1
vpshufd $78, %xmm0, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $16, %xmm4, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm13
vpclmulqdq $16, %xmm14, %xmm13, %xmm0
vpclmulqdq $1, %xmm14, %xmm13, %xmm1
vpxor %xmm0, %xmm1, %xmm0
vpclmulqdq $0, %xmm14, %xmm13, %xmm1
vpslldq $8, %xmm0, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $16, %xmm4, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm0, %xmm0
vpclmulqdq $17, %xmm14, %xmm13, %xmm2
vpxor %xmm0, %xmm2, %xmm0
vpshufd $78, %xmm1, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpclmulqdq $16, %xmm4, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vmovdqa %xmm0, 336(%rsp)
movzbl 16(%rsi), %edi
movzbl 17(%rsi), %r10d
movzbl 23(%rsi), %r11d
shll $8, %edi
orl %edx, %edi
shll $16, %r10d
orl %edi, %r10d
movzbl 18(%rsi), %edx
shll $24, %edx
orl %r10d, %edx
vmovd %edx, %xmm0
vpinsrd $1, 19(%rsi), %xmm0, %xmm0
vpinsrd $2, %r11d, %xmm0, %xmm0
movl $16777216, %edx
vpinsrd $3, %edx, %xmm0, %xmm0
vmovdqa %xmm0, 384(%rsp)
testq %r8, %r8
vmovdqa %xmm12, 224(%rsp)
vmovaps %xmm6, 208(%rsp)
vmovdqa %xmm8, %xmm3
vmovdqa %xmm8, 160(%rsp)
vmovdqa %xmm7, %xmm2
vmovdqa %xmm7, 112(%rsp)
vmovdqa %xmm15, 368(%rsp)
vmovdqa %xmm5, 48(%rsp)
vmovaps %xmm9, 144(%rsp)
vmovdqa %xmm11, 128(%rsp)
je .LBB1_24
cmpq $96, %r8
jb .LBB1_7
vmovdqu 32(%rcx), %xmm1
vmovdqu 48(%rcx), %xmm2
vmovdqu 64(%rcx), %xmm3
vmovdqu 80(%rcx), %xmm4
vmovdqa .LCPI1_13(%rip), %xmm0
vpshufb %xmm0, %xmm1, %xmm5
vpshufb %xmm0, %xmm2, %xmm1
vpshufb %xmm0, %xmm3, %xmm2
vpshufb %xmm0, %xmm4, %xmm3
vpclmulqdq $0, %xmm3, %xmm14, %xmm4
vpclmulqdq $1, %xmm3, %xmm14, %xmm6
vpclmulqdq $16, %xmm3, %xmm14, %xmm7
vpxor %xmm6, %xmm7, %xmm6
vpclmulqdq $17, %xmm3, %xmm14, %xmm3
vmovdqa 352(%rsp), %xmm8
vpclmulqdq $0, %xmm2, %xmm8, %xmm7
vpxor %xmm4, %xmm7, %xmm4
vpclmulqdq $1, %xmm2, %xmm8, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm8, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpclmulqdq $17, %xmm2, %xmm8, %xmm2
vpxor %xmm3, %xmm2, %xmm2
vpclmulqdq $0, %xmm1, %xmm10, %xmm3
vpclmulqdq $1, %xmm1, %xmm10, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm13, %xmm7
vpxor %xmm7, %xmm4, %xmm4
vpclmulqdq $16, %xmm1, %xmm10, %xmm7
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $1, %xmm5, %xmm13, %xmm4
vpxor %xmm4, %xmm7, %xmm4
vpxor %xmm4, %xmm6, %xmm4
vpclmulqdq $16, %xmm5, %xmm13, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vmovdqu (%rcx), %xmm6
vmovdqa %xmm13, %xmm7
vpclmulqdq $17, %xmm5, %xmm13, %xmm5
vpxor %xmm5, %xmm2, %xmm2
vmovdqu 16(%rcx), %xmm5
vpshufb %xmm0, %xmm6, %xmm6
vpshufb %xmm0, %xmm5, %xmm5
vmovdqa %xmm10, %xmm12
vpclmulqdq $17, %xmm1, %xmm10, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vmovdqa 336(%rsp), %xmm8
vpclmulqdq $0, %xmm5, %xmm8, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $1, %xmm5, %xmm8, %xmm3
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $16, %xmm5, %xmm8, %xmm4
vpclmulqdq $17, %xmm5, %xmm8, %xmm5
vpxor %xmm5, %xmm1, %xmm5
vpclmulqdq $0, %xmm6, %xmm15, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpclmulqdq $1, %xmm6, %xmm15, %xmm2
vpxor %xmm2, %xmm4, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $16, %xmm6, %xmm15, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vpclmulqdq $17, %xmm6, %xmm15, %xmm3
vpxor %xmm3, %xmm5, %xmm3
addq $96, %rcx
leaq -96(%r8), %rsi
cmpq $96, %rsi
jb .LBB1_14
vmovdqa %xmm8, %xmm11
vmovdqa 368(%rsp), %xmm15
vmovdqa 352(%rsp), %xmm10
vmovdqa %xmm7, %xmm13
.p2align 4, 0x90
.LBB1_22:
vmovdqu (%rcx), %xmm4
vmovdqu 32(%rcx), %xmm5
vmovdqu 48(%rcx), %xmm6
vmovdqu 64(%rcx), %xmm7
vmovdqu 80(%rcx), %xmm8
vpslldq $8, %xmm2, %xmm9
vpxor %xmm1, %xmm9, %xmm1
vpsrldq $8, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpbroadcastq .LCPI1_26(%rip), %xmm9
vpclmulqdq $16, %xmm9, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm9, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpshufb %xmm0, %xmm4, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpxor %xmm1, %xmm2, %xmm1
vpxor %xmm3, %xmm1, %xmm3
vpshufb %xmm0, %xmm5, %xmm1
vpshufb %xmm0, %xmm6, %xmm2
vpshufb %xmm0, %xmm7, %xmm4
vpshufb %xmm0, %xmm8, %xmm5
vpclmulqdq $0, %xmm5, %xmm14, %xmm6
vpclmulqdq $1, %xmm5, %xmm14, %xmm7
vpclmulqdq $16, %xmm5, %xmm14, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $17, %xmm5, %xmm14, %xmm5
vpclmulqdq $0, %xmm4, %xmm10, %xmm8
vpxor %xmm6, %xmm8, %xmm6
vpclmulqdq $1, %xmm4, %xmm10, %xmm8
vpclmulqdq $16, %xmm4, %xmm10, %xmm9
vpxor %xmm9, %xmm8, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $17, %xmm4, %xmm10, %xmm4
vpxor %xmm5, %xmm4, %xmm4
vpclmulqdq $0, %xmm2, %xmm12, %xmm5
vpclmulqdq $1, %xmm2, %xmm12, %xmm8
vpclmulqdq $16, %xmm2, %xmm12, %xmm9
vpxor %xmm9, %xmm8, %xmm8
vpclmulqdq $0, %xmm1, %xmm13, %xmm9
vpxor %xmm5, %xmm9, %xmm5
vpxor %xmm5, %xmm6, %xmm5
vpclmulqdq $1, %xmm1, %xmm13, %xmm6
vpxor %xmm6, %xmm8, %xmm6
vpclmulqdq $17, %xmm2, %xmm12, %xmm2
vpxor %xmm6, %xmm7, %xmm6
vpclmulqdq $17, %xmm1, %xmm13, %xmm7
vpxor %xmm7, %xmm2, %xmm2
vmovdqu 16(%rcx), %xmm7
vpshufb %xmm0, %xmm7, %xmm7
vpclmulqdq $16, %xmm1, %xmm13, %xmm1
vpxor %xmm2, %xmm4, %xmm2
vpclmulqdq $0, %xmm7, %xmm11, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $1, %xmm7, %xmm11, %xmm5
vpxor %xmm5, %xmm1, %xmm1
vpclmulqdq $16, %xmm7, %xmm11, %xmm5
vpxor %xmm5, %xmm1, %xmm1
vpxor %xmm1, %xmm6, %xmm5
vpclmulqdq $17, %xmm7, %xmm11, %xmm1
vpxor %xmm1, %xmm2, %xmm6
vpclmulqdq $0, %xmm3, %xmm15, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $1, %xmm3, %xmm15, %xmm2
vpxor %xmm2, %xmm5, %xmm2
vpclmulqdq $16, %xmm3, %xmm15, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpclmulqdq $17, %xmm3, %xmm15, %xmm3
vpxor %xmm3, %xmm6, %xmm3
addq $96, %rcx
addq $-96, %rsi
cmpq $95, %rsi
ja .LBB1_22
jmp .LBB1_23
.LBB1_24:
vpxor %xmm0, %xmm0, %xmm0
testq %r15, %r15
vmovdqa 16(%rsp), %xmm4
vmovdqa 64(%rsp), %xmm15
vmovdqa 32(%rsp), %xmm6
vmovdqa %xmm2, %xmm7
vmovdqa %xmm3, %xmm8
vmovdqa %xmm5, %xmm12
vpbroadcastq .LCPI1_26(%rip), %xmm5
jne .LBB1_30
jmp .LBB1_49
.LBB1_7:
movq %r8, %rsi
vmovdqa 32(%rsp), %xmm6
vpxor %xmm0, %xmm0, %xmm0
cmpq $16, %rsi
vmovdqa 64(%rsp), %xmm15
jae .LBB1_15
.LBB1_9:
movq %rsi, %rdx
vmovdqa %xmm2, %xmm7
vmovdqa %xmm3, %xmm8
testq %rdx, %rdx
jne .LBB1_11
jmp .LBB1_25
.LBB1_14:
vmovdqa %xmm7, %xmm13
.LBB1_23:
vpslldq $8, %xmm2, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpsrldq $8, %xmm2, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpbroadcastq .LCPI1_26(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm0, %xmm2
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vpclmulqdq $16, %xmm3, %xmm0, %xmm2
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpxor %xmm2, %xmm0, %xmm0
vmovdqa 160(%rsp), %xmm3
vmovdqa 112(%rsp), %xmm2
vmovaps 144(%rsp), %xmm9
vmovdqa 48(%rsp), %xmm5
vmovdqa %xmm12, %xmm10
vmovdqa 32(%rsp), %xmm6
vmovdqa 128(%rsp), %xmm11
cmpq $16, %rsi
vmovdqa 64(%rsp), %xmm15
jb .LBB1_9
.LBB1_15:
leaq -16(%rsi), %rdx
testb $16, %dl
vmovdqa %xmm2, %xmm7
vmovdqa %xmm3, %xmm8
je .LBB1_16
cmpq $16, %rdx
jae .LBB1_18
.LBB1_10:
testq %rdx, %rdx
je .LBB1_25
.LBB1_11:
vmovdqa %xmm0, 176(%rsp)
vmovdqa %xmm13, 304(%rsp)
vmovdqa %xmm10, 320(%rsp)
vmovdqa %xmm14, 96(%rsp)
movq %r9, %r14
movq %r8, %rbx
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, 80(%rsp)
leaq 80(%rsp), %rdi
movq %rcx, %rsi
callq *memcpy@GOTPCREL(%rip)
vmovdqa 80(%rsp), %xmm2
testq %r15, %r15
je .LBB1_12
movabsq $-68719476704, %rax
leaq (%r15,%rax), %rcx
incq %rax
cmpq %rax, %rcx
movl $0, %eax
vmovdqa 64(%rsp), %xmm15
vmovdqa 32(%rsp), %xmm6
vmovdqa 160(%rsp), %xmm8
vmovdqa 16(%rsp), %xmm4
vmovdqa 48(%rsp), %xmm12
vmovaps 144(%rsp), %xmm9
vmovdqa 128(%rsp), %xmm11
vmovdqa 96(%rsp), %xmm14
vmovdqa 320(%rsp), %xmm10
vmovdqa 304(%rsp), %xmm13
vmovdqa 176(%rsp), %xmm0
jb .LBB1_50
movq %rbx, %r8
movq %r14, %r9
vmovdqa %xmm0, %xmm1
vpshufb .LCPI1_13(%rip), %xmm2, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpclmulqdq $0, %xmm0, %xmm14, %xmm1
vpclmulqdq $1, %xmm0, %xmm14, %xmm2
vpclmulqdq $16, %xmm0, %xmm14, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $17, %xmm0, %xmm14, %xmm0
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpsrldq $8, %xmm2, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI1_26(%rip), %xmm5
vpclmulqdq $16, %xmm5, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpclmulqdq $16, %xmm5, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
jmp .LBB1_30
.LBB1_16:
vmovdqa %xmm0, %xmm1
vmovdqu (%rcx), %xmm0
addq $16, %rcx
vpshufb .LCPI1_13(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpclmulqdq $0, %xmm0, %xmm14, %xmm1
vpclmulqdq $1, %xmm0, %xmm14, %xmm2
vpclmulqdq $16, %xmm0, %xmm14, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $17, %xmm0, %xmm14, %xmm0
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpsrldq $8, %xmm2, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI1_26(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
movq %rdx, %rsi
cmpq $16, %rdx
jb .LBB1_10
.LBB1_18:
vmovdqa %xmm0, %xmm3
vmovdqa .LCPI1_13(%rip), %xmm0
vpbroadcastq .LCPI1_26(%rip), %xmm12
.p2align 4, 0x90
.LBB1_19:
vmovdqu (%rcx), %xmm1
vmovdqu 16(%rcx), %xmm2
vpshufb %xmm0, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $0, %xmm1, %xmm14, %xmm3
vpclmulqdq $1, %xmm1, %xmm14, %xmm4
vpclmulqdq $16, %xmm1, %xmm14, %xmm5
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $17, %xmm1, %xmm14, %xmm1
vpslldq $8, %xmm4, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpsrldq $8, %xmm4, %xmm4
vpxor %xmm4, %xmm1, %xmm1
vpclmulqdq $16, %xmm12, %xmm3, %xmm4
vpshufd $78, %xmm3, %xmm3
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $16, %xmm12, %xmm3, %xmm4
vpshufd $78, %xmm3, %xmm3
vpxor %xmm3, %xmm1, %xmm1
addq $32, %rcx
addq $-32, %rsi
vpshufb %xmm0, %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $0, %xmm1, %xmm14, %xmm2
vpclmulqdq $1, %xmm1, %xmm14, %xmm3
vpclmulqdq $16, %xmm1, %xmm14, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm14, %xmm1
vpslldq $8, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpsrldq $8, %xmm3, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpclmulqdq $16, %xmm12, %xmm2, %xmm3
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $16, %xmm12, %xmm2, %xmm3
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm3
cmpq $15, %rsi
ja .LBB1_19
movq %rsi, %rdx
vmovdqa %xmm3, %xmm0
vmovdqa 48(%rsp), %xmm5
testq %rdx, %rdx
jne .LBB1_11
.LBB1_25:
vmovdqa %xmm5, %xmm12
testq %r15, %r15
vmovdqa 16(%rsp), %xmm4
je .LBB1_26
movabsq $-68719476704, %rcx
leaq (%r15,%rcx), %rdx
incq %rcx
cmpq %rcx, %rdx
jb .LBB1_50
.LBB1_30:
vmovdqa 384(%rsp), %xmm1
vpshufb .LCPI1_15(%rip), %xmm1, %xmm1
movq 504(%rsp), %rdx
vpaddd .LCPI1_16(%rip), %xmm1, %xmm2
cmpq $96, %r15
vmovdqa %xmm14, 96(%rsp)
jb .LBB1_31
vmovdqa %xmm0, 176(%rsp)
vmovdqa %xmm10, 320(%rsp)
leaq 96(%r9), %rax
leaq 96(%rdx), %rcx
vmovdqa .LCPI1_13(%rip), %xmm10
vpshufb %xmm10, %xmm2, %xmm2
vpaddd .LCPI1_17(%rip), %xmm1, %xmm3
vpshufb %xmm10, %xmm3, %xmm3
vpaddd .LCPI1_18(%rip), %xmm1, %xmm4
vpaddd .LCPI1_19(%rip), %xmm1, %xmm5
vpshufb %xmm10, %xmm4, %xmm4
vpshufb %xmm10, %xmm5, %xmm5
vmovdqa %xmm8, %xmm0
vmovdqa %xmm10, %xmm8
vmovdqa %xmm6, %xmm10
vpaddd .LCPI1_20(%rip), %xmm1, %xmm6
vpshufb %xmm8, %xmm6, %xmm6
vpaddd .LCPI1_21(%rip), %xmm1, %xmm7
vpshufb %xmm8, %xmm7, %xmm7
vpaddd .LCPI1_22(%rip), %xmm1, %xmm1
vmovdqa %xmm1, (%rsp)
vpxor %xmm2, %xmm15, %xmm1
vpxor %xmm3, %xmm15, %xmm2
vpxor %xmm4, %xmm15, %xmm4
vpxor %xmm5, %xmm15, %xmm5
vpxor %xmm6, %xmm15, %xmm6
vpxor %xmm7, %xmm15, %xmm7
#APP
vaesenc %xmm10, %xmm1, %xmm1
vaesenc %xmm10, %xmm2, %xmm2
vaesenc %xmm10, %xmm4, %xmm4
vaesenc %xmm10, %xmm5, %xmm5
vaesenc %xmm10, %xmm6, %xmm6
vaesenc %xmm10, %xmm7, %xmm7
#NO_APP
vmovaps 288(%rsp), %xmm3
#APP
vaesenc %xmm3, %xmm1, %xmm1
vaesenc %xmm3, %xmm2, %xmm2
vaesenc %xmm3, %xmm4, %xmm4
vaesenc %xmm3, %xmm5, %xmm5
vaesenc %xmm3, %xmm6, %xmm6
vaesenc %xmm3, %xmm7, %xmm7
#NO_APP
vmovaps 256(%rsp), %xmm3
#APP
vaesenc %xmm3, %xmm1, %xmm1
vaesenc %xmm3, %xmm2, %xmm2
vaesenc %xmm3, %xmm4, %xmm4
vaesenc %xmm3, %xmm5, %xmm5
vaesenc %xmm3, %xmm6, %xmm6
vaesenc %xmm3, %xmm7, %xmm7
#NO_APP
vmovaps 192(%rsp), %xmm3
#APP
vaesenc %xmm3, %xmm1, %xmm1
vaesenc %xmm3, %xmm2, %xmm2
vaesenc %xmm3, %xmm4, %xmm4
vaesenc %xmm3, %xmm5, %xmm5
vaesenc %xmm3, %xmm6, %xmm6
vaesenc %xmm3, %xmm7, %xmm7
#NO_APP
vmovaps 240(%rsp), %xmm3
#APP
vaesenc %xmm3, %xmm1, %xmm1
vaesenc %xmm3, %xmm2, %xmm2
vaesenc %xmm3, %xmm4, %xmm4
vaesenc %xmm3, %xmm5, %xmm5
vaesenc %xmm3, %xmm6, %xmm6
vaesenc %xmm3, %xmm7, %xmm7
#NO_APP
vmovaps 224(%rsp), %xmm3
#APP
vaesenc %xmm3, %xmm1, %xmm1
vaesenc %xmm3, %xmm2, %xmm2
vaesenc %xmm3, %xmm4, %xmm4
vaesenc %xmm3, %xmm5, %xmm5
vaesenc %xmm3, %xmm6, %xmm6
vaesenc %xmm3, %xmm7, %xmm7
#NO_APP
vmovaps 208(%rsp), %xmm3
#APP
vaesenc %xmm3, %xmm1, %xmm1
vaesenc %xmm3, %xmm2, %xmm2
vaesenc %xmm3, %xmm4, %xmm4
vaesenc %xmm3, %xmm5, %xmm5
vaesenc %xmm3, %xmm6, %xmm6
vaesenc %xmm3, %xmm7, %xmm7
#NO_APP
#APP
vaesenc %xmm0, %xmm1, %xmm1
vaesenc %xmm0, %xmm2, %xmm2
vaesenc %xmm0, %xmm4, %xmm4
vaesenc %xmm0, %xmm5, %xmm5
vaesenc %xmm0, %xmm6, %xmm6
vaesenc %xmm0, %xmm7, %xmm7
#NO_APP
vmovaps 112(%rsp), %xmm0
#APP
vaesenc %xmm0, %xmm1, %xmm1
vaesenc %xmm0, %xmm2, %xmm2
vaesenc %xmm0, %xmm4, %xmm4
vaesenc %xmm0, %xmm5, %xmm5
vaesenc %xmm0, %xmm6, %xmm6
vaesenc %xmm0, %xmm7, %xmm7
#NO_APP
vmovaps 16(%rsp), %xmm0
#APP
vaesenc %xmm0, %xmm1, %xmm1
vaesenc %xmm0, %xmm2, %xmm2
vaesenc %xmm0, %xmm4, %xmm4
vaesenc %xmm0, %xmm5, %xmm5
vaesenc %xmm0, %xmm6, %xmm6
vaesenc %xmm0, %xmm7, %xmm7
#NO_APP
#APP
vaesenc %xmm12, %xmm1, %xmm1
vaesenc %xmm12, %xmm2, %xmm2
vaesenc %xmm12, %xmm4, %xmm4
vaesenc %xmm12, %xmm5, %xmm5
vaesenc %xmm12, %xmm6, %xmm6
vaesenc %xmm12, %xmm7, %xmm7
#NO_APP
#APP
vaesenc %xmm9, %xmm1, %xmm1
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm9, %xmm4, %xmm4
vaesenc %xmm9, %xmm5, %xmm5
vaesenc %xmm9, %xmm6, %xmm6
vaesenc %xmm9, %xmm7, %xmm7
#NO_APP
#APP
vaesenc %xmm11, %xmm1, %xmm1
vaesenc %xmm11, %xmm2, %xmm2
vaesenc %xmm11, %xmm4, %xmm4
vaesenc %xmm11, %xmm5, %xmm5
vaesenc %xmm11, %xmm6, %xmm6
vaesenc %xmm11, %xmm7, %xmm7
#NO_APP
vmovaps 272(%rsp), %xmm0
#APP
vaesenclast %xmm0, %xmm1, %xmm1
vaesenclast %xmm0, %xmm2, %xmm2
vaesenclast %xmm0, %xmm4, %xmm4
vaesenclast %xmm0, %xmm5, %xmm5
vaesenclast %xmm0, %xmm6, %xmm6
vaesenclast %xmm0, %xmm7, %xmm7
#NO_APP
vpxor (%r9), %xmm1, %xmm3
vpxor 16(%r9), %xmm2, %xmm10
vpxor 32(%r9), %xmm4, %xmm4
vpxor 48(%r9), %xmm5, %xmm5
vpxor 64(%r9), %xmm6, %xmm11
vpxor 80(%r9), %xmm7, %xmm1
vmovdqu %xmm3, (%rdx)
vmovdqu %xmm10, 16(%rdx)
vmovdqu %xmm4, 32(%rdx)
vmovdqu %xmm5, 48(%rdx)
vmovdqu %xmm11, 64(%rdx)
leaq -96(%r15), %rbx
vmovdqu %xmm1, 80(%rdx)
cmpq $96, %rbx
jb .LBB1_37
vmovdqa %xmm13, 304(%rsp)
vmovdqa 176(%rsp), %xmm9
vmovdqa (%rsp), %xmm8
.p2align 4, 0x90
.LBB1_40:
vmovdqa %xmm5, 400(%rsp)
vmovdqa %xmm4, 416(%rsp)
vmovdqa %xmm10, 176(%rsp)
vmovdqa .LCPI1_13(%rip), %xmm10
vpshufb %xmm10, %xmm8, %xmm2
vpaddd .LCPI1_16(%rip), %xmm8, %xmm4
vpshufb %xmm10, %xmm4, %xmm4
vpaddd .LCPI1_17(%rip), %xmm8, %xmm5
vpshufb %xmm10, %xmm5, %xmm5
vpaddd .LCPI1_18(%rip), %xmm8, %xmm6
vpshufb %xmm10, %xmm6, %xmm6
vpaddd .LCPI1_19(%rip), %xmm8, %xmm12
vpshufb %xmm10, %xmm12, %xmm12
vpaddd .LCPI1_20(%rip), %xmm8, %xmm13
vpshufb %xmm10, %xmm13, %xmm7
vpshufb %xmm10, %xmm3, %xmm3
vpxor %xmm3, %xmm9, %xmm0
vmovdqa %xmm0, (%rsp)
vpshufb %xmm10, %xmm1, %xmm0
vmovdqa 64(%rsp), %xmm9
vpxor %xmm2, %xmm9, %xmm13
vpxor %xmm4, %xmm9, %xmm14
vpxor %xmm5, %xmm9, %xmm15
vpxor %xmm6, %xmm9, %xmm1
vpxor %xmm12, %xmm9, %xmm2
vpxor %xmm7, %xmm9, %xmm12
vmovaps 32(%rsp), %xmm4
#APP
vaesenc %xmm4, %xmm13, %xmm13
vaesenc %xmm4, %xmm14, %xmm14
vaesenc %xmm4, %xmm15, %xmm15
vaesenc %xmm4, %xmm1, %xmm1
vaesenc %xmm4, %xmm2, %xmm2
vaesenc %xmm4, %xmm12, %xmm12
#NO_APP
vxorps %xmm4, %xmm4, %xmm4
vpxor %xmm5, %xmm5, %xmm5
vpxor %xmm6, %xmm6, %xmm6
vmovaps 288(%rsp), %xmm9
vmovaps 96(%rsp), %xmm3
#APP
vaesenc %xmm9, %xmm13, %xmm13
vaesenc %xmm9, %xmm14, %xmm14
vaesenc %xmm9, %xmm15, %xmm15
vaesenc %xmm9, %xmm1, %xmm1
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm9, %xmm12, %xmm12
vpclmulqdq $16, %xmm3, %xmm0, %xmm7
vpxor %xmm7, %xmm5, %xmm5
vpclmulqdq $0, %xmm3, %xmm0, %xmm7
vpxor %xmm7, %xmm4, %xmm4
vpclmulqdq $17, %xmm3, %xmm0, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpclmulqdq $1, %xmm3, %xmm0, %xmm7
vpxor %xmm7, %xmm5, %xmm5
#NO_APP
vpshufb %xmm10, %xmm11, %xmm0
vmovaps 256(%rsp), %xmm7
#APP
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm14, %xmm14
vaesenc %xmm7, %xmm15, %xmm15
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm7, %xmm12, %xmm12
#NO_APP
vmovaps 192(%rsp), %xmm3
vmovaps 352(%rsp), %xmm9
#APP
vaesenc %xmm3, %xmm13, %xmm13
vaesenc %xmm3, %xmm14, %xmm14
vaesenc %xmm3, %xmm15, %xmm15
vaesenc %xmm3, %xmm1, %xmm1
vaesenc %xmm3, %xmm2, %xmm2
vaesenc %xmm3, %xmm12, %xmm12
vpclmulqdq $16, %xmm9, %xmm0, %xmm7
vpxor %xmm7, %xmm5, %xmm5
vpclmulqdq $0, %xmm9, %xmm0, %xmm7
vpxor %xmm7, %xmm4, %xmm4
vpclmulqdq $17, %xmm9, %xmm0, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpclmulqdq $1, %xmm9, %xmm0, %xmm7
vpxor %xmm7, %xmm5, %xmm5
#NO_APP
vmovdqa 400(%rsp), %xmm0
vpshufb %xmm10, %xmm0, %xmm0
vmovaps 240(%rsp), %xmm3
#APP
vaesenc %xmm3, %xmm13, %xmm13
vaesenc %xmm3, %xmm14, %xmm14
vaesenc %xmm3, %xmm15, %xmm15
vaesenc %xmm3, %xmm1, %xmm1
vaesenc %xmm3, %xmm2, %xmm2
vaesenc %xmm3, %xmm12, %xmm12
#NO_APP
vmovaps 224(%rsp), %xmm3
vmovaps 320(%rsp), %xmm9
#APP
vaesenc %xmm3, %xmm13, %xmm13
vaesenc %xmm3, %xmm14, %xmm14
vaesenc %xmm3, %xmm15, %xmm15
vaesenc %xmm3, %xmm1, %xmm1
vaesenc %xmm3, %xmm2, %xmm2
vaesenc %xmm3, %xmm12, %xmm12
vpclmulqdq $16, %xmm9, %xmm0, %xmm7
vpxor %xmm7, %xmm5, %xmm5
vpclmulqdq $0, %xmm9, %xmm0, %xmm7
vpxor %xmm7, %xmm4, %xmm4
vpclmulqdq $17, %xmm9, %xmm0, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpclmulqdq $1, %xmm9, %xmm0, %xmm7
vpxor %xmm7, %xmm5, %xmm5
#NO_APP
vmovdqa 416(%rsp), %xmm0
vpshufb %xmm10, %xmm0, %xmm0
vmovaps 208(%rsp), %xmm3
#APP
vaesenc %xmm3, %xmm13, %xmm13
vaesenc %xmm3, %xmm14, %xmm14
vaesenc %xmm3, %xmm15, %xmm15
vaesenc %xmm3, %xmm1, %xmm1
vaesenc %xmm3, %xmm2, %xmm2
vaesenc %xmm3, %xmm12, %xmm12
#NO_APP
vmovaps 304(%rsp), %xmm9
vmovaps 160(%rsp), %xmm3
#APP
vaesenc %xmm3, %xmm13, %xmm13
vaesenc %xmm3, %xmm14, %xmm14
vaesenc %xmm3, %xmm15, %xmm15
vaesenc %xmm3, %xmm1, %xmm1
vaesenc %xmm3, %xmm2, %xmm2
vaesenc %xmm3, %xmm12, %xmm12
vpclmulqdq $16, %xmm9, %xmm0, %xmm7
vpxor %xmm7, %xmm5, %xmm5
vpclmulqdq $0, %xmm9, %xmm0, %xmm7
vpxor %xmm7, %xmm4, %xmm4
vpclmulqdq $17, %xmm9, %xmm0, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpclmulqdq $1, %xmm9, %xmm0, %xmm7
vpxor %xmm7, %xmm5, %xmm5
#NO_APP
vmovdqa 176(%rsp), %xmm0
vpshufb %xmm10, %xmm0, %xmm0
vmovaps 112(%rsp), %xmm3
#APP
vaesenc %xmm3, %xmm13, %xmm13
vaesenc %xmm3, %xmm14, %xmm14
vaesenc %xmm3, %xmm15, %xmm15
vaesenc %xmm3, %xmm1, %xmm1
vaesenc %xmm3, %xmm2, %xmm2
vaesenc %xmm3, %xmm12, %xmm12
#NO_APP
vmovaps 336(%rsp), %xmm9
vmovaps 16(%rsp), %xmm3
#APP
vaesenc %xmm3, %xmm13, %xmm13
vaesenc %xmm3, %xmm14, %xmm14
vaesenc %xmm3, %xmm15, %xmm15
vaesenc %xmm3, %xmm1, %xmm1
vaesenc %xmm3, %xmm2, %xmm2
vaesenc %xmm3, %xmm12, %xmm12
vpclmulqdq $16, %xmm9, %xmm0, %xmm7
vpxor %xmm7, %xmm5, %xmm5
vpclmulqdq $0, %xmm9, %xmm0, %xmm7
vpxor %xmm7, %xmm4, %xmm4
vpclmulqdq $17, %xmm9, %xmm0, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpclmulqdq $1, %xmm9, %xmm0, %xmm7
vpxor %xmm7, %xmm5, %xmm5
#NO_APP
vmovaps 48(%rsp), %xmm0
#APP
vaesenc %xmm0, %xmm13, %xmm13
vaesenc %xmm0, %xmm14, %xmm14
vaesenc %xmm0, %xmm15, %xmm15
vaesenc %xmm0, %xmm1, %xmm1
vaesenc %xmm0, %xmm2, %xmm2
vaesenc %xmm0, %xmm12, %xmm12
#NO_APP
vmovdqa 144(%rsp), %xmm3
vmovdqa 368(%rsp), %xmm7
vmovaps (%rsp), %xmm9
#APP
vaesenc %xmm3, %xmm13, %xmm13
vaesenc %xmm3, %xmm14, %xmm14
vaesenc %xmm3, %xmm15, %xmm15
vaesenc %xmm3, %xmm1, %xmm1
vaesenc %xmm3, %xmm2, %xmm2
vaesenc %xmm3, %xmm12, %xmm12
vpclmulqdq $16, %xmm7, %xmm9, %xmm0
vpxor %xmm0, %xmm5, %xmm5
vpclmulqdq $0, %xmm7, %xmm9, %xmm0
vpxor %xmm0, %xmm4, %xmm4
vpclmulqdq $17, %xmm7, %xmm9, %xmm0
vpxor %xmm0, %xmm6, %xmm6
vpclmulqdq $1, %xmm7, %xmm9, %xmm0
vpxor %xmm0, %xmm5, %xmm5
#NO_APP
vpxor %xmm3, %xmm3, %xmm3
vpunpcklqdq %xmm5, %xmm3, %xmm0
vpxor %xmm0, %xmm4, %xmm0
vpunpckhqdq %xmm3, %xmm5, %xmm3
vpxor %xmm3, %xmm6, %xmm3
vpbroadcastq .LCPI1_26(%rip), %xmm5
vpclmulqdq $16, %xmm5, %xmm0, %xmm4
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm4, %xmm0
vpshufd $78, %xmm0, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpclmulqdq $16, %xmm5, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm9
vmovaps 128(%rsp), %xmm0
#APP
vaesenc %xmm0, %xmm13, %xmm13
vaesenc %xmm0, %xmm14, %xmm14
vaesenc %xmm0, %xmm15, %xmm15
vaesenc %xmm0, %xmm1, %xmm1
vaesenc %xmm0, %xmm2, %xmm2
vaesenc %xmm0, %xmm12, %xmm12
#NO_APP
vmovaps 272(%rsp), %xmm0
#APP
vaesenclast %xmm0, %xmm13, %xmm13
vaesenclast %xmm0, %xmm14, %xmm14
vaesenclast %xmm0, %xmm15, %xmm15
vaesenclast %xmm0, %xmm1, %xmm1
vaesenclast %xmm0, %xmm2, %xmm2
vaesenclast %xmm0, %xmm12, %xmm12
#NO_APP
vpxor (%rax), %xmm13, %xmm3
vpxor 16(%rax), %xmm14, %xmm10
vpxor 32(%rax), %xmm15, %xmm4
vpxor 48(%rax), %xmm1, %xmm5
vpxor 64(%rax), %xmm2, %xmm11
vpxor 80(%rax), %xmm12, %xmm1
addq $96, %rax
vmovdqu %xmm3, (%rcx)
vmovdqu %xmm10, 16(%rcx)
vmovdqu %xmm4, 32(%rcx)
vmovdqu %xmm5, 48(%rcx)
vmovdqu %xmm11, 64(%rcx)
vmovdqu %xmm1, 80(%rcx)
addq $96, %rcx
addq $-96, %rbx
vpaddd .LCPI1_21(%rip), %xmm8, %xmm8
cmpq $95, %rbx
ja .LBB1_40
vmovdqa %xmm8, (%rsp)
vmovdqa 96(%rsp), %xmm14
vmovdqa 304(%rsp), %xmm13
vmovdqa 336(%rsp), %xmm12
vmovdqa .LCPI1_13(%rip), %xmm8
jmp .LBB1_38
.LBB1_31:
vmovdqa %xmm2, (%rsp)
movq %r15, %rbx
vmovdqa 192(%rsp), %xmm5
movq %r8, %r12
cmpq $16, %rbx
jae .LBB1_42
.LBB1_33:
movq %rdx, %r14
movq %r9, %rsi
vmovdqa (%rsp), %xmm14
jmp .LBB1_34
.LBB1_12:
movq %rbx, %r8
jmp .LBB1_47
.LBB1_37:
vmovdqa 176(%rsp), %xmm9
vmovdqa 336(%rsp), %xmm12
.LBB1_38:
vpshufb %xmm8, %xmm3, %xmm2
vpxor %xmm2, %xmm9, %xmm2
vpshufb %xmm8, %xmm10, %xmm3
vpshufb %xmm8, %xmm4, %xmm4
vpshufb %xmm8, %xmm5, %xmm5
vpshufb %xmm8, %xmm11, %xmm6
vpshufb %xmm8, %xmm1, %xmm0
vpclmulqdq $0, %xmm0, %xmm14, %xmm1
vpclmulqdq $1, %xmm0, %xmm14, %xmm7
vpclmulqdq $16, %xmm0, %xmm14, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vmovdqa 352(%rsp), %xmm10
vpclmulqdq $0, %xmm6, %xmm10, %xmm8
vpxor %xmm1, %xmm8, %xmm1
vpclmulqdq $1, %xmm6, %xmm10, %xmm8
vpclmulqdq $16, %xmm6, %xmm10, %xmm9
vpxor %xmm9, %xmm8, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $17, %xmm0, %xmm14, %xmm0
vpclmulqdq $17, %xmm6, %xmm10, %xmm6
vpxor %xmm0, %xmm6, %xmm0
vmovdqa 320(%rsp), %xmm9
vpclmulqdq $1, %xmm5, %xmm9, %xmm6
vpclmulqdq $16, %xmm5, %xmm9, %xmm8
vpxor %xmm6, %xmm8, %xmm6
vpclmulqdq $0, %xmm5, %xmm9, %xmm8
vpclmulqdq $17, %xmm5, %xmm9, %xmm5
vpclmulqdq $0, %xmm4, %xmm13, %xmm9
vpxor %xmm9, %xmm8, %xmm8
vpxor %xmm1, %xmm8, %xmm1
vpclmulqdq $1, %xmm4, %xmm13, %xmm8
vpxor %xmm6, %xmm8, %xmm6
vpxor %xmm6, %xmm7, %xmm6
vpclmulqdq $16, %xmm4, %xmm13, %xmm7
vpclmulqdq $17, %xmm4, %xmm13, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpxor %xmm4, %xmm0, %xmm0
vpclmulqdq $0, %xmm3, %xmm12, %xmm4
vpxor %xmm4, %xmm1, %xmm1
vpclmulqdq $1, %xmm3, %xmm12, %xmm4
vpxor %xmm4, %xmm7, %xmm4
vpclmulqdq $16, %xmm3, %xmm12, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpxor %xmm4, %xmm6, %xmm4
vpclmulqdq $17, %xmm3, %xmm12, %xmm3
vpxor %xmm3, %xmm0, %xmm0
vmovdqa 368(%rsp), %xmm5
vpclmulqdq $0, %xmm2, %xmm5, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpclmulqdq $1, %xmm2, %xmm5, %xmm3
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $16, %xmm2, %xmm5, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpclmulqdq $17, %xmm2, %xmm5, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpslldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI1_26(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpshufd $78, %xmm1, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpclmulqdq $16, %xmm3, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
movq %rcx, %rdx
movq %rax, %r9
vmovdqa 192(%rsp), %xmm5
vmovdqa 16(%rsp), %xmm4
movq %r8, %r12
cmpq $16, %rbx
jb .LBB1_33
.LBB1_42:
vmovdqa 96(%rsp), %xmm10
vmovdqa 256(%rsp), %xmm9
vmovdqa 144(%rsp), %xmm8
vmovdqa 48(%rsp), %xmm6
vmovdqa 128(%rsp), %xmm7
vmovdqa 240(%rsp), %xmm1
vmovdqa (%rsp), %xmm14
vmovdqa 208(%rsp), %xmm11
vmovdqa 224(%rsp), %xmm13
vmovdqa 112(%rsp), %xmm12
vmovdqa 160(%rsp), %xmm15
.p2align 4, 0x90
.LBB1_43:
vmovdqa .LCPI1_13(%rip), %xmm3
vpshufb %xmm3, %xmm14, %xmm2
vpxor 64(%rsp), %xmm2, %xmm2
vaesenc 32(%rsp), %xmm2, %xmm2
vaesenc 288(%rsp), %xmm2, %xmm2
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm5, %xmm2, %xmm2
vaesenc %xmm1, %xmm2, %xmm2
vaesenc %xmm13, %xmm2, %xmm2
vaesenc %xmm11, %xmm2, %xmm2
vaesenc %xmm15, %xmm2, %xmm2
vaesenc %xmm12, %xmm2, %xmm2
vaesenc %xmm4, %xmm2, %xmm2
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm7, %xmm2, %xmm2
vaesenclast 272(%rsp), %xmm2, %xmm2
vpxor (%r9), %xmm2, %xmm2
vpshufb %xmm3, %xmm2, %xmm3
vmovdqu %xmm2, (%rdx)
vpxor %xmm3, %xmm0, %xmm2
vpclmulqdq $1, %xmm2, %xmm10, %xmm3
vpclmulqdq $16, %xmm2, %xmm10, %xmm4
vmovdqa %xmm5, %xmm0
vpclmulqdq $0, %xmm2, %xmm10, %xmm5
vpxor %xmm3, %xmm4, %xmm3
vpslldq $8, %xmm3, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vmovdqa %xmm0, %xmm5
vpclmulqdq $17, %xmm2, %xmm10, %xmm2
vpsrldq $8, %xmm3, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vpbroadcastq .LCPI1_26(%rip), %xmm0
vpclmulqdq $16, %xmm0, %xmm4, %xmm3
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpshufd $78, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vmovdqa 16(%rsp), %xmm4
vpclmulqdq $16, %xmm0, %xmm3, %xmm3
vpxor %xmm2, %xmm3, %xmm0
leaq 16(%r9), %rsi
leaq 16(%rdx), %r14
addq $-16, %rbx
vpaddd .LCPI1_16(%rip), %xmm14, %xmm14
movq %r14, %rdx
movq %rsi, %r9
cmpq $15, %rbx
ja .LBB1_43
.LBB1_34:
vmovdqa %xmm14, (%rsp)
testq %rbx, %rbx
je .LBB1_35
vmovdqa %xmm0, 176(%rsp)
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, 80(%rsp)
leaq 80(%rsp), %rdi
movq memcpy@GOTPCREL(%rip), %r13
movq %rbx, %rdx
callq *%r13
vmovdqa (%rsp), %xmm0
vpshufb .LCPI1_13(%rip), %xmm0, %xmm0
vpxor 64(%rsp), %xmm0, %xmm0
vaesenc 32(%rsp), %xmm0, %xmm0
vaesenc 288(%rsp), %xmm0, %xmm0
vaesenc 256(%rsp), %xmm0, %xmm0
vaesenc 192(%rsp), %xmm0, %xmm0
vaesenc 240(%rsp), %xmm0, %xmm0
vaesenc 224(%rsp), %xmm0, %xmm0
vaesenc 208(%rsp), %xmm0, %xmm0
vaesenc 160(%rsp), %xmm0, %xmm0
vaesenc 112(%rsp), %xmm0, %xmm0
vaesenc 16(%rsp), %xmm0, %xmm0
vaesenc 48(%rsp), %xmm0, %xmm0
vaesenc 144(%rsp), %xmm0, %xmm0
vaesenc 128(%rsp), %xmm0, %xmm0
vaesenclast 272(%rsp), %xmm0, %xmm0
vpxor 80(%rsp), %xmm0, %xmm0
vmovdqa %xmm0, (%rsp)
vmovdqa %xmm0, 80(%rsp)
leaq 80(%rsp), %rsi
movq %r14, %rdi
movq %rbx, %rdx
callq *%r13
testq %r15, %r15
je .LBB1_45
vmovdqa (%rsp), %xmm0
vmovdqa %xmm0, 432(%rsp)
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, 80(%rsp)
leaq 80(%rsp), %rdi
leaq 432(%rsp), %rsi
movq %rbx, %rdx
callq *memcpy@GOTPCREL(%rip)
vmovdqa 80(%rsp), %xmm2
movq %r12, %r8
.LBB1_47:
vmovdqa 64(%rsp), %xmm15
vmovdqa 32(%rsp), %xmm6
vmovdqa 160(%rsp), %xmm8
vmovdqa 112(%rsp), %xmm7
vmovdqa 16(%rsp), %xmm4
vmovdqa 48(%rsp), %xmm12
vmovaps 144(%rsp), %xmm9
vmovdqa 128(%rsp), %xmm5
vpbroadcastq .LCPI1_26(%rip), %xmm10
vmovdqa 96(%rsp), %xmm14
jmp .LBB1_48
.LBB1_35:
movq %r12, %r8
vpbroadcastq .LCPI1_26(%rip), %xmm5
vmovdqa 96(%rsp), %xmm14
vmovdqa 32(%rsp), %xmm6
vmovdqa 64(%rsp), %xmm15
vmovaps 144(%rsp), %xmm9
vmovdqa 48(%rsp), %xmm12
vmovdqa 128(%rsp), %xmm11
vmovdqa 112(%rsp), %xmm7
vmovdqa 160(%rsp), %xmm8
jmp .LBB1_49
.LBB1_45:
movq %r12, %r8
vmovdqa 64(%rsp), %xmm15
vmovdqa 32(%rsp), %xmm6
vmovdqa 160(%rsp), %xmm8
vmovdqa 112(%rsp), %xmm7
vmovdqa 16(%rsp), %xmm4
vmovdqa 48(%rsp), %xmm12
vmovaps 144(%rsp), %xmm9
vmovdqa 128(%rsp), %xmm5
vpbroadcastq .LCPI1_26(%rip), %xmm10
vmovdqa 96(%rsp), %xmm14
vmovdqa (%rsp), %xmm2
.LBB1_48:
vpshufb .LCPI1_13(%rip), %xmm2, %xmm0
vpxor 176(%rsp), %xmm0, %xmm0
vpclmulqdq $0, %xmm0, %xmm14, %xmm1
vpclmulqdq $1, %xmm0, %xmm14, %xmm2
vpclmulqdq $16, %xmm0, %xmm14, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $17, %xmm0, %xmm14, %xmm0
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpsrldq $8, %xmm2, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpclmulqdq $16, %xmm10, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpclmulqdq $16, %xmm10, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vmovdqa %xmm5, %xmm11
vmovdqa %xmm10, %xmm5
.LBB1_49:
vmovdqa %xmm0, %xmm2
vmovq %r8, %xmm0
vmovq %r15, %xmm1
vpunpcklqdq %xmm0, %xmm1, %xmm0
vpsllq $3, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vpclmulqdq $1, %xmm0, %xmm14, %xmm1
vpclmulqdq $16, %xmm0, %xmm14, %xmm2
vpxor %xmm1, %xmm2, %xmm1
vpclmulqdq $0, %xmm0, %xmm14, %xmm2
vpclmulqdq $17, %xmm0, %xmm14, %xmm0
vpslldq $8, %xmm1, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vpclmulqdq $16, %xmm5, %xmm2, %xmm3
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $16, %xmm5, %xmm2, %xmm3
vpxor %xmm0, %xmm3, %xmm0
vpxor 384(%rsp), %xmm15, %xmm3
vaesenc %xmm6, %xmm3, %xmm3
vaesenc 288(%rsp), %xmm3, %xmm3
vaesenc 256(%rsp), %xmm3, %xmm3
vaesenc 192(%rsp), %xmm3, %xmm3
vaesenc 240(%rsp), %xmm3, %xmm3
vaesenc 224(%rsp), %xmm3, %xmm3
vaesenc 208(%rsp), %xmm3, %xmm3
vaesenc %xmm8, %xmm3, %xmm3
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm4, %xmm3, %xmm3
vaesenc %xmm12, %xmm3, %xmm3
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm11, %xmm3, %xmm3
vpshufb .LCPI1_23(%rip), %xmm1, %xmm1
vaesenclast 272(%rsp), %xmm3, %xmm3
vpshufb .LCPI1_24(%rip), %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpshufb .LCPI1_13(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
movq 520(%rsp), %rax
vmovdqu %xmm0, (%rax)
movl $1, %eax
.LBB1_50:
addq $448, %rsp
.cfi_def_cfa_offset 48
popq %rbx
.cfi_def_cfa_offset 40
popq %r12
.cfi_def_cfa_offset 32
popq %r13
.cfi_def_cfa_offset 24
popq %r14
.cfi_def_cfa_offset 16
popq %r15
.cfi_def_cfa_offset 8
retq
.LBB1_26:
.cfi_def_cfa_offset 496
vpbroadcastq .LCPI1_26(%rip), %xmm5
jmp .LBB1_49
.Lfunc_end1:
.size haberdashery_aes256gcmdndkv2_broadwell_encrypt, .Lfunc_end1-haberdashery_aes256gcmdndkv2_broadwell_encrypt
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI2_0:
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 0
.LCPI2_1:
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 96
.LCPI2_2:
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 97
.LCPI2_3:
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 98
.LCPI2_4:
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.LCPI2_5:
.quad 4294967297
.quad 4294967297
.LCPI2_12:
.quad 274877907008
.quad 274877907008
.LCPI2_13:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI2_14:
.zero 8
.quad -4467570830351532032
.LCPI2_15:
.byte 15
.byte 128
.byte 128
.byte 128
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI2_16:
.long 1
.long 0
.long 0
.long 0
.LCPI2_17:
.long 2
.long 0
.long 0
.long 0
.LCPI2_18:
.long 3
.long 0
.long 0
.long 0
.LCPI2_19:
.long 4
.long 0
.long 0
.long 0
.LCPI2_20:
.long 5
.long 0
.long 0
.long 0
.LCPI2_21:
.long 6
.long 0
.long 0
.long 0
.LCPI2_22:
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.LCPI2_23:
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.LCPI2_24:
.zero 16
.section .rodata.cst4,"aM",@progbits,4
.p2align 2, 0x0
.LCPI2_6:
.long 0x00000002
.LCPI2_7:
.long 0x0c0f0e0d
.LCPI2_8:
.long 0x00000004
.LCPI2_9:
.long 0x00000008
.LCPI2_10:
.long 0x00000010
.LCPI2_11:
.long 0x00000020
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI2_25:
.quad -4467570830351532032
.section .text.haberdashery_aes256gcmdndkv2_broadwell_decrypt,"ax",@progbits
.globl haberdashery_aes256gcmdndkv2_broadwell_decrypt
.p2align 4, 0x90
.type haberdashery_aes256gcmdndkv2_broadwell_decrypt,@function
haberdashery_aes256gcmdndkv2_broadwell_decrypt:
.cfi_startproc
pushq %rbp
.cfi_def_cfa_offset 16
pushq %r15
.cfi_def_cfa_offset 24
pushq %r14
.cfi_def_cfa_offset 32
pushq %r13
.cfi_def_cfa_offset 40
pushq %r12
.cfi_def_cfa_offset 48
pushq %rbx
.cfi_def_cfa_offset 56
subq $520, %rsp
.cfi_def_cfa_offset 576
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
.cfi_offset %rbp, -16
movq 576(%rsp), %r15
xorl %eax, %eax
cmpq 608(%rsp), %r15
jne .LBB2_45
movq %r15, %r10
shrq $5, %r10
cmpq $2147483646, %r10
ja .LBB2_45
movabsq $2305843009213693950, %r10
cmpq %r10, %r8
ja .LBB2_45
cmpq $24, %rdx
jne .LBB2_45
cmpq $16, 592(%rsp)
jne .LBB2_45
vmovdqu (%rsi), %xmm0
vpextrb $15, %xmm0, %edx
vpand .LCPI2_0(%rip), %xmm0, %xmm0
vpxor (%rdi), %xmm0, %xmm12
vpxor .LCPI2_1(%rip), %xmm12, %xmm3
vmovdqa 16(%rdi), %xmm13
vmovdqa 32(%rdi), %xmm0
vmovdqa 48(%rdi), %xmm1
vmovdqa 64(%rdi), %xmm2
vaesenc %xmm13, %xmm3, %xmm3
vaesenc %xmm0, %xmm3, %xmm3
vaesenc %xmm1, %xmm3, %xmm3
vaesenc %xmm2, %xmm3, %xmm4
vmovdqa 80(%rdi), %xmm3
vaesenc %xmm3, %xmm4, %xmm5
vmovdqa 96(%rdi), %xmm4
vaesenc %xmm4, %xmm5, %xmm6
vmovdqa 112(%rdi), %xmm5
vaesenc %xmm5, %xmm6, %xmm7
vmovdqa 128(%rdi), %xmm6
vaesenc %xmm6, %xmm7, %xmm8
vmovdqa 144(%rdi), %xmm7
vaesenc %xmm7, %xmm8, %xmm9
vmovdqa 160(%rdi), %xmm8
vaesenc %xmm8, %xmm9, %xmm10
vmovdqa 176(%rdi), %xmm9
vaesenc %xmm9, %xmm10, %xmm11
vmovdqa 192(%rdi), %xmm10
vaesenc %xmm10, %xmm11, %xmm14
vmovdqa 208(%rdi), %xmm11
vaesenc %xmm11, %xmm14, %xmm14
vpxor .LCPI2_2(%rip), %xmm12, %xmm15
vaesenc %xmm13, %xmm15, %xmm15
vpxor .LCPI2_3(%rip), %xmm12, %xmm12
vaesenc %xmm13, %xmm12, %xmm12
vmovdqa 224(%rdi), %xmm13
vaesenclast %xmm13, %xmm14, %xmm14
vaesenc %xmm0, %xmm15, %xmm15
vaesenc %xmm1, %xmm15, %xmm15
vaesenc %xmm2, %xmm15, %xmm15
vaesenc %xmm3, %xmm15, %xmm15
vaesenc %xmm4, %xmm15, %xmm15
vaesenc %xmm5, %xmm15, %xmm15
vaesenc %xmm6, %xmm15, %xmm15
vaesenc %xmm7, %xmm15, %xmm15
vaesenc %xmm8, %xmm15, %xmm15
vaesenc %xmm9, %xmm15, %xmm15
vaesenc %xmm10, %xmm15, %xmm15
vaesenc %xmm11, %xmm15, %xmm15
vaesenclast %xmm13, %xmm15, %xmm15
vaesenc %xmm0, %xmm12, %xmm0
vaesenc %xmm1, %xmm0, %xmm0
vaesenc %xmm2, %xmm0, %xmm0
vaesenc %xmm3, %xmm0, %xmm0
vaesenc %xmm4, %xmm0, %xmm0
vaesenc %xmm5, %xmm0, %xmm0
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm7, %xmm0, %xmm0
vaesenc %xmm8, %xmm0, %xmm0
vaesenc %xmm9, %xmm0, %xmm0
vaesenc %xmm10, %xmm0, %xmm0
vaesenc %xmm11, %xmm0, %xmm0
vaesenclast %xmm13, %xmm0, %xmm0
vpxor %xmm14, %xmm15, %xmm3
vpxor %xmm0, %xmm14, %xmm4
vpslldq $4, %xmm3, %xmm0
vpslldq $8, %xmm3, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpslldq $12, %xmm3, %xmm1
vpxor %xmm1, %xmm0, %xmm1
vpbroadcastd .LCPI2_7(%rip), %xmm0
vpshufb %xmm0, %xmm4, %xmm2
vaesenclast .LCPI2_5(%rip), %xmm2, %xmm2
vpxor %xmm3, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm7
vmovdqa %xmm3, 224(%rsp)
vaesenc %xmm4, %xmm3, %xmm1
vpslldq $4, %xmm4, %xmm2
vpslldq $8, %xmm4, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vpslldq $12, %xmm4, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vpshufd $255, %xmm7, %xmm3
vpxor %xmm10, %xmm10, %xmm10
vaesenclast %xmm10, %xmm3, %xmm3
vmovdqa %xmm4, 288(%rsp)
vpxor %xmm4, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm6
vbroadcastss .LCPI2_6(%rip), %xmm3
vbroadcastss .LCPI2_7(%rip), %xmm2
vmovdqa %xmm7, 32(%rsp)
#APP
vaesenc %xmm7, %xmm1, %xmm1
vpslldq $4, %xmm7, %xmm4
vpslldq $8, %xmm7, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpslldq $12, %xmm7, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpxor %xmm7, %xmm4, %xmm4
vpshufb %xmm2, %xmm6, %xmm15
vaesenclast %xmm3, %xmm15, %xmm15
vpxor %xmm4, %xmm15, %xmm15
#NO_APP
vmovdqa %xmm6, 16(%rsp)
#APP
vaesenc %xmm6, %xmm1, %xmm1
vpslldq $4, %xmm6, %xmm3
vpslldq $8, %xmm6, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpslldq $12, %xmm6, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpxor %xmm6, %xmm3, %xmm3
vpshufd $255, %xmm15, %xmm8
vaesenclast %xmm10, %xmm8, %xmm8
vpxor %xmm3, %xmm8, %xmm8
#NO_APP
vbroadcastss .LCPI2_8(%rip), %xmm3
#APP
vaesenc %xmm15, %xmm1, %xmm1
vpslldq $4, %xmm15, %xmm4
vpslldq $8, %xmm15, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpslldq $12, %xmm15, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpxor %xmm4, %xmm15, %xmm4
vpshufb %xmm2, %xmm8, %xmm7
vaesenclast %xmm3, %xmm7, %xmm7
vpxor %xmm4, %xmm7, %xmm7
#NO_APP
vmovaps %xmm8, 272(%rsp)
#APP
vaesenc %xmm8, %xmm1, %xmm1
vpslldq $4, %xmm8, %xmm3
vpslldq $8, %xmm8, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpslldq $12, %xmm8, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpxor %xmm3, %xmm8, %xmm3
vpshufd $255, %xmm7, %xmm11
vaesenclast %xmm10, %xmm11, %xmm11
vpxor %xmm3, %xmm11, %xmm11
#NO_APP
vbroadcastss .LCPI2_9(%rip), %xmm3
vmovaps %xmm7, 256(%rsp)
#APP
vaesenc %xmm7, %xmm1, %xmm1
vpslldq $4, %xmm7, %xmm4
vpslldq $8, %xmm7, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpslldq $12, %xmm7, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpxor %xmm7, %xmm4, %xmm4
vpshufb %xmm2, %xmm11, %xmm6
vaesenclast %xmm3, %xmm6, %xmm6
vpxor %xmm4, %xmm6, %xmm6
#NO_APP
vmovaps %xmm11, 160(%rsp)
#APP
vaesenc %xmm11, %xmm1, %xmm1
vpslldq $4, %xmm11, %xmm3
vpslldq $8, %xmm11, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpslldq $12, %xmm11, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpxor %xmm3, %xmm11, %xmm3
vpshufd $255, %xmm6, %xmm7
vaesenclast %xmm10, %xmm7, %xmm7
vpxor %xmm3, %xmm7, %xmm7
#NO_APP
vbroadcastss .LCPI2_10(%rip), %xmm3
vmovaps %xmm6, 192(%rsp)
#APP
vaesenc %xmm6, %xmm1, %xmm1
vpslldq $4, %xmm6, %xmm4
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpslldq $12, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpxor %xmm6, %xmm4, %xmm4
vpshufb %xmm2, %xmm7, %xmm11
vaesenclast %xmm3, %xmm11, %xmm11
vpxor %xmm4, %xmm11, %xmm11
#NO_APP
#APP
vaesenc %xmm7, %xmm1, %xmm1
vpslldq $4, %xmm7, %xmm3
vpslldq $8, %xmm7, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpslldq $12, %xmm7, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpxor %xmm7, %xmm3, %xmm3
vpshufd $255, %xmm11, %xmm6
vaesenclast %xmm10, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
#NO_APP
vbroadcastss .LCPI2_11(%rip), %xmm3
vmovdqa %xmm11, 176(%rsp)
#APP
vaesenc %xmm11, %xmm1, %xmm1
vpslldq $4, %xmm11, %xmm4
vpslldq $8, %xmm11, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpslldq $12, %xmm11, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpxor %xmm4, %xmm11, %xmm4
vpshufb %xmm2, %xmm6, %xmm8
vaesenclast %xmm3, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
#NO_APP
vpslldq $4, %xmm6, %xmm2
vpunpcklqdq %xmm6, %xmm10, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vinsertps $55, %xmm6, %xmm0, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vpshufd $255, %xmm8, %xmm3
vaesenclast %xmm10, %xmm3, %xmm3
vpxor %xmm6, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm4
vpslldq $4, %xmm8, %xmm2
vpunpcklqdq %xmm8, %xmm10, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vinsertps $55, %xmm8, %xmm0, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vpshufb %xmm0, %xmm4, %xmm0
vaesenclast .LCPI2_12(%rip), %xmm0, %xmm0
vpxor %xmm2, %xmm8, %xmm2
vpxor %xmm2, %xmm0, %xmm5
vaesenc %xmm6, %xmm1, %xmm0
vmovaps %xmm8, 144(%rsp)
vaesenc %xmm8, %xmm0, %xmm0
vmovdqa %xmm4, 208(%rsp)
vaesenc %xmm4, %xmm0, %xmm0
vaesenclast %xmm5, %xmm0, %xmm0
vpshufb .LCPI2_13(%rip), %xmm0, %xmm0
vpsrlq $63, %xmm0, %xmm1
vpaddq %xmm0, %xmm0, %xmm0
vpshufd $78, %xmm1, %xmm2
vpor %xmm2, %xmm0, %xmm0
vpblendd $12, %xmm1, %xmm10, %xmm1
vpsllq $63, %xmm1, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpsllq $62, %xmm1, %xmm2
vpsllq $57, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpxor %xmm1, %xmm0, %xmm10
vpclmulqdq $0, %xmm10, %xmm10, %xmm0
vpbroadcastq .LCPI2_25(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpclmulqdq $17, %xmm10, %xmm10, %xmm1
vpshufd $78, %xmm0, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $16, %xmm3, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm12
vpclmulqdq $16, %xmm10, %xmm12, %xmm0
vpclmulqdq $1, %xmm10, %xmm12, %xmm1
vpxor %xmm0, %xmm1, %xmm0
vpclmulqdq $0, %xmm10, %xmm12, %xmm1
vpslldq $8, %xmm0, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm0, %xmm0
vpclmulqdq $17, %xmm10, %xmm12, %xmm2
vpxor %xmm0, %xmm2, %xmm0
vpshufd $78, %xmm1, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpclmulqdq $16, %xmm3, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm2
vmovdqa %xmm2, 352(%rsp)
vpclmulqdq $0, %xmm2, %xmm2, %xmm0
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpclmulqdq $17, %xmm2, %xmm2, %xmm1
vpshufd $78, %xmm0, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $16, %xmm3, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm13
vpclmulqdq $0, %xmm12, %xmm12, %xmm0
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpclmulqdq $17, %xmm12, %xmm12, %xmm1
vpshufd $78, %xmm0, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $16, %xmm3, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm4
vmovdqa %xmm4, 336(%rsp)
vpclmulqdq $16, %xmm10, %xmm4, %xmm0
vpclmulqdq $1, %xmm10, %xmm4, %xmm1
vpxor %xmm0, %xmm1, %xmm0
vpclmulqdq $0, %xmm10, %xmm4, %xmm1
vpslldq $8, %xmm0, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm0, %xmm0
vpclmulqdq $17, %xmm10, %xmm4, %xmm2
vpxor %xmm0, %xmm2, %xmm0
vpshufd $78, %xmm1, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpclmulqdq $16, %xmm3, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm14
movq 584(%rsp), %r12
movzbl 16(%rsi), %edi
movzbl 17(%rsi), %r10d
movzbl 23(%rsi), %r11d
shll $8, %edi
orl %edx, %edi
shll $16, %r10d
orl %edi, %r10d
movzbl 18(%rsi), %edx
shll $24, %edx
orl %r10d, %edx
vmovd %edx, %xmm0
vpinsrd $1, 19(%rsi), %xmm0, %xmm0
vpinsrd $2, %r11d, %xmm0, %xmm0
movl $16777216, %edx
vpinsrd $3, %edx, %xmm0, %xmm0
vmovdqa %xmm0, 400(%rsp)
testq %r8, %r8
vmovdqa %xmm5, 240(%rsp)
vmovdqa %xmm10, 64(%rsp)
vmovdqa %xmm12, 416(%rsp)
vmovdqa %xmm15, 112(%rsp)
vmovdqa %xmm7, 128(%rsp)
vmovaps %xmm6, 96(%rsp)
je .LBB2_38
cmpq $96, %r8
jb .LBB2_7
vmovdqu 32(%rcx), %xmm1
vmovdqu 48(%rcx), %xmm2
vmovdqu 64(%rcx), %xmm3
vmovdqu 80(%rcx), %xmm4
vmovdqa .LCPI2_13(%rip), %xmm0
vpshufb %xmm0, %xmm1, %xmm5
vpshufb %xmm0, %xmm2, %xmm1
vpshufb %xmm0, %xmm3, %xmm2
vpshufb %xmm0, %xmm4, %xmm3
vpclmulqdq $0, %xmm3, %xmm10, %xmm4
vpclmulqdq $1, %xmm3, %xmm10, %xmm6
vpclmulqdq $16, %xmm3, %xmm10, %xmm7
vpxor %xmm6, %xmm7, %xmm6
vpclmulqdq $17, %xmm3, %xmm10, %xmm3
vpclmulqdq $0, %xmm2, %xmm12, %xmm7
vpxor %xmm4, %xmm7, %xmm4
vpclmulqdq $1, %xmm2, %xmm12, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm12, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpclmulqdq $17, %xmm2, %xmm12, %xmm2
vpxor %xmm3, %xmm2, %xmm2
vmovdqa 352(%rsp), %xmm8
vpclmulqdq $0, %xmm1, %xmm8, %xmm3
vpclmulqdq $1, %xmm1, %xmm8, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vmovdqa 336(%rsp), %xmm9
vpclmulqdq $0, %xmm5, %xmm9, %xmm7
vpxor %xmm7, %xmm4, %xmm4
vpclmulqdq $16, %xmm1, %xmm8, %xmm7
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $1, %xmm5, %xmm9, %xmm4
vpxor %xmm4, %xmm7, %xmm4
vpxor %xmm4, %xmm6, %xmm4
vpclmulqdq $16, %xmm5, %xmm9, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vmovdqu (%rcx), %xmm6
vpclmulqdq $17, %xmm5, %xmm9, %xmm5
vpxor %xmm5, %xmm2, %xmm2
vmovdqu 16(%rcx), %xmm5
vpshufb %xmm0, %xmm6, %xmm6
vpshufb %xmm0, %xmm5, %xmm5
vpclmulqdq $17, %xmm1, %xmm8, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpclmulqdq $0, %xmm5, %xmm14, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $1, %xmm5, %xmm14, %xmm3
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $16, %xmm5, %xmm14, %xmm4
vmovdqa %xmm14, %xmm7
vpclmulqdq $17, %xmm5, %xmm14, %xmm5
vpxor %xmm5, %xmm1, %xmm5
vpclmulqdq $0, %xmm6, %xmm13, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpclmulqdq $1, %xmm6, %xmm13, %xmm2
vpxor %xmm2, %xmm4, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $16, %xmm6, %xmm13, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vmovdqa %xmm13, %xmm14
vpclmulqdq $17, %xmm6, %xmm13, %xmm3
vpxor %xmm3, %xmm5, %xmm3
addq $96, %rcx
leaq -96(%r8), %rsi
vpbroadcastq .LCPI2_25(%rip), %xmm15
cmpq $96, %rsi
jb .LBB2_11
vmovdqa 416(%rsp), %xmm12
vmovdqa 352(%rsp), %xmm11
vmovdqa %xmm14, %xmm13
vmovdqa 336(%rsp), %xmm10
vmovdqa %xmm7, %xmm14
.p2align 4, 0x90
.LBB2_22:
vmovdqu (%rcx), %xmm4
vmovdqu 32(%rcx), %xmm5
vmovdqu 48(%rcx), %xmm6
vmovdqu 64(%rcx), %xmm7
vmovdqu 80(%rcx), %xmm8
vpslldq $8, %xmm2, %xmm9
vpxor %xmm1, %xmm9, %xmm1
vpsrldq $8, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $16, %xmm15, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm15, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpshufb %xmm0, %xmm4, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpxor %xmm1, %xmm2, %xmm1
vpxor %xmm3, %xmm1, %xmm3
vpshufb %xmm0, %xmm5, %xmm1
vpshufb %xmm0, %xmm6, %xmm2
vpshufb %xmm0, %xmm7, %xmm4
vpshufb %xmm0, %xmm8, %xmm5
vmovdqa 64(%rsp), %xmm9
vpclmulqdq $0, %xmm5, %xmm9, %xmm6
vpclmulqdq $1, %xmm5, %xmm9, %xmm7
vpclmulqdq $16, %xmm5, %xmm9, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $17, %xmm5, %xmm9, %xmm5
vpclmulqdq $0, %xmm4, %xmm12, %xmm8
vpxor %xmm6, %xmm8, %xmm6
vpclmulqdq $1, %xmm4, %xmm12, %xmm8
vpclmulqdq $16, %xmm4, %xmm12, %xmm9
vpxor %xmm9, %xmm8, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $17, %xmm4, %xmm12, %xmm4
vpxor %xmm5, %xmm4, %xmm4
vpclmulqdq $0, %xmm2, %xmm11, %xmm5
vpclmulqdq $1, %xmm2, %xmm11, %xmm8
vpclmulqdq $16, %xmm2, %xmm11, %xmm9
vpxor %xmm9, %xmm8, %xmm8
vpclmulqdq $0, %xmm1, %xmm10, %xmm9
vpxor %xmm5, %xmm9, %xmm5
vpxor %xmm5, %xmm6, %xmm5
vpclmulqdq $1, %xmm1, %xmm10, %xmm6
vpxor %xmm6, %xmm8, %xmm6
vpclmulqdq $17, %xmm2, %xmm11, %xmm2
vpxor %xmm6, %xmm7, %xmm6
vpclmulqdq $17, %xmm1, %xmm10, %xmm7
vpxor %xmm7, %xmm2, %xmm2
vmovdqu 16(%rcx), %xmm7
vpshufb %xmm0, %xmm7, %xmm7
vpclmulqdq $16, %xmm1, %xmm10, %xmm1
vpxor %xmm2, %xmm4, %xmm2
vpclmulqdq $0, %xmm7, %xmm14, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $1, %xmm7, %xmm14, %xmm5
vpxor %xmm5, %xmm1, %xmm1
vpclmulqdq $16, %xmm7, %xmm14, %xmm5
vpxor %xmm5, %xmm1, %xmm1
vpxor %xmm1, %xmm6, %xmm5
vpclmulqdq $17, %xmm7, %xmm14, %xmm1
vpxor %xmm1, %xmm2, %xmm6
vpclmulqdq $0, %xmm3, %xmm13, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $1, %xmm3, %xmm13, %xmm2
vpxor %xmm2, %xmm5, %xmm2
vpclmulqdq $16, %xmm3, %xmm13, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpclmulqdq $17, %xmm3, %xmm13, %xmm3
vpxor %xmm3, %xmm6, %xmm3
addq $96, %rcx
addq $-96, %rsi
cmpq $95, %rsi
ja .LBB2_22
jmp .LBB2_23
.LBB2_38:
vpxor %xmm4, %xmm4, %xmm4
xorl %r8d, %r8d
testq %r15, %r15
vmovdqa 16(%rsp), %xmm5
vmovdqa 32(%rsp), %xmm9
jne .LBB2_27
jmp .LBB2_39
.LBB2_7:
movq %r8, %rsi
vmovdqa 16(%rsp), %xmm5
vpxor %xmm4, %xmm4, %xmm4
vmovdqa 32(%rsp), %xmm9
cmpq $16, %rsi
jae .LBB2_12
.LBB2_9:
movq %rsi, %rdx
testq %rdx, %rdx
jne .LBB2_24
jmp .LBB2_19
.LBB2_11:
vmovdqa %xmm14, %xmm13
vmovdqa %xmm7, %xmm14
.LBB2_23:
vpslldq $8, %xmm2, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpsrldq $8, %xmm2, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm15, %xmm0, %xmm2
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vpclmulqdq $16, %xmm15, %xmm0, %xmm2
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpxor %xmm2, %xmm0, %xmm4
vmovaps 96(%rsp), %xmm6
vmovdqa %xmm15, %xmm3
vmovdqa 64(%rsp), %xmm10
vmovdqa 32(%rsp), %xmm9
vmovdqa 16(%rsp), %xmm5
vmovdqa 112(%rsp), %xmm15
vmovdqa 128(%rsp), %xmm7
cmpq $16, %rsi
jb .LBB2_9
.LBB2_12:
leaq -16(%rsi), %rdx
testb $16, %dl
je .LBB2_13
cmpq $16, %rdx
jae .LBB2_15
.LBB2_18:
testq %rdx, %rdx
je .LBB2_19
.LBB2_24:
vmovdqa %xmm4, 80(%rsp)
vmovdqa %xmm14, 304(%rsp)
vmovdqa %xmm13, 320(%rsp)
movq %r9, %rbx
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, 48(%rsp)
leaq 48(%rsp), %rdi
movq %rcx, %rsi
movq %r8, %r14
callq *memcpy@GOTPCREL(%rip)
movq %r14, %r8
vmovdqa 48(%rsp), %xmm0
shlq $3, %r8
testq %r15, %r15
je .LBB2_46
movabsq $-68719476704, %rax
leaq (%r15,%rax), %rcx
incq %rax
cmpq %rax, %rcx
movl $0, %eax
vmovdqa 16(%rsp), %xmm5
vmovdqa 112(%rsp), %xmm15
vmovaps 96(%rsp), %xmm6
vmovdqa 64(%rsp), %xmm10
vmovdqa 320(%rsp), %xmm13
vmovdqa 304(%rsp), %xmm14
vmovdqa 80(%rsp), %xmm1
jb .LBB2_45
movq %rbx, %r9
vpshufb .LCPI2_13(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpclmulqdq $0, %xmm0, %xmm10, %xmm1
vpclmulqdq $1, %xmm0, %xmm10, %xmm2
vpclmulqdq $16, %xmm0, %xmm10, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $17, %xmm0, %xmm10, %xmm0
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpbroadcastq .LCPI2_25(%rip), %xmm3
vpsrldq $8, %xmm2, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpclmulqdq $16, %xmm3, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm4
jmp .LBB2_27
.LBB2_13:
vmovdqu (%rcx), %xmm0
addq $16, %rcx
vpshufb .LCPI2_13(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm4, %xmm0
vpclmulqdq $0, %xmm0, %xmm10, %xmm1
vpclmulqdq $1, %xmm0, %xmm10, %xmm2
vpclmulqdq $16, %xmm0, %xmm10, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $17, %xmm0, %xmm10, %xmm0
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpbroadcastq .LCPI2_25(%rip), %xmm3
vpsrldq $8, %xmm2, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpclmulqdq $16, %xmm3, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm4
movq %rdx, %rsi
cmpq $16, %rdx
jb .LBB2_18
.LBB2_15:
vmovdqa .LCPI2_13(%rip), %xmm0
vmovdqa %xmm3, %xmm12
.p2align 4, 0x90
.LBB2_16:
vmovdqu (%rcx), %xmm1
vmovdqu 16(%rcx), %xmm2
vpshufb %xmm0, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $0, %xmm1, %xmm10, %xmm3
vpclmulqdq $1, %xmm1, %xmm10, %xmm4
vpclmulqdq $16, %xmm1, %xmm10, %xmm5
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $17, %xmm1, %xmm10, %xmm1
vpslldq $8, %xmm4, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpsrldq $8, %xmm4, %xmm4
vpxor %xmm4, %xmm1, %xmm1
vpclmulqdq $16, %xmm12, %xmm3, %xmm4
vpshufd $78, %xmm3, %xmm3
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $16, %xmm12, %xmm3, %xmm4
vpshufd $78, %xmm3, %xmm3
vpxor %xmm3, %xmm1, %xmm1
addq $32, %rcx
addq $-32, %rsi
vpshufb %xmm0, %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpxor %xmm1, %xmm4, %xmm1
vpclmulqdq $0, %xmm1, %xmm10, %xmm2
vpclmulqdq $1, %xmm1, %xmm10, %xmm3
vpclmulqdq $16, %xmm1, %xmm10, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm10, %xmm1
vpslldq $8, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpsrldq $8, %xmm3, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpclmulqdq $16, %xmm12, %xmm2, %xmm3
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $16, %xmm12, %xmm2, %xmm3
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm4
cmpq $15, %rsi
ja .LBB2_16
movq %rsi, %rdx
vmovdqa %xmm12, %xmm3
vmovdqa 32(%rsp), %xmm9
vmovdqa 16(%rsp), %xmm5
testq %rdx, %rdx
jne .LBB2_24
.LBB2_19:
shlq $3, %r8
testq %r15, %r15
je .LBB2_39
movabsq $-68719476704, %rcx
leaq (%r15,%rcx), %rdx
incq %rcx
cmpq %rcx, %rdx
jb .LBB2_45
.LBB2_27:
vmovdqa 400(%rsp), %xmm0
vpshufb .LCPI2_15(%rip), %xmm0, %xmm0
movq 600(%rsp), %rax
vpaddd .LCPI2_16(%rip), %xmm0, %xmm2
movq %r15, %rbx
cmpq $96, %r15
jb .LBB2_28
vmovdqa %xmm13, 320(%rsp)
vmovdqa %xmm14, 304(%rsp)
.p2align 4, 0x90
.LBB2_32:
vmovdqa %xmm2, (%rsp)
vmovdqa 224(%rsp), %xmm9
vmovdqu (%r9), %xmm7
vmovdqa %xmm7, 368(%rsp)
vmovups 32(%r9), %xmm1
vmovaps %xmm1, 80(%rsp)
vmovdqu 48(%r9), %xmm11
vmovdqa %xmm11, 448(%rsp)
vmovdqa %xmm4, %xmm10
vmovdqu 64(%r9), %xmm4
vmovdqa %xmm4, 480(%rsp)
vmovdqu 80(%r9), %xmm8
vmovdqa %xmm8, 384(%rsp)
vmovdqa .LCPI2_13(%rip), %xmm12
vmovdqa (%rsp), %xmm0
vpshufb %xmm12, %xmm0, %xmm0
vmovdqa (%rsp), %xmm1
vpaddd .LCPI2_16(%rip), %xmm1, %xmm1
vpshufb %xmm12, %xmm1, %xmm1
vmovdqa (%rsp), %xmm2
vpaddd .LCPI2_17(%rip), %xmm2, %xmm2
vpshufb %xmm12, %xmm2, %xmm2
vmovdqa (%rsp), %xmm3
vpaddd .LCPI2_18(%rip), %xmm3, %xmm3
vpshufb %xmm12, %xmm3, %xmm3
vmovdqa (%rsp), %xmm5
vpaddd .LCPI2_19(%rip), %xmm5, %xmm5
vpshufb %xmm12, %xmm5, %xmm5
vmovdqa (%rsp), %xmm6
vpaddd .LCPI2_20(%rip), %xmm6, %xmm6
vpshufb %xmm12, %xmm6, %xmm6
vpshufb %xmm12, %xmm7, %xmm7
vpxor %xmm7, %xmm10, %xmm7
vmovdqa %xmm7, 464(%rsp)
vpshufb %xmm12, %xmm8, %xmm10
vpxor %xmm0, %xmm9, %xmm14
vpxor %xmm1, %xmm9, %xmm15
vpxor %xmm2, %xmm9, %xmm1
vpxor %xmm3, %xmm9, %xmm2
vpxor %xmm5, %xmm9, %xmm3
vpxor 224(%rsp), %xmm6, %xmm13
vmovaps 288(%rsp), %xmm0
#APP
vaesenc %xmm0, %xmm14, %xmm14
vaesenc %xmm0, %xmm15, %xmm15
vaesenc %xmm0, %xmm1, %xmm1
vaesenc %xmm0, %xmm2, %xmm2
vaesenc %xmm0, %xmm3, %xmm3
vaesenc %xmm0, %xmm13, %xmm13
#NO_APP
vpxor %xmm5, %xmm5, %xmm5
vpxor %xmm6, %xmm6, %xmm6
vpxor %xmm7, %xmm7, %xmm7
vmovaps 64(%rsp), %xmm8
vmovaps 32(%rsp), %xmm9
#APP
vaesenc %xmm9, %xmm14, %xmm14
vaesenc %xmm9, %xmm15, %xmm15
vaesenc %xmm9, %xmm1, %xmm1
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm9, %xmm13, %xmm13
vpclmulqdq $16, %xmm8, %xmm10, %xmm0
vpxor %xmm0, %xmm6, %xmm6
vpclmulqdq $0, %xmm8, %xmm10, %xmm0
vpxor %xmm0, %xmm5, %xmm5
vpclmulqdq $17, %xmm8, %xmm10, %xmm0
vpxor %xmm0, %xmm7, %xmm7
vpclmulqdq $1, %xmm8, %xmm10, %xmm0
vpxor %xmm0, %xmm6, %xmm6
#NO_APP
vpshufb %xmm12, %xmm4, %xmm0
vmovaps 16(%rsp), %xmm4
#APP
vaesenc %xmm4, %xmm14, %xmm14
vaesenc %xmm4, %xmm15, %xmm15
vaesenc %xmm4, %xmm1, %xmm1
vaesenc %xmm4, %xmm2, %xmm2
vaesenc %xmm4, %xmm3, %xmm3
vaesenc %xmm4, %xmm13, %xmm13
#NO_APP
vmovaps 112(%rsp), %xmm8
vmovaps 416(%rsp), %xmm9
#APP
vaesenc %xmm8, %xmm14, %xmm14
vaesenc %xmm8, %xmm15, %xmm15
vaesenc %xmm8, %xmm1, %xmm1
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm8, %xmm3, %xmm3
vaesenc %xmm8, %xmm13, %xmm13
vpclmulqdq $16, %xmm9, %xmm0, %xmm4
vpxor %xmm4, %xmm6, %xmm6
vpclmulqdq $0, %xmm9, %xmm0, %xmm4
vpxor %xmm4, %xmm5, %xmm5
vpclmulqdq $17, %xmm9, %xmm0, %xmm4
vpxor %xmm4, %xmm7, %xmm7
vpclmulqdq $1, %xmm9, %xmm0, %xmm4
vpxor %xmm4, %xmm6, %xmm6
#NO_APP
vpshufb %xmm12, %xmm11, %xmm0
vmovaps 272(%rsp), %xmm4
#APP
vaesenc %xmm4, %xmm14, %xmm14
vaesenc %xmm4, %xmm15, %xmm15
vaesenc %xmm4, %xmm1, %xmm1
vaesenc %xmm4, %xmm2, %xmm2
vaesenc %xmm4, %xmm3, %xmm3
vaesenc %xmm4, %xmm13, %xmm13
#NO_APP
vmovaps 256(%rsp), %xmm8
vmovaps 352(%rsp), %xmm9
#APP
vaesenc %xmm8, %xmm14, %xmm14
vaesenc %xmm8, %xmm15, %xmm15
vaesenc %xmm8, %xmm1, %xmm1
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm8, %xmm3, %xmm3
vaesenc %xmm8, %xmm13, %xmm13
vpclmulqdq $16, %xmm9, %xmm0, %xmm4
vpxor %xmm4, %xmm6, %xmm6
vpclmulqdq $0, %xmm9, %xmm0, %xmm4
vpxor %xmm4, %xmm5, %xmm5
vpclmulqdq $17, %xmm9, %xmm0, %xmm4
vpxor %xmm4, %xmm7, %xmm7
vpclmulqdq $1, %xmm9, %xmm0, %xmm4
vpxor %xmm4, %xmm6, %xmm6
#NO_APP
vmovdqa 80(%rsp), %xmm0
vpshufb %xmm12, %xmm0, %xmm0
vmovaps 160(%rsp), %xmm4
#APP
vaesenc %xmm4, %xmm14, %xmm14
vaesenc %xmm4, %xmm15, %xmm15
vaesenc %xmm4, %xmm1, %xmm1
vaesenc %xmm4, %xmm2, %xmm2
vaesenc %xmm4, %xmm3, %xmm3
vaesenc %xmm4, %xmm13, %xmm13
#NO_APP
vmovaps 336(%rsp), %xmm8
vmovdqa 192(%rsp), %xmm11
#APP
vaesenc %xmm11, %xmm14, %xmm14
vaesenc %xmm11, %xmm15, %xmm15
vaesenc %xmm11, %xmm1, %xmm1
vaesenc %xmm11, %xmm2, %xmm2
vaesenc %xmm11, %xmm3, %xmm3
vaesenc %xmm11, %xmm13, %xmm13
vpclmulqdq $16, %xmm8, %xmm0, %xmm4
vpxor %xmm4, %xmm6, %xmm6
vpclmulqdq $0, %xmm8, %xmm0, %xmm4
vpxor %xmm4, %xmm5, %xmm5
vpclmulqdq $17, %xmm8, %xmm0, %xmm4
vpxor %xmm4, %xmm7, %xmm7
vpclmulqdq $1, %xmm8, %xmm0, %xmm4
vpxor %xmm4, %xmm6, %xmm6
#NO_APP
vmovdqu 16(%r9), %xmm0
vmovdqa %xmm0, 432(%rsp)
vmovaps 128(%rsp), %xmm4
#APP
vaesenc %xmm4, %xmm14, %xmm14
vaesenc %xmm4, %xmm15, %xmm15
vaesenc %xmm4, %xmm1, %xmm1
vaesenc %xmm4, %xmm2, %xmm2
vaesenc %xmm4, %xmm3, %xmm3
vaesenc %xmm4, %xmm13, %xmm13
#NO_APP
vpshufb %xmm12, %xmm0, %xmm4
vmovaps 176(%rsp), %xmm8
vmovaps 304(%rsp), %xmm12
#APP
vaesenc %xmm8, %xmm14, %xmm14
vaesenc %xmm8, %xmm15, %xmm15
vaesenc %xmm8, %xmm1, %xmm1
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm8, %xmm3, %xmm3
vaesenc %xmm8, %xmm13, %xmm13
vpclmulqdq $16, %xmm12, %xmm4, %xmm9
vpxor %xmm6, %xmm9, %xmm6
vpclmulqdq $0, %xmm12, %xmm4, %xmm9
vpxor %xmm5, %xmm9, %xmm5
vpclmulqdq $17, %xmm12, %xmm4, %xmm9
vpxor %xmm7, %xmm9, %xmm7
vpclmulqdq $1, %xmm12, %xmm4, %xmm9
vpxor %xmm6, %xmm9, %xmm6
#NO_APP
vmovdqa 240(%rsp), %xmm8
vmovaps 96(%rsp), %xmm4
#APP
vaesenc %xmm4, %xmm14, %xmm14
vaesenc %xmm4, %xmm15, %xmm15
vaesenc %xmm4, %xmm1, %xmm1
vaesenc %xmm4, %xmm2, %xmm2
vaesenc %xmm4, %xmm3, %xmm3
vaesenc %xmm4, %xmm13, %xmm13
#NO_APP
vmovdqa 144(%rsp), %xmm12
vmovdqa 320(%rsp), %xmm9
vmovaps 464(%rsp), %xmm0
#APP
vaesenc %xmm12, %xmm14, %xmm14
vaesenc %xmm12, %xmm15, %xmm15
vaesenc %xmm12, %xmm1, %xmm1
vaesenc %xmm12, %xmm2, %xmm2
vaesenc %xmm12, %xmm3, %xmm3
vaesenc %xmm12, %xmm13, %xmm13
vpclmulqdq $16, %xmm9, %xmm0, %xmm4
vpxor %xmm4, %xmm6, %xmm6
vpclmulqdq $0, %xmm9, %xmm0, %xmm4
vpxor %xmm4, %xmm5, %xmm5
vpclmulqdq $17, %xmm9, %xmm0, %xmm4
vpxor %xmm4, %xmm7, %xmm7
vpclmulqdq $1, %xmm9, %xmm0, %xmm4
vpxor %xmm4, %xmm6, %xmm6
#NO_APP
vpxor %xmm12, %xmm12, %xmm12
vpunpcklqdq %xmm6, %xmm12, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpunpckhqdq %xmm12, %xmm6, %xmm5
vpxor %xmm5, %xmm7, %xmm5
vpbroadcastq .LCPI2_25(%rip), %xmm7
vpclmulqdq $16, %xmm7, %xmm4, %xmm6
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm6, %xmm4
vpshufd $78, %xmm4, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vpclmulqdq $16, %xmm7, %xmm4, %xmm4
vpxor %xmm4, %xmm5, %xmm5
vmovaps 208(%rsp), %xmm4
#APP
vaesenc %xmm4, %xmm14, %xmm14
vaesenc %xmm4, %xmm15, %xmm15
vaesenc %xmm4, %xmm1, %xmm1
vaesenc %xmm4, %xmm2, %xmm2
vaesenc %xmm4, %xmm3, %xmm3
vaesenc %xmm4, %xmm13, %xmm13
#NO_APP
#APP
vaesenclast %xmm8, %xmm14, %xmm14
vaesenclast %xmm8, %xmm15, %xmm15
vaesenclast %xmm8, %xmm1, %xmm1
vaesenclast %xmm8, %xmm2, %xmm2
vaesenclast %xmm8, %xmm3, %xmm3
vaesenclast %xmm8, %xmm13, %xmm13
#NO_APP
vpxor 368(%rsp), %xmm14, %xmm4
vpxor 432(%rsp), %xmm15, %xmm0
vpxor 80(%rsp), %xmm1, %xmm1
vxorps 448(%rsp), %xmm2, %xmm2
vpxor 480(%rsp), %xmm3, %xmm3
vmovdqu %xmm4, (%rax)
vmovdqa %xmm5, %xmm4
vmovdqu %xmm0, 16(%rax)
vmovdqu %xmm1, 32(%rax)
vmovups %xmm2, 48(%rax)
vmovdqu %xmm3, 64(%rax)
vpxor 384(%rsp), %xmm13, %xmm0
vmovdqu %xmm0, 80(%rax)
vmovdqa (%rsp), %xmm2
addq $96, %r9
addq $96, %rax
addq $-96, %rbx
vpaddd .LCPI2_21(%rip), %xmm2, %xmm2
cmpq $95, %rbx
ja .LBB2_32
vmovdqa 16(%rsp), %xmm5
vmovdqa 112(%rsp), %xmm15
vmovdqa 160(%rsp), %xmm1
vmovaps 96(%rsp), %xmm6
vmovdqa 144(%rsp), %xmm0
vmovdqa 208(%rsp), %xmm11
cmpq $16, %rbx
vmovdqa 192(%rsp), %xmm8
jae .LBB2_34
.LBB2_30:
movq %rax, %r14
vmovdqa %xmm2, %xmm7
jmp .LBB2_36
.LBB2_28:
vmovdqa 144(%rsp), %xmm0
vmovdqa 208(%rsp), %xmm11
vmovdqa 160(%rsp), %xmm1
cmpq $16, %rbx
vmovdqa 192(%rsp), %xmm8
jb .LBB2_30
.LBB2_34:
vmovdqa 64(%rsp), %xmm13
vmovdqa %xmm2, %xmm7
vmovdqa 272(%rsp), %xmm12
vmovdqa 192(%rsp), %xmm8
.p2align 4, 0x90
.LBB2_35:
vmovdqu (%r9), %xmm2
vmovdqa .LCPI2_13(%rip), %xmm3
vpshufb %xmm3, %xmm2, %xmm3
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $0, %xmm3, %xmm13, %xmm4
vmovdqa %xmm5, %xmm9
vpclmulqdq $1, %xmm3, %xmm13, %xmm5
vmovaps %xmm6, %xmm14
vpclmulqdq $16, %xmm3, %xmm13, %xmm6
vpxor %xmm5, %xmm6, %xmm5
vpslldq $8, %xmm5, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vmovaps %xmm14, %xmm6
vmovdqa 240(%rsp), %xmm14
vpclmulqdq $17, %xmm3, %xmm13, %xmm3
vpsrldq $8, %xmm5, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpbroadcastq .LCPI2_25(%rip), %xmm10
vpclmulqdq $16, %xmm10, %xmm4, %xmm5
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpshufd $78, %xmm4, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vmovdqa %xmm9, %xmm5
vmovdqa 256(%rsp), %xmm9
vpclmulqdq $16, %xmm10, %xmm4, %xmm4
vpxor %xmm3, %xmm4, %xmm4
vpshufb .LCPI2_13(%rip), %xmm7, %xmm3
vmovdqa 224(%rsp), %xmm10
vpxor %xmm3, %xmm10, %xmm3
vaesenc 288(%rsp), %xmm3, %xmm3
vaesenc 32(%rsp), %xmm3, %xmm3
vaesenc %xmm5, %xmm3, %xmm3
vaesenc %xmm15, %xmm3, %xmm3
vaesenc %xmm12, %xmm3, %xmm3
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm1, %xmm3, %xmm3
vaesenc %xmm8, %xmm3, %xmm3
vaesenc 128(%rsp), %xmm3, %xmm3
vaesenc 176(%rsp), %xmm3, %xmm3
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm0, %xmm3, %xmm3
vaesenc %xmm11, %xmm3, %xmm3
vaesenclast %xmm14, %xmm3, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vmovdqu %xmm2, (%rax)
leaq 16(%rax), %r14
addq $-16, %rbx
addq $16, %r9
vpaddd .LCPI2_16(%rip), %xmm7, %xmm7
movq %r14, %rax
cmpq $15, %rbx
ja .LBB2_35
.LBB2_36:
vmovdqa %xmm7, (%rsp)
vmovdqa %xmm4, 80(%rsp)
testq %rbx, %rbx
je .LBB2_37
movq %r8, %r13
vpxor %xmm2, %xmm2, %xmm2
vmovdqa %xmm2, 48(%rsp)
leaq 48(%rsp), %rdi
movq memcpy@GOTPCREL(%rip), %rbp
movq %r9, %rsi
movq %rbx, %rdx
callq *%rbp
vmovdqa 48(%rsp), %xmm1
vmovdqa (%rsp), %xmm0
vpshufb .LCPI2_13(%rip), %xmm0, %xmm0
vpxor 224(%rsp), %xmm0, %xmm0
vaesenc 288(%rsp), %xmm0, %xmm0
vaesenc 32(%rsp), %xmm0, %xmm0
vaesenc 16(%rsp), %xmm0, %xmm0
vaesenc 112(%rsp), %xmm0, %xmm0
vaesenc 272(%rsp), %xmm0, %xmm0
vaesenc 256(%rsp), %xmm0, %xmm0
vaesenc 160(%rsp), %xmm0, %xmm0
vaesenc 192(%rsp), %xmm0, %xmm0
vaesenc 128(%rsp), %xmm0, %xmm0
vaesenc 176(%rsp), %xmm0, %xmm0
vaesenc 96(%rsp), %xmm0, %xmm0
vaesenc 144(%rsp), %xmm0, %xmm0
vaesenc 208(%rsp), %xmm0, %xmm0
vaesenclast 240(%rsp), %xmm0, %xmm0
vmovdqa %xmm1, 384(%rsp)
vpxor %xmm1, %xmm0, %xmm0
vmovdqa %xmm0, 368(%rsp)
vmovdqa %xmm0, 48(%rsp)
leaq 48(%rsp), %rsi
movq %r14, %rdi
movq %rbx, %rdx
callq *%rbp
vmovups (%r12), %xmm0
vmovaps %xmm0, (%rsp)
testq %r15, %r15
je .LBB2_41
vmovaps 384(%rsp), %xmm0
vmovaps %xmm0, 496(%rsp)
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, 48(%rsp)
leaq 48(%rsp), %rdi
leaq 496(%rsp), %rsi
movq %rbx, %rdx
callq *memcpy@GOTPCREL(%rip)
vmovdqa 48(%rsp), %xmm0
movq %r13, %r8
jmp .LBB2_43
.LBB2_37:
vmovdqu (%r12), %xmm13
vpbroadcastq .LCPI2_25(%rip), %xmm4
vmovdqa %xmm1, %xmm9
vmovdqa 64(%rsp), %xmm10
vmovdqa 32(%rsp), %xmm12
vmovdqa %xmm0, %xmm11
vmovdqa 128(%rsp), %xmm7
vmovdqa 80(%rsp), %xmm2
vmovdqa 176(%rsp), %xmm14
jmp .LBB2_44
.LBB2_46:
vpshufb .LCPI2_13(%rip), %xmm0, %xmm0
vpxor 80(%rsp), %xmm0, %xmm0
vmovdqa 64(%rsp), %xmm10
vpclmulqdq $0, %xmm0, %xmm10, %xmm1
vpclmulqdq $1, %xmm0, %xmm10, %xmm2
vpclmulqdq $16, %xmm0, %xmm10, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $17, %xmm0, %xmm10, %xmm0
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpsrldq $8, %xmm2, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI2_25(%rip), %xmm3
vpclmulqdq $16, %xmm3, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpclmulqdq $16, %xmm3, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm4
vmovdqa 32(%rsp), %xmm9
vmovdqa 16(%rsp), %xmm5
vmovdqa 112(%rsp), %xmm15
vmovdqa 128(%rsp), %xmm7
vmovaps 96(%rsp), %xmm6
.LBB2_39:
vmovdqu (%r12), %xmm13
vmovdqa %xmm4, %xmm2
vmovdqa %xmm3, %xmm4
vmovdqa 192(%rsp), %xmm8
vmovdqa 144(%rsp), %xmm11
vmovdqa 176(%rsp), %xmm14
vmovdqa %xmm9, %xmm12
vmovdqa 160(%rsp), %xmm9
jmp .LBB2_44
.LBB2_41:
movq %r13, %r8
vmovdqa 368(%rsp), %xmm0
.LBB2_43:
vpshufb .LCPI2_13(%rip), %xmm0, %xmm0
vpxor 80(%rsp), %xmm0, %xmm0
vmovdqa 64(%rsp), %xmm10
vpclmulqdq $0, %xmm0, %xmm10, %xmm1
vpclmulqdq $1, %xmm0, %xmm10, %xmm2
vpclmulqdq $16, %xmm0, %xmm10, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $17, %xmm0, %xmm10, %xmm0
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpsrldq $8, %xmm2, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI2_25(%rip), %xmm4
vpclmulqdq $16, %xmm4, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpclmulqdq $16, %xmm4, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm2
vmovdqa 32(%rsp), %xmm12
vmovdqa 16(%rsp), %xmm5
vmovdqa 112(%rsp), %xmm15
vmovdqa 160(%rsp), %xmm9
vmovdqa 192(%rsp), %xmm8
vmovdqa 128(%rsp), %xmm7
vmovdqa 176(%rsp), %xmm14
vmovaps 96(%rsp), %xmm6
vmovdqa 144(%rsp), %xmm11
vmovdqa (%rsp), %xmm13
.LBB2_44:
shlq $3, %r15
vmovq %r8, %xmm0
vmovq %r15, %xmm1
vpunpcklqdq %xmm0, %xmm1, %xmm0
vpxor %xmm2, %xmm0, %xmm0
vpclmulqdq $1, %xmm0, %xmm10, %xmm1
vpclmulqdq $16, %xmm0, %xmm10, %xmm2
vpxor %xmm1, %xmm2, %xmm1
vpclmulqdq $0, %xmm0, %xmm10, %xmm2
vpclmulqdq $17, %xmm0, %xmm10, %xmm0
vpslldq $8, %xmm1, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vpclmulqdq $16, %xmm4, %xmm2, %xmm3
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $16, %xmm4, %xmm2, %xmm3
vpxor %xmm0, %xmm3, %xmm0
vmovdqa 224(%rsp), %xmm3
vpxor 400(%rsp), %xmm3, %xmm3
vaesenc 288(%rsp), %xmm3, %xmm3
vaesenc %xmm12, %xmm3, %xmm3
vaesenc %xmm5, %xmm3, %xmm3
vaesenc %xmm15, %xmm3, %xmm3
vaesenc 272(%rsp), %xmm3, %xmm3
vaesenc 256(%rsp), %xmm3, %xmm3
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm8, %xmm3, %xmm3
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm14, %xmm3, %xmm3
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm11, %xmm3, %xmm3
vaesenc 208(%rsp), %xmm3, %xmm3
vaesenclast 240(%rsp), %xmm3, %xmm3
vpshufb .LCPI2_22(%rip), %xmm1, %xmm1
vpshufb .LCPI2_23(%rip), %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpxor %xmm1, %xmm13, %xmm1
vpshufb .LCPI2_13(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpxor %xmm3, %xmm0, %xmm0
xorl %eax, %eax
vptest %xmm0, %xmm0
sete %al
.LBB2_45:
addq $520, %rsp
.cfi_def_cfa_offset 56
popq %rbx
.cfi_def_cfa_offset 48
popq %r12
.cfi_def_cfa_offset 40
popq %r13
.cfi_def_cfa_offset 32
popq %r14
.cfi_def_cfa_offset 24
popq %r15
.cfi_def_cfa_offset 16
popq %rbp
.cfi_def_cfa_offset 8
retq
.Lfunc_end2:
.size haberdashery_aes256gcmdndkv2_broadwell_decrypt, .Lfunc_end2-haberdashery_aes256gcmdndkv2_broadwell_decrypt
.cfi_endproc
.section .text.haberdashery_aes256gcmdndkv2_broadwell_is_supported,"ax",@progbits
.globl haberdashery_aes256gcmdndkv2_broadwell_is_supported
.p2align 4, 0x90
.type haberdashery_aes256gcmdndkv2_broadwell_is_supported,@function
haberdashery_aes256gcmdndkv2_broadwell_is_supported:
.cfi_startproc
movl $1, %eax
xorl %ecx, %ecx
#APP
movq %rbx, %rsi
cpuid
xchgq %rbx, %rsi
#NO_APP
movl %ecx, %esi
movl %edx, %edi
notl %edi
notl %esi
movl $7, %eax
xorl %ecx, %ecx
#APP
movq %rbx, %r8
cpuid
xchgq %rbx, %r8
#NO_APP
andl $1993871875, %esi
andl $125829120, %edi
orl %esi, %edi
notl %r8d
andl $786729, %r8d
xorl %eax, %eax
orl %edi, %r8d
sete %al
retq
.Lfunc_end3:
.size haberdashery_aes256gcmdndkv2_broadwell_is_supported, .Lfunc_end3-haberdashery_aes256gcmdndkv2_broadwell_is_supported
.cfi_endproc
.ident "rustc version 1.86.0-nightly (9cd60bd2c 2025-02-15)"
.section ".note.GNU-stack","",@progbits
|
ts-phantomnk90/haberdashery
| 78,059
|
asm/aes256gcmdndkv2kc_skylakex.s
|
# @generated
# https://github.com/facebookincubator/haberdashery/
.text
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI0_0:
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI0_1:
.quad 4294967297
.LCPI0_2:
.quad 8589934594
.LCPI0_3:
.quad 17179869188
.LCPI0_4:
.quad 34359738376
.LCPI0_5:
.quad 68719476752
.LCPI0_6:
.quad 137438953504
.LCPI0_7:
.quad 274877907008
.section .rodata.cst4,"aM",@progbits,4
.p2align 2, 0x0
.LCPI0_8:
.byte 13
.byte 14
.byte 15
.byte 12
.section .text.haberdashery_aes256gcmdndkv2kc_skylakex_init,"ax",@progbits
.globl haberdashery_aes256gcmdndkv2kc_skylakex_init
.p2align 4, 0x90
.type haberdashery_aes256gcmdndkv2kc_skylakex_init,@function
haberdashery_aes256gcmdndkv2kc_skylakex_init:
.cfi_startproc
cmpq $32, %rdx
jne .LBB0_2
vmovupd (%rsi), %xmm0
vmovdqu 16(%rsi), %xmm1
vpslldq $4, %xmm0, %xmm2
vpslldq $8, %xmm0, %xmm3
vpslldq $12, %xmm0, %xmm4
vpternlogq $150, %xmm3, %xmm2, %xmm4
vpbroadcastd .LCPI0_8(%rip), %xmm3
vpshufb %xmm3, %xmm1, %xmm2
vpbroadcastq .LCPI0_1(%rip), %xmm5
vaesenclast %xmm5, %xmm2, %xmm2
vpternlogq $150, %xmm4, %xmm0, %xmm2
vpslldq $4, %xmm1, %xmm4
vpslldq $8, %xmm1, %xmm5
vpslldq $12, %xmm1, %xmm7
vpternlogq $150, %xmm5, %xmm4, %xmm7
vpshufd $255, %xmm2, %xmm4
vpxor %xmm6, %xmm6, %xmm6
vaesenclast %xmm6, %xmm4, %xmm4
vpternlogq $150, %xmm7, %xmm1, %xmm4
vpslldq $4, %xmm2, %xmm5
vpslldq $8, %xmm2, %xmm7
vpslldq $12, %xmm2, %xmm8
vpternlogq $150, %xmm7, %xmm5, %xmm8
vpshufb %xmm3, %xmm4, %xmm5
vpbroadcastq .LCPI0_2(%rip), %xmm7
vaesenclast %xmm7, %xmm5, %xmm5
vpternlogq $150, %xmm8, %xmm2, %xmm5
vpslldq $4, %xmm4, %xmm7
vpslldq $8, %xmm4, %xmm8
vpslldq $12, %xmm4, %xmm9
vpternlogq $150, %xmm8, %xmm7, %xmm9
vpshufd $255, %xmm5, %xmm7
vaesenclast %xmm6, %xmm7, %xmm7
vpternlogq $150, %xmm9, %xmm4, %xmm7
vpslldq $4, %xmm5, %xmm8
vpslldq $8, %xmm5, %xmm9
vpslldq $12, %xmm5, %xmm10
vpternlogq $150, %xmm9, %xmm8, %xmm10
vpshufb %xmm3, %xmm7, %xmm8
vpbroadcastq .LCPI0_3(%rip), %xmm9
vaesenclast %xmm9, %xmm8, %xmm8
vpternlogq $150, %xmm10, %xmm5, %xmm8
vpslldq $4, %xmm7, %xmm9
vpslldq $8, %xmm7, %xmm10
vpslldq $12, %xmm7, %xmm11
vpternlogq $150, %xmm10, %xmm9, %xmm11
vpshufd $255, %xmm8, %xmm9
vaesenclast %xmm6, %xmm9, %xmm9
vpternlogq $150, %xmm11, %xmm7, %xmm9
vpslldq $4, %xmm8, %xmm10
vpslldq $8, %xmm8, %xmm11
vpslldq $12, %xmm8, %xmm12
vpternlogq $150, %xmm11, %xmm10, %xmm12
vpshufb %xmm3, %xmm9, %xmm10
vpbroadcastq .LCPI0_4(%rip), %xmm11
vaesenclast %xmm11, %xmm10, %xmm10
vpternlogq $150, %xmm12, %xmm8, %xmm10
vpslldq $4, %xmm9, %xmm11
vpslldq $8, %xmm9, %xmm12
vpslldq $12, %xmm9, %xmm13
vpternlogq $150, %xmm12, %xmm11, %xmm13
vpshufd $255, %xmm10, %xmm11
vaesenclast %xmm6, %xmm11, %xmm11
vpternlogq $150, %xmm13, %xmm9, %xmm11
vpslldq $4, %xmm10, %xmm12
vpslldq $8, %xmm10, %xmm13
vpslldq $12, %xmm10, %xmm14
vpternlogq $150, %xmm13, %xmm12, %xmm14
vpshufb %xmm3, %xmm11, %xmm12
vpbroadcastq .LCPI0_5(%rip), %xmm13
vaesenclast %xmm13, %xmm12, %xmm12
vpternlogq $150, %xmm14, %xmm10, %xmm12
vpslldq $4, %xmm11, %xmm13
vpslldq $8, %xmm11, %xmm14
vpslldq $12, %xmm11, %xmm15
vpternlogq $150, %xmm14, %xmm13, %xmm15
vpshufd $255, %xmm12, %xmm13
vaesenclast %xmm6, %xmm13, %xmm13
vpternlogq $150, %xmm15, %xmm11, %xmm13
vpslldq $4, %xmm12, %xmm14
vpslldq $8, %xmm12, %xmm15
vpslldq $12, %xmm12, %xmm16
vpternlogq $150, %xmm15, %xmm14, %xmm16
vpshufb %xmm3, %xmm13, %xmm14
vpbroadcastq .LCPI0_6(%rip), %xmm15
vaesenclast %xmm15, %xmm14, %xmm14
vpternlogq $150, %xmm16, %xmm12, %xmm14
vpslldq $4, %xmm13, %xmm15
vpslldq $8, %xmm13, %xmm16
vpslldq $12, %xmm13, %xmm17
vpternlogq $150, %xmm16, %xmm15, %xmm17
vpshufd $255, %xmm14, %xmm15
vaesenclast %xmm6, %xmm15, %xmm6
vpternlogq $150, %xmm17, %xmm13, %xmm6
vpslldq $4, %xmm14, %xmm15
vpslldq $8, %xmm14, %xmm16
vpslldq $12, %xmm14, %xmm17
vpternlogq $150, %xmm16, %xmm15, %xmm17
vpshufb %xmm3, %xmm6, %xmm3
vpbroadcastq .LCPI0_7(%rip), %xmm15
vaesenclast %xmm15, %xmm3, %xmm3
vpternlogq $150, %xmm17, %xmm14, %xmm3
vmovdqa %xmm0, (%rdi)
vmovdqa %xmm1, 16(%rdi)
vmovdqa %xmm2, 32(%rdi)
vmovdqa %xmm4, 48(%rdi)
vmovdqa %xmm5, 64(%rdi)
vmovdqa %xmm7, 80(%rdi)
vmovdqa %xmm8, 96(%rdi)
vmovdqa %xmm9, 112(%rdi)
vmovdqa %xmm10, 128(%rdi)
vmovdqa %xmm11, 144(%rdi)
vmovdqa %xmm12, 160(%rdi)
vmovdqa %xmm13, 176(%rdi)
vmovdqa %xmm14, 192(%rdi)
vmovdqa %xmm6, 208(%rdi)
vmovdqa %xmm3, 224(%rdi)
.LBB0_2:
xorl %eax, %eax
cmpq $32, %rdx
sete %al
retq
.Lfunc_end0:
.size haberdashery_aes256gcmdndkv2kc_skylakex_init, .Lfunc_end0-haberdashery_aes256gcmdndkv2kc_skylakex_init
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI1_0:
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 0
.LCPI1_1:
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 224
.LCPI1_2:
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 225
.LCPI1_3:
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 226
.LCPI1_4:
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 227
.LCPI1_5:
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 228
.LCPI1_6:
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.LCPI1_15:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI1_17:
.byte 15
.byte 128
.byte 128
.byte 128
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI1_18:
.long 1
.long 0
.long 0
.long 0
.LCPI1_19:
.long 2
.long 0
.long 0
.long 0
.LCPI1_20:
.long 3
.long 0
.long 0
.long 0
.LCPI1_21:
.long 4
.long 0
.long 0
.long 0
.LCPI1_22:
.long 5
.long 0
.long 0
.long 0
.LCPI1_23:
.long 6
.long 0
.long 0
.long 0
.LCPI1_24:
.long 7
.long 0
.long 0
.long 0
.LCPI1_25:
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.LCPI1_26:
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI1_7:
.quad 4294967297
.LCPI1_14:
.quad 274877907008
.LCPI1_16:
.quad -4467570830351532032
.section .rodata.cst4,"aM",@progbits,4
.p2align 2, 0x0
.LCPI1_8:
.long 0x00000002
.LCPI1_9:
.long 0x0c0f0e0d
.LCPI1_10:
.long 0x00000004
.LCPI1_11:
.long 0x00000008
.LCPI1_12:
.long 0x00000010
.LCPI1_13:
.long 0x00000020
.section .rodata,"a",@progbits
.LCPI1_27:
.byte 1
.byte 0
.section .text.haberdashery_aes256gcmdndkv2kc_skylakex_encrypt,"ax",@progbits
.globl haberdashery_aes256gcmdndkv2kc_skylakex_encrypt
.p2align 4, 0x90
.type haberdashery_aes256gcmdndkv2kc_skylakex_encrypt,@function
haberdashery_aes256gcmdndkv2kc_skylakex_encrypt:
.cfi_startproc
pushq %rbp
.cfi_def_cfa_offset 16
pushq %rbx
.cfi_def_cfa_offset 24
subq $200, %rsp
.cfi_def_cfa_offset 224
.cfi_offset %rbx, -24
.cfi_offset %rbp, -16
movq 224(%rsp), %r10
xorl %eax, %eax
cmpq 240(%rsp), %r10
jne .LBB1_45
movq %r10, %r11
shrq $5, %r11
cmpq $2147483646, %r11
ja .LBB1_45
movabsq $2305843009213693950, %r11
cmpq %r11, %r8
ja .LBB1_45
cmpq $24, %rdx
jne .LBB1_45
cmpq $48, 256(%rsp)
jne .LBB1_45
vmovdqu64 (%rsi), %xmm18
vmovdqa (%rdi), %xmm12
vmovdqa 16(%rdi), %xmm11
vmovdqa 32(%rdi), %xmm9
vmovdqa 48(%rdi), %xmm8
vpternlogq $120, .LCPI1_0(%rip), %xmm18, %xmm12
vpxor .LCPI1_1(%rip), %xmm12, %xmm0
vaesenc %xmm11, %xmm0, %xmm0
vaesenc %xmm9, %xmm0, %xmm0
vaesenc %xmm8, %xmm0, %xmm1
vmovdqa 64(%rdi), %xmm0
vaesenc %xmm0, %xmm1, %xmm2
vmovdqa 80(%rdi), %xmm1
vaesenc %xmm1, %xmm2, %xmm3
vmovdqa 96(%rdi), %xmm2
vaesenc %xmm2, %xmm3, %xmm4
vmovdqa 112(%rdi), %xmm3
vaesenc %xmm3, %xmm4, %xmm5
vmovdqa 128(%rdi), %xmm4
vaesenc %xmm4, %xmm5, %xmm6
vmovdqa 144(%rdi), %xmm5
vaesenc %xmm5, %xmm6, %xmm7
vmovdqa 160(%rdi), %xmm6
vaesenc %xmm6, %xmm7, %xmm13
vmovdqa 176(%rdi), %xmm7
vaesenc %xmm7, %xmm13, %xmm13
vpxor .LCPI1_2(%rip), %xmm12, %xmm14
vaesenc %xmm11, %xmm14, %xmm14
vpxor .LCPI1_3(%rip), %xmm12, %xmm15
vaesenc %xmm11, %xmm15, %xmm15
vpxor .LCPI1_4(%rip), %xmm12, %xmm10
vaesenc %xmm11, %xmm10, %xmm10
vpxor .LCPI1_5(%rip), %xmm12, %xmm12
vaesenc %xmm11, %xmm12, %xmm12
vmovdqa 192(%rdi), %xmm11
vaesenc %xmm11, %xmm13, %xmm13
vaesenc %xmm9, %xmm14, %xmm14
vaesenc %xmm9, %xmm15, %xmm15
vaesenc %xmm9, %xmm10, %xmm10
vaesenc %xmm9, %xmm12, %xmm12
vmovdqa 208(%rdi), %xmm9
vaesenc %xmm8, %xmm14, %xmm14
vaesenc %xmm8, %xmm15, %xmm15
vaesenc %xmm8, %xmm10, %xmm10
vaesenc %xmm8, %xmm12, %xmm8
vmovdqa64 %xmm8, %xmm16
vmovdqa 224(%rdi), %xmm12
vaesenc %xmm9, %xmm13, %xmm8
vaesenclast %xmm12, %xmm8, %xmm8
vaesenc %xmm0, %xmm14, %xmm13
vaesenc %xmm1, %xmm13, %xmm13
vaesenc %xmm2, %xmm13, %xmm13
vaesenc %xmm3, %xmm13, %xmm13
vaesenc %xmm4, %xmm13, %xmm13
vaesenc %xmm5, %xmm13, %xmm13
vaesenc %xmm6, %xmm13, %xmm13
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm11, %xmm13, %xmm13
vaesenc %xmm9, %xmm13, %xmm13
vaesenclast %xmm12, %xmm13, %xmm14
vaesenc %xmm0, %xmm15, %xmm13
vaesenc %xmm1, %xmm13, %xmm13
vaesenc %xmm2, %xmm13, %xmm13
vaesenc %xmm3, %xmm13, %xmm13
vaesenc %xmm4, %xmm13, %xmm13
vaesenc %xmm5, %xmm13, %xmm13
vaesenc %xmm6, %xmm13, %xmm13
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm11, %xmm13, %xmm13
vaesenc %xmm9, %xmm13, %xmm13
vaesenclast %xmm12, %xmm13, %xmm13
vaesenc %xmm0, %xmm10, %xmm10
vaesenc %xmm1, %xmm10, %xmm10
vaesenc %xmm2, %xmm10, %xmm10
vaesenc %xmm3, %xmm10, %xmm10
vaesenc %xmm4, %xmm10, %xmm10
vaesenc %xmm5, %xmm10, %xmm10
vaesenc %xmm6, %xmm10, %xmm10
vaesenc %xmm7, %xmm10, %xmm10
vaesenc %xmm11, %xmm10, %xmm10
vaesenc %xmm9, %xmm10, %xmm10
vaesenclast %xmm12, %xmm10, %xmm10
vmovdqa64 %xmm16, %xmm15
vaesenc %xmm0, %xmm15, %xmm0
vaesenc %xmm1, %xmm0, %xmm0
vaesenc %xmm2, %xmm0, %xmm0
vaesenc %xmm3, %xmm0, %xmm0
vaesenc %xmm4, %xmm0, %xmm0
vaesenc %xmm5, %xmm0, %xmm0
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm7, %xmm0, %xmm0
vaesenc %xmm11, %xmm0, %xmm0
vaesenc %xmm9, %xmm0, %xmm0
vaesenclast %xmm12, %xmm0, %xmm0
vpxor %xmm8, %xmm14, %xmm4
vpxor %xmm8, %xmm13, %xmm6
vpxorq %xmm8, %xmm10, %xmm16
vpxorq %xmm8, %xmm0, %xmm17
vpslldq $4, %xmm4, %xmm0
vpslldq $8, %xmm4, %xmm1
vpslldq $12, %xmm4, %xmm2
vpternlogq $150, %xmm1, %xmm0, %xmm2
vpbroadcastd .LCPI1_9(%rip), %xmm1
vpshufb %xmm1, %xmm6, %xmm0
vpbroadcastq .LCPI1_7(%rip), %xmm3
vaesenclast %xmm3, %xmm0, %xmm10
vpternlogq $150, %xmm2, %xmm4, %xmm10
vmovdqa64 %xmm4, %xmm29
vaesenc %xmm6, %xmm4, %xmm0
vpslldq $4, %xmm6, %xmm2
vpslldq $8, %xmm6, %xmm3
vpslldq $12, %xmm6, %xmm4
vpternlogq $150, %xmm3, %xmm2, %xmm4
vpshufd $255, %xmm10, %xmm2
vpxor %xmm5, %xmm5, %xmm5
vaesenclast %xmm5, %xmm2, %xmm8
vmovdqa64 %xmm6, %xmm27
vpternlogq $150, %xmm4, %xmm6, %xmm8
vbroadcastss .LCPI1_8(%rip), %xmm3
vbroadcastss .LCPI1_9(%rip), %xmm2
#APP
vaesenc %xmm10, %xmm0, %xmm0
vpslldq $4, %xmm10, %xmm4
vpslldq $8, %xmm10, %xmm6
vpslldq $12, %xmm10, %xmm7
vpternlogq $150, %xmm4, %xmm6, %xmm7
vpshufb %xmm2, %xmm8, %xmm11
vaesenclast %xmm3, %xmm11, %xmm11
vpternlogq $150, %xmm10, %xmm7, %xmm11
#NO_APP
vmovdqa64 %xmm8, %xmm19
#APP
vaesenc %xmm8, %xmm0, %xmm0
vpslldq $4, %xmm8, %xmm3
vpslldq $8, %xmm8, %xmm4
vpslldq $12, %xmm8, %xmm6
vpternlogq $150, %xmm3, %xmm4, %xmm6
vpshufd $255, %xmm11, %xmm9
vaesenclast %xmm5, %xmm9, %xmm9
vpternlogq $150, %xmm8, %xmm6, %xmm9
#NO_APP
vbroadcastss .LCPI1_10(%rip), %xmm3
vmovdqa64 %xmm11, %xmm31
#APP
vaesenc %xmm11, %xmm0, %xmm0
vpslldq $4, %xmm11, %xmm4
vpslldq $8, %xmm11, %xmm6
vpslldq $12, %xmm11, %xmm7
vpternlogq $150, %xmm4, %xmm6, %xmm7
vpshufb %xmm2, %xmm9, %xmm8
vaesenclast %xmm3, %xmm8, %xmm8
vpternlogq $150, %xmm11, %xmm7, %xmm8
#NO_APP
vmovdqa64 %xmm9, %xmm30
#APP
vaesenc %xmm9, %xmm0, %xmm0
vpslldq $4, %xmm9, %xmm3
vpslldq $8, %xmm9, %xmm4
vpslldq $12, %xmm9, %xmm6
vpternlogq $150, %xmm3, %xmm4, %xmm6
vpshufd $255, %xmm8, %xmm15
vaesenclast %xmm5, %xmm15, %xmm15
vpternlogq $150, %xmm9, %xmm6, %xmm15
#NO_APP
vbroadcastss .LCPI1_11(%rip), %xmm3
vmovaps %xmm8, -80(%rsp)
#APP
vaesenc %xmm8, %xmm0, %xmm0
vpslldq $4, %xmm8, %xmm4
vpslldq $8, %xmm8, %xmm6
vpslldq $12, %xmm8, %xmm7
vpternlogq $150, %xmm4, %xmm6, %xmm7
vpshufb %xmm2, %xmm15, %xmm14
vaesenclast %xmm3, %xmm14, %xmm14
vpternlogq $150, %xmm8, %xmm7, %xmm14
#NO_APP
vmovaps %xmm15, -32(%rsp)
#APP
vaesenc %xmm15, %xmm0, %xmm0
vpslldq $4, %xmm15, %xmm3
vpslldq $8, %xmm15, %xmm4
vpslldq $12, %xmm15, %xmm6
vpternlogq $150, %xmm3, %xmm4, %xmm6
vpshufd $255, %xmm14, %xmm8
vaesenclast %xmm5, %xmm8, %xmm8
vpternlogq $150, %xmm15, %xmm6, %xmm8
#NO_APP
vbroadcastss .LCPI1_12(%rip), %xmm3
vmovaps %xmm14, -96(%rsp)
#APP
vaesenc %xmm14, %xmm0, %xmm0
vpslldq $4, %xmm14, %xmm4
vpslldq $8, %xmm14, %xmm6
vpslldq $12, %xmm14, %xmm7
vpternlogq $150, %xmm4, %xmm6, %xmm7
vpshufb %xmm2, %xmm8, %xmm13
vaesenclast %xmm3, %xmm13, %xmm13
vpternlogq $150, %xmm14, %xmm7, %xmm13
#NO_APP
vmovdqa %xmm8, %xmm14
#APP
vaesenc %xmm8, %xmm0, %xmm0
vpslldq $4, %xmm8, %xmm3
vpslldq $8, %xmm8, %xmm4
vpslldq $12, %xmm8, %xmm6
vpternlogq $150, %xmm3, %xmm4, %xmm6
vpshufd $255, %xmm13, %xmm11
vaesenclast %xmm5, %xmm11, %xmm11
vpternlogq $150, %xmm8, %xmm6, %xmm11
#NO_APP
vbroadcastss .LCPI1_13(%rip), %xmm3
#APP
vaesenc %xmm13, %xmm0, %xmm0
vpslldq $4, %xmm13, %xmm4
vpslldq $8, %xmm13, %xmm6
vpslldq $12, %xmm13, %xmm7
vpternlogq $150, %xmm4, %xmm6, %xmm7
vpshufb %xmm2, %xmm11, %xmm9
vaesenclast %xmm3, %xmm9, %xmm9
vpternlogq $150, %xmm13, %xmm7, %xmm9
#NO_APP
vpslldq $4, %xmm11, %xmm2
vpunpcklqdq %xmm11, %xmm5, %xmm3
vinsertps $55, %xmm11, %xmm0, %xmm4
vpternlogq $150, %xmm3, %xmm2, %xmm4
vpshufd $255, %xmm9, %xmm2
vaesenclast %xmm5, %xmm2, %xmm6
vpternlogq $150, %xmm4, %xmm11, %xmm6
vpshufb %xmm1, %xmm6, %xmm1
vpbroadcastq .LCPI1_14(%rip), %xmm2
vaesenclast %xmm2, %xmm1, %xmm4
vpslldq $4, %xmm9, %xmm1
vpunpcklqdq %xmm9, %xmm5, %xmm2
vinsertps $55, %xmm9, %xmm0, %xmm3
vpternlogq $150, %xmm2, %xmm1, %xmm3
vpternlogq $150, %xmm3, %xmm9, %xmm4
vaesenc %xmm11, %xmm0, %xmm0
vaesenc %xmm9, %xmm0, %xmm0
vaesenc %xmm6, %xmm0, %xmm0
vaesenclast %xmm4, %xmm0, %xmm0
vpshufb .LCPI1_15(%rip), %xmm0, %xmm0
vpaddq %xmm0, %xmm0, %xmm1
vpsrlq $63, %xmm0, %xmm0
vpshufd $78, %xmm0, %xmm2
vpblendd $12, %xmm0, %xmm5, %xmm0
vpsllq $63, %xmm0, %xmm3
vpternlogq $30, %xmm2, %xmm1, %xmm3
vpsllq $62, %xmm0, %xmm1
vpsllq $57, %xmm0, %xmm15
vpternlogq $150, %xmm1, %xmm3, %xmm15
vpclmulqdq $0, %xmm15, %xmm15, %xmm0
vpshufd $78, %xmm0, %xmm1
vpbroadcastq .LCPI1_16(%rip), %xmm12
vpclmulqdq $16, %xmm12, %xmm0, %xmm0
vpxor %xmm1, %xmm0, %xmm0
vpclmulqdq $16, %xmm12, %xmm0, %xmm1
vpshufd $78, %xmm0, %xmm8
vpclmulqdq $17, %xmm15, %xmm15, %xmm0
vpternlogq $150, %xmm1, %xmm0, %xmm8
vpclmulqdq $16, %xmm15, %xmm8, %xmm0
vpclmulqdq $1, %xmm15, %xmm8, %xmm1
vpxor %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm0, %xmm1
vpclmulqdq $0, %xmm15, %xmm8, %xmm2
vpxor %xmm1, %xmm2, %xmm1
vpshufd $78, %xmm1, %xmm2
vpclmulqdq $16, %xmm12, %xmm1, %xmm1
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $16, %xmm12, %xmm1, %xmm2
vpclmulqdq $17, %xmm15, %xmm8, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vpsrldq $8, %xmm0, %xmm0
vpshufd $78, %xmm1, %xmm3
vpternlogq $150, %xmm0, %xmm2, %xmm3
vpclmulqdq $0, %xmm3, %xmm3, %xmm0
vpshufd $78, %xmm0, %xmm1
vpclmulqdq $16, %xmm12, %xmm0, %xmm0
vpxor %xmm1, %xmm0, %xmm0
vpclmulqdq $16, %xmm12, %xmm0, %xmm1
vpshufd $78, %xmm0, %xmm2
vmovdqa %xmm3, (%rsp)
vpclmulqdq $17, %xmm3, %xmm3, %xmm0
vpternlogq $150, %xmm1, %xmm0, %xmm2
vmovdqa %xmm2, 32(%rsp)
vpclmulqdq $0, %xmm8, %xmm8, %xmm0
vpshufd $78, %xmm0, %xmm1
vpclmulqdq $16, %xmm12, %xmm0, %xmm0
vpxor %xmm1, %xmm0, %xmm0
vpclmulqdq $16, %xmm12, %xmm0, %xmm1
vpshufd $78, %xmm0, %xmm7
vmovdqa64 %xmm8, %xmm28
vpclmulqdq $17, %xmm8, %xmm8, %xmm0
vpternlogq $150, %xmm1, %xmm0, %xmm7
vpclmulqdq $16, %xmm15, %xmm7, %xmm0
vpclmulqdq $1, %xmm15, %xmm7, %xmm1
vpxor %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm0, %xmm1
vpclmulqdq $0, %xmm15, %xmm7, %xmm2
vpxor %xmm1, %xmm2, %xmm1
vpshufd $78, %xmm1, %xmm2
vpclmulqdq $16, %xmm12, %xmm1, %xmm1
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $16, %xmm12, %xmm1, %xmm2
vpclmulqdq $17, %xmm15, %xmm7, %xmm3
vpxor %xmm2, %xmm3, %xmm2
movq 248(%rsp), %rdx
movzbl 16(%rsi), %edi
movzbl 17(%rsi), %r11d
vpextrb $15, %xmm18, %ebx
movzbl 23(%rsi), %ebp
vpsrldq $8, %xmm0, %xmm0
vpshufd $78, %xmm1, %xmm1
vpternlogq $150, %xmm0, %xmm2, %xmm1
shll $8, %edi
orl %ebx, %edi
shll $16, %r11d
orl %edi, %r11d
movzbl 18(%rsi), %edi
shll $24, %edi
orl %r11d, %edi
vmovd %edi, %xmm0
vpinsrd $1, 19(%rsi), %xmm0, %xmm0
vmovdqu64 %xmm16, (%rdx)
vmovdqu64 %xmm17, 16(%rdx)
vpinsrd $2, %ebp, %xmm0, %xmm0
movl $16777216, %esi
vpinsrd $3, %esi, %xmm0, %xmm26
testq %r8, %r8
vmovaps %xmm11, -112(%rsp)
vmovaps %xmm9, -128(%rsp)
vmovdqa %xmm6, -48(%rsp)
vmovdqa %xmm4, -64(%rsp)
vmovdqa %xmm7, 16(%rsp)
vmovdqa %xmm1, -16(%rsp)
je .LBB1_23
cmpq $96, %r8
jb .LBB1_7
vmovdqa64 %xmm13, %xmm23
vmovdqa64 %xmm14, %xmm25
vmovdqa64 %xmm30, %xmm24
vmovdqa64 %xmm31, %xmm20
vmovdqa64 %xmm19, %xmm16
vmovdqa64 %xmm10, %xmm19
vmovdqa64 %xmm27, %xmm18
vmovdqa64 %xmm29, %xmm17
vmovdqa64 .LCPI1_15(%rip), %xmm27
movq %r8, %rsi
vmovdqa 32(%rsp), %xmm8
vmovdqa 16(%rsp), %xmm7
vmovdqa64 %xmm15, %xmm21
vmovdqa64 %xmm28, %xmm15
vmovdqa (%rsp), %xmm0
vmovdqa64 -16(%rsp), %xmm29
.p2align 4, 0x90
.LBB1_21:
vmovdqu64 (%rcx), %xmm22
vmovdqu 16(%rcx), %xmm2
vmovdqu 32(%rcx), %xmm3
vmovdqu 48(%rcx), %xmm4
vmovdqu 64(%rcx), %xmm6
vmovdqu 80(%rcx), %xmm11
vpshufb %xmm27, %xmm4, %xmm4
vpshufb %xmm27, %xmm6, %xmm6
vpshufb %xmm27, %xmm11, %xmm11
vmovdqa64 %xmm21, %xmm1
vpclmulqdq $0, %xmm11, %xmm1, %xmm12
vpclmulqdq $1, %xmm11, %xmm1, %xmm13
vpclmulqdq $16, %xmm11, %xmm1, %xmm14
vpxor %xmm13, %xmm14, %xmm13
vpclmulqdq $0, %xmm6, %xmm15, %xmm14
vpclmulqdq $1, %xmm6, %xmm15, %xmm10
vpclmulqdq $16, %xmm6, %xmm15, %xmm9
vpternlogq $150, %xmm10, %xmm13, %xmm9
vpclmulqdq $0, %xmm4, %xmm0, %xmm10
vpternlogq $150, %xmm12, %xmm14, %xmm10
vpclmulqdq $1, %xmm4, %xmm0, %xmm12
vpclmulqdq $16, %xmm4, %xmm0, %xmm13
vpternlogq $150, %xmm12, %xmm9, %xmm13
vpbroadcastq .LCPI1_16(%rip), %xmm12
vpshufb %xmm27, %xmm2, %xmm2
vpshufb %xmm27, %xmm3, %xmm3
vpclmulqdq $17, %xmm11, %xmm1, %xmm9
vpclmulqdq $17, %xmm6, %xmm15, %xmm6
vpclmulqdq $17, %xmm4, %xmm0, %xmm4
vpternlogq $150, %xmm9, %xmm6, %xmm4
vpclmulqdq $1, %xmm3, %xmm7, %xmm6
vpclmulqdq $16, %xmm3, %xmm7, %xmm9
vpternlogq $150, %xmm6, %xmm13, %xmm9
vpclmulqdq $0, %xmm3, %xmm7, %xmm6
vmovdqa64 %xmm29, %xmm13
vpclmulqdq $0, %xmm2, %xmm13, %xmm11
vpternlogq $150, %xmm6, %xmm10, %xmm11
vpclmulqdq $1, %xmm2, %xmm13, %xmm6
vpclmulqdq $16, %xmm2, %xmm13, %xmm10
vpternlogq $150, %xmm6, %xmm9, %xmm10
vpshufb %xmm27, %xmm22, %xmm1
vpxor %xmm1, %xmm5, %xmm1
vpclmulqdq $17, %xmm3, %xmm7, %xmm3
vpclmulqdq $17, %xmm2, %xmm13, %xmm2
vpternlogq $150, %xmm3, %xmm4, %xmm2
vpclmulqdq $1, %xmm1, %xmm8, %xmm3
vpclmulqdq $16, %xmm1, %xmm8, %xmm4
vpternlogq $150, %xmm3, %xmm10, %xmm4
vpclmulqdq $0, %xmm1, %xmm8, %xmm3
vpslldq $8, %xmm4, %xmm5
vpternlogq $150, %xmm3, %xmm11, %xmm5
vpclmulqdq $17, %xmm1, %xmm8, %xmm1
vpclmulqdq $16, %xmm12, %xmm5, %xmm3
vpshufd $78, %xmm5, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpclmulqdq $16, %xmm12, %xmm3, %xmm5
vpternlogq $150, %xmm1, %xmm2, %xmm5
vpsrldq $8, %xmm4, %xmm1
vpshufd $78, %xmm3, %xmm2
addq $96, %rcx
addq $-96, %rsi
vpternlogq $150, %xmm1, %xmm2, %xmm5
cmpq $95, %rsi
ja .LBB1_21
vmovdqa64 %xmm17, %xmm29
vmovdqa64 %xmm18, %xmm8
vmovdqa64 %xmm19, %xmm10
vmovdqa64 %xmm16, %xmm7
vmovdqa64 %xmm20, %xmm31
vmovdqa64 %xmm24, %xmm30
vmovdqa64 %xmm25, %xmm14
vmovdqa64 %xmm23, %xmm13
vmovaps -112(%rsp), %xmm11
vmovaps -128(%rsp), %xmm9
vmovdqa -48(%rsp), %xmm6
vmovdqa -64(%rsp), %xmm4
vmovdqa64 %xmm21, %xmm15
cmpq $16, %rsi
jae .LBB1_14
.LBB1_9:
movq %rsi, %rdi
testq %rdi, %rdi
jne .LBB1_11
jmp .LBB1_24
.LBB1_23:
testq %r10, %r10
vmovdqa64 %xmm27, %xmm8
vmovdqa64 %xmm19, %xmm7
jne .LBB1_26
jmp .LBB1_44
.LBB1_7:
movq %r8, %rsi
vmovdqa64 %xmm27, %xmm8
vmovdqa64 %xmm19, %xmm7
cmpq $16, %rsi
jb .LBB1_9
.LBB1_14:
leaq -16(%rsi), %rdi
testb $16, %dil
je .LBB1_15
cmpq $16, %rdi
jae .LBB1_17
.LBB1_10:
testq %rdi, %rdi
je .LBB1_24
.LBB1_11:
movl $-1, %esi
bzhil %edi, %esi, %esi
kmovd %esi, %k1
vmovdqu8 (%rcx), %xmm0 {%k1} {z}
testq %r10, %r10
je .LBB1_43
movabsq $-68719476704, %rcx
leaq (%r10,%rcx), %rsi
incq %rcx
cmpq %rcx, %rsi
jb .LBB1_45
vpshufb .LCPI1_15(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm5, %xmm0
vpclmulqdq $0, %xmm0, %xmm15, %xmm1
vpclmulqdq $1, %xmm0, %xmm15, %xmm2
vpclmulqdq $16, %xmm0, %xmm15, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $17, %xmm0, %xmm15, %xmm0
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpsrldq $8, %xmm2, %xmm2
vpclmulqdq $16, %xmm12, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm12, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm0, %xmm3, %xmm5
vpternlogq $150, %xmm2, %xmm1, %xmm5
jmp .LBB1_26
.LBB1_15:
vmovdqu (%rcx), %xmm0
addq $16, %rcx
vpshufb .LCPI1_15(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm5, %xmm0
vpclmulqdq $0, %xmm0, %xmm15, %xmm1
vpclmulqdq $1, %xmm0, %xmm15, %xmm2
vpclmulqdq $16, %xmm0, %xmm15, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $17, %xmm0, %xmm15, %xmm0
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpsrldq $8, %xmm2, %xmm2
vpclmulqdq $16, %xmm12, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm12, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm0, %xmm3, %xmm5
vpternlogq $150, %xmm2, %xmm1, %xmm5
movq %rdi, %rsi
cmpq $16, %rdi
jb .LBB1_10
.LBB1_17:
vmovdqa .LCPI1_15(%rip), %xmm0
.p2align 4, 0x90
.LBB1_18:
vmovdqu (%rcx), %xmm1
vmovdqu 16(%rcx), %xmm2
vpshufb %xmm0, %xmm1, %xmm1
vpxor %xmm1, %xmm5, %xmm1
vpclmulqdq $0, %xmm1, %xmm15, %xmm3
vpclmulqdq $1, %xmm1, %xmm15, %xmm4
vpclmulqdq $16, %xmm1, %xmm15, %xmm5
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $17, %xmm1, %xmm15, %xmm1
vpslldq $8, %xmm4, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpsrldq $8, %xmm4, %xmm4
vpclmulqdq $16, %xmm12, %xmm3, %xmm5
vpshufd $78, %xmm3, %xmm3
vpxor %xmm3, %xmm5, %xmm3
vpclmulqdq $16, %xmm12, %xmm3, %xmm5
vpshufd $78, %xmm3, %xmm3
vpternlogq $150, %xmm1, %xmm4, %xmm5
addq $32, %rcx
addq $-32, %rsi
vpshufb %xmm0, %xmm2, %xmm1
vpternlogq $150, %xmm3, %xmm5, %xmm1
vpclmulqdq $0, %xmm1, %xmm15, %xmm2
vpclmulqdq $1, %xmm1, %xmm15, %xmm3
vpclmulqdq $16, %xmm1, %xmm15, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm15, %xmm1
vpslldq $8, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpsrldq $8, %xmm3, %xmm3
vpclmulqdq $16, %xmm12, %xmm2, %xmm4
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm4, %xmm2
vpclmulqdq $16, %xmm12, %xmm2, %xmm4
vpshufd $78, %xmm2, %xmm2
vpxor %xmm1, %xmm4, %xmm5
vpternlogq $150, %xmm3, %xmm2, %xmm5
cmpq $15, %rsi
ja .LBB1_18
movq %rsi, %rdi
vmovdqa -64(%rsp), %xmm4
testq %rdi, %rdi
jne .LBB1_11
.LBB1_24:
testq %r10, %r10
je .LBB1_44
movabsq $-68719476704, %rcx
leaq (%r10,%rcx), %rsi
incq %rcx
cmpq %rcx, %rsi
jb .LBB1_45
.LBB1_26:
movq 232(%rsp), %rsi
vpshufb .LCPI1_17(%rip), %xmm26, %xmm1
vpaddd .LCPI1_18(%rip), %xmm1, %xmm17
cmpq $96, %r10
vmovdqa64 %xmm26, 80(%rsp)
jb .LBB1_27
vmovdqa64 %xmm28, 48(%rsp)
vmovdqa64 .LCPI1_15(%rip), %xmm18
vpshufb %xmm18, %xmm17, %xmm0
vpaddd .LCPI1_19(%rip), %xmm1, %xmm2
vpshufb %xmm18, %xmm2, %xmm2
vpaddd .LCPI1_20(%rip), %xmm1, %xmm3
vpshufb %xmm18, %xmm3, %xmm3
vmovdqa64 %xmm4, %xmm16
vpaddd .LCPI1_21(%rip), %xmm1, %xmm4
vpshufb %xmm18, %xmm4, %xmm4
vpaddd .LCPI1_22(%rip), %xmm1, %xmm6
vpshufb %xmm18, %xmm6, %xmm6
vpaddd .LCPI1_23(%rip), %xmm1, %xmm9
vpshufb %xmm18, %xmm9, %xmm9
vpxorq %xmm0, %xmm29, %xmm0
vpxorq %xmm2, %xmm29, %xmm2
vpxorq %xmm3, %xmm29, %xmm3
vpxorq %xmm4, %xmm29, %xmm4
vmovaps %xmm11, %xmm17
vpxorq %xmm6, %xmm29, %xmm11
vmovdqa64 %xmm29, 64(%rsp)
vpxorq %xmm9, %xmm29, %xmm12
#APP
vaesenc %xmm8, %xmm0, %xmm0
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm8, %xmm3, %xmm3
vaesenc %xmm8, %xmm4, %xmm4
vaesenc %xmm8, %xmm11, %xmm11
vaesenc %xmm8, %xmm12, %xmm12
#NO_APP
#APP
vaesenc %xmm10, %xmm0, %xmm0
vaesenc %xmm10, %xmm2, %xmm2
vaesenc %xmm10, %xmm3, %xmm3
vaesenc %xmm10, %xmm4, %xmm4
vaesenc %xmm10, %xmm11, %xmm11
vaesenc %xmm10, %xmm12, %xmm12
#NO_APP
#APP
vaesenc %xmm7, %xmm0, %xmm0
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm4, %xmm4
vaesenc %xmm7, %xmm11, %xmm11
vaesenc %xmm7, %xmm12, %xmm12
#NO_APP
vmovdqa64 %xmm31, %xmm6
vmovdqa64 %xmm31, 176(%rsp)
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm11, %xmm11
vaesenc %xmm6, %xmm12, %xmm12
#NO_APP
vmovdqa64 %xmm30, %xmm6
vmovdqa64 %xmm30, 160(%rsp)
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm11, %xmm11
vaesenc %xmm6, %xmm12, %xmm12
#NO_APP
vmovaps -80(%rsp), %xmm6
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm11, %xmm11
vaesenc %xmm6, %xmm12, %xmm12
#NO_APP
vmovaps -32(%rsp), %xmm6
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm11, %xmm11
vaesenc %xmm6, %xmm12, %xmm12
#NO_APP
vmovaps -96(%rsp), %xmm6
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm11, %xmm11
vaesenc %xmm6, %xmm12, %xmm12
#NO_APP
#APP
vaesenc %xmm14, %xmm0, %xmm0
vaesenc %xmm14, %xmm2, %xmm2
vaesenc %xmm14, %xmm3, %xmm3
vaesenc %xmm14, %xmm4, %xmm4
vaesenc %xmm14, %xmm11, %xmm11
vaesenc %xmm14, %xmm12, %xmm12
#NO_APP
#APP
vaesenc %xmm13, %xmm0, %xmm0
vaesenc %xmm13, %xmm2, %xmm2
vaesenc %xmm13, %xmm3, %xmm3
vaesenc %xmm13, %xmm4, %xmm4
vaesenc %xmm13, %xmm11, %xmm11
vaesenc %xmm13, %xmm12, %xmm12
#NO_APP
vmovaps %xmm17, %xmm6
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm11, %xmm11
vaesenc %xmm6, %xmm12, %xmm12
#NO_APP
vmovaps -128(%rsp), %xmm6
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm11, %xmm11
vaesenc %xmm6, %xmm12, %xmm12
#NO_APP
vmovaps -48(%rsp), %xmm6
#APP
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm11, %xmm11
vaesenc %xmm6, %xmm12, %xmm12
#NO_APP
vmovdqa64 %xmm16, %xmm6
#APP
vaesenclast %xmm6, %xmm0, %xmm0
vaesenclast %xmm6, %xmm2, %xmm2
vaesenclast %xmm6, %xmm3, %xmm3
vaesenclast %xmm6, %xmm4, %xmm4
vaesenclast %xmm6, %xmm11, %xmm11
vaesenclast %xmm6, %xmm12, %xmm12
#NO_APP
vpxorq (%r9), %xmm0, %xmm19
vpxorq 16(%r9), %xmm2, %xmm20
vpxorq 32(%r9), %xmm3, %xmm28
vpxorq 48(%r9), %xmm4, %xmm29
vpxorq 64(%r9), %xmm11, %xmm30
vpxor 80(%r9), %xmm12, %xmm2
leaq 96(%r9), %r9
leaq 96(%rsi), %rcx
vpaddd .LCPI1_24(%rip), %xmm1, %xmm17
vmovdqu64 %xmm19, (%rsi)
vmovdqu64 %xmm20, 16(%rsi)
vmovdqu64 %xmm28, 32(%rsi)
vmovdqu64 %xmm29, 48(%rsi)
leaq -96(%r10), %rax
vmovdqu64 %xmm30, 64(%rsi)
vmovdqu %xmm2, 80(%rsi)
cmpq $96, %rax
jb .LBB1_33
vmovdqa64 64(%rsp), %xmm31
vmovdqa %xmm8, 144(%rsp)
vmovdqa %xmm7, 128(%rsp)
vmovdqa %xmm14, 96(%rsp)
vmovdqa %xmm13, 112(%rsp)
vmovdqa64 -112(%rsp), %xmm27
vmovdqa64 -64(%rsp), %xmm25
vmovdqa64 32(%rsp), %xmm21
vmovdqa64 16(%rsp), %xmm24
vmovdqa64 (%rsp), %xmm23
vmovdqa64 -16(%rsp), %xmm22
vmovaps 48(%rsp), %xmm26
.p2align 4, 0x90
.LBB1_36:
vpshufb %xmm18, %xmm17, %xmm0
vpaddd .LCPI1_18(%rip), %xmm17, %xmm1
vpshufb %xmm18, %xmm1, %xmm1
vpaddd .LCPI1_19(%rip), %xmm17, %xmm3
vpshufb %xmm18, %xmm3, %xmm4
vpaddd .LCPI1_20(%rip), %xmm17, %xmm3
vpshufb %xmm18, %xmm3, %xmm9
vpaddd .LCPI1_21(%rip), %xmm17, %xmm3
vmovdqa64 %xmm10, %xmm16
vpshufb %xmm18, %xmm3, %xmm10
vpaddd .LCPI1_22(%rip), %xmm17, %xmm3
vpshufb %xmm18, %xmm3, %xmm12
vpshufb %xmm18, %xmm2, %xmm6
vpxorq %xmm0, %xmm31, %xmm3
vpxorq %xmm1, %xmm31, %xmm13
vpxorq %xmm4, %xmm31, %xmm1
vpxorq %xmm9, %xmm31, %xmm11
vpxorq %xmm10, %xmm31, %xmm14
vmovdqa64 %xmm16, %xmm10
vpxorq %xmm12, %xmm31, %xmm2
vmovaps 144(%rsp), %xmm0
#APP
vaesenc %xmm0, %xmm3, %xmm3
vaesenc %xmm0, %xmm13, %xmm13
vaesenc %xmm0, %xmm1, %xmm1
vaesenc %xmm0, %xmm11, %xmm11
vaesenc %xmm0, %xmm14, %xmm14
vaesenc %xmm0, %xmm2, %xmm2
#NO_APP
vxorps %xmm0, %xmm0, %xmm0
vpxor %xmm4, %xmm4, %xmm4
vpxor %xmm12, %xmm12, %xmm12
#APP
vaesenc %xmm10, %xmm3, %xmm3
vaesenc %xmm10, %xmm13, %xmm13
vaesenc %xmm10, %xmm1, %xmm1
vaesenc %xmm10, %xmm11, %xmm11
vaesenc %xmm10, %xmm14, %xmm14
vaesenc %xmm10, %xmm2, %xmm2
vpclmulqdq $16, %xmm15, %xmm6, %xmm9
vpxor %xmm4, %xmm9, %xmm4
vpclmulqdq $0, %xmm15, %xmm6, %xmm9
vpxor %xmm0, %xmm9, %xmm0
vpclmulqdq $17, %xmm15, %xmm6, %xmm9
vpxor %xmm9, %xmm12, %xmm12
vpclmulqdq $1, %xmm15, %xmm6, %xmm9
vpxor %xmm4, %xmm9, %xmm4
#NO_APP
vpshufb %xmm18, %xmm30, %xmm6
vmovaps 128(%rsp), %xmm7
#APP
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm11, %xmm11
vaesenc %xmm7, %xmm14, %xmm14
vaesenc %xmm7, %xmm2, %xmm2
#NO_APP
vmovaps 176(%rsp), %xmm7
vmovaps %xmm26, %xmm8
#APP
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm11, %xmm11
vaesenc %xmm7, %xmm14, %xmm14
vaesenc %xmm7, %xmm2, %xmm2
vpclmulqdq $16, %xmm8, %xmm6, %xmm9
vpxor %xmm4, %xmm9, %xmm4
vpclmulqdq $0, %xmm8, %xmm6, %xmm9
vpxor %xmm0, %xmm9, %xmm0
vpclmulqdq $17, %xmm8, %xmm6, %xmm9
vpxor %xmm9, %xmm12, %xmm12
vpclmulqdq $1, %xmm8, %xmm6, %xmm9
vpxor %xmm4, %xmm9, %xmm4
#NO_APP
vpshufb %xmm18, %xmm29, %xmm6
vmovaps 160(%rsp), %xmm7
#APP
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm11, %xmm11
vaesenc %xmm7, %xmm14, %xmm14
vaesenc %xmm7, %xmm2, %xmm2
#NO_APP
vmovdqa64 %xmm23, %xmm8
vmovaps -80(%rsp), %xmm7
#APP
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm11, %xmm11
vaesenc %xmm7, %xmm14, %xmm14
vaesenc %xmm7, %xmm2, %xmm2
vpclmulqdq $16, %xmm8, %xmm6, %xmm9
vpxor %xmm4, %xmm9, %xmm4
vpclmulqdq $0, %xmm8, %xmm6, %xmm9
vpxor %xmm0, %xmm9, %xmm0
vpclmulqdq $17, %xmm8, %xmm6, %xmm9
vpxor %xmm9, %xmm12, %xmm12
vpclmulqdq $1, %xmm8, %xmm6, %xmm9
vpxor %xmm4, %xmm9, %xmm4
#NO_APP
vpshufb %xmm18, %xmm28, %xmm6
vmovaps -32(%rsp), %xmm7
#APP
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm11, %xmm11
vaesenc %xmm7, %xmm14, %xmm14
vaesenc %xmm7, %xmm2, %xmm2
#NO_APP
vmovdqa64 %xmm24, %xmm8
vmovaps -96(%rsp), %xmm7
#APP
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm11, %xmm11
vaesenc %xmm7, %xmm14, %xmm14
vaesenc %xmm7, %xmm2, %xmm2
vpclmulqdq $16, %xmm8, %xmm6, %xmm9
vpxor %xmm4, %xmm9, %xmm4
vpclmulqdq $0, %xmm8, %xmm6, %xmm9
vpxor %xmm0, %xmm9, %xmm0
vpclmulqdq $17, %xmm8, %xmm6, %xmm9
vpxor %xmm9, %xmm12, %xmm12
vpclmulqdq $1, %xmm8, %xmm6, %xmm9
vpxor %xmm4, %xmm9, %xmm4
#NO_APP
vpshufb %xmm18, %xmm20, %xmm6
vmovaps 96(%rsp), %xmm7
#APP
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm11, %xmm11
vaesenc %xmm7, %xmm14, %xmm14
vaesenc %xmm7, %xmm2, %xmm2
#NO_APP
vmovaps 112(%rsp), %xmm7
vmovdqa64 %xmm22, %xmm8
#APP
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm11, %xmm11
vaesenc %xmm7, %xmm14, %xmm14
vaesenc %xmm7, %xmm2, %xmm2
vpclmulqdq $16, %xmm8, %xmm6, %xmm9
vpxor %xmm4, %xmm9, %xmm4
vpclmulqdq $0, %xmm8, %xmm6, %xmm9
vpxor %xmm0, %xmm9, %xmm0
vpclmulqdq $17, %xmm8, %xmm6, %xmm9
vpxor %xmm9, %xmm12, %xmm12
vpclmulqdq $1, %xmm8, %xmm6, %xmm9
vpxor %xmm4, %xmm9, %xmm4
#NO_APP
vpshufb %xmm18, %xmm19, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vmovdqa64 %xmm27, %xmm6
#APP
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm13, %xmm13
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm11, %xmm11
vaesenc %xmm6, %xmm14, %xmm14
vaesenc %xmm6, %xmm2, %xmm2
#NO_APP
vmovdqa -128(%rsp), %xmm9
vmovdqa64 %xmm21, %xmm7
#APP
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm9, %xmm13, %xmm13
vaesenc %xmm9, %xmm1, %xmm1
vaesenc %xmm9, %xmm11, %xmm11
vaesenc %xmm9, %xmm14, %xmm14
vaesenc %xmm9, %xmm2, %xmm2
vpclmulqdq $16, %xmm7, %xmm5, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpclmulqdq $0, %xmm7, %xmm5, %xmm6
vpxor %xmm6, %xmm0, %xmm0
vpclmulqdq $17, %xmm7, %xmm5, %xmm6
vpxor %xmm6, %xmm12, %xmm12
vpclmulqdq $1, %xmm7, %xmm5, %xmm6
vpxor %xmm6, %xmm4, %xmm4
#NO_APP
vmovaps -48(%rsp), %xmm5
#APP
vaesenc %xmm5, %xmm3, %xmm3
vaesenc %xmm5, %xmm13, %xmm13
vaesenc %xmm5, %xmm1, %xmm1
vaesenc %xmm5, %xmm11, %xmm11
vaesenc %xmm5, %xmm14, %xmm14
vaesenc %xmm5, %xmm2, %xmm2
#NO_APP
vmovdqa64 %xmm25, %xmm5
#APP
vaesenclast %xmm5, %xmm3, %xmm3
vaesenclast %xmm5, %xmm13, %xmm13
vaesenclast %xmm5, %xmm1, %xmm1
vaesenclast %xmm5, %xmm11, %xmm11
vaesenclast %xmm5, %xmm14, %xmm14
vaesenclast %xmm5, %xmm2, %xmm2
#NO_APP
vpxorq (%r9), %xmm3, %xmm19
vpxorq 16(%r9), %xmm13, %xmm20
vpxorq 32(%r9), %xmm1, %xmm28
vpxorq 48(%r9), %xmm11, %xmm29
vpxor %xmm3, %xmm3, %xmm3
vpunpcklqdq %xmm4, %xmm3, %xmm1
vpunpckhqdq %xmm3, %xmm4, %xmm3
vpxorq 64(%r9), %xmm14, %xmm30
vpxor 80(%r9), %xmm2, %xmm2
vpxor %xmm1, %xmm0, %xmm0
vpshufd $78, %xmm0, %xmm1
vpbroadcastq .LCPI1_16(%rip), %xmm4
vpclmulqdq $16, %xmm4, %xmm0, %xmm0
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm3, %xmm12, %xmm5
vpbroadcastq .LCPI1_16(%rip), %xmm11
vpshufd $78, %xmm0, %xmm1
vpclmulqdq $16, %xmm11, %xmm0, %xmm0
vpternlogq $150, %xmm0, %xmm1, %xmm5
addq $96, %r9
vmovdqu64 %xmm19, (%rcx)
vmovdqu64 %xmm20, 16(%rcx)
vmovdqu64 %xmm28, 32(%rcx)
vmovdqu64 %xmm29, 48(%rcx)
vmovdqu64 %xmm30, 64(%rcx)
vmovdqu %xmm2, 80(%rcx)
addq $96, %rcx
addq $-96, %rax
vpaddd .LCPI1_23(%rip), %xmm17, %xmm17
cmpq $95, %rax
ja .LBB1_36
vmovdqa 144(%rsp), %xmm8
vmovdqa64 128(%rsp), %xmm26
vmovdqa 96(%rsp), %xmm14
vmovdqa 112(%rsp), %xmm13
jmp .LBB1_34
.LBB1_27:
vmovdqa64 %xmm7, %xmm26
vmovdqa64 %xmm8, %xmm23
movq %r10, %rax
jmp .LBB1_28
.LBB1_33:
vmovdqa64 %xmm7, %xmm26
vpbroadcastq .LCPI1_16(%rip), %xmm11
.LBB1_34:
vmovdqa64 %xmm8, %xmm23
vpshufb %xmm18, %xmm29, %xmm0
vpshufb %xmm18, %xmm30, %xmm1
vpshufb %xmm18, %xmm2, %xmm2
vpclmulqdq $0, %xmm2, %xmm15, %xmm3
vpclmulqdq $1, %xmm2, %xmm15, %xmm4
vpclmulqdq $16, %xmm2, %xmm15, %xmm6
vpxor %xmm4, %xmm6, %xmm4
vmovdqa 48(%rsp), %xmm8
vpclmulqdq $1, %xmm1, %xmm8, %xmm6
vpclmulqdq $16, %xmm1, %xmm8, %xmm9
vpternlogq $150, %xmm6, %xmm4, %xmm9
vpclmulqdq $0, %xmm1, %xmm8, %xmm4
vmovdqa (%rsp), %xmm7
vpclmulqdq $0, %xmm0, %xmm7, %xmm6
vpternlogq $150, %xmm3, %xmm4, %xmm6
vpclmulqdq $1, %xmm0, %xmm7, %xmm3
vpclmulqdq $16, %xmm0, %xmm7, %xmm4
vpternlogq $150, %xmm3, %xmm9, %xmm4
vpclmulqdq $17, %xmm1, %xmm8, %xmm1
vpshufb %xmm18, %xmm20, %xmm3
vpclmulqdq $17, %xmm0, %xmm7, %xmm0
vpshufb %xmm18, %xmm28, %xmm7
vpclmulqdq $17, %xmm2, %xmm15, %xmm2
vpternlogq $150, %xmm2, %xmm1, %xmm0
vmovdqa 16(%rsp), %xmm8
vpclmulqdq $1, %xmm7, %xmm8, %xmm1
vpclmulqdq $16, %xmm7, %xmm8, %xmm2
vpternlogq $150, %xmm1, %xmm4, %xmm2
vpclmulqdq $0, %xmm7, %xmm8, %xmm1
vmovdqa -16(%rsp), %xmm9
vpclmulqdq $0, %xmm3, %xmm9, %xmm4
vpternlogq $150, %xmm1, %xmm6, %xmm4
vpclmulqdq $1, %xmm3, %xmm9, %xmm1
vpclmulqdq $16, %xmm3, %xmm9, %xmm6
vpternlogq $150, %xmm1, %xmm2, %xmm6
vpclmulqdq $17, %xmm7, %xmm8, %xmm1
vpclmulqdq $17, %xmm3, %xmm9, %xmm2
vpshufb %xmm18, %xmm19, %xmm3
vpxor %xmm3, %xmm5, %xmm3
vpternlogq $150, %xmm1, %xmm0, %xmm2
vmovdqa 32(%rsp), %xmm7
vpclmulqdq $1, %xmm3, %xmm7, %xmm0
vpclmulqdq $16, %xmm3, %xmm7, %xmm1
vpternlogq $150, %xmm0, %xmm6, %xmm1
vpclmulqdq $0, %xmm3, %xmm7, %xmm0
vpslldq $8, %xmm1, %xmm5
vpternlogq $150, %xmm0, %xmm4, %xmm5
vpclmulqdq $17, %xmm3, %xmm7, %xmm0
vpclmulqdq $16, %xmm11, %xmm5, %xmm3
vpshufd $78, %xmm5, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpclmulqdq $16, %xmm11, %xmm3, %xmm5
vpternlogq $150, %xmm0, %xmm2, %xmm5
vpsrldq $8, %xmm1, %xmm0
vpshufd $78, %xmm3, %xmm1
vpternlogq $150, %xmm0, %xmm1, %xmm5
movq %rcx, %rsi
vmovdqa64 64(%rsp), %xmm29
vmovdqa64 176(%rsp), %xmm31
vmovdqa64 160(%rsp), %xmm30
vmovdqa -48(%rsp), %xmm6
vmovdqa -64(%rsp), %xmm4
.LBB1_28:
vmovdqa64 %xmm10, %xmm19
vmovdqa64 %xmm13, %xmm18
vmovdqa64 %xmm14, %xmm16
cmpq $16, %rax
vmovdqa -32(%rsp), %xmm3
jb .LBB1_29
vmovdqa64 .LCPI1_15(%rip), %xmm27
vpmovsxbq .LCPI1_27(%rip), %xmm20
vmovdqa64 -96(%rsp), %xmm22
vmovdqa64 %xmm16, %xmm28
vmovdqa64 %xmm18, %xmm11
vmovdqa -112(%rsp), %xmm9
vmovdqa -128(%rsp), %xmm12
vpbroadcastq .LCPI1_16(%rip), %xmm24
vmovdqa64 %xmm19, %xmm1
vmovdqa64 %xmm23, %xmm8
vmovdqa64 %xmm26, %xmm7
vmovdqa64 %xmm29, %xmm25
vmovdqa64 %xmm30, %xmm0
vmovdqa64 %xmm31, %xmm14
vmovdqa -80(%rsp), %xmm13
.p2align 4, 0x90
.LBB1_39:
vpshufb %xmm27, %xmm17, %xmm2
vpxorq %xmm2, %xmm25, %xmm2
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm1, %xmm2, %xmm2
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm14, %xmm2, %xmm2
vaesenc %xmm0, %xmm2, %xmm2
vaesenc %xmm13, %xmm2, %xmm2
vaesenc %xmm3, %xmm2, %xmm2
vmovdqa %xmm4, %xmm10
vmovdqa %xmm6, %xmm4
vmovdqa64 %xmm22, %xmm6
vaesenc %xmm6, %xmm2, %xmm2
vmovdqa64 %xmm28, %xmm6
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm11, %xmm2, %xmm2
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm12, %xmm2, %xmm2
vaesenc %xmm4, %xmm2, %xmm2
vaesenclast %xmm10, %xmm2, %xmm2
vpxor (%r9), %xmm2, %xmm2
vmovdqa64 %xmm3, %xmm21
vpshufb %xmm27, %xmm2, %xmm3
vpxor %xmm3, %xmm5, %xmm3
vpclmulqdq $1, %xmm3, %xmm15, %xmm4
vpclmulqdq $16, %xmm3, %xmm15, %xmm5
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $0, %xmm3, %xmm15, %xmm5
vpclmulqdq $17, %xmm3, %xmm15, %xmm3
vpslldq $8, %xmm4, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vmovdqa64 %xmm24, %xmm10
vpclmulqdq $16, %xmm10, %xmm5, %xmm6
vpshufd $78, %xmm5, %xmm5
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm10, %xmm6, %xmm5
vpxor %xmm3, %xmm5, %xmm5
vpshufd $78, %xmm6, %xmm3
vmovdqa -48(%rsp), %xmm6
leaq 16(%r9), %rdi
leaq 16(%rsi), %rcx
addq $-16, %rax
vpaddd %xmm20, %xmm17, %xmm17
vmovdqu %xmm2, (%rsi)
vpsrldq $8, %xmm4, %xmm2
vmovdqa -64(%rsp), %xmm4
vpternlogq $150, %xmm2, %xmm3, %xmm5
vmovdqa64 %xmm21, %xmm3
movq %rcx, %rsi
movq %rdi, %r9
cmpq $15, %rax
ja .LBB1_39
testq %rax, %rax
je .LBB1_31
.LBB1_40:
movl $-1, %esi
bzhil %eax, %esi, %eax
kmovd %eax, %k1
vmovdqu8 (%rdi), %xmm0 {%k1} {z}
vpshufb .LCPI1_15(%rip), %xmm17, %xmm1
vpxorq %xmm1, %xmm29, %xmm1
vmovdqa64 %xmm23, %xmm2
vaesenc %xmm2, %xmm1, %xmm1
vmovdqa64 %xmm19, %xmm10
vaesenc %xmm10, %xmm1, %xmm1
vmovdqa64 %xmm26, %xmm2
vaesenc %xmm2, %xmm1, %xmm1
vmovdqa64 %xmm31, %xmm2
vaesenc %xmm2, %xmm1, %xmm1
vmovdqa64 %xmm30, %xmm2
vaesenc %xmm2, %xmm1, %xmm1
vaesenc -80(%rsp), %xmm1, %xmm1
vaesenc %xmm3, %xmm1, %xmm1
vaesenc -96(%rsp), %xmm1, %xmm1
vmovdqa64 %xmm16, %xmm14
vaesenc %xmm14, %xmm1, %xmm1
vmovdqa64 %xmm18, %xmm13
vaesenc %xmm13, %xmm1, %xmm1
vmovdqa -112(%rsp), %xmm11
vaesenc %xmm11, %xmm1, %xmm1
vmovdqa -128(%rsp), %xmm9
vaesenc %xmm9, %xmm1, %xmm1
vaesenc %xmm6, %xmm1, %xmm1
vaesenclast %xmm4, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vmovdqu8 %xmm0, (%rcx) {%k1}
testq %r10, %r10
je .LBB1_42
vmovdqu8 %xmm0, %xmm0 {%k1} {z}
.LBB1_42:
vpbroadcastq .LCPI1_16(%rip), %xmm12
vmovdqa64 %xmm23, %xmm8
vmovdqa64 %xmm26, %xmm7
vmovdqa64 80(%rsp), %xmm26
.LBB1_43:
vpshufb .LCPI1_15(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm5, %xmm0
vpclmulqdq $0, %xmm0, %xmm15, %xmm1
vpclmulqdq $1, %xmm0, %xmm15, %xmm2
vpclmulqdq $16, %xmm0, %xmm15, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $17, %xmm0, %xmm15, %xmm0
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpsrldq $8, %xmm2, %xmm2
vpclmulqdq $16, %xmm12, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm12, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm0, %xmm3, %xmm5
vpternlogq $150, %xmm2, %xmm1, %xmm5
jmp .LBB1_44
.LBB1_29:
movq %rsi, %rcx
movq %r9, %rdi
testq %rax, %rax
jne .LBB1_40
.LBB1_31:
vmovdqa64 %xmm16, %xmm14
vmovdqa64 %xmm18, %xmm13
vmovaps -112(%rsp), %xmm11
vmovaps -128(%rsp), %xmm9
vpbroadcastq .LCPI1_16(%rip), %xmm12
vmovdqa64 %xmm19, %xmm10
vmovdqa64 %xmm23, %xmm8
vmovdqa64 %xmm26, %xmm7
vmovdqa64 80(%rsp), %xmm26
.LBB1_44:
vmovq %r8, %xmm0
vmovq %r10, %xmm1
vpunpcklqdq %xmm0, %xmm1, %xmm0
vpsllq $3, %xmm0, %xmm0
vpxor %xmm0, %xmm5, %xmm0
vpclmulqdq $1, %xmm0, %xmm15, %xmm1
vpclmulqdq $16, %xmm0, %xmm15, %xmm2
vpxor %xmm1, %xmm2, %xmm1
vpclmulqdq $0, %xmm0, %xmm15, %xmm2
vpclmulqdq $17, %xmm0, %xmm15, %xmm0
vpslldq $8, %xmm1, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vpshufd $78, %xmm2, %xmm3
vpclmulqdq $16, %xmm12, %xmm2, %xmm2
vpxor %xmm3, %xmm2, %xmm2
vpclmulqdq $16, %xmm12, %xmm2, %xmm3
vpxor %xmm0, %xmm3, %xmm0
vpxorq %xmm26, %xmm29, %xmm3
vaesenc %xmm8, %xmm3, %xmm3
vaesenc %xmm10, %xmm3, %xmm3
vaesenc %xmm7, %xmm3, %xmm3
vmovdqa64 %xmm31, %xmm5
vaesenc %xmm5, %xmm3, %xmm3
vmovdqa64 %xmm30, %xmm5
vaesenc %xmm5, %xmm3, %xmm3
vaesenc -80(%rsp), %xmm3, %xmm3
vaesenc -32(%rsp), %xmm3, %xmm3
vaesenc -96(%rsp), %xmm3, %xmm3
vaesenc %xmm14, %xmm3, %xmm3
vaesenc %xmm13, %xmm3, %xmm3
vaesenc %xmm11, %xmm3, %xmm3
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm6, %xmm3, %xmm3
vpshufb .LCPI1_26(%rip), %xmm2, %xmm2
vpshufb .LCPI1_15(%rip), %xmm0, %xmm0
vpshufb .LCPI1_25(%rip), %xmm1, %xmm1
vaesenclast %xmm4, %xmm3, %xmm3
vpxor %xmm1, %xmm0, %xmm0
vpternlogq $150, %xmm0, %xmm3, %xmm2
vmovdqu %xmm2, 32(%rdx)
movl $1, %eax
.LBB1_45:
addq $200, %rsp
.cfi_def_cfa_offset 24
popq %rbx
.cfi_def_cfa_offset 16
popq %rbp
.cfi_def_cfa_offset 8
retq
.Lfunc_end1:
.size haberdashery_aes256gcmdndkv2kc_skylakex_encrypt, .Lfunc_end1-haberdashery_aes256gcmdndkv2kc_skylakex_encrypt
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI2_0:
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 0
.LCPI2_1:
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 224
.LCPI2_2:
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 225
.LCPI2_3:
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 226
.LCPI2_4:
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 227
.LCPI2_5:
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 228
.LCPI2_6:
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.LCPI2_15:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI2_17:
.byte 15
.byte 128
.byte 128
.byte 128
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI2_18:
.long 1
.long 0
.long 0
.long 0
.LCPI2_19:
.long 2
.long 0
.long 0
.long 0
.LCPI2_20:
.long 3
.long 0
.long 0
.long 0
.LCPI2_21:
.long 4
.long 0
.long 0
.long 0
.LCPI2_22:
.long 5
.long 0
.long 0
.long 0
.LCPI2_23:
.long 6
.long 0
.long 0
.long 0
.LCPI2_24:
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.LCPI2_25:
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI2_7:
.quad 4294967297
.LCPI2_14:
.quad 274877907008
.LCPI2_16:
.quad -4467570830351532032
.section .rodata.cst4,"aM",@progbits,4
.p2align 2, 0x0
.LCPI2_8:
.long 0x00000002
.LCPI2_9:
.long 0x0c0f0e0d
.LCPI2_10:
.long 0x00000004
.LCPI2_11:
.long 0x00000008
.LCPI2_12:
.long 0x00000010
.LCPI2_13:
.long 0x00000020
.section .rodata,"a",@progbits
.LCPI2_26:
.byte 1
.byte 0
.section .text.haberdashery_aes256gcmdndkv2kc_skylakex_decrypt,"ax",@progbits
.globl haberdashery_aes256gcmdndkv2kc_skylakex_decrypt
.p2align 4, 0x90
.type haberdashery_aes256gcmdndkv2kc_skylakex_decrypt,@function
haberdashery_aes256gcmdndkv2kc_skylakex_decrypt:
.cfi_startproc
pushq %rbp
.cfi_def_cfa_offset 16
pushq %rbx
.cfi_def_cfa_offset 24
subq $136, %rsp
.cfi_def_cfa_offset 160
.cfi_offset %rbx, -24
.cfi_offset %rbp, -16
movq 160(%rsp), %r10
xorl %eax, %eax
cmpq 192(%rsp), %r10
jne .LBB2_45
movq %r10, %r11
shrq $5, %r11
cmpq $2147483646, %r11
ja .LBB2_45
movabsq $2305843009213693950, %r11
cmpq %r11, %r8
ja .LBB2_45
cmpq $24, %rdx
jne .LBB2_45
cmpq $48, 176(%rsp)
jne .LBB2_45
vmovdqu64 (%rsi), %xmm16
vmovdqa64 (%rdi), %xmm23
vmovdqa 16(%rdi), %xmm11
vmovdqa 32(%rdi), %xmm1
vmovdqa 48(%rdi), %xmm8
vpternlogq $120, .LCPI2_0(%rip), %xmm16, %xmm23
movq 168(%rsp), %rdx
vpxorq .LCPI2_1(%rip), %xmm23, %xmm2
vaesenc %xmm11, %xmm2, %xmm2
vaesenc %xmm1, %xmm2, %xmm2
vaesenc %xmm8, %xmm2, %xmm3
vmovdqa 64(%rdi), %xmm0
vaesenc %xmm0, %xmm3, %xmm4
vmovdqa 80(%rdi), %xmm2
vaesenc %xmm2, %xmm4, %xmm5
vmovdqa 96(%rdi), %xmm3
vaesenc %xmm3, %xmm5, %xmm6
vmovdqa 112(%rdi), %xmm12
vaesenc %xmm12, %xmm6, %xmm7
vmovdqa 128(%rdi), %xmm13
vaesenc %xmm13, %xmm7, %xmm9
vmovdqa 144(%rdi), %xmm14
vaesenc %xmm14, %xmm9, %xmm9
vmovdqa 160(%rdi), %xmm5
vaesenc %xmm5, %xmm9, %xmm9
vmovdqa 176(%rdi), %xmm6
vaesenc %xmm6, %xmm9, %xmm9
vmovdqa 192(%rdi), %xmm7
vaesenc %xmm7, %xmm9, %xmm9
vmovdqa 208(%rdi), %xmm10
vaesenc %xmm10, %xmm9, %xmm15
vmovdqa 224(%rdi), %xmm9
vaesenclast %xmm9, %xmm15, %xmm4
vpxorq .LCPI2_4(%rip), %xmm23, %xmm15
vaesenc %xmm11, %xmm15, %xmm15
vaesenc %xmm1, %xmm15, %xmm15
vaesenc %xmm8, %xmm15, %xmm15
vaesenc %xmm0, %xmm15, %xmm15
vmovdqa64 %xmm0, %xmm17
vaesenc %xmm2, %xmm15, %xmm15
vaesenc %xmm3, %xmm15, %xmm15
vaesenc %xmm12, %xmm15, %xmm15
vaesenc %xmm13, %xmm15, %xmm15
vaesenc %xmm14, %xmm15, %xmm15
vaesenc %xmm5, %xmm15, %xmm15
vaesenc %xmm6, %xmm15, %xmm15
vaesenc %xmm7, %xmm15, %xmm15
vaesenc %xmm10, %xmm15, %xmm15
vaesenclast %xmm9, %xmm15, %xmm15
vpxor (%rdx), %xmm15, %xmm15
vpxorq .LCPI2_5(%rip), %xmm23, %xmm0
vmovdqa64 %xmm11, %xmm19
vaesenc %xmm11, %xmm0, %xmm0
vmovdqa %xmm2, %xmm11
vmovdqa64 %xmm17, %xmm2
vaesenc %xmm1, %xmm0, %xmm0
vaesenc %xmm8, %xmm0, %xmm0
vaesenc %xmm2, %xmm0, %xmm0
vaesenc %xmm11, %xmm0, %xmm0
vaesenc %xmm3, %xmm0, %xmm0
vaesenc %xmm12, %xmm0, %xmm0
vaesenc %xmm13, %xmm0, %xmm0
vaesenc %xmm14, %xmm0, %xmm0
vaesenc %xmm5, %xmm0, %xmm0
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm7, %xmm0, %xmm0
vaesenc %xmm10, %xmm0, %xmm0
vaesenclast %xmm9, %xmm0, %xmm0
vpternlogq $150, 16(%rdx), %xmm4, %xmm0
vpternlogq $246, %xmm4, %xmm15, %xmm0
vptest %xmm0, %xmm0
jne .LBB2_45
vmovdqa64 %xmm1, %xmm17
vmovdqa64 %xmm8, %xmm18
vmovdqa64 %xmm10, %xmm24
vpxorq .LCPI2_2(%rip), %xmm23, %xmm0
vmovdqa64 %xmm19, %xmm1
vaesenc %xmm1, %xmm0, %xmm0
vpxorq .LCPI2_3(%rip), %xmm23, %xmm10
vaesenc %xmm1, %xmm10, %xmm8
vmovdqa64 %xmm17, %xmm1
vaesenc %xmm1, %xmm0, %xmm0
vmovdqa64 %xmm18, %xmm10
vaesenc %xmm10, %xmm0, %xmm0
vaesenc %xmm2, %xmm0, %xmm0
vaesenc %xmm11, %xmm0, %xmm0
vaesenc %xmm3, %xmm0, %xmm0
vaesenc %xmm12, %xmm0, %xmm0
vaesenc %xmm13, %xmm0, %xmm0
vaesenc %xmm14, %xmm0, %xmm0
vaesenc %xmm5, %xmm0, %xmm0
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm7, %xmm0, %xmm0
vmovdqa64 %xmm24, %xmm15
vaesenc %xmm15, %xmm0, %xmm0
vaesenclast %xmm9, %xmm0, %xmm0
vaesenc %xmm1, %xmm8, %xmm8
vaesenc %xmm10, %xmm8, %xmm1
vaesenc %xmm2, %xmm1, %xmm1
vaesenc %xmm11, %xmm1, %xmm1
vaesenc %xmm3, %xmm1, %xmm1
vaesenc %xmm12, %xmm1, %xmm1
vaesenc %xmm13, %xmm1, %xmm1
vaesenc %xmm14, %xmm1, %xmm1
vaesenc %xmm5, %xmm1, %xmm1
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm15, %xmm1, %xmm1
vaesenclast %xmm9, %xmm1, %xmm1
vpxor %xmm4, %xmm0, %xmm11
vpxor %xmm4, %xmm1, %xmm6
vpslldq $4, %xmm11, %xmm0
vpslldq $8, %xmm11, %xmm1
vpslldq $12, %xmm11, %xmm3
vpbroadcastd .LCPI2_9(%rip), %xmm2
vpternlogq $150, %xmm1, %xmm0, %xmm3
vpshufb %xmm2, %xmm6, %xmm0
vpbroadcastq .LCPI2_7(%rip), %xmm1
vaesenclast %xmm1, %xmm0, %xmm8
vpternlogq $150, %xmm3, %xmm11, %xmm8
vaesenc %xmm6, %xmm11, %xmm1
vpslldq $4, %xmm6, %xmm0
vpslldq $8, %xmm6, %xmm3
vpslldq $12, %xmm6, %xmm4
vpternlogq $150, %xmm3, %xmm0, %xmm4
vpshufd $255, %xmm8, %xmm3
vpxor %xmm0, %xmm0, %xmm0
vaesenclast %xmm0, %xmm3, %xmm9
vbroadcastss .LCPI2_8(%rip), %xmm5
vbroadcastss .LCPI2_9(%rip), %xmm3
vmovaps %xmm6, -80(%rsp)
vpternlogq $150, %xmm4, %xmm6, %xmm9
vmovdqa64 %xmm8, %xmm17
#APP
vaesenc %xmm8, %xmm1, %xmm1
vpslldq $4, %xmm8, %xmm4
vpslldq $8, %xmm8, %xmm6
vpslldq $12, %xmm8, %xmm7
vpternlogq $150, %xmm4, %xmm6, %xmm7
vpshufb %xmm3, %xmm9, %xmm10
vaesenclast %xmm5, %xmm10, %xmm10
vpternlogq $150, %xmm8, %xmm7, %xmm10
#NO_APP
vmovdqa64 %xmm9, %xmm27
#APP
vaesenc %xmm9, %xmm1, %xmm1
vpslldq $4, %xmm9, %xmm4
vpslldq $8, %xmm9, %xmm5
vpslldq $12, %xmm9, %xmm6
vpternlogq $150, %xmm4, %xmm5, %xmm6
vpshufd $255, %xmm10, %xmm12
vaesenclast %xmm0, %xmm12, %xmm12
vpternlogq $150, %xmm9, %xmm6, %xmm12
#NO_APP
vbroadcastss .LCPI2_10(%rip), %xmm4
vmovdqa64 %xmm10, %xmm29
#APP
vaesenc %xmm10, %xmm1, %xmm1
vpslldq $4, %xmm10, %xmm5
vpslldq $8, %xmm10, %xmm6
vpslldq $12, %xmm10, %xmm7
vpternlogq $150, %xmm5, %xmm6, %xmm7
vpshufb %xmm3, %xmm12, %xmm8
vaesenclast %xmm4, %xmm8, %xmm8
vpternlogq $150, %xmm10, %xmm7, %xmm8
#NO_APP
vmovdqa64 %xmm12, %xmm30
#APP
vaesenc %xmm12, %xmm1, %xmm1
vpslldq $4, %xmm12, %xmm4
vpslldq $8, %xmm12, %xmm5
vpslldq $12, %xmm12, %xmm6
vpternlogq $150, %xmm4, %xmm5, %xmm6
vpshufd $255, %xmm8, %xmm9
vaesenclast %xmm0, %xmm9, %xmm9
vpternlogq $150, %xmm12, %xmm6, %xmm9
#NO_APP
vbroadcastss .LCPI2_11(%rip), %xmm4
vmovaps %xmm8, (%rsp)
#APP
vaesenc %xmm8, %xmm1, %xmm1
vpslldq $4, %xmm8, %xmm5
vpslldq $8, %xmm8, %xmm6
vpslldq $12, %xmm8, %xmm7
vpternlogq $150, %xmm5, %xmm6, %xmm7
vpshufb %xmm3, %xmm9, %xmm14
vaesenclast %xmm4, %xmm14, %xmm14
vpternlogq $150, %xmm8, %xmm7, %xmm14
#NO_APP
vbroadcastss .LCPI2_12(%rip), %xmm4
vmovdqa %xmm9, -112(%rsp)
#APP
vaesenc %xmm9, %xmm1, %xmm1
vpslldq $4, %xmm9, %xmm5
vpslldq $8, %xmm9, %xmm6
vpslldq $12, %xmm9, %xmm7
vpternlogq $150, %xmm5, %xmm6, %xmm7
vpshufd $255, %xmm14, %xmm8
vaesenclast %xmm0, %xmm8, %xmm8
vpternlogq $150, %xmm9, %xmm7, %xmm8
#NO_APP
vmovaps %xmm14, -128(%rsp)
#APP
vaesenc %xmm14, %xmm1, %xmm1
vpslldq $4, %xmm14, %xmm5
vpslldq $8, %xmm14, %xmm6
vpslldq $12, %xmm14, %xmm7
vpternlogq $150, %xmm5, %xmm6, %xmm7
vpshufb %xmm3, %xmm8, %xmm15
vaesenclast %xmm4, %xmm15, %xmm15
vpternlogq $150, %xmm14, %xmm7, %xmm15
#NO_APP
vmovdqa %xmm8, %xmm14
#APP
vaesenc %xmm8, %xmm1, %xmm1
vpslldq $4, %xmm8, %xmm4
vpslldq $8, %xmm8, %xmm5
vpslldq $12, %xmm8, %xmm6
vpternlogq $150, %xmm4, %xmm5, %xmm6
vpshufd $255, %xmm15, %xmm10
vaesenclast %xmm0, %xmm10, %xmm10
vpternlogq $150, %xmm8, %xmm6, %xmm10
#NO_APP
vbroadcastss .LCPI2_13(%rip), %xmm4
#APP
vaesenc %xmm15, %xmm1, %xmm1
vpslldq $4, %xmm15, %xmm5
vpslldq $8, %xmm15, %xmm6
vpslldq $12, %xmm15, %xmm7
vpternlogq $150, %xmm5, %xmm6, %xmm7
vpshufb %xmm3, %xmm10, %xmm13
vaesenclast %xmm4, %xmm13, %xmm13
vpternlogq $150, %xmm15, %xmm7, %xmm13
#NO_APP
vpslldq $4, %xmm10, %xmm3
vpunpcklqdq %xmm10, %xmm0, %xmm4
vinsertps $55, %xmm10, %xmm0, %xmm5
vpternlogq $150, %xmm4, %xmm3, %xmm5
vpshufd $255, %xmm13, %xmm3
vaesenclast %xmm0, %xmm3, %xmm6
vpternlogq $150, %xmm5, %xmm10, %xmm6
vmovdqa %xmm6, -32(%rsp)
vpshufb %xmm2, %xmm6, %xmm2
vpbroadcastq .LCPI2_14(%rip), %xmm3
vaesenclast %xmm3, %xmm2, %xmm5
vpslldq $4, %xmm13, %xmm2
vpunpcklqdq %xmm13, %xmm0, %xmm3
vinsertps $55, %xmm13, %xmm0, %xmm4
vpternlogq $150, %xmm3, %xmm2, %xmm4
vpternlogq $150, %xmm4, %xmm13, %xmm5
vaesenc %xmm10, %xmm1, %xmm1
vaesenc %xmm13, %xmm1, %xmm1
vaesenc %xmm6, %xmm1, %xmm1
vmovdqa %xmm5, -96(%rsp)
vaesenclast %xmm5, %xmm1, %xmm1
vpshufb .LCPI2_15(%rip), %xmm1, %xmm1
vpsrlq $63, %xmm1, %xmm2
vpshufd $78, %xmm2, %xmm3
vpblendd $12, %xmm2, %xmm0, %xmm0
vpaddq %xmm1, %xmm1, %xmm1
vpsllq $63, %xmm0, %xmm2
vpternlogq $30, %xmm3, %xmm1, %xmm2
vpsllq $62, %xmm0, %xmm1
vpsllq $57, %xmm0, %xmm4
vpternlogq $150, %xmm1, %xmm2, %xmm4
vpclmulqdq $0, %xmm4, %xmm4, %xmm0
vpshufd $78, %xmm0, %xmm1
vpbroadcastq .LCPI2_16(%rip), %xmm12
vpclmulqdq $16, %xmm12, %xmm0, %xmm0
vpxor %xmm1, %xmm0, %xmm0
vpclmulqdq $16, %xmm12, %xmm0, %xmm1
vpshufd $78, %xmm0, %xmm5
vpclmulqdq $17, %xmm4, %xmm4, %xmm0
vpternlogq $150, %xmm1, %xmm0, %xmm5
vpclmulqdq $16, %xmm4, %xmm5, %xmm0
vpclmulqdq $1, %xmm4, %xmm5, %xmm1
vpxor %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm0, %xmm1
vpclmulqdq $0, %xmm4, %xmm5, %xmm2
vpxor %xmm1, %xmm2, %xmm1
vpshufd $78, %xmm1, %xmm2
vpclmulqdq $16, %xmm12, %xmm1, %xmm1
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $16, %xmm12, %xmm1, %xmm2
vpclmulqdq $17, %xmm4, %xmm5, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vpsrldq $8, %xmm0, %xmm0
vpshufd $78, %xmm1, %xmm6
vpternlogq $150, %xmm0, %xmm2, %xmm6
vpclmulqdq $0, %xmm6, %xmm6, %xmm0
vpshufd $78, %xmm0, %xmm1
vpclmulqdq $16, %xmm12, %xmm0, %xmm0
vpxor %xmm1, %xmm0, %xmm0
vpclmulqdq $16, %xmm12, %xmm0, %xmm1
vpshufd $78, %xmm0, %xmm28
vpclmulqdq $17, %xmm6, %xmm6, %xmm0
vpternlogq $150, %xmm1, %xmm0, %xmm28
vpclmulqdq $0, %xmm5, %xmm5, %xmm0
vpshufd $78, %xmm0, %xmm1
vpclmulqdq $16, %xmm12, %xmm0, %xmm0
vpxor %xmm1, %xmm0, %xmm0
vpclmulqdq $16, %xmm12, %xmm0, %xmm1
vpshufd $78, %xmm0, %xmm7
vpclmulqdq $17, %xmm5, %xmm5, %xmm0
vpternlogq $150, %xmm1, %xmm0, %xmm7
vpclmulqdq $16, %xmm4, %xmm7, %xmm0
vpclmulqdq $1, %xmm4, %xmm7, %xmm1
vpxor %xmm0, %xmm1, %xmm0
vpslldq $8, %xmm0, %xmm1
vpclmulqdq $0, %xmm4, %xmm7, %xmm2
vpxor %xmm1, %xmm2, %xmm1
vpshufd $78, %xmm1, %xmm2
vpclmulqdq $16, %xmm12, %xmm1, %xmm1
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $16, %xmm12, %xmm1, %xmm2
vpclmulqdq $17, %xmm4, %xmm7, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vpsrldq $8, %xmm0, %xmm0
vpshufd $78, %xmm1, %xmm8
vpternlogq $150, %xmm0, %xmm2, %xmm8
vpextrb $15, %xmm16, %edi
movzbl 23(%rsi), %r11d
movzbl 17(%rsi), %ebx
movzbl 16(%rsi), %ebp
shll $8, %ebp
orl %edi, %ebp
shll $16, %ebx
orl %ebp, %ebx
movzbl 18(%rsi), %edi
shll $24, %edi
orl %ebx, %edi
vmovd %edi, %xmm0
vpinsrd $1, 19(%rsi), %xmm0, %xmm0
vpinsrd $2, %r11d, %xmm0, %xmm0
movl $16777216, %esi
vpinsrd $3, %esi, %xmm0, %xmm21
testq %r8, %r8
vmovdqa %xmm7, 48(%rsp)
vmovdqa %xmm5, 32(%rsp)
vmovdqa %xmm6, 16(%rsp)
vpxor %xmm9, %xmm9, %xmm9
je .LBB2_38
cmpq $96, %r8
jb .LBB2_8
vmovdqa64 %xmm21, -16(%rsp)
vmovaps %xmm13, %xmm24
vmovaps %xmm10, %xmm23
vmovdqa64 %xmm15, %xmm22
vmovdqa64 %xmm14, %xmm21
vmovdqa64 %xmm30, %xmm20
vmovdqa64 %xmm29, %xmm19
vmovdqa64 %xmm27, %xmm18
vmovapd %xmm11, %xmm26
vmovdqa64 .LCPI2_15(%rip), %xmm27
movq %r8, %rsi
vmovdqa 32(%rsp), %xmm5
vmovdqa64 %xmm4, %xmm31
vmovdqa64 %xmm28, %xmm4
vmovdqa64 %xmm8, %xmm25
vmovdqa 16(%rsp), %xmm8
vmovdqa 48(%rsp), %xmm0
.p2align 4, 0x90
.LBB2_21:
vmovdqu64 (%rcx), %xmm28
vmovdqu 16(%rcx), %xmm2
vmovdqu 32(%rcx), %xmm3
vmovdqu 48(%rcx), %xmm11
vmovdqu 64(%rcx), %xmm12
vmovdqu 80(%rcx), %xmm13
vpshufb %xmm27, %xmm11, %xmm11
vpshufb %xmm27, %xmm12, %xmm12
vpshufb %xmm27, %xmm13, %xmm13
vmovdqa64 %xmm31, %xmm1
vpclmulqdq $0, %xmm13, %xmm1, %xmm14
vpclmulqdq $1, %xmm13, %xmm1, %xmm15
vpclmulqdq $16, %xmm13, %xmm1, %xmm7
vpxor %xmm7, %xmm15, %xmm7
vpclmulqdq $0, %xmm12, %xmm5, %xmm15
vpclmulqdq $1, %xmm12, %xmm5, %xmm6
vpclmulqdq $16, %xmm12, %xmm5, %xmm10
vpternlogq $150, %xmm6, %xmm7, %xmm10
vpclmulqdq $0, %xmm11, %xmm8, %xmm6
vpternlogq $150, %xmm14, %xmm15, %xmm6
vpclmulqdq $1, %xmm11, %xmm8, %xmm7
vpclmulqdq $16, %xmm11, %xmm8, %xmm14
vpternlogq $150, %xmm7, %xmm10, %xmm14
vpshufb %xmm27, %xmm2, %xmm2
vpshufb %xmm27, %xmm3, %xmm3
vpclmulqdq $17, %xmm13, %xmm1, %xmm7
vpclmulqdq $17, %xmm12, %xmm5, %xmm10
vpclmulqdq $17, %xmm11, %xmm8, %xmm11
vpternlogq $150, %xmm7, %xmm10, %xmm11
vpclmulqdq $1, %xmm3, %xmm0, %xmm7
vpclmulqdq $16, %xmm3, %xmm0, %xmm10
vpternlogq $150, %xmm7, %xmm14, %xmm10
vpclmulqdq $0, %xmm3, %xmm0, %xmm7
vmovdqa64 %xmm25, %xmm13
vpclmulqdq $0, %xmm2, %xmm13, %xmm12
vpternlogq $150, %xmm7, %xmm6, %xmm12
vpclmulqdq $1, %xmm2, %xmm13, %xmm6
vpclmulqdq $16, %xmm2, %xmm13, %xmm7
vpternlogq $150, %xmm6, %xmm10, %xmm7
vpshufb %xmm27, %xmm28, %xmm1
vpxor %xmm1, %xmm9, %xmm1
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
vpclmulqdq $17, %xmm2, %xmm13, %xmm2
vpternlogq $150, %xmm3, %xmm11, %xmm2
vpclmulqdq $1, %xmm1, %xmm4, %xmm3
vpclmulqdq $16, %xmm1, %xmm4, %xmm6
vpternlogq $150, %xmm3, %xmm7, %xmm6
vpclmulqdq $0, %xmm1, %xmm4, %xmm3
vpslldq $8, %xmm6, %xmm7
vpternlogq $150, %xmm3, %xmm12, %xmm7
vpbroadcastq .LCPI2_16(%rip), %xmm12
vpclmulqdq $17, %xmm1, %xmm4, %xmm1
vpclmulqdq $16, %xmm12, %xmm7, %xmm3
vpshufd $78, %xmm7, %xmm7
vpxor %xmm7, %xmm3, %xmm3
vpclmulqdq $16, %xmm12, %xmm3, %xmm9
vpternlogq $150, %xmm1, %xmm2, %xmm9
vpsrldq $8, %xmm6, %xmm1
vpshufd $78, %xmm3, %xmm2
addq $96, %rcx
addq $-96, %rsi
vpternlogq $150, %xmm1, %xmm2, %xmm9
cmpq $95, %rsi
ja .LBB2_21
vmovapd %xmm26, %xmm11
vmovdqa64 %xmm17, %xmm5
vmovdqa64 %xmm18, %xmm27
vmovdqa64 %xmm19, %xmm29
vmovdqa64 %xmm20, %xmm30
vmovdqa64 %xmm21, %xmm14
vmovdqa64 %xmm22, %xmm15
vmovaps %xmm23, %xmm10
vmovaps %xmm24, %xmm13
vmovdqa64 %xmm4, %xmm28
vmovdqa64 %xmm31, %xmm4
vmovdqa64 %xmm25, %xmm8
vmovdqa64 -16(%rsp), %xmm21
cmpq $16, %rsi
vmovdqa -112(%rsp), %xmm6
vmovdqa -128(%rsp), %xmm7
jae .LBB2_11
.LBB2_10:
movq %rsi, %rdi
testq %rdi, %rdi
jne .LBB2_23
jmp .LBB2_18
.LBB2_38:
xorl %r8d, %r8d
testq %r10, %r10
vmovdqa -112(%rsp), %xmm6
vmovdqa -128(%rsp), %xmm7
vmovdqa64 %xmm17, %xmm5
jne .LBB2_26
jmp .LBB2_39
.LBB2_8:
movq %r8, %rsi
vmovdqa64 %xmm17, %xmm5
cmpq $16, %rsi
vmovdqa -112(%rsp), %xmm6
vmovdqa -128(%rsp), %xmm7
jb .LBB2_10
.LBB2_11:
leaq -16(%rsi), %rdi
testb $16, %dil
je .LBB2_12
cmpq $16, %rdi
jae .LBB2_14
.LBB2_17:
testq %rdi, %rdi
je .LBB2_18
.LBB2_23:
movl $-1, %esi
bzhil %edi, %esi, %esi
kmovd %esi, %k1
vmovdqu8 (%rcx), %xmm0 {%k1} {z}
shlq $3, %r8
testq %r10, %r10
je .LBB2_46
movabsq $-68719476704, %rcx
leaq (%r10,%rcx), %rsi
incq %rcx
cmpq %rcx, %rsi
jb .LBB2_45
vpshufb .LCPI2_15(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm9, %xmm0
vpclmulqdq $0, %xmm0, %xmm4, %xmm1
vpclmulqdq $1, %xmm0, %xmm4, %xmm2
vpclmulqdq $16, %xmm0, %xmm4, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $17, %xmm0, %xmm4, %xmm0
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpsrldq $8, %xmm2, %xmm2
vpclmulqdq $16, %xmm12, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm12, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm0, %xmm3, %xmm9
vpternlogq $150, %xmm2, %xmm1, %xmm9
jmp .LBB2_26
.LBB2_12:
vmovdqu (%rcx), %xmm0
addq $16, %rcx
vpshufb .LCPI2_15(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm9, %xmm0
vpclmulqdq $0, %xmm0, %xmm4, %xmm1
vpclmulqdq $1, %xmm0, %xmm4, %xmm2
vpclmulqdq $16, %xmm0, %xmm4, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $17, %xmm0, %xmm4, %xmm0
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpsrldq $8, %xmm2, %xmm2
vpclmulqdq $16, %xmm12, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm12, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm0, %xmm3, %xmm9
vpternlogq $150, %xmm2, %xmm1, %xmm9
movq %rdi, %rsi
cmpq $16, %rdi
jb .LBB2_17
.LBB2_14:
vmovdqa .LCPI2_15(%rip), %xmm0
.p2align 4, 0x90
.LBB2_15:
vmovdqu (%rcx), %xmm1
vmovdqu 16(%rcx), %xmm2
vpshufb %xmm0, %xmm1, %xmm1
vpxor %xmm1, %xmm9, %xmm1
vpclmulqdq $0, %xmm1, %xmm4, %xmm3
vpclmulqdq $1, %xmm1, %xmm4, %xmm6
vpclmulqdq $16, %xmm1, %xmm4, %xmm7
vpxor %xmm6, %xmm7, %xmm6
vpclmulqdq $17, %xmm1, %xmm4, %xmm1
vpslldq $8, %xmm6, %xmm7
vpxor %xmm7, %xmm3, %xmm3
vpsrldq $8, %xmm6, %xmm6
vpclmulqdq $16, %xmm12, %xmm3, %xmm7
vpshufd $78, %xmm3, %xmm3
vpxor %xmm3, %xmm7, %xmm3
vpclmulqdq $16, %xmm12, %xmm3, %xmm7
vpshufd $78, %xmm3, %xmm3
vpternlogq $150, %xmm1, %xmm6, %xmm7
addq $32, %rcx
addq $-32, %rsi
vpshufb %xmm0, %xmm2, %xmm1
vpternlogq $150, %xmm3, %xmm7, %xmm1
vpclmulqdq $0, %xmm1, %xmm4, %xmm2
vpclmulqdq $1, %xmm1, %xmm4, %xmm3
vpclmulqdq $16, %xmm1, %xmm4, %xmm6
vpxor %xmm3, %xmm6, %xmm3
vpclmulqdq $17, %xmm1, %xmm4, %xmm1
vpslldq $8, %xmm3, %xmm6
vpxor %xmm6, %xmm2, %xmm2
vpsrldq $8, %xmm3, %xmm3
vpclmulqdq $16, %xmm12, %xmm2, %xmm6
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm6, %xmm2
vpclmulqdq $16, %xmm12, %xmm2, %xmm6
vpshufd $78, %xmm2, %xmm2
vpxor %xmm1, %xmm6, %xmm9
vpternlogq $150, %xmm3, %xmm2, %xmm9
cmpq $15, %rsi
ja .LBB2_15
movq %rsi, %rdi
vmovdqa -112(%rsp), %xmm6
vmovdqa -128(%rsp), %xmm7
testq %rdi, %rdi
jne .LBB2_23
.LBB2_18:
shlq $3, %r8
testq %r10, %r10
je .LBB2_39
movabsq $-68719476704, %rcx
leaq (%r10,%rcx), %rsi
incq %rcx
cmpq %rcx, %rsi
jb .LBB2_45
.LBB2_26:
vmovaps %xmm13, -64(%rsp)
vmovdqa %xmm15, -48(%rsp)
movq 184(%rsp), %rax
vpshufb .LCPI2_17(%rip), %xmm21, %xmm0
vpaddd .LCPI2_18(%rip), %xmm0, %xmm17
cmpq $96, %r10
jb .LBB2_27
vmovdqa64 %xmm21, -16(%rsp)
vmovdqa64 .LCPI2_15(%rip), %xmm18
movq %r10, %rcx
vmovdqa %xmm5, 112(%rsp)
vmovdqa64 %xmm27, 96(%rsp)
vmovdqa64 %xmm29, 80(%rsp)
vmovdqa64 %xmm30, 64(%rsp)
vmovdqa64 %xmm14, %xmm24
vmovdqa64 %xmm10, %xmm25
vmovaps -96(%rsp), %xmm20
vmovdqa -80(%rsp), %xmm12
vmovaps 32(%rsp), %xmm21
vmovdqa64 16(%rsp), %xmm22
vmovdqa64 %xmm8, %xmm23
vmovaps 48(%rsp), %xmm19
vmovdqa64 %xmm28, %xmm8
.p2align 4, 0x90
.LBB2_31:
vmovdqu64 16(%r9), %xmm26
vmovdqu64 32(%r9), %xmm27
vmovdqu64 48(%r9), %xmm28
vmovdqu64 64(%r9), %xmm29
vmovdqu64 80(%r9), %xmm30
vpshufb %xmm18, %xmm17, %xmm0
vpaddd .LCPI2_18(%rip), %xmm17, %xmm1
vpshufb %xmm18, %xmm1, %xmm1
vpaddd .LCPI2_19(%rip), %xmm17, %xmm2
vpshufb %xmm18, %xmm2, %xmm3
vpaddd .LCPI2_20(%rip), %xmm17, %xmm2
vpshufb %xmm18, %xmm2, %xmm6
vpaddd .LCPI2_21(%rip), %xmm17, %xmm2
vpshufb %xmm18, %xmm2, %xmm7
vpaddd .LCPI2_22(%rip), %xmm17, %xmm2
vpshufb %xmm18, %xmm2, %xmm10
vpshufb %xmm18, %xmm30, %xmm5
vpxor %xmm0, %xmm11, %xmm2
vpxor %xmm1, %xmm11, %xmm14
vpxor %xmm3, %xmm11, %xmm3
vpxor %xmm6, %xmm11, %xmm13
vpxor %xmm7, %xmm11, %xmm1
vmovapd %xmm11, %xmm31
vpxor %xmm10, %xmm11, %xmm11
#APP
vaesenc %xmm12, %xmm2, %xmm2
vaesenc %xmm12, %xmm14, %xmm14
vaesenc %xmm12, %xmm3, %xmm3
vaesenc %xmm12, %xmm13, %xmm13
vaesenc %xmm12, %xmm1, %xmm1
vaesenc %xmm12, %xmm11, %xmm11
#NO_APP
vpxor %xmm15, %xmm15, %xmm15
vpxor %xmm0, %xmm0, %xmm0
vmovdqa64 %xmm12, %xmm16
vpxor %xmm12, %xmm12, %xmm12
vmovaps 112(%rsp), %xmm7
#APP
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm7, %xmm14, %xmm14
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm11, %xmm11
vpclmulqdq $16, %xmm4, %xmm5, %xmm6
vpxor %xmm6, %xmm0, %xmm0
vpclmulqdq $0, %xmm4, %xmm5, %xmm6
vpxor %xmm6, %xmm15, %xmm15
vpclmulqdq $17, %xmm4, %xmm5, %xmm6
vpxor %xmm6, %xmm12, %xmm12
vpclmulqdq $1, %xmm4, %xmm5, %xmm6
vpxor %xmm6, %xmm0, %xmm0
#NO_APP
vpshufb %xmm18, %xmm29, %xmm5
vmovaps 96(%rsp), %xmm6
#APP
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm14, %xmm14
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm13, %xmm13
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm11, %xmm11
#NO_APP
vmovaps 80(%rsp), %xmm7
vmovaps %xmm21, %xmm10
#APP
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm7, %xmm14, %xmm14
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm11, %xmm11
vpclmulqdq $16, %xmm10, %xmm5, %xmm6
vpxor %xmm6, %xmm0, %xmm0
vpclmulqdq $0, %xmm10, %xmm5, %xmm6
vpxor %xmm6, %xmm15, %xmm15
vpclmulqdq $17, %xmm10, %xmm5, %xmm6
vpxor %xmm6, %xmm12, %xmm12
vpclmulqdq $1, %xmm10, %xmm5, %xmm6
vpxor %xmm6, %xmm0, %xmm0
#NO_APP
vpshufb %xmm18, %xmm28, %xmm5
vmovaps 64(%rsp), %xmm6
#APP
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm14, %xmm14
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm13, %xmm13
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm11, %xmm11
#NO_APP
vmovaps (%rsp), %xmm7
vmovdqa64 %xmm22, %xmm10
#APP
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm7, %xmm14, %xmm14
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm11, %xmm11
vpclmulqdq $16, %xmm10, %xmm5, %xmm6
vpxor %xmm6, %xmm0, %xmm0
vpclmulqdq $0, %xmm10, %xmm5, %xmm6
vpxor %xmm6, %xmm15, %xmm15
vpclmulqdq $17, %xmm10, %xmm5, %xmm6
vpxor %xmm6, %xmm12, %xmm12
vpclmulqdq $1, %xmm10, %xmm5, %xmm6
vpxor %xmm6, %xmm0, %xmm0
#NO_APP
vpshufb %xmm18, %xmm27, %xmm5
vmovaps -112(%rsp), %xmm6
#APP
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm14, %xmm14
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm13, %xmm13
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm11, %xmm11
#NO_APP
vmovaps -128(%rsp), %xmm7
vmovaps %xmm19, %xmm10
#APP
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm7, %xmm14, %xmm14
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm11, %xmm11
vpclmulqdq $16, %xmm10, %xmm5, %xmm6
vpxor %xmm6, %xmm0, %xmm0
vpclmulqdq $0, %xmm10, %xmm5, %xmm6
vpxor %xmm6, %xmm15, %xmm15
vpclmulqdq $17, %xmm10, %xmm5, %xmm6
vpxor %xmm6, %xmm12, %xmm12
vpclmulqdq $1, %xmm10, %xmm5, %xmm6
vpxor %xmm6, %xmm0, %xmm0
#NO_APP
vpshufb %xmm18, %xmm26, %xmm5
vmovdqa64 %xmm24, %xmm6
#APP
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm14, %xmm14
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm13, %xmm13
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm11, %xmm11
#NO_APP
vmovaps -48(%rsp), %xmm7
vmovdqa64 %xmm23, %xmm10
#APP
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm7, %xmm14, %xmm14
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm11, %xmm11
vpclmulqdq $16, %xmm10, %xmm5, %xmm6
vpxor %xmm6, %xmm0, %xmm0
vpclmulqdq $0, %xmm10, %xmm5, %xmm6
vpxor %xmm6, %xmm15, %xmm15
vpclmulqdq $17, %xmm10, %xmm5, %xmm6
vpxor %xmm6, %xmm12, %xmm12
vpclmulqdq $1, %xmm10, %xmm5, %xmm6
vpxor %xmm6, %xmm0, %xmm0
#NO_APP
vmovdqu (%r9), %xmm5
vpshufb %xmm18, %xmm5, %xmm6
vpxor %xmm6, %xmm9, %xmm6
vmovdqa64 %xmm25, %xmm7
#APP
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm7, %xmm14, %xmm14
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm11, %xmm11
#NO_APP
vmovaps -64(%rsp), %xmm9
#APP
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm9, %xmm14, %xmm14
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm9, %xmm13, %xmm13
vaesenc %xmm9, %xmm1, %xmm1
vaesenc %xmm9, %xmm11, %xmm11
vpclmulqdq $16, %xmm8, %xmm6, %xmm7
vpxor %xmm7, %xmm0, %xmm0
vpclmulqdq $0, %xmm8, %xmm6, %xmm7
vpxor %xmm7, %xmm15, %xmm15
vpclmulqdq $17, %xmm8, %xmm6, %xmm7
vpxor %xmm7, %xmm12, %xmm12
vpclmulqdq $1, %xmm8, %xmm6, %xmm7
vpxor %xmm7, %xmm0, %xmm0
#NO_APP
vpxor %xmm7, %xmm7, %xmm7
vpunpcklqdq %xmm0, %xmm7, %xmm6
vpunpckhqdq %xmm7, %xmm0, %xmm0
vmovaps -32(%rsp), %xmm7
#APP
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm7, %xmm14, %xmm14
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm13, %xmm13
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm11, %xmm11
#NO_APP
vmovaps %xmm20, %xmm7
#APP
vaesenclast %xmm7, %xmm2, %xmm2
vaesenclast %xmm7, %xmm14, %xmm14
vaesenclast %xmm7, %xmm3, %xmm3
vaesenclast %xmm7, %xmm13, %xmm13
vaesenclast %xmm7, %xmm1, %xmm1
vaesenclast %xmm7, %xmm11, %xmm11
#NO_APP
vpxor %xmm5, %xmm2, %xmm2
vpxorq %xmm26, %xmm14, %xmm5
vpxorq %xmm27, %xmm3, %xmm3
vpxorq %xmm28, %xmm13, %xmm7
vpxorq %xmm29, %xmm1, %xmm1
vpxorq %xmm30, %xmm11, %xmm10
vmovapd %xmm31, %xmm11
vpxor %xmm6, %xmm15, %xmm6
vpshufd $78, %xmm6, %xmm9
vpbroadcastq .LCPI2_16(%rip), %xmm13
vpclmulqdq $16, %xmm13, %xmm6, %xmm6
vpxor %xmm6, %xmm9, %xmm6
vpxor %xmm0, %xmm12, %xmm9
vmovdqa64 %xmm16, %xmm12
vmovdqu %xmm2, (%rax)
vmovdqu %xmm5, 16(%rax)
vmovdqu %xmm3, 32(%rax)
vmovdqu %xmm7, 48(%rax)
vmovdqu %xmm1, 64(%rax)
vmovdqu %xmm10, 80(%rax)
vpshufd $78, %xmm6, %xmm0
vpbroadcastq .LCPI2_16(%rip), %xmm1
vpclmulqdq $16, %xmm1, %xmm6, %xmm1
vpternlogq $150, %xmm1, %xmm0, %xmm9
addq $96, %r9
addq $96, %rax
addq $-96, %rcx
vpaddd .LCPI2_23(%rip), %xmm17, %xmm17
cmpq $95, %rcx
ja .LBB2_31
vmovdqa64 %xmm25, %xmm13
vmovdqa64 %xmm24, %xmm15
vmovdqa 112(%rsp), %xmm5
vmovdqa64 96(%rsp), %xmm27
vmovdqa64 80(%rsp), %xmm29
vmovdqa64 64(%rsp), %xmm30
vmovdqa -112(%rsp), %xmm6
vmovdqa64 -16(%rsp), %xmm21
vmovdqa64 %xmm5, %xmm19
cmpq $16, %rcx
vmovdqa64 (%rsp), %xmm20
jae .LBB2_33
.LBB2_29:
movq %rax, %rsi
vmovdqa %xmm6, %xmm0
jmp .LBB2_35
.LBB2_27:
vmovdqa %xmm10, %xmm13
vmovdqa %xmm14, %xmm15
movq %r10, %rcx
vmovdqa64 %xmm5, %xmm19
cmpq $16, %rcx
vmovdqa64 (%rsp), %xmm20
jb .LBB2_29
.LBB2_33:
vmovdqa64 .LCPI2_15(%rip), %xmm18
vpmovsxbq .LCPI2_26(%rip), %xmm16
vmovdqa64 -128(%rsp), %xmm22
vmovdqa64 -48(%rsp), %xmm23
vmovdqa64 -64(%rsp), %xmm24
vmovdqa64 -32(%rsp), %xmm25
vmovdqa64 -96(%rsp), %xmm28
vpbroadcastq .LCPI2_16(%rip), %xmm31
vmovdqa64 -80(%rsp), %xmm26
vmovdqa64 %xmm19, %xmm14
vmovdqa64 %xmm27, %xmm1
vmovdqa64 %xmm29, %xmm12
vmovdqa64 %xmm30, %xmm8
vmovdqa64 %xmm20, %xmm10
.p2align 4, 0x90
.LBB2_34:
vmovdqu (%r9), %xmm2
vpshufb %xmm18, %xmm2, %xmm3
vpxor %xmm3, %xmm9, %xmm3
vpclmulqdq $1, %xmm3, %xmm4, %xmm5
vpclmulqdq $16, %xmm3, %xmm4, %xmm6
vpxor %xmm5, %xmm6, %xmm5
vpclmulqdq $0, %xmm3, %xmm4, %xmm6
vpclmulqdq $17, %xmm3, %xmm4, %xmm3
vpslldq $8, %xmm5, %xmm7
vpxor %xmm7, %xmm6, %xmm6
vpshufd $78, %xmm6, %xmm7
vmovdqa64 %xmm31, %xmm0
vpclmulqdq $16, %xmm0, %xmm6, %xmm6
vpxor %xmm7, %xmm6, %xmm6
vpshufd $78, %xmm6, %xmm7
vpclmulqdq $16, %xmm0, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm9
vmovdqa -112(%rsp), %xmm0
vpshufb %xmm18, %xmm17, %xmm3
vpxor %xmm3, %xmm11, %xmm3
vmovdqa64 %xmm26, %xmm6
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm14, %xmm3, %xmm3
vaesenc %xmm1, %xmm3, %xmm3
vaesenc %xmm12, %xmm3, %xmm3
vaesenc %xmm8, %xmm3, %xmm3
vaesenc %xmm10, %xmm3, %xmm3
vaesenc %xmm0, %xmm3, %xmm3
vmovdqa64 %xmm22, %xmm6
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm15, %xmm3, %xmm3
vmovdqa64 %xmm23, %xmm6
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm13, %xmm3, %xmm3
vmovdqa64 %xmm24, %xmm6
vaesenc %xmm6, %xmm3, %xmm3
vmovdqa64 %xmm25, %xmm6
vaesenc %xmm6, %xmm3, %xmm3
vmovdqa64 %xmm28, %xmm6
vaesenclast %xmm6, %xmm3, %xmm3
vpxor %xmm2, %xmm3, %xmm2
leaq 16(%rax), %rsi
addq $-16, %rcx
addq $16, %r9
vpsrldq $8, %xmm5, %xmm3
vpternlogq $150, %xmm3, %xmm7, %xmm9
vpaddd %xmm16, %xmm17, %xmm17
vmovdqu %xmm2, (%rax)
movq %rsi, %rax
cmpq $15, %rcx
ja .LBB2_34
.LBB2_35:
vmovdqa %xmm0, %xmm6
testq %rcx, %rcx
je .LBB2_40
movl $-1, %eax
bzhil %ecx, %eax, %eax
kmovd %eax, %k1
vmovdqu8 (%r9), %xmm1 {%k1} {z}
vpshufb .LCPI2_15(%rip), %xmm17, %xmm0
vpxor %xmm0, %xmm11, %xmm0
vaesenc -80(%rsp), %xmm0, %xmm0
vmovdqa64 %xmm19, %xmm2
vaesenc %xmm2, %xmm0, %xmm0
vmovdqa64 %xmm27, %xmm2
vaesenc %xmm2, %xmm0, %xmm0
vmovdqa64 %xmm29, %xmm2
vaesenc %xmm2, %xmm0, %xmm0
vmovdqa64 %xmm30, %xmm2
vaesenc %xmm2, %xmm0, %xmm0
vmovdqa64 %xmm20, %xmm2
vaesenc %xmm2, %xmm0, %xmm0
vaesenc %xmm6, %xmm0, %xmm0
vmovdqa -128(%rsp), %xmm7
vaesenc %xmm7, %xmm0, %xmm0
vmovdqa64 %xmm15, %xmm16
vaesenc %xmm15, %xmm0, %xmm0
vmovdqa -48(%rsp), %xmm15
vaesenc %xmm15, %xmm0, %xmm0
vmovdqa %xmm13, %xmm10
vaesenc %xmm13, %xmm0, %xmm0
vmovdqa -64(%rsp), %xmm13
vaesenc %xmm13, %xmm0, %xmm0
vaesenc -32(%rsp), %xmm0, %xmm0
vmovdqa -96(%rsp), %xmm8
vaesenclast %xmm8, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm2
vmovdqu8 %xmm2, (%rsi) {%k1}
vmovdqu 32(%rdx), %xmm0
testq %r10, %r10
vpbroadcastq .LCPI2_16(%rip), %xmm12
je .LBB2_37
vpshufb .LCPI2_15(%rip), %xmm1, %xmm1
jmp .LBB2_42
.LBB2_40:
vmovdqu 32(%rdx), %xmm0
vmovdqa -128(%rsp), %xmm7
vmovdqa64 %xmm15, %xmm16
vmovdqa -48(%rsp), %xmm15
vmovdqa %xmm13, %xmm10
vmovdqa -64(%rsp), %xmm13
vmovdqa -96(%rsp), %xmm8
vpbroadcastq .LCPI2_16(%rip), %xmm12
jmp .LBB2_43
.LBB2_46:
vpshufb .LCPI2_15(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm9, %xmm0
vpclmulqdq $0, %xmm0, %xmm4, %xmm1
vpclmulqdq $1, %xmm0, %xmm4, %xmm2
vpclmulqdq $16, %xmm0, %xmm4, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $17, %xmm0, %xmm4, %xmm0
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpsrldq $8, %xmm2, %xmm2
vpclmulqdq $16, %xmm12, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm12, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm0, %xmm3, %xmm9
vpternlogq $150, %xmm2, %xmm1, %xmm9
.LBB2_39:
vmovdqa64 %xmm14, %xmm16
vmovdqa64 %xmm5, %xmm19
vmovdqu 32(%rdx), %xmm0
vmovdqa (%rsp), %xmm14
vmovdqa -96(%rsp), %xmm8
jmp .LBB2_44
.LBB2_37:
vpshufb .LCPI2_15(%rip), %xmm2, %xmm1
.LBB2_42:
vpxor %xmm1, %xmm9, %xmm1
vpclmulqdq $0, %xmm1, %xmm4, %xmm2
vpclmulqdq $1, %xmm1, %xmm4, %xmm3
vpclmulqdq $16, %xmm1, %xmm4, %xmm5
vpxor %xmm3, %xmm5, %xmm3
vpclmulqdq $17, %xmm1, %xmm4, %xmm1
vpslldq $8, %xmm3, %xmm5
vpxor %xmm5, %xmm2, %xmm2
vpsrldq $8, %xmm3, %xmm3
vpclmulqdq $16, %xmm12, %xmm2, %xmm5
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm5, %xmm2
vpclmulqdq $16, %xmm12, %xmm2, %xmm5
vpshufd $78, %xmm2, %xmm2
vpxor %xmm1, %xmm5, %xmm9
vpternlogq $150, %xmm3, %xmm2, %xmm9
.LBB2_43:
vmovdqa64 %xmm20, %xmm14
.LBB2_44:
shlq $3, %r10
vmovq %r8, %xmm1
vmovq %r10, %xmm2
vpunpcklqdq %xmm1, %xmm2, %xmm1
vpxor %xmm1, %xmm9, %xmm1
vpclmulqdq $1, %xmm1, %xmm4, %xmm2
vpclmulqdq $16, %xmm1, %xmm4, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $0, %xmm1, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm4, %xmm1
vpslldq $8, %xmm2, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpshufd $78, %xmm3, %xmm4
vpclmulqdq $16, %xmm12, %xmm3, %xmm3
vpxor %xmm4, %xmm3, %xmm3
vpclmulqdq $16, %xmm12, %xmm3, %xmm4
vpxor %xmm1, %xmm4, %xmm1
vpxorq %xmm21, %xmm11, %xmm4
vaesenc -80(%rsp), %xmm4, %xmm4
vmovdqa64 %xmm19, %xmm5
vaesenc %xmm5, %xmm4, %xmm4
vmovdqa64 %xmm27, %xmm5
vaesenc %xmm5, %xmm4, %xmm4
vmovdqa64 %xmm29, %xmm5
vaesenc %xmm5, %xmm4, %xmm4
vmovdqa64 %xmm30, %xmm5
vaesenc %xmm5, %xmm4, %xmm4
vaesenc %xmm14, %xmm4, %xmm4
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm7, %xmm4, %xmm4
vmovdqa64 %xmm16, %xmm5
vaesenc %xmm5, %xmm4, %xmm4
vaesenc %xmm15, %xmm4, %xmm4
vaesenc %xmm10, %xmm4, %xmm4
vaesenc %xmm13, %xmm4, %xmm4
vaesenc -32(%rsp), %xmm4, %xmm4
vaesenclast %xmm8, %xmm4, %xmm4
vpshufb .LCPI2_24(%rip), %xmm3, %xmm3
vpshufb .LCPI2_15(%rip), %xmm1, %xmm1
vpshufb .LCPI2_25(%rip), %xmm2, %xmm2
vpternlogq $150, %xmm1, %xmm3, %xmm2
vpternlogq $150, %xmm4, %xmm0, %xmm2
xorl %eax, %eax
vptest %xmm2, %xmm2
sete %al
.LBB2_45:
addq $136, %rsp
.cfi_def_cfa_offset 24
popq %rbx
.cfi_def_cfa_offset 16
popq %rbp
.cfi_def_cfa_offset 8
retq
.Lfunc_end2:
.size haberdashery_aes256gcmdndkv2kc_skylakex_decrypt, .Lfunc_end2-haberdashery_aes256gcmdndkv2kc_skylakex_decrypt
.cfi_endproc
.section .text.haberdashery_aes256gcmdndkv2kc_skylakex_is_supported,"ax",@progbits
.globl haberdashery_aes256gcmdndkv2kc_skylakex_is_supported
.p2align 4, 0x90
.type haberdashery_aes256gcmdndkv2kc_skylakex_is_supported,@function
haberdashery_aes256gcmdndkv2kc_skylakex_is_supported:
.cfi_startproc
movl $1, %eax
xorl %ecx, %ecx
#APP
movq %rbx, %rsi
cpuid
xchgq %rbx, %rsi
#NO_APP
movl %ecx, %esi
movl %edx, %edi
notl %edi
notl %esi
movl $7, %eax
xorl %ecx, %ecx
#APP
movq %rbx, %r8
cpuid
xchgq %rbx, %r8
#NO_APP
andl $1993871875, %esi
andl $125829120, %edi
orl %esi, %edi
notl %r8d
andl $-779157207, %r8d
xorl %eax, %eax
orl %edi, %r8d
sete %al
retq
.Lfunc_end3:
.size haberdashery_aes256gcmdndkv2kc_skylakex_is_supported, .Lfunc_end3-haberdashery_aes256gcmdndkv2kc_skylakex_is_supported
.cfi_endproc
.ident "rustc version 1.86.0-nightly (9cd60bd2c 2025-02-15)"
.section ".note.GNU-stack","",@progbits
|
ts-phantomnk90/haberdashery
| 80,488
|
asm/aes256gcmsiv_tigerlake.s
|
# @generated
# https://github.com/facebookincubator/haberdashery/
.text
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI0_0:
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI0_1:
.quad 4294967297
.LCPI0_2:
.quad 8589934594
.LCPI0_3:
.quad 17179869188
.LCPI0_4:
.quad 34359738376
.LCPI0_5:
.quad 68719476752
.LCPI0_6:
.quad 137438953504
.LCPI0_7:
.quad 274877907008
.section .rodata.cst4,"aM",@progbits,4
.p2align 2, 0x0
.LCPI0_8:
.byte 13
.byte 14
.byte 15
.byte 12
.section .text.haberdashery_aes256gcmsiv_tigerlake_init,"ax",@progbits
.globl haberdashery_aes256gcmsiv_tigerlake_init
.p2align 4, 0x90
.type haberdashery_aes256gcmsiv_tigerlake_init,@function
haberdashery_aes256gcmsiv_tigerlake_init:
.cfi_startproc
cmpq $32, %rdx
jne .LBB0_2
vmovupd (%rsi), %xmm0
vmovdqu 16(%rsi), %xmm1
vpslldq $4, %xmm0, %xmm2
vpslldq $8, %xmm0, %xmm3
vpslldq $12, %xmm0, %xmm4
vpternlogq $150, %xmm3, %xmm2, %xmm4
vpbroadcastd .LCPI0_8(%rip), %xmm3
vpshufb %xmm3, %xmm1, %xmm2
vpbroadcastq .LCPI0_1(%rip), %xmm5
vaesenclast %xmm5, %xmm2, %xmm2
vpternlogq $150, %xmm4, %xmm0, %xmm2
vpslldq $4, %xmm1, %xmm4
vpslldq $8, %xmm1, %xmm5
vpslldq $12, %xmm1, %xmm7
vpternlogq $150, %xmm5, %xmm4, %xmm7
vpshufd $255, %xmm2, %xmm4
vpxor %xmm6, %xmm6, %xmm6
vaesenclast %xmm6, %xmm4, %xmm4
vpternlogq $150, %xmm7, %xmm1, %xmm4
vpslldq $4, %xmm2, %xmm5
vpslldq $8, %xmm2, %xmm7
vpslldq $12, %xmm2, %xmm8
vpternlogq $150, %xmm7, %xmm5, %xmm8
vpshufb %xmm3, %xmm4, %xmm5
vpbroadcastq .LCPI0_2(%rip), %xmm7
vaesenclast %xmm7, %xmm5, %xmm5
vpternlogq $150, %xmm8, %xmm2, %xmm5
vpslldq $4, %xmm4, %xmm7
vpslldq $8, %xmm4, %xmm8
vpslldq $12, %xmm4, %xmm9
vpternlogq $150, %xmm8, %xmm7, %xmm9
vpshufd $255, %xmm5, %xmm7
vaesenclast %xmm6, %xmm7, %xmm7
vpternlogq $150, %xmm9, %xmm4, %xmm7
vpslldq $4, %xmm5, %xmm8
vpslldq $8, %xmm5, %xmm9
vpslldq $12, %xmm5, %xmm10
vpternlogq $150, %xmm9, %xmm8, %xmm10
vpshufb %xmm3, %xmm7, %xmm8
vpbroadcastq .LCPI0_3(%rip), %xmm9
vaesenclast %xmm9, %xmm8, %xmm8
vpternlogq $150, %xmm10, %xmm5, %xmm8
vpslldq $4, %xmm7, %xmm9
vpslldq $8, %xmm7, %xmm10
vpslldq $12, %xmm7, %xmm11
vpternlogq $150, %xmm10, %xmm9, %xmm11
vpshufd $255, %xmm8, %xmm9
vaesenclast %xmm6, %xmm9, %xmm9
vpternlogq $150, %xmm11, %xmm7, %xmm9
vpslldq $4, %xmm8, %xmm10
vpslldq $8, %xmm8, %xmm11
vpslldq $12, %xmm8, %xmm12
vpternlogq $150, %xmm11, %xmm10, %xmm12
vpshufb %xmm3, %xmm9, %xmm10
vpbroadcastq .LCPI0_4(%rip), %xmm11
vaesenclast %xmm11, %xmm10, %xmm10
vpternlogq $150, %xmm12, %xmm8, %xmm10
vpslldq $4, %xmm9, %xmm11
vpslldq $8, %xmm9, %xmm12
vpslldq $12, %xmm9, %xmm13
vpternlogq $150, %xmm12, %xmm11, %xmm13
vpshufd $255, %xmm10, %xmm11
vaesenclast %xmm6, %xmm11, %xmm11
vpternlogq $150, %xmm13, %xmm9, %xmm11
vpslldq $4, %xmm10, %xmm12
vpslldq $8, %xmm10, %xmm13
vpslldq $12, %xmm10, %xmm14
vpternlogq $150, %xmm13, %xmm12, %xmm14
vpshufb %xmm3, %xmm11, %xmm12
vpbroadcastq .LCPI0_5(%rip), %xmm13
vaesenclast %xmm13, %xmm12, %xmm12
vpternlogq $150, %xmm14, %xmm10, %xmm12
vpslldq $4, %xmm11, %xmm13
vpslldq $8, %xmm11, %xmm14
vpslldq $12, %xmm11, %xmm15
vpternlogq $150, %xmm14, %xmm13, %xmm15
vpshufd $255, %xmm12, %xmm13
vaesenclast %xmm6, %xmm13, %xmm13
vpternlogq $150, %xmm15, %xmm11, %xmm13
vpslldq $4, %xmm12, %xmm14
vpslldq $8, %xmm12, %xmm15
vpslldq $12, %xmm12, %xmm16
vpternlogq $150, %xmm15, %xmm14, %xmm16
vpshufb %xmm3, %xmm13, %xmm14
vpbroadcastq .LCPI0_6(%rip), %xmm15
vaesenclast %xmm15, %xmm14, %xmm14
vpternlogq $150, %xmm16, %xmm12, %xmm14
vpslldq $4, %xmm13, %xmm15
vpslldq $8, %xmm13, %xmm16
vpslldq $12, %xmm13, %xmm17
vpternlogq $150, %xmm16, %xmm15, %xmm17
vpshufd $255, %xmm14, %xmm15
vaesenclast %xmm6, %xmm15, %xmm6
vpternlogq $150, %xmm17, %xmm13, %xmm6
vpslldq $4, %xmm14, %xmm15
vpslldq $8, %xmm14, %xmm16
vpslldq $12, %xmm14, %xmm17
vpternlogq $150, %xmm16, %xmm15, %xmm17
vpshufb %xmm3, %xmm6, %xmm3
vpbroadcastq .LCPI0_7(%rip), %xmm15
vaesenclast %xmm15, %xmm3, %xmm3
vpternlogq $150, %xmm17, %xmm14, %xmm3
vmovdqa %xmm0, (%rdi)
vmovdqa %xmm1, 16(%rdi)
vmovdqa %xmm2, 32(%rdi)
vmovdqa %xmm4, 48(%rdi)
vmovdqa %xmm5, 64(%rdi)
vmovdqa %xmm7, 80(%rdi)
vmovdqa %xmm8, 96(%rdi)
vmovdqa %xmm9, 112(%rdi)
vmovdqa %xmm10, 128(%rdi)
vmovdqa %xmm11, 144(%rdi)
vmovdqa %xmm12, 160(%rdi)
vmovdqa %xmm13, 176(%rdi)
vmovdqa %xmm14, 192(%rdi)
vmovdqa %xmm6, 208(%rdi)
vmovdqa %xmm3, 224(%rdi)
.LBB0_2:
xorl %eax, %eax
cmpq $32, %rdx
sete %al
retq
.Lfunc_end0:
.size haberdashery_aes256gcmsiv_tigerlake_init, .Lfunc_end0-haberdashery_aes256gcmsiv_tigerlake_init
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI1_0:
.long 1
.long 0
.long 0
.long 0
.LCPI1_1:
.quad 2
.quad 0
.LCPI1_2:
.long 3
.long 0
.long 0
.long 0
.LCPI1_3:
.quad 4
.quad 0
.LCPI1_4:
.long 5
.long 0
.long 0
.long 0
.LCPI1_5:
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.LCPI1_14:
.quad -1
.quad 9223372036854775807
.LCPI1_15:
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 128
.LCPI1_23:
.long 16
.long 0
.long 0
.long 0
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI1_6:
.quad 4294967297
.LCPI1_7:
.quad 8589934594
.LCPI1_8:
.quad 17179869188
.LCPI1_9:
.quad 34359738376
.LCPI1_10:
.quad 68719476752
.LCPI1_11:
.quad 137438953504
.LCPI1_12:
.quad 274877907008
.LCPI1_13:
.quad -4467570830351532032
.section .rodata.cst32,"aM",@progbits,32
.p2align 5, 0x0
.LCPI1_16:
.long 2
.long 0
.long 0
.long 0
.long 3
.long 0
.long 0
.long 0
.LCPI1_17:
.long 4
.long 0
.long 0
.long 0
.long 5
.long 0
.long 0
.long 0
.LCPI1_18:
.long 6
.long 0
.long 0
.long 0
.long 7
.long 0
.long 0
.long 0
.LCPI1_19:
.long 8
.long 0
.long 0
.long 0
.long 9
.long 0
.long 0
.long 0
.LCPI1_20:
.long 10
.long 0
.long 0
.long 0
.long 11
.long 0
.long 0
.long 0
.LCPI1_21:
.long 12
.long 0
.long 0
.long 0
.long 13
.long 0
.long 0
.long 0
.LCPI1_22:
.long 14
.long 0
.long 0
.long 0
.long 15
.long 0
.long 0
.long 0
.section .rodata.cst4,"aM",@progbits,4
.p2align 2, 0x0
.LCPI1_24:
.byte 13
.byte 14
.byte 15
.byte 12
.LCPI1_25:
.byte 2
.byte 0
.byte 3
.byte 0
.LCPI1_26:
.byte 4
.byte 0
.byte 5
.byte 0
.LCPI1_27:
.byte 6
.byte 0
.byte 7
.byte 0
.LCPI1_28:
.byte 8
.byte 0
.byte 9
.byte 0
.LCPI1_29:
.byte 10
.byte 0
.byte 11
.byte 0
.LCPI1_30:
.byte 12
.byte 0
.byte 13
.byte 0
.LCPI1_31:
.byte 14
.byte 0
.byte 15
.byte 0
.section .rodata,"a",@progbits
.LCPI1_32:
.byte 16
.byte 0
.LCPI1_33:
.byte 1
.byte 0
.LCPI1_34:
.byte 4
.byte 0
.section .text.haberdashery_aes256gcmsiv_tigerlake_encrypt,"ax",@progbits
.globl haberdashery_aes256gcmsiv_tigerlake_encrypt
.p2align 4, 0x90
.type haberdashery_aes256gcmsiv_tigerlake_encrypt,@function
haberdashery_aes256gcmsiv_tigerlake_encrypt:
.cfi_startproc
pushq %rbx
.cfi_def_cfa_offset 16
subq $400, %rsp
.cfi_def_cfa_offset 416
.cfi_offset %rbx, -16
movq 416(%rsp), %r10
xorl %eax, %eax
cmpq 432(%rsp), %r10
jne .LBB1_49
movabsq $68719476737, %rax
cmpq %rax, %r8
setb %r11b
cmpq %rax, %r10
setb %bl
andb %r11b, %bl
cmpq $16, 448(%rsp)
sete %r11b
cmpq $12, %rdx
sete %al
andb %r11b, %al
andb %bl, %al
cmpb $1, %al
jne .LBB1_48
vmovsd 4(%rsi), %xmm0
vmovss (%rsi), %xmm1
vshufps $65, %xmm0, %xmm1, %xmm0
vxorps (%rdi), %xmm0, %xmm2
vxorps .LCPI1_0(%rip), %xmm2, %xmm3
vxorps .LCPI1_1(%rip), %xmm2, %xmm1
vxorps .LCPI1_2(%rip), %xmm2, %xmm4
vxorps .LCPI1_3(%rip), %xmm2, %xmm0
vxorps .LCPI1_4(%rip), %xmm2, %xmm5
vmovaps 16(%rdi), %xmm7
vmovaps 32(%rdi), %xmm8
vmovaps 48(%rdi), %xmm9
vmovaps 64(%rdi), %xmm6
#APP
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm4, %xmm4
vaesenc %xmm7, %xmm0, %xmm0
vaesenc %xmm7, %xmm5, %xmm5
#NO_APP
#APP
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm8, %xmm3, %xmm3
vaesenc %xmm8, %xmm1, %xmm1
vaesenc %xmm8, %xmm4, %xmm4
vaesenc %xmm8, %xmm0, %xmm0
vaesenc %xmm8, %xmm5, %xmm5
#NO_APP
#APP
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm9, %xmm1, %xmm1
vaesenc %xmm9, %xmm4, %xmm4
vaesenc %xmm9, %xmm0, %xmm0
vaesenc %xmm9, %xmm5, %xmm5
#NO_APP
#APP
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 80(%rdi), %xmm6
vmovaps 96(%rdi), %xmm7
#APP
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
#APP
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm4, %xmm4
vaesenc %xmm7, %xmm0, %xmm0
vaesenc %xmm7, %xmm5, %xmm5
#NO_APP
vmovaps 112(%rdi), %xmm6
vmovaps 128(%rdi), %xmm7
#APP
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
#APP
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm4, %xmm4
vaesenc %xmm7, %xmm0, %xmm0
vaesenc %xmm7, %xmm5, %xmm5
#NO_APP
vmovaps 144(%rdi), %xmm6
vmovaps 160(%rdi), %xmm7
#APP
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
#APP
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm4, %xmm4
vaesenc %xmm7, %xmm0, %xmm0
vaesenc %xmm7, %xmm5, %xmm5
#NO_APP
vmovaps 176(%rdi), %xmm6
vmovaps 192(%rdi), %xmm7
#APP
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
#APP
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm4, %xmm4
vaesenc %xmm7, %xmm0, %xmm0
vaesenc %xmm7, %xmm5, %xmm5
#NO_APP
vmovaps 208(%rdi), %xmm6
vmovaps 224(%rdi), %xmm7
#APP
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
#APP
vaesenclast %xmm7, %xmm2, %xmm2
vaesenclast %xmm7, %xmm3, %xmm3
vaesenclast %xmm7, %xmm1, %xmm1
vaesenclast %xmm7, %xmm4, %xmm4
vaesenclast %xmm7, %xmm0, %xmm0
vaesenclast %xmm7, %xmm5, %xmm5
#NO_APP
vpunpcklqdq %xmm3, %xmm2, %xmm14
vpunpcklqdq %xmm4, %xmm1, %xmm24
vpunpcklqdq %xmm5, %xmm0, %xmm31
vpslldq $4, %xmm24, %xmm2
vxorpd %xmm13, %xmm13, %xmm13
vpunpcklqdq %xmm1, %xmm13, %xmm3
vinsertps $55, %xmm1, %xmm0, %xmm1
vpternlogq $150, %xmm3, %xmm2, %xmm1
vpbroadcastd .LCPI1_24(%rip), %xmm16
vpshufb %xmm16, %xmm31, %xmm2
vpbroadcastq .LCPI1_6(%rip), %xmm3
vaesenclast %xmm3, %xmm2, %xmm7
vpternlogq $150, %xmm1, %xmm24, %xmm7
vpslldq $4, %xmm31, %xmm1
vpunpcklqdq %xmm0, %xmm13, %xmm2
vinsertps $55, %xmm0, %xmm0, %xmm0
vpternlogq $150, %xmm2, %xmm1, %xmm0
vpshufd $255, %xmm7, %xmm1
vaesenclast %xmm13, %xmm1, %xmm8
vpternlogq $150, %xmm0, %xmm31, %xmm8
vpslldq $4, %xmm7, %xmm0
vpslldq $8, %xmm7, %xmm1
vpslldq $12, %xmm7, %xmm2
vpternlogq $150, %xmm1, %xmm0, %xmm2
vpbroadcastq .LCPI1_7(%rip), %xmm0
vpshufb %xmm16, %xmm8, %xmm1
vaesenclast %xmm0, %xmm1, %xmm9
vpternlogq $150, %xmm2, %xmm7, %xmm9
vpslldq $4, %xmm8, %xmm0
vpslldq $8, %xmm8, %xmm1
vpslldq $12, %xmm8, %xmm2
vpternlogq $150, %xmm1, %xmm0, %xmm2
vpshufd $255, %xmm9, %xmm0
vaesenclast %xmm13, %xmm0, %xmm10
vpternlogq $150, %xmm2, %xmm8, %xmm10
vpslldq $4, %xmm9, %xmm0
vpslldq $8, %xmm9, %xmm1
vpslldq $12, %xmm9, %xmm2
vpternlogq $150, %xmm1, %xmm0, %xmm2
vpshufb %xmm16, %xmm10, %xmm0
vpbroadcastq .LCPI1_8(%rip), %xmm1
vaesenclast %xmm1, %xmm0, %xmm11
vpternlogq $150, %xmm2, %xmm9, %xmm11
vpslldq $4, %xmm10, %xmm0
vpslldq $8, %xmm10, %xmm1
vpslldq $12, %xmm10, %xmm2
vpternlogq $150, %xmm1, %xmm0, %xmm2
vpshufd $255, %xmm11, %xmm0
vaesenclast %xmm13, %xmm0, %xmm12
vpternlogq $150, %xmm2, %xmm10, %xmm12
vpslldq $4, %xmm11, %xmm0
vpslldq $8, %xmm11, %xmm1
vpslldq $12, %xmm11, %xmm2
vpternlogq $150, %xmm1, %xmm0, %xmm2
vpshufb %xmm16, %xmm12, %xmm0
vpbroadcastq .LCPI1_9(%rip), %xmm1
vaesenclast %xmm1, %xmm0, %xmm3
vpternlogq $150, %xmm2, %xmm11, %xmm3
vpslldq $4, %xmm12, %xmm0
vpslldq $8, %xmm12, %xmm1
vpslldq $12, %xmm12, %xmm2
vpternlogq $150, %xmm1, %xmm0, %xmm2
vpshufd $255, %xmm3, %xmm0
vaesenclast %xmm13, %xmm0, %xmm27
vpternlogq $150, %xmm2, %xmm12, %xmm27
vpslldq $4, %xmm3, %xmm0
vpslldq $8, %xmm3, %xmm1
vpslldq $12, %xmm3, %xmm2
vpternlogq $150, %xmm1, %xmm0, %xmm2
vpbroadcastq .LCPI1_10(%rip), %xmm0
vpshufb %xmm16, %xmm27, %xmm1
vaesenclast %xmm0, %xmm1, %xmm28
vmovups %ymm3, 336(%rsp)
vpternlogq $150, %xmm2, %xmm3, %xmm28
vpslldq $4, %xmm27, %xmm0
vpslldq $8, %xmm27, %xmm1
vpslldq $12, %xmm27, %xmm2
vpternlogq $150, %xmm1, %xmm0, %xmm2
vpshufd $255, %xmm28, %xmm0
vaesenclast %xmm13, %xmm0, %xmm29
vpternlogq $150, %xmm2, %xmm27, %xmm29
vpslldq $4, %xmm28, %xmm0
vpslldq $8, %xmm28, %xmm1
vpslldq $12, %xmm28, %xmm2
vpternlogq $150, %xmm1, %xmm0, %xmm2
vpshufb %xmm16, %xmm29, %xmm0
vpbroadcastq .LCPI1_11(%rip), %xmm1
vaesenclast %xmm1, %xmm0, %xmm30
vpternlogq $150, %xmm2, %xmm28, %xmm30
vpslldq $4, %xmm29, %xmm6
vpslldq $8, %xmm29, %xmm0
vmovapd %xmm0, -128(%rsp)
vpslldq $12, %xmm29, %xmm23
vpshufd $255, %xmm30, %xmm0
vmovdqa %xmm0, -96(%rsp)
vpclmulqdq $0, %xmm14, %xmm14, %xmm0
vpbroadcastq .LCPI1_13(%rip), %ymm15
vpclmulqdq $16, %xmm15, %xmm0, %xmm1
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpclmulqdq $16, %xmm15, %xmm0, %xmm1
vpclmulqdq $17, %xmm14, %xmm14, %xmm2
vpshufd $78, %xmm0, %xmm17
vpternlogq $150, %xmm1, %xmm2, %xmm17
vpclmulqdq $0, %xmm17, %xmm17, %xmm0
vpclmulqdq $16, %xmm15, %xmm0, %xmm1
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpclmulqdq $16, %xmm15, %xmm0, %xmm1
vpclmulqdq $17, %xmm17, %xmm17, %xmm2
vpshufd $78, %xmm0, %xmm0
vpternlogq $150, %xmm1, %xmm2, %xmm0
vinserti32x4 $1, %xmm0, %ymm0, %ymm18
vinserti32x4 $1, %xmm0, %ymm17, %ymm0
vpclmulqdq $0, %ymm0, %ymm18, %ymm1
vpunpckhqdq %ymm0, %ymm18, %ymm2
vpunpcklqdq %ymm0, %ymm18, %ymm3
vpxor %ymm3, %ymm2, %ymm2
vpclmulqdq $1, %ymm2, %ymm2, %ymm2
vpclmulqdq $17, %ymm0, %ymm18, %ymm0
vpternlogq $150, %ymm1, %ymm0, %ymm2
vpslldq $8, %ymm2, %ymm3
vpxor %ymm3, %ymm1, %ymm1
vpclmulqdq $16, %ymm15, %ymm1, %ymm3
vpshufd $78, %ymm1, %ymm1
vpxor %ymm1, %ymm3, %ymm1
vpclmulqdq $16, %ymm15, %ymm1, %ymm3
vpsrldq $8, %ymm2, %ymm2
vpxor %ymm2, %ymm3, %ymm2
vpshufd $78, %ymm1, %ymm1
vpternlogq $150, %ymm2, %ymm0, %ymm1
vextracti32x4 $1, %ymm1, %xmm22
vpclmulqdq $0, %ymm1, %ymm18, %ymm0
vpunpckhqdq %ymm1, %ymm18, %ymm2
vpunpcklqdq %ymm1, %ymm18, %ymm3
vpxor %ymm3, %ymm2, %ymm2
vpclmulqdq $1, %ymm2, %ymm2, %ymm2
vpclmulqdq $17, %ymm1, %ymm18, %ymm3
vpternlogq $150, %ymm0, %ymm3, %ymm2
vpslldq $8, %ymm2, %ymm4
vpxor %ymm4, %ymm0, %ymm0
vpclmulqdq $16, %ymm15, %ymm0, %ymm4
vpshufd $78, %ymm0, %ymm0
vpxor %ymm0, %ymm4, %ymm0
vpclmulqdq $16, %ymm15, %ymm0, %ymm4
vpsrldq $8, %ymm2, %ymm2
vpxor %ymm2, %ymm4, %ymm2
vpshufd $78, %ymm0, %ymm0
vpternlogq $150, %ymm2, %ymm3, %ymm0
vextracti32x4 $1, %ymm0, %xmm25
vpunpcklqdq %ymm0, %ymm18, %ymm2
vpunpckhqdq %ymm0, %ymm18, %ymm3
vpxor %ymm2, %ymm3, %ymm2
vpclmulqdq $0, %ymm0, %ymm18, %ymm3
vpclmulqdq $1, %ymm2, %ymm2, %ymm2
vpclmulqdq $17, %ymm0, %ymm18, %ymm4
vpternlogq $150, %ymm3, %ymm4, %ymm2
vpslldq $8, %ymm2, %ymm5
vpxor %ymm5, %ymm3, %ymm3
vpsrldq $8, %ymm2, %ymm2
vpclmulqdq $16, %ymm15, %ymm3, %ymm5
vpshufd $78, %ymm3, %ymm3
vpxor %ymm3, %ymm5, %ymm3
vpclmulqdq $16, %ymm15, %ymm3, %ymm5
vpxor %ymm2, %ymm5, %ymm2
vpshufd $78, %ymm3, %ymm3
vpternlogq $150, %ymm2, %ymm4, %ymm3
vextracti128 $1, %ymm3, %xmm4
vpxord %xmm26, %xmm26, %xmm26
vpermq $68, %ymm1, %ymm19
vpermq $68, %ymm0, %ymm20
vpermq $68, %ymm3, %ymm21
cmpq $256, %r8
vmovups %ymm27, 144(%rsp)
vmovups %ymm28, 112(%rsp)
vmovups %ymm29, 80(%rsp)
vmovdqu64 %ymm30, 48(%rsp)
vmovups %ymm31, 176(%rsp)
vmovups %ymm24, -64(%rsp)
vmovdqu %ymm4, 16(%rsp)
jb .LBB1_6
vmovapd %xmm6, -32(%rsp)
vinserti32x4 $1, %xmm17, %ymm17, %ymm0
vmovdqu64 %ymm22, -16(%rsp)
vinserti32x4 $1, %xmm22, %ymm22, %ymm1
vmovdqu64 %ymm25, 368(%rsp)
vinserti32x4 $1, %xmm25, %ymm25, %ymm2
vinserti128 $1, %xmm4, %ymm4, %ymm3
movq %r8, %rdx
.p2align 4, 0x90
.LBB1_4:
vmovdqu 32(%rcx), %ymm5
vmovdqu64 64(%rcx), %ymm30
vmovdqu64 96(%rcx), %ymm31
vmovdqu64 128(%rcx), %ymm22
vmovdqu64 160(%rcx), %ymm24
vmovdqu64 192(%rcx), %ymm25
vmovdqu64 224(%rcx), %ymm16
vpxorq (%rcx), %ymm26, %ymm4
addq $256, %rcx
addq $-256, %rdx
vpunpcklqdq %ymm16, %ymm0, %ymm26
vpunpckhqdq %ymm16, %ymm0, %ymm27
vpxorq %ymm26, %ymm27, %ymm26
vpclmulqdq $0, %ymm16, %ymm0, %ymm27
vpclmulqdq $1, %ymm26, %ymm26, %ymm26
vpclmulqdq $17, %ymm16, %ymm0, %ymm16
vpunpcklqdq %ymm25, %ymm18, %ymm28
vpunpckhqdq %ymm25, %ymm18, %ymm29
vpxorq %ymm28, %ymm29, %ymm28
vpclmulqdq $0, %ymm25, %ymm18, %ymm29
vpxorq %ymm27, %ymm29, %ymm27
vpclmulqdq $1, %ymm28, %ymm28, %ymm28
vpxorq %ymm26, %ymm28, %ymm26
vpclmulqdq $17, %ymm25, %ymm18, %ymm25
vpxorq %ymm16, %ymm25, %ymm16
vpunpcklqdq %ymm24, %ymm19, %ymm25
vpunpckhqdq %ymm24, %ymm19, %ymm28
vpxorq %ymm25, %ymm28, %ymm25
vpclmulqdq $0, %ymm24, %ymm19, %ymm28
vpclmulqdq $1, %ymm25, %ymm25, %ymm25
vpclmulqdq $17, %ymm24, %ymm19, %ymm24
vpunpcklqdq %ymm22, %ymm1, %ymm29
vpunpckhqdq %ymm22, %ymm1, %ymm6
vpxorq %ymm29, %ymm6, %ymm6
vpclmulqdq $0, %ymm22, %ymm1, %ymm29
vpternlogq $150, %ymm28, %ymm27, %ymm29
vpclmulqdq $1, %ymm6, %ymm6, %ymm6
vpternlogq $150, %ymm25, %ymm26, %ymm6
vpclmulqdq $17, %ymm22, %ymm1, %ymm22
vpternlogq $150, %ymm24, %ymm16, %ymm22
vpunpcklqdq %ymm31, %ymm20, %ymm16
vpunpckhqdq %ymm31, %ymm20, %ymm24
vpxorq %ymm16, %ymm24, %ymm16
vpclmulqdq $0, %ymm31, %ymm20, %ymm24
vpclmulqdq $1, %ymm16, %ymm16, %ymm16
vpclmulqdq $17, %ymm31, %ymm20, %ymm25
vpunpcklqdq %ymm30, %ymm2, %ymm26
vpunpckhqdq %ymm30, %ymm2, %ymm27
vpxorq %ymm26, %ymm27, %ymm26
vpclmulqdq $0, %ymm30, %ymm2, %ymm27
vpternlogq $150, %ymm24, %ymm29, %ymm27
vpclmulqdq $1, %ymm26, %ymm26, %ymm24
vpternlogq $150, %ymm16, %ymm6, %ymm24
vpclmulqdq $17, %ymm30, %ymm2, %ymm6
vpternlogq $150, %ymm25, %ymm22, %ymm6
vpunpcklqdq %ymm5, %ymm21, %ymm16
vpunpckhqdq %ymm5, %ymm21, %ymm22
vpxorq %ymm16, %ymm22, %ymm16
vpclmulqdq $0, %ymm5, %ymm21, %ymm22
vpclmulqdq $1, %ymm16, %ymm16, %ymm16
vpclmulqdq $17, %ymm5, %ymm21, %ymm5
vpunpcklqdq %ymm4, %ymm3, %ymm25
vpunpckhqdq %ymm4, %ymm3, %ymm26
vpxorq %ymm25, %ymm26, %ymm25
vpclmulqdq $0, %ymm4, %ymm3, %ymm26
vpternlogq $150, %ymm22, %ymm27, %ymm26
vpclmulqdq $1, %ymm25, %ymm25, %ymm22
vpternlogq $150, %ymm16, %ymm24, %ymm22
vpclmulqdq $17, %ymm4, %ymm3, %ymm4
vpternlogq $150, %ymm5, %ymm6, %ymm4
vpternlogq $150, %ymm26, %ymm4, %ymm22
vpslldq $8, %ymm22, %ymm5
vpxorq %ymm5, %ymm26, %ymm5
vpsrldq $8, %ymm22, %ymm6
vpclmulqdq $16, %ymm15, %ymm5, %ymm16
vpshufd $78, %ymm5, %ymm5
vpxorq %ymm5, %ymm16, %ymm5
vpclmulqdq $16, %ymm15, %ymm5, %ymm16
vpxorq %ymm6, %ymm16, %ymm6
vpshufd $78, %ymm5, %ymm26
vpternlogq $150, %ymm6, %ymm4, %ymm26
cmpq $255, %rdx
ja .LBB1_4
vmovupd 144(%rsp), %ymm27
vmovupd 112(%rsp), %ymm28
vmovupd 80(%rsp), %ymm29
vmovdqu64 48(%rsp), %ymm30
vmovups 176(%rsp), %ymm31
vmovupd -64(%rsp), %ymm24
vpbroadcastd .LCPI1_24(%rip), %xmm16
vmovdqu64 -16(%rsp), %ymm22
vmovdqu64 368(%rsp), %ymm25
vmovapd -32(%rsp), %xmm6
jmp .LBB1_7
.LBB1_6:
movq %r8, %rdx
.LBB1_7:
vpternlogq $150, -128(%rsp), %xmm6, %xmm23
vmovdqa -96(%rsp), %xmm0
vaesenclast %xmm13, %xmm0, %xmm6
cmpq $32, %rdx
jb .LBB1_14
vinserti32x4 $1, %xmm17, %ymm17, %ymm0
leaq -32(%rdx), %rdi
testb $32, %dil
jne .LBB1_9
vpxorq (%rcx), %ymm26, %ymm1
addq $32, %rcx
vpunpcklqdq %ymm1, %ymm0, %ymm2
vpunpckhqdq %ymm1, %ymm0, %ymm3
vpxor %ymm2, %ymm3, %ymm2
vpclmulqdq $0, %ymm1, %ymm0, %ymm3
vpclmulqdq $1, %ymm2, %ymm2, %ymm2
vpclmulqdq $17, %ymm1, %ymm0, %ymm1
vpternlogq $150, %ymm3, %ymm1, %ymm2
vpslldq $8, %ymm2, %ymm4
vpxor %ymm4, %ymm3, %ymm3
vpsrldq $8, %ymm2, %ymm2
vpclmulqdq $16, %ymm15, %ymm3, %ymm4
vpshufd $78, %ymm3, %ymm3
vpxor %ymm3, %ymm4, %ymm3
vpclmulqdq $16, %ymm15, %ymm3, %ymm4
vpxor %ymm2, %ymm4, %ymm2
vpshufd $78, %ymm3, %ymm26
vpternlogq $150, %ymm2, %ymm1, %ymm26
movq %rdi, %rdx
cmpq $32, %rdi
jb .LBB1_10
jmp .LBB1_13
.LBB1_9:
cmpq $32, %rdi
jae .LBB1_13
.LBB1_10:
vpternlogq $150, %xmm23, %xmm29, %xmm6
testq %rdi, %rdi
jne .LBB1_15
jmp .LBB1_18
.p2align 4, 0x90
.LBB1_13:
vpxorq (%rcx), %ymm26, %ymm1
vpunpcklqdq %ymm1, %ymm0, %ymm2
vpunpckhqdq %ymm1, %ymm0, %ymm3
vpxor %ymm2, %ymm3, %ymm2
vpclmulqdq $0, %ymm1, %ymm0, %ymm3
vpclmulqdq $1, %ymm2, %ymm2, %ymm2
vpclmulqdq $17, %ymm1, %ymm0, %ymm1
vpternlogq $150, %ymm3, %ymm1, %ymm2
vpslldq $8, %ymm2, %ymm4
vpxor %ymm4, %ymm3, %ymm3
vpsrldq $8, %ymm2, %ymm2
vpclmulqdq $16, %ymm15, %ymm3, %ymm4
vpshufd $78, %ymm3, %ymm3
vpxor %ymm3, %ymm4, %ymm3
vpclmulqdq $16, %ymm15, %ymm3, %ymm4
vpshufd $78, %ymm3, %ymm3
vpternlogq $150, %ymm2, %ymm4, %ymm3
addq $-64, %rdx
vpternlogq $150, 32(%rcx), %ymm1, %ymm3
addq $64, %rcx
vpunpcklqdq %ymm3, %ymm0, %ymm1
vpunpckhqdq %ymm3, %ymm0, %ymm2
vpxor %ymm1, %ymm2, %ymm1
vpclmulqdq $0, %ymm3, %ymm0, %ymm2
vpclmulqdq $1, %ymm1, %ymm1, %ymm1
vpclmulqdq $17, %ymm3, %ymm0, %ymm3
vpternlogq $150, %ymm2, %ymm3, %ymm1
vpslldq $8, %ymm1, %ymm4
vpxor %ymm4, %ymm2, %ymm2
vpsrldq $8, %ymm1, %ymm1
vpclmulqdq $16, %ymm15, %ymm2, %ymm4
vpshufd $78, %ymm2, %ymm2
vpxor %ymm2, %ymm4, %ymm2
vpclmulqdq $16, %ymm15, %ymm2, %ymm4
vpxor %ymm1, %ymm4, %ymm1
vpshufd $78, %ymm2, %ymm26
vpternlogq $150, %ymm1, %ymm3, %ymm26
cmpq $31, %rdx
ja .LBB1_13
.LBB1_14:
movq %rdx, %rdi
vpternlogq $150, %xmm23, %xmm29, %xmm6
testq %rdi, %rdi
je .LBB1_18
.LBB1_15:
movl $-1, %edx
bzhil %edi, %edx, %edx
kmovd %edx, %k1
vmovdqu8 (%rcx), %ymm0 {%k1} {z}
vpxorq %ymm0, %ymm26, %ymm0
vmovdqa64 %xmm17, %xmm1
cmpq $17, %rdi
jae .LBB1_17
vmovdqa %xmm14, %xmm1
.LBB1_17:
vinserti128 $1, %xmm1, %ymm1, %ymm1
vpunpcklqdq %ymm0, %ymm1, %ymm2
vpunpckhqdq %ymm0, %ymm1, %ymm3
vpxor %ymm2, %ymm3, %ymm2
vpclmulqdq $0, %ymm0, %ymm1, %ymm3
vpclmulqdq $1, %ymm2, %ymm2, %ymm2
vpclmulqdq $17, %ymm0, %ymm1, %ymm0
vpternlogq $150, %ymm3, %ymm0, %ymm2
vpslldq $8, %ymm2, %ymm1
vpxor %ymm1, %ymm3, %ymm1
vpsrldq $8, %ymm2, %ymm2
vpclmulqdq $16, %ymm15, %ymm1, %ymm3
vpshufd $78, %ymm1, %ymm1
vpxor %ymm1, %ymm3, %ymm1
vpclmulqdq $16, %ymm15, %ymm1, %ymm3
vpxor %ymm2, %ymm3, %ymm2
vpshufd $78, %ymm1, %ymm26
vpternlogq $150, %ymm2, %ymm0, %ymm26
.LBB1_18:
vpslldq $4, %xmm30, %xmm0
vpslldq $8, %xmm30, %xmm1
vpslldq $12, %xmm30, %xmm23
vpshufb %xmm16, %xmm6, %xmm2
vpbroadcastq .LCPI1_12(%rip), %xmm3
vmovq %r10, %xmm4
vmovq %r8, %xmm5
cmpq $256, %r10
vmovdqu %ymm6, -128(%rsp)
vmovups %ymm9, 304(%rsp)
vmovups %ymm10, 272(%rsp)
vmovups %ymm11, 240(%rsp)
vmovups %ymm12, 208(%rsp)
jb .LBB1_22
vmovapd %ymm8, %ymm11
vmovapd %ymm7, %ymm12
vinserti32x4 $1, %xmm17, %ymm17, %ymm13
vinserti32x4 $1, %xmm22, %ymm22, %ymm16
vinserti32x4 $1, %xmm25, %ymm25, %ymm22
vmovdqu 16(%rsp), %ymm3
vinserti32x4 $1, %xmm3, %ymm3, %ymm24
movq %r9, %rcx
movq %r10, %rdx
.p2align 4, 0x90
.LBB1_20:
vmovdqu64 32(%rcx), %ymm27
vmovdqu 64(%rcx), %ymm6
vmovdqu64 96(%rcx), %ymm28
vmovdqu64 128(%rcx), %ymm29
vmovdqu64 160(%rcx), %ymm30
vmovdqu64 192(%rcx), %ymm31
vmovdqu 224(%rcx), %ymm3
vpxorq (%rcx), %ymm26, %ymm25
addq $256, %rcx
addq $-256, %rdx
vpunpcklqdq %ymm3, %ymm13, %ymm26
vpunpckhqdq %ymm3, %ymm13, %ymm7
vpxorq %ymm26, %ymm7, %ymm7
vpclmulqdq $0, %ymm3, %ymm13, %ymm26
vpclmulqdq $1, %ymm7, %ymm7, %ymm7
vpclmulqdq $17, %ymm3, %ymm13, %ymm3
vpunpcklqdq %ymm31, %ymm18, %ymm8
vpunpckhqdq %ymm31, %ymm18, %ymm9
vpxor %ymm8, %ymm9, %ymm8
vpclmulqdq $0, %ymm31, %ymm18, %ymm9
vpxorq %ymm26, %ymm9, %ymm9
vpclmulqdq $1, %ymm8, %ymm8, %ymm8
vpxor %ymm7, %ymm8, %ymm7
vpclmulqdq $17, %ymm31, %ymm18, %ymm8
vpxor %ymm3, %ymm8, %ymm3
vpunpcklqdq %ymm30, %ymm19, %ymm8
vpunpckhqdq %ymm30, %ymm19, %ymm26
vpxorq %ymm8, %ymm26, %ymm8
vpclmulqdq $0, %ymm30, %ymm19, %ymm26
vpclmulqdq $1, %ymm8, %ymm8, %ymm8
vpclmulqdq $17, %ymm30, %ymm19, %ymm30
vpunpcklqdq %ymm29, %ymm16, %ymm31
vpunpckhqdq %ymm29, %ymm16, %ymm10
vpxorq %ymm31, %ymm10, %ymm10
vpclmulqdq $0, %ymm29, %ymm16, %ymm31
vpternlogq $150, %ymm26, %ymm9, %ymm31
vpclmulqdq $1, %ymm10, %ymm10, %ymm9
vpternlogq $150, %ymm8, %ymm7, %ymm9
vpclmulqdq $17, %ymm29, %ymm16, %ymm7
vpternlogq $150, %ymm30, %ymm3, %ymm7
vpunpcklqdq %ymm28, %ymm20, %ymm3
vpunpckhqdq %ymm28, %ymm20, %ymm8
vpxor %ymm3, %ymm8, %ymm3
vpclmulqdq $0, %ymm28, %ymm20, %ymm8
vpclmulqdq $1, %ymm3, %ymm3, %ymm3
vpclmulqdq $17, %ymm28, %ymm20, %ymm10
vpunpcklqdq %ymm6, %ymm22, %ymm26
vpunpckhqdq %ymm6, %ymm22, %ymm28
vpxorq %ymm26, %ymm28, %ymm26
vpclmulqdq $0, %ymm6, %ymm22, %ymm28
vpternlogq $150, %ymm8, %ymm31, %ymm28
vpclmulqdq $1, %ymm26, %ymm26, %ymm8
vpternlogq $150, %ymm3, %ymm9, %ymm8
vpclmulqdq $17, %ymm6, %ymm22, %ymm3
vpternlogq $150, %ymm10, %ymm7, %ymm3
vpunpcklqdq %ymm27, %ymm21, %ymm6
vpunpckhqdq %ymm27, %ymm21, %ymm7
vpxor %ymm6, %ymm7, %ymm6
vpclmulqdq $0, %ymm27, %ymm21, %ymm7
vpclmulqdq $1, %ymm6, %ymm6, %ymm6
vpclmulqdq $17, %ymm27, %ymm21, %ymm9
vpunpcklqdq %ymm25, %ymm24, %ymm10
vpunpckhqdq %ymm25, %ymm24, %ymm26
vpxorq %ymm10, %ymm26, %ymm10
vpclmulqdq $0, %ymm25, %ymm24, %ymm26
vpternlogq $150, %ymm7, %ymm28, %ymm26
vpclmulqdq $1, %ymm10, %ymm10, %ymm7
vpternlogq $150, %ymm6, %ymm8, %ymm7
vpclmulqdq $17, %ymm25, %ymm24, %ymm6
vpternlogq $150, %ymm9, %ymm3, %ymm6
vpternlogq $150, %ymm26, %ymm6, %ymm7
vpslldq $8, %ymm7, %ymm3
vpxorq %ymm3, %ymm26, %ymm3
vpsrldq $8, %ymm7, %ymm7
vpclmulqdq $16, %ymm15, %ymm3, %ymm8
vpshufd $78, %ymm3, %ymm3
vpxor %ymm3, %ymm8, %ymm3
vpclmulqdq $16, %ymm15, %ymm3, %ymm8
vpxor %ymm7, %ymm8, %ymm7
vpshufd $78, %ymm3, %ymm26
vpternlogq $150, %ymm7, %ymm6, %ymm26
cmpq $255, %rdx
ja .LBB1_20
vmovapd %ymm12, %ymm7
vmovapd %ymm11, %ymm8
vmovupd 304(%rsp), %ymm9
vmovupd 272(%rsp), %ymm10
vmovupd 240(%rsp), %ymm11
vmovupd 208(%rsp), %ymm12
vmovupd 144(%rsp), %ymm27
vmovupd 112(%rsp), %ymm28
vmovupd 80(%rsp), %ymm29
vmovupd 48(%rsp), %ymm30
vmovups 176(%rsp), %ymm31
vmovupd -64(%rsp), %ymm24
vmovdqu -128(%rsp), %ymm6
vpbroadcastq .LCPI1_12(%rip), %xmm3
jmp .LBB1_23
.LBB1_22:
movq %r10, %rdx
movq %r9, %rcx
.LBB1_23:
vmovd 8(%rsi), %xmm13
vmovq (%rsi), %xmm16
vpternlogq $150, %xmm1, %xmm0, %xmm23
vaesenclast %xmm3, %xmm2, %xmm25
vpunpcklqdq %xmm4, %xmm5, %xmm0
cmpq $32, %rdx
jb .LBB1_29
vinserti32x4 $1, %xmm17, %ymm17, %ymm1
leaq -32(%rdx), %rsi
testb $32, %sil
jne .LBB1_26
vpxorq (%rcx), %ymm26, %ymm2
addq $32, %rcx
vpunpcklqdq %ymm2, %ymm1, %ymm3
vpunpckhqdq %ymm2, %ymm1, %ymm4
vpxor %ymm3, %ymm4, %ymm3
vpclmulqdq $0, %ymm2, %ymm1, %ymm4
vpclmulqdq $1, %ymm3, %ymm3, %ymm3
vpclmulqdq $17, %ymm2, %ymm1, %ymm2
vpternlogq $150, %ymm4, %ymm2, %ymm3
vpslldq $8, %ymm3, %ymm5
vpxor %ymm5, %ymm4, %ymm4
vpsrldq $8, %ymm3, %ymm3
vpclmulqdq $16, %ymm15, %ymm4, %ymm5
vpshufd $78, %ymm4, %ymm4
vpxor %ymm4, %ymm5, %ymm4
vpclmulqdq $16, %ymm15, %ymm4, %ymm5
vpxor %ymm3, %ymm5, %ymm3
vpshufd $78, %ymm4, %ymm26
vpternlogq $150, %ymm3, %ymm2, %ymm26
movq %rsi, %rdx
.LBB1_26:
cmpq $32, %rsi
jb .LBB1_30
.p2align 4, 0x90
.LBB1_27:
vpxorq (%rcx), %ymm26, %ymm2
vpunpcklqdq %ymm2, %ymm1, %ymm3
vpunpckhqdq %ymm2, %ymm1, %ymm4
vpxor %ymm3, %ymm4, %ymm3
vpclmulqdq $0, %ymm2, %ymm1, %ymm4
vpclmulqdq $1, %ymm3, %ymm3, %ymm3
vpclmulqdq $17, %ymm2, %ymm1, %ymm2
vpternlogq $150, %ymm4, %ymm2, %ymm3
vpslldq $8, %ymm3, %ymm5
vpxor %ymm5, %ymm4, %ymm4
vpsrldq $8, %ymm3, %ymm3
vpclmulqdq $16, %ymm15, %ymm4, %ymm5
vpshufd $78, %ymm4, %ymm4
vpxor %ymm4, %ymm5, %ymm4
vpclmulqdq $16, %ymm15, %ymm4, %ymm5
vpshufd $78, %ymm4, %ymm4
vpternlogq $150, %ymm3, %ymm5, %ymm4
addq $-64, %rdx
vpternlogq $150, 32(%rcx), %ymm2, %ymm4
addq $64, %rcx
vpunpcklqdq %ymm4, %ymm1, %ymm2
vpunpckhqdq %ymm4, %ymm1, %ymm3
vpxor %ymm2, %ymm3, %ymm2
vpclmulqdq $0, %ymm4, %ymm1, %ymm3
vpclmulqdq $1, %ymm2, %ymm2, %ymm2
vpclmulqdq $17, %ymm4, %ymm1, %ymm4
vpternlogq $150, %ymm3, %ymm4, %ymm2
vpslldq $8, %ymm2, %ymm5
vpxor %ymm5, %ymm3, %ymm3
vpsrldq $8, %ymm2, %ymm2
vpclmulqdq $16, %ymm15, %ymm3, %ymm5
vpshufd $78, %ymm3, %ymm3
vpxor %ymm3, %ymm5, %ymm3
vpclmulqdq $16, %ymm15, %ymm3, %ymm5
vpxor %ymm2, %ymm5, %ymm2
vpshufd $78, %ymm3, %ymm26
vpternlogq $150, %ymm2, %ymm4, %ymm26
cmpq $31, %rdx
ja .LBB1_27
.LBB1_29:
movq %rdx, %rsi
.LBB1_30:
movq 440(%rsp), %rdx
vpunpcklqdq %xmm13, %xmm16, %xmm1
vpternlogq $150, %xmm23, %xmm30, %xmm25
vpsllq $3, %xmm0, %xmm0
testq %rsi, %rsi
je .LBB1_34
movl $-1, %edi
bzhil %esi, %edi, %edi
kmovd %edi, %k1
vmovdqu8 (%rcx), %ymm2 {%k1} {z}
vpxorq %ymm2, %ymm26, %ymm2
cmpq $17, %rsi
jae .LBB1_33
vmovdqa64 %xmm14, %xmm17
.LBB1_33:
vinserti32x4 $1, %xmm17, %ymm17, %ymm3
vpunpcklqdq %ymm2, %ymm3, %ymm4
vpunpckhqdq %ymm2, %ymm3, %ymm5
vpxor %ymm4, %ymm5, %ymm4
vpclmulqdq $0, %ymm2, %ymm3, %ymm5
vpclmulqdq $1, %ymm4, %ymm4, %ymm4
vpclmulqdq $17, %ymm2, %ymm3, %ymm2
vpternlogq $150, %ymm5, %ymm2, %ymm4
vpslldq $8, %ymm4, %ymm3
vpxor %ymm3, %ymm5, %ymm3
vpsrldq $8, %ymm4, %ymm4
vpclmulqdq $16, %ymm15, %ymm3, %ymm5
vpshufd $78, %ymm3, %ymm3
vpxor %ymm3, %ymm5, %ymm3
vpclmulqdq $16, %ymm15, %ymm3, %ymm5
vpxor %ymm4, %ymm5, %ymm4
vpshufd $78, %ymm3, %ymm26
vpternlogq $150, %ymm4, %ymm2, %ymm26
.LBB1_34:
movq 424(%rsp), %rcx
vextracti32x4 $1, %ymm26, %xmm2
vpxor %xmm1, %xmm2, %xmm1
vpxorq %xmm0, %xmm26, %xmm0
vpclmulqdq $0, %xmm0, %xmm14, %xmm2
vpclmulqdq $1, %xmm0, %xmm14, %xmm3
vpclmulqdq $16, %xmm0, %xmm14, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm14, %xmm0
vpslldq $8, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpsrldq $8, %xmm3, %xmm3
vpbroadcastq .LCPI1_13(%rip), %xmm4
vpclmulqdq $16, %xmm4, %xmm2, %xmm5
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm5, %xmm2
vpclmulqdq $16, %xmm4, %xmm2, %xmm4
vpternlogq $150, %xmm0, %xmm1, %xmm4
vpshufd $78, %xmm2, %xmm0
vpternlogq $150, %xmm3, %xmm4, %xmm0
vpternlogq $108, .LCPI1_14(%rip), %xmm24, %xmm0
vaesenc %xmm31, %xmm0, %xmm0
vaesenc %xmm7, %xmm0, %xmm0
vaesenc %xmm8, %xmm0, %xmm0
vaesenc %xmm9, %xmm0, %xmm0
vaesenc %xmm10, %xmm0, %xmm0
vaesenc %xmm11, %xmm0, %xmm0
vaesenc %xmm12, %xmm0, %xmm0
vmovdqu64 336(%rsp), %ymm26
vaesenc %xmm26, %xmm0, %xmm0
vaesenc %xmm27, %xmm0, %xmm0
vaesenc %xmm28, %xmm0, %xmm0
vaesenc %xmm29, %xmm0, %xmm0
vaesenc %xmm30, %xmm0, %xmm0
vaesenc %xmm6, %xmm0, %xmm0
vaesenclast %xmm25, %xmm0, %xmm0
vmovdqu %xmm0, (%rdx)
vpor .LCPI1_15(%rip), %xmm0, %xmm14
cmpq $256, %r10
jb .LBB1_38
vinserti32x4 $1, %xmm24, %ymm24, %ymm15
vinserti32x4 $1, %xmm31, %ymm31, %ymm17
vmovups %ymm7, 16(%rsp)
vinserti32x4 $1, %xmm7, %ymm7, %ymm18
vmovups %ymm8, -16(%rsp)
vinserti32x4 $1, %xmm8, %ymm8, %ymm19
vinserti32x4 $1, %xmm9, %ymm9, %ymm20
vinserti32x4 $1, %xmm10, %ymm10, %ymm21
vinserti32x4 $1, %xmm11, %ymm11, %ymm22
vinserti32x4 $1, %xmm12, %ymm12, %ymm23
vinserti32x4 $1, %xmm26, %ymm26, %ymm24
vmovdqa64 %ymm25, %ymm0
vinserti32x4 $1, %xmm27, %ymm27, %ymm25
vinserti32x4 $1, %xmm28, %ymm28, %ymm26
vinserti32x4 $1, %xmm29, %ymm29, %ymm27
vinserti32x4 $1, %xmm30, %ymm30, %ymm28
vinserti32x4 $1, %xmm6, %ymm6, %ymm29
vmovdqu %ymm0, -96(%rsp)
vinserti32x4 $1, %xmm0, %ymm0, %ymm30
vpmovsxbq .LCPI1_25(%rip), %ymm1
vpmovsxbq .LCPI1_26(%rip), %ymm0
vpmovsxbq .LCPI1_27(%rip), %ymm13
vpmovsxbq .LCPI1_28(%rip), %ymm16
vpmovsxbq .LCPI1_29(%rip), %ymm2
vpmovsxbq .LCPI1_30(%rip), %ymm3
vpmovsxbq .LCPI1_31(%rip), %ymm4
vpmovsxbq .LCPI1_32(%rip), %xmm5
.p2align 4, 0x90
.LBB1_36:
vpaddd .LCPI1_0(%rip), %xmm14, %xmm6
vinserti128 $1, %xmm6, %ymm14, %ymm6
vinserti128 $1, %xmm14, %ymm14, %ymm7
vpaddd %ymm1, %ymm7, %ymm8
vpaddd %ymm0, %ymm7, %ymm9
vpaddd %ymm7, %ymm13, %ymm10
vpaddd %ymm16, %ymm7, %ymm11
vpaddd %ymm2, %ymm7, %ymm12
vpaddd %ymm3, %ymm7, %ymm31
vpaddd %ymm4, %ymm7, %ymm7
vpxor %ymm6, %ymm15, %ymm6
vpxor %ymm8, %ymm15, %ymm8
vpxor %ymm9, %ymm15, %ymm9
vpxor %ymm10, %ymm15, %ymm10
vpxor %ymm11, %ymm15, %ymm11
vpxor %ymm12, %ymm15, %ymm12
vpxorq %ymm31, %ymm15, %ymm31
vpxor %ymm7, %ymm15, %ymm7
vaesenc %ymm17, %ymm6, %ymm6
vaesenc %ymm17, %ymm8, %ymm8
vaesenc %ymm17, %ymm9, %ymm9
vaesenc %ymm17, %ymm10, %ymm10
vaesenc %ymm17, %ymm11, %ymm11
vaesenc %ymm17, %ymm12, %ymm12
vaesenc %ymm17, %ymm31, %ymm31
vaesenc %ymm17, %ymm7, %ymm7
vaesenc %ymm18, %ymm6, %ymm6
vaesenc %ymm18, %ymm8, %ymm8
vaesenc %ymm18, %ymm9, %ymm9
vaesenc %ymm18, %ymm10, %ymm10
vaesenc %ymm18, %ymm11, %ymm11
vaesenc %ymm18, %ymm12, %ymm12
vaesenc %ymm18, %ymm31, %ymm31
vaesenc %ymm18, %ymm7, %ymm7
vaesenc %ymm19, %ymm6, %ymm6
vaesenc %ymm19, %ymm8, %ymm8
vaesenc %ymm19, %ymm9, %ymm9
vaesenc %ymm19, %ymm10, %ymm10
vaesenc %ymm19, %ymm11, %ymm11
vaesenc %ymm19, %ymm12, %ymm12
vaesenc %ymm19, %ymm31, %ymm31
vaesenc %ymm19, %ymm7, %ymm7
vaesenc %ymm20, %ymm6, %ymm6
vaesenc %ymm20, %ymm8, %ymm8
vaesenc %ymm20, %ymm9, %ymm9
vaesenc %ymm20, %ymm10, %ymm10
vaesenc %ymm20, %ymm11, %ymm11
vaesenc %ymm20, %ymm12, %ymm12
vaesenc %ymm20, %ymm31, %ymm31
vaesenc %ymm20, %ymm7, %ymm7
vaesenc %ymm21, %ymm6, %ymm6
vaesenc %ymm21, %ymm8, %ymm8
vaesenc %ymm21, %ymm9, %ymm9
vaesenc %ymm21, %ymm10, %ymm10
vaesenc %ymm21, %ymm11, %ymm11
vaesenc %ymm21, %ymm12, %ymm12
vaesenc %ymm21, %ymm31, %ymm31
vaesenc %ymm21, %ymm7, %ymm7
vaesenc %ymm22, %ymm6, %ymm6
vaesenc %ymm22, %ymm8, %ymm8
vaesenc %ymm22, %ymm9, %ymm9
vaesenc %ymm22, %ymm10, %ymm10
vaesenc %ymm22, %ymm11, %ymm11
vaesenc %ymm22, %ymm12, %ymm12
vaesenc %ymm22, %ymm31, %ymm31
vaesenc %ymm22, %ymm7, %ymm7
vaesenc %ymm23, %ymm6, %ymm6
vaesenc %ymm23, %ymm8, %ymm8
vaesenc %ymm23, %ymm9, %ymm9
vaesenc %ymm23, %ymm10, %ymm10
vaesenc %ymm23, %ymm11, %ymm11
vaesenc %ymm23, %ymm12, %ymm12
vaesenc %ymm23, %ymm31, %ymm31
vaesenc %ymm23, %ymm7, %ymm7
vaesenc %ymm24, %ymm6, %ymm6
vaesenc %ymm24, %ymm8, %ymm8
vaesenc %ymm24, %ymm9, %ymm9
vaesenc %ymm24, %ymm10, %ymm10
vaesenc %ymm24, %ymm11, %ymm11
vaesenc %ymm24, %ymm12, %ymm12
vaesenc %ymm24, %ymm31, %ymm31
vaesenc %ymm24, %ymm7, %ymm7
vaesenc %ymm25, %ymm6, %ymm6
vaesenc %ymm25, %ymm8, %ymm8
vaesenc %ymm25, %ymm9, %ymm9
vaesenc %ymm25, %ymm10, %ymm10
vaesenc %ymm25, %ymm11, %ymm11
vaesenc %ymm25, %ymm12, %ymm12
vaesenc %ymm25, %ymm31, %ymm31
vaesenc %ymm25, %ymm7, %ymm7
vaesenc %ymm26, %ymm6, %ymm6
vaesenc %ymm26, %ymm8, %ymm8
vaesenc %ymm26, %ymm9, %ymm9
vaesenc %ymm26, %ymm10, %ymm10
vaesenc %ymm26, %ymm11, %ymm11
vaesenc %ymm26, %ymm12, %ymm12
vaesenc %ymm26, %ymm31, %ymm31
vaesenc %ymm26, %ymm7, %ymm7
vaesenc %ymm27, %ymm6, %ymm6
vaesenc %ymm27, %ymm8, %ymm8
vaesenc %ymm27, %ymm9, %ymm9
vaesenc %ymm27, %ymm10, %ymm10
vaesenc %ymm27, %ymm11, %ymm11
vaesenc %ymm27, %ymm12, %ymm12
vaesenc %ymm27, %ymm31, %ymm31
vaesenc %ymm27, %ymm7, %ymm7
vaesenc %ymm28, %ymm6, %ymm6
vaesenc %ymm28, %ymm8, %ymm8
vaesenc %ymm28, %ymm9, %ymm9
vaesenc %ymm28, %ymm10, %ymm10
vaesenc %ymm28, %ymm11, %ymm11
vaesenc %ymm28, %ymm12, %ymm12
vaesenc %ymm28, %ymm31, %ymm31
vaesenc %ymm28, %ymm7, %ymm7
vaesenc %ymm29, %ymm6, %ymm6
vaesenc %ymm29, %ymm8, %ymm8
vaesenc %ymm29, %ymm9, %ymm9
vaesenc %ymm29, %ymm10, %ymm10
vaesenc %ymm29, %ymm11, %ymm11
vaesenc %ymm29, %ymm12, %ymm12
vaesenc %ymm29, %ymm31, %ymm31
vaesenc %ymm29, %ymm7, %ymm7
vaesenclast %ymm30, %ymm6, %ymm6
vaesenclast %ymm30, %ymm8, %ymm8
vaesenclast %ymm30, %ymm9, %ymm9
vaesenclast %ymm30, %ymm10, %ymm10
vaesenclast %ymm30, %ymm11, %ymm11
vaesenclast %ymm30, %ymm12, %ymm12
vaesenclast %ymm30, %ymm31, %ymm31
vaesenclast %ymm30, %ymm7, %ymm7
vpxor (%r9), %ymm6, %ymm6
vpxor 32(%r9), %ymm8, %ymm8
vpxor 64(%r9), %ymm9, %ymm9
vpxor 96(%r9), %ymm10, %ymm10
vpxor 128(%r9), %ymm11, %ymm11
vpxor 160(%r9), %ymm12, %ymm12
vpxorq 192(%r9), %ymm31, %ymm31
vpxor 224(%r9), %ymm7, %ymm7
vmovdqu %ymm6, (%rcx)
vmovdqu %ymm8, 32(%rcx)
vmovdqu %ymm9, 64(%rcx)
vmovdqu %ymm10, 96(%rcx)
vmovdqu %ymm11, 128(%rcx)
vmovdqu %ymm12, 160(%rcx)
vmovdqu64 %ymm31, 192(%rcx)
vmovdqu %ymm7, 224(%rcx)
addq $256, %r9
addq $256, %rcx
addq $-256, %r10
vpaddd %xmm5, %xmm14, %xmm14
cmpq $255, %r10
ja .LBB1_36
vmovups 176(%rsp), %ymm31
vmovupd -64(%rsp), %ymm24
vmovupd 16(%rsp), %ymm7
vmovupd -16(%rsp), %ymm8
vmovupd 304(%rsp), %ymm9
vmovupd 272(%rsp), %ymm10
vmovupd 240(%rsp), %ymm11
vmovupd 208(%rsp), %ymm12
vmovdqu64 336(%rsp), %ymm26
vmovupd 144(%rsp), %ymm27
vmovupd 112(%rsp), %ymm28
vmovupd 80(%rsp), %ymm29
vmovupd 48(%rsp), %ymm30
vmovdqu -128(%rsp), %ymm6
vmovdqu64 -96(%rsp), %ymm25
.LBB1_38:
cmpq $32, %r10
jb .LBB1_41
vinsertf32x4 $1, %xmm24, %ymm24, %ymm0
vinsertf32x4 $1, %xmm31, %ymm31, %ymm1
vinsertf128 $1, %xmm7, %ymm7, %ymm2
vinsertf128 $1, %xmm8, %ymm8, %ymm3
vinsertf128 $1, %xmm9, %ymm9, %ymm4
vinsertf128 $1, %xmm10, %ymm10, %ymm5
vinsertf128 $1, %xmm11, %ymm11, %ymm13
vinsertf128 $1, %xmm12, %ymm12, %ymm15
vinserti32x4 $1, %xmm26, %ymm26, %ymm16
vinsertf32x4 $1, %xmm27, %ymm27, %ymm17
vinsertf32x4 $1, %xmm28, %ymm28, %ymm18
vinsertf32x4 $1, %xmm29, %ymm29, %ymm19
vinsertf32x4 $1, %xmm30, %ymm30, %ymm20
vinserti32x4 $1, %xmm6, %ymm6, %ymm21
vinserti32x4 $1, %xmm25, %ymm25, %ymm22
leaq -32(%r10), %rsi
testb $32, %sil
jne .LBB1_42
leaq 32(%r9), %rdi
leaq 32(%rcx), %rdx
vpaddd .LCPI1_0(%rip), %xmm14, %xmm6
vpaddd .LCPI1_1(%rip), %xmm14, %xmm23
vinserti128 $1, %xmm6, %ymm14, %ymm6
vxorpd %ymm6, %ymm0, %ymm6
vaesenc %ymm1, %ymm6, %ymm6
vaesenc %ymm2, %ymm6, %ymm6
vaesenc %ymm3, %ymm6, %ymm6
vaesenc %ymm4, %ymm6, %ymm6
vaesenc %ymm5, %ymm6, %ymm6
vaesenc %ymm13, %ymm6, %ymm6
vaesenc %ymm15, %ymm6, %ymm6
vaesenc %ymm16, %ymm6, %ymm6
vaesenc %ymm17, %ymm6, %ymm6
vaesenc %ymm18, %ymm6, %ymm6
vaesenc %ymm19, %ymm6, %ymm6
vaesenc %ymm20, %ymm6, %ymm6
vaesenc %ymm21, %ymm6, %ymm6
vaesenclast %ymm22, %ymm6, %ymm6
vpxor (%r9), %ymm6, %ymm6
vmovdqu %ymm6, (%rcx)
vmovdqu -128(%rsp), %ymm6
movq %rdx, %rcx
vmovdqa64 %xmm23, %xmm14
movq %rsi, %r10
movq %rdi, %r9
cmpq $32, %rsi
jae .LBB1_43
jmp .LBB1_46
.LBB1_41:
movq %r9, %rdi
movq %rcx, %rdx
movq %r10, %rsi
vmovdqa64 %xmm14, %xmm23
jmp .LBB1_46
.LBB1_42:
cmpq $32, %rsi
jb .LBB1_46
.LBB1_43:
vmovdqu64 %ymm25, -96(%rsp)
vpmovsxbq .LCPI1_33(%rip), %xmm23
vpmovsxbq .LCPI1_34(%rip), %xmm24
vpmovsxbq .LCPI1_25(%rip), %ymm25
.p2align 4, 0x90
.LBB1_44:
vpaddd %xmm23, %xmm14, %xmm6
vinserti128 $1, %xmm6, %ymm14, %ymm6
vxorpd %ymm6, %ymm0, %ymm6
vaesenc %ymm1, %ymm6, %ymm6
vaesenc %ymm2, %ymm6, %ymm6
vaesenc %ymm3, %ymm6, %ymm6
vaesenc %ymm4, %ymm6, %ymm6
vaesenc %ymm5, %ymm6, %ymm6
vaesenc %ymm13, %ymm6, %ymm6
vaesenc %ymm15, %ymm6, %ymm6
vaesenc %ymm16, %ymm6, %ymm6
vaesenc %ymm17, %ymm6, %ymm6
vaesenc %ymm18, %ymm6, %ymm6
vaesenc %ymm19, %ymm6, %ymm6
vaesenc %ymm20, %ymm6, %ymm6
vaesenc %ymm21, %ymm6, %ymm6
vaesenclast %ymm22, %ymm6, %ymm6
vpxor (%r9), %ymm6, %ymm6
vmovdqu %ymm6, (%rcx)
vinserti128 $1, %xmm14, %ymm14, %ymm6
vpaddd %ymm25, %ymm6, %ymm6
vxorpd %ymm6, %ymm0, %ymm6
vaesenc %ymm1, %ymm6, %ymm6
vaesenc %ymm2, %ymm6, %ymm6
vaesenc %ymm3, %ymm6, %ymm6
vaesenc %ymm4, %ymm6, %ymm6
vaesenc %ymm5, %ymm6, %ymm6
vaesenc %ymm13, %ymm6, %ymm6
vaesenc %ymm15, %ymm6, %ymm6
vaesenc %ymm16, %ymm6, %ymm6
vaesenc %ymm17, %ymm6, %ymm6
vaesenc %ymm18, %ymm6, %ymm6
vaesenc %ymm19, %ymm6, %ymm6
vaesenc %ymm20, %ymm6, %ymm6
vaesenc %ymm21, %ymm6, %ymm6
vaesenclast %ymm22, %ymm6, %ymm6
vpxor 32(%r9), %ymm6, %ymm6
addq $64, %r9
vmovdqu %ymm6, 32(%rcx)
addq $64, %rcx
addq $-64, %r10
vpaddd %xmm24, %xmm14, %xmm14
cmpq $31, %r10
ja .LBB1_44
movq %r9, %rdi
movq %rcx, %rdx
movq %r10, %rsi
vmovdqa64 %xmm14, %xmm23
vmovupd -64(%rsp), %ymm24
vmovdqu -128(%rsp), %ymm6
vmovdqu64 -96(%rsp), %ymm25
.LBB1_46:
testq %rsi, %rsi
je .LBB1_48
movl $-1, %ecx
bzhil %esi, %ecx, %ecx
kmovd %ecx, %k1
vmovdqu8 (%rdi), %ymm0 {%k1} {z}
vpaddd .LCPI1_0(%rip), %xmm23, %xmm1
vinserti32x4 $1, %xmm1, %ymm23, %ymm1
vinsertf32x4 $1, %xmm24, %ymm24, %ymm2
vxorpd %ymm1, %ymm2, %ymm1
vinsertf32x4 $1, %xmm31, %ymm31, %ymm2
vaesenc %ymm2, %ymm1, %ymm1
vinsertf128 $1, %xmm7, %ymm7, %ymm2
vaesenc %ymm2, %ymm1, %ymm1
vinsertf128 $1, %xmm8, %ymm8, %ymm2
vaesenc %ymm2, %ymm1, %ymm1
vinsertf128 $1, %xmm9, %ymm9, %ymm2
vaesenc %ymm2, %ymm1, %ymm1
vinsertf128 $1, %xmm10, %ymm10, %ymm2
vaesenc %ymm2, %ymm1, %ymm1
vinsertf128 $1, %xmm11, %ymm11, %ymm2
vaesenc %ymm2, %ymm1, %ymm1
vinsertf128 $1, %xmm12, %ymm12, %ymm2
vaesenc %ymm2, %ymm1, %ymm1
vinserti32x4 $1, %xmm26, %ymm26, %ymm2
vaesenc %ymm2, %ymm1, %ymm1
vinsertf32x4 $1, %xmm27, %ymm27, %ymm2
vaesenc %ymm2, %ymm1, %ymm1
vinsertf32x4 $1, %xmm28, %ymm28, %ymm2
vaesenc %ymm2, %ymm1, %ymm1
vinsertf32x4 $1, %xmm29, %ymm29, %ymm2
vaesenc %ymm2, %ymm1, %ymm1
vinsertf32x4 $1, %xmm30, %ymm30, %ymm2
vaesenc %ymm2, %ymm1, %ymm1
vinserti128 $1, %xmm6, %ymm6, %ymm2
vaesenc %ymm2, %ymm1, %ymm1
vinserti32x4 $1, %xmm25, %ymm25, %ymm2
vaesenclast %ymm2, %ymm1, %ymm1
vpxor %ymm1, %ymm0, %ymm0
vmovdqu8 %ymm0, (%rdx) {%k1}
.LBB1_48:
movzbl %al, %eax
.LBB1_49:
addq $400, %rsp
.cfi_def_cfa_offset 16
popq %rbx
.cfi_def_cfa_offset 8
vzeroupper
retq
.Lfunc_end1:
.size haberdashery_aes256gcmsiv_tigerlake_encrypt, .Lfunc_end1-haberdashery_aes256gcmsiv_tigerlake_encrypt
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI2_0:
.long 1
.long 0
.long 0
.long 0
.LCPI2_1:
.quad 2
.quad 0
.LCPI2_2:
.long 3
.long 0
.long 0
.long 0
.LCPI2_3:
.quad 4
.quad 0
.LCPI2_4:
.long 5
.long 0
.long 0
.long 0
.LCPI2_5:
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.LCPI2_14:
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 128
.LCPI2_20:
.long 12
.long 0
.long 0
.long 0
.LCPI2_21:
.long 13
.long 0
.long 0
.long 0
.LCPI2_27:
.quad -1
.quad 9223372036854775807
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI2_6:
.quad 4294967297
.LCPI2_7:
.quad 8589934594
.LCPI2_8:
.quad 17179869188
.LCPI2_9:
.quad 34359738376
.LCPI2_10:
.quad 68719476752
.LCPI2_11:
.quad 137438953504
.LCPI2_12:
.quad 274877907008
.LCPI2_13:
.quad -4467570830351532032
.section .rodata.cst32,"aM",@progbits,32
.p2align 5, 0x0
.LCPI2_15:
.long 2
.long 0
.long 0
.long 0
.long 3
.long 0
.long 0
.long 0
.LCPI2_16:
.long 4
.long 0
.long 0
.long 0
.long 5
.long 0
.long 0
.long 0
.LCPI2_17:
.long 6
.long 0
.long 0
.long 0
.long 7
.long 0
.long 0
.long 0
.LCPI2_18:
.long 8
.long 0
.long 0
.long 0
.long 9
.long 0
.long 0
.long 0
.LCPI2_19:
.long 10
.long 0
.long 0
.long 0
.long 11
.long 0
.long 0
.long 0
.LCPI2_22:
.long 14
.long 0
.long 0
.long 0
.long 15
.long 0
.long 0
.long 0
.LCPI2_23:
.long 16
.long 0
.long 0
.long 0
.long 17
.long 0
.long 0
.long 0
.LCPI2_24:
.long 18
.long 0
.long 0
.long 0
.long 19
.long 0
.long 0
.long 0
.LCPI2_25:
.long 20
.long 0
.long 0
.long 0
.long 21
.long 0
.long 0
.long 0
.LCPI2_26:
.long 22
.long 0
.long 0
.long 0
.long 23
.long 0
.long 0
.long 0
.section .rodata.cst4,"aM",@progbits,4
.p2align 2, 0x0
.LCPI2_28:
.byte 13
.byte 14
.byte 15
.byte 12
.section .rodata,"a",@progbits
.LCPI2_29:
.byte 1
.byte 0
.LCPI2_30:
.byte 2
.byte 0
.section .text.haberdashery_aes256gcmsiv_tigerlake_decrypt,"ax",@progbits
.globl haberdashery_aes256gcmsiv_tigerlake_decrypt
.p2align 4, 0x90
.type haberdashery_aes256gcmsiv_tigerlake_decrypt,@function
haberdashery_aes256gcmsiv_tigerlake_decrypt:
.cfi_startproc
subq $584, %rsp
.cfi_def_cfa_offset 592
movq 592(%rsp), %r10
xorl %eax, %eax
cmpq 624(%rsp), %r10
jne .LBB2_37
cmpq $12, %rdx
jne .LBB2_37
movabsq $68719476737, %rdx
cmpq %rdx, %r8
jae .LBB2_37
cmpq %rdx, %r10
jae .LBB2_37
cmpq $16, 608(%rsp)
jb .LBB2_37
vmovsd 4(%rsi), %xmm0
vmovss (%rsi), %xmm1
vshufps $65, %xmm0, %xmm1, %xmm0
vxorps (%rdi), %xmm0, %xmm2
vxorps .LCPI2_0(%rip), %xmm2, %xmm3
vxorps .LCPI2_1(%rip), %xmm2, %xmm0
vxorps .LCPI2_2(%rip), %xmm2, %xmm4
vxorps .LCPI2_3(%rip), %xmm2, %xmm1
vxorps .LCPI2_4(%rip), %xmm2, %xmm5
vmovaps 16(%rdi), %xmm7
vmovdqa 32(%rdi), %xmm8
vmovdqa 48(%rdi), %xmm9
vmovaps 64(%rdi), %xmm6
#APP
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm0, %xmm0
vaesenc %xmm7, %xmm4, %xmm4
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm5, %xmm5
#NO_APP
#APP
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm8, %xmm3, %xmm3
vaesenc %xmm8, %xmm0, %xmm0
vaesenc %xmm8, %xmm4, %xmm4
vaesenc %xmm8, %xmm1, %xmm1
vaesenc %xmm8, %xmm5, %xmm5
#NO_APP
#APP
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm9, %xmm0, %xmm0
vaesenc %xmm9, %xmm4, %xmm4
vaesenc %xmm9, %xmm1, %xmm1
vaesenc %xmm9, %xmm5, %xmm5
#NO_APP
#APP
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 80(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 96(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 112(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 128(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 144(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 160(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 176(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 192(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 208(%rdi), %xmm6
#APP
vaesenc %xmm6, %xmm2, %xmm2
vaesenc %xmm6, %xmm3, %xmm3
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm6, %xmm4, %xmm4
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm6, %xmm5, %xmm5
#NO_APP
vmovaps 224(%rdi), %xmm6
#APP
vaesenclast %xmm6, %xmm2, %xmm2
vaesenclast %xmm6, %xmm3, %xmm3
vaesenclast %xmm6, %xmm0, %xmm0
vaesenclast %xmm6, %xmm4, %xmm4
vaesenclast %xmm6, %xmm1, %xmm1
vaesenclast %xmm6, %xmm5, %xmm5
#NO_APP
vpunpcklqdq %xmm3, %xmm2, %xmm26
vpunpcklqdq %xmm4, %xmm0, %xmm25
vpunpcklqdq %xmm5, %xmm1, %xmm23
vpslldq $4, %xmm25, %xmm3
vxorpd %xmm2, %xmm2, %xmm2
vpunpcklqdq %xmm0, %xmm2, %xmm4
vinsertps $55, %xmm0, %xmm0, %xmm5
vpternlogq $150, %xmm4, %xmm3, %xmm5
vpbroadcastd .LCPI2_28(%rip), %xmm0
vpbroadcastq .LCPI2_6(%rip), %xmm3
vpshufb %xmm0, %xmm23, %xmm4
vaesenclast %xmm3, %xmm4, %xmm28
vpternlogq $150, %xmm5, %xmm25, %xmm28
vpslldq $4, %xmm23, %xmm3
vpunpcklqdq %xmm1, %xmm2, %xmm4
vinsertps $55, %xmm1, %xmm0, %xmm1
vpternlogq $150, %xmm4, %xmm3, %xmm1
vpshufd $255, %xmm28, %xmm3
vaesenclast %xmm2, %xmm3, %xmm30
vpternlogq $150, %xmm1, %xmm23, %xmm30
vpslldq $4, %xmm28, %xmm1
vpslldq $8, %xmm28, %xmm3
vpslldq $12, %xmm28, %xmm4
vpternlogq $150, %xmm3, %xmm1, %xmm4
vpshufb %xmm0, %xmm30, %xmm1
vpbroadcastq .LCPI2_7(%rip), %xmm3
vaesenclast %xmm3, %xmm1, %xmm31
vpternlogq $150, %xmm4, %xmm28, %xmm31
vpslldq $4, %xmm30, %xmm1
vpslldq $8, %xmm30, %xmm3
vpslldq $12, %xmm30, %xmm4
vpternlogq $150, %xmm3, %xmm1, %xmm4
vpshufd $255, %xmm31, %xmm1
vaesenclast %xmm2, %xmm1, %xmm15
vpternlogq $150, %xmm4, %xmm30, %xmm15
vpslldq $4, %xmm31, %xmm1
vpslldq $8, %xmm31, %xmm3
vpslldq $12, %xmm31, %xmm4
vpternlogq $150, %xmm3, %xmm1, %xmm4
vpshufb %xmm0, %xmm15, %xmm1
vpbroadcastq .LCPI2_8(%rip), %xmm3
vaesenclast %xmm3, %xmm1, %xmm16
vpternlogq $150, %xmm4, %xmm31, %xmm16
vpslldq $4, %xmm15, %xmm1
vpslldq $8, %xmm15, %xmm3
vpslldq $12, %xmm15, %xmm4
vpternlogq $150, %xmm3, %xmm1, %xmm4
vpshufd $255, %xmm16, %xmm1
vaesenclast %xmm2, %xmm1, %xmm18
vpternlogq $150, %xmm4, %xmm15, %xmm18
vpslldq $4, %xmm16, %xmm1
vpslldq $8, %xmm16, %xmm3
vpslldq $12, %xmm16, %xmm4
vpternlogq $150, %xmm3, %xmm1, %xmm4
vpbroadcastq .LCPI2_9(%rip), %xmm1
vpshufb %xmm0, %xmm18, %xmm3
vaesenclast %xmm1, %xmm3, %xmm5
vpternlogq $150, %xmm4, %xmm16, %xmm5
vpslldq $4, %xmm18, %xmm1
vpslldq $8, %xmm18, %xmm3
vpslldq $12, %xmm18, %xmm4
vpternlogq $150, %xmm3, %xmm1, %xmm4
vpshufd $255, %xmm5, %xmm1
vaesenclast %xmm2, %xmm1, %xmm6
vpternlogq $150, %xmm4, %xmm18, %xmm6
vpslldq $4, %xmm5, %xmm1
vpslldq $8, %xmm5, %xmm3
vpslldq $12, %xmm5, %xmm4
vpternlogq $150, %xmm3, %xmm1, %xmm4
vpshufb %xmm0, %xmm6, %xmm1
vpbroadcastq .LCPI2_10(%rip), %xmm3
vaesenclast %xmm3, %xmm1, %xmm7
vmovups %ymm5, 32(%rsp)
vpternlogq $150, %xmm4, %xmm5, %xmm7
vpslldq $4, %xmm6, %xmm1
vpslldq $8, %xmm6, %xmm3
vpslldq $12, %xmm6, %xmm4
vpternlogq $150, %xmm3, %xmm1, %xmm4
vpshufd $255, %xmm7, %xmm1
vaesenclast %xmm2, %xmm1, %xmm5
vmovups %ymm6, (%rsp)
vpternlogq $150, %xmm4, %xmm6, %xmm5
vpslldq $4, %xmm7, %xmm1
vpslldq $8, %xmm7, %xmm3
vpslldq $12, %xmm7, %xmm4
vpternlogq $150, %xmm3, %xmm1, %xmm4
vpshufb %xmm0, %xmm5, %xmm1
vpbroadcastq .LCPI2_11(%rip), %xmm3
vaesenclast %xmm3, %xmm1, %xmm10
vmovups %ymm7, -32(%rsp)
vpternlogq $150, %xmm4, %xmm7, %xmm10
vpslldq $4, %xmm5, %xmm1
vpslldq $8, %xmm5, %xmm3
vpslldq $12, %xmm5, %xmm4
vpternlogq $150, %xmm3, %xmm1, %xmm4
vpshufd $255, %xmm10, %xmm1
vaesenclast %xmm2, %xmm1, %xmm11
vmovups %ymm5, -64(%rsp)
vpternlogq $150, %xmm4, %xmm5, %xmm11
vpclmulqdq $0, %xmm26, %xmm26, %xmm1
vpclmulqdq $17, %xmm26, %xmm26, %xmm2
vpbroadcastq .LCPI2_13(%rip), %ymm17
vpclmulqdq $16, %xmm17, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm17, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm22
vpternlogq $150, %xmm2, %xmm3, %xmm22
vpclmulqdq $0, %xmm22, %xmm22, %xmm1
vpclmulqdq $17, %xmm22, %xmm22, %xmm2
vpclmulqdq $16, %xmm17, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm17, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpternlogq $150, %xmm2, %xmm3, %xmm1
vinserti32x4 $1, %xmm1, %ymm22, %ymm2
vinserti32x4 $1, %xmm1, %ymm1, %ymm19
vpunpcklqdq %ymm2, %ymm19, %ymm1
vpunpckhqdq %ymm2, %ymm19, %ymm3
vpxor %ymm1, %ymm3, %ymm1
vpclmulqdq $0, %ymm2, %ymm19, %ymm3
vpclmulqdq $1, %ymm1, %ymm1, %ymm1
vpclmulqdq $17, %ymm2, %ymm19, %ymm2
vpternlogq $150, %ymm3, %ymm2, %ymm1
vpslldq $8, %ymm1, %ymm4
vpxor %ymm4, %ymm3, %ymm3
vpsrldq $8, %ymm1, %ymm1
vpclmulqdq $16, %ymm17, %ymm3, %ymm4
vpshufd $78, %ymm3, %ymm3
vpxor %ymm3, %ymm4, %ymm3
vpclmulqdq $16, %ymm17, %ymm3, %ymm4
vpxor %ymm1, %ymm4, %ymm1
vpshufd $78, %ymm3, %ymm3
vpternlogq $150, %ymm1, %ymm2, %ymm3
vextracti32x4 $1, %ymm3, %xmm29
vpunpcklqdq %ymm3, %ymm19, %ymm1
vpunpckhqdq %ymm3, %ymm19, %ymm2
vpxor %ymm1, %ymm2, %ymm1
vpclmulqdq $0, %ymm3, %ymm19, %ymm2
vpclmulqdq $1, %ymm1, %ymm1, %ymm1
vpclmulqdq $17, %ymm3, %ymm19, %ymm4
vpternlogq $150, %ymm2, %ymm4, %ymm1
vpslldq $8, %ymm1, %ymm5
vpxor %ymm5, %ymm2, %ymm2
vpsrldq $8, %ymm1, %ymm1
vpclmulqdq $16, %ymm17, %ymm2, %ymm5
vpshufd $78, %ymm2, %ymm2
vpxor %ymm2, %ymm5, %ymm2
vpclmulqdq $16, %ymm17, %ymm2, %ymm5
vpxor %ymm1, %ymm5, %ymm1
vpshufd $78, %ymm2, %ymm2
vpternlogq $150, %ymm1, %ymm4, %ymm2
vextracti32x4 $1, %ymm2, %xmm27
vpxord %xmm24, %xmm24, %xmm24
vpermq $68, %ymm3, %ymm21
vpermq $68, %ymm2, %ymm20
cmpq $192, %r8
vmovdqu %ymm10, -96(%rsp)
vmovdqu %ymm11, -128(%rsp)
jb .LBB2_9
vinserti32x4 $1, %xmm22, %ymm22, %ymm1
vinserti32x4 $1, %xmm29, %ymm29, %ymm2
vinserti32x4 $1, %xmm27, %ymm27, %ymm3
movq %r8, %rax
.p2align 4, 0x90
.LBB2_7:
vmovdqu 32(%rcx), %ymm4
vmovdqu 64(%rcx), %ymm5
vmovdqu 96(%rcx), %ymm6
vmovdqu 128(%rcx), %ymm7
vmovdqu 160(%rcx), %ymm8
vpxorq (%rcx), %ymm24, %ymm9
addq $192, %rcx
addq $-192, %rax
vpunpcklqdq %ymm8, %ymm1, %ymm10
vpunpckhqdq %ymm8, %ymm1, %ymm11
vpxor %ymm10, %ymm11, %ymm10
vpclmulqdq $0, %ymm8, %ymm1, %ymm11
vpclmulqdq $1, %ymm10, %ymm10, %ymm10
vpclmulqdq $17, %ymm8, %ymm1, %ymm8
vpunpcklqdq %ymm7, %ymm19, %ymm12
vpunpckhqdq %ymm7, %ymm19, %ymm13
vpxor %ymm12, %ymm13, %ymm12
vpclmulqdq $0, %ymm7, %ymm19, %ymm13
vpxor %ymm11, %ymm13, %ymm11
vpclmulqdq $1, %ymm12, %ymm12, %ymm12
vpxor %ymm10, %ymm12, %ymm10
vpclmulqdq $17, %ymm7, %ymm19, %ymm7
vpxor %ymm7, %ymm8, %ymm7
vpunpcklqdq %ymm6, %ymm21, %ymm8
vpunpckhqdq %ymm6, %ymm21, %ymm12
vpxor %ymm8, %ymm12, %ymm8
vpclmulqdq $0, %ymm6, %ymm21, %ymm12
vpclmulqdq $1, %ymm8, %ymm8, %ymm8
vpclmulqdq $17, %ymm6, %ymm21, %ymm6
vpunpcklqdq %ymm5, %ymm2, %ymm13
vpunpckhqdq %ymm5, %ymm2, %ymm14
vpxor %ymm13, %ymm14, %ymm13
vpclmulqdq $0, %ymm5, %ymm2, %ymm14
vpternlogq $150, %ymm12, %ymm11, %ymm14
vpclmulqdq $1, %ymm13, %ymm13, %ymm11
vpternlogq $150, %ymm8, %ymm10, %ymm11
vpclmulqdq $17, %ymm5, %ymm2, %ymm5
vpternlogq $150, %ymm6, %ymm7, %ymm5
vpunpcklqdq %ymm4, %ymm20, %ymm6
vpunpckhqdq %ymm4, %ymm20, %ymm7
vpxor %ymm6, %ymm7, %ymm6
vpclmulqdq $0, %ymm4, %ymm20, %ymm7
vpclmulqdq $1, %ymm6, %ymm6, %ymm6
vpclmulqdq $17, %ymm4, %ymm20, %ymm4
vpunpcklqdq %ymm9, %ymm3, %ymm8
vpunpckhqdq %ymm9, %ymm3, %ymm10
vpxor %ymm8, %ymm10, %ymm8
vpclmulqdq $0, %ymm9, %ymm3, %ymm10
vpternlogq $150, %ymm7, %ymm14, %ymm10
vpclmulqdq $1, %ymm8, %ymm8, %ymm7
vpternlogq $150, %ymm6, %ymm11, %ymm7
vpclmulqdq $17, %ymm9, %ymm3, %ymm6
vpternlogq $150, %ymm4, %ymm5, %ymm6
vpternlogq $150, %ymm10, %ymm6, %ymm7
vpslldq $8, %ymm7, %ymm4
vpxor %ymm4, %ymm10, %ymm4
vpsrldq $8, %ymm7, %ymm5
vpclmulqdq $16, %ymm17, %ymm4, %ymm7
vpshufd $78, %ymm4, %ymm4
vpxor %ymm4, %ymm7, %ymm4
vpclmulqdq $16, %ymm17, %ymm4, %ymm7
vpxor %ymm5, %ymm7, %ymm5
vpshufd $78, %ymm4, %ymm24
vpternlogq $150, %ymm5, %ymm6, %ymm24
cmpq $191, %rax
ja .LBB2_7
vmovdqu -96(%rsp), %ymm10
vmovdqu -128(%rsp), %ymm11
jmp .LBB2_10
.LBB2_9:
movq %r8, %rax
.LBB2_10:
vpslldq $4, %xmm10, %xmm2
vpslldq $8, %xmm10, %xmm3
vpslldq $12, %xmm10, %xmm1
vpshufb %xmm0, %xmm11, %xmm0
vpbroadcastq .LCPI2_12(%rip), %xmm4
movq 600(%rsp), %rdx
cmpq $32, %rax
jb .LBB2_16
vinserti32x4 $1, %xmm22, %ymm22, %ymm5
leaq -32(%rax), %rdi
testb $32, %dil
jne .LBB2_13
vpxorq (%rcx), %ymm24, %ymm6
addq $32, %rcx
vpunpcklqdq %ymm6, %ymm5, %ymm7
vpunpckhqdq %ymm6, %ymm5, %ymm8
vpxor %ymm7, %ymm8, %ymm7
vpclmulqdq $0, %ymm6, %ymm5, %ymm8
vpclmulqdq $1, %ymm7, %ymm7, %ymm7
vpclmulqdq $17, %ymm6, %ymm5, %ymm6
vpternlogq $150, %ymm8, %ymm6, %ymm7
vpslldq $8, %ymm7, %ymm9
vpxor %ymm9, %ymm8, %ymm8
vpsrldq $8, %ymm7, %ymm7
vpclmulqdq $16, %ymm17, %ymm8, %ymm9
vpshufd $78, %ymm8, %ymm8
vpxor %ymm8, %ymm9, %ymm8
vpclmulqdq $16, %ymm17, %ymm8, %ymm9
vpxor %ymm7, %ymm9, %ymm7
vpshufd $78, %ymm8, %ymm24
vpternlogq $150, %ymm7, %ymm6, %ymm24
movq %rdi, %rax
.LBB2_13:
cmpq $32, %rdi
jb .LBB2_17
.p2align 4, 0x90
.LBB2_14:
vpxorq (%rcx), %ymm24, %ymm6
vpunpcklqdq %ymm6, %ymm5, %ymm7
vpunpckhqdq %ymm6, %ymm5, %ymm8
vpxor %ymm7, %ymm8, %ymm7
vpclmulqdq $0, %ymm6, %ymm5, %ymm8
vpclmulqdq $1, %ymm7, %ymm7, %ymm7
vpclmulqdq $17, %ymm6, %ymm5, %ymm6
vpternlogq $150, %ymm8, %ymm6, %ymm7
vpslldq $8, %ymm7, %ymm9
vpxor %ymm9, %ymm8, %ymm8
vpsrldq $8, %ymm7, %ymm7
vpclmulqdq $16, %ymm17, %ymm8, %ymm9
vpshufd $78, %ymm8, %ymm8
vpxor %ymm8, %ymm9, %ymm8
vpclmulqdq $16, %ymm17, %ymm8, %ymm9
vpshufd $78, %ymm8, %ymm8
vpternlogq $150, %ymm7, %ymm9, %ymm8
addq $-64, %rax
vpternlogq $150, 32(%rcx), %ymm6, %ymm8
addq $64, %rcx
vpunpcklqdq %ymm8, %ymm5, %ymm6
vpunpckhqdq %ymm8, %ymm5, %ymm7
vpxor %ymm6, %ymm7, %ymm6
vpclmulqdq $0, %ymm8, %ymm5, %ymm7
vpclmulqdq $1, %ymm6, %ymm6, %ymm6
vpclmulqdq $17, %ymm8, %ymm5, %ymm8
vpternlogq $150, %ymm7, %ymm8, %ymm6
vpslldq $8, %ymm6, %ymm9
vpxor %ymm7, %ymm9, %ymm7
vpsrldq $8, %ymm6, %ymm6
vpclmulqdq $16, %ymm17, %ymm7, %ymm9
vpshufd $78, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm7
vpclmulqdq $16, %ymm17, %ymm7, %ymm9
vpxor %ymm6, %ymm9, %ymm6
vpshufd $78, %ymm7, %ymm24
vpternlogq $150, %ymm6, %ymm8, %ymm24
cmpq $31, %rax
ja .LBB2_14
.LBB2_16:
movq %rax, %rdi
.LBB2_17:
vpternlogq $150, %xmm3, %xmm2, %xmm1
vaesenclast %xmm4, %xmm0, %xmm12
vmovdqu (%rdx), %xmm5
testq %rdi, %rdi
vmovdqu64 %ymm22, 288(%rsp)
je .LBB2_21
movl $-1, %eax
bzhil %edi, %eax, %eax
kmovd %eax, %k1
vmovdqu8 (%rcx), %ymm0 {%k1} {z}
vpxorq %ymm0, %ymm24, %ymm0
vmovdqa64 %xmm22, %xmm2
cmpq $17, %rdi
jae .LBB2_20
vmovdqa64 %xmm26, %xmm2
.LBB2_20:
vinserti128 $1, %xmm2, %ymm2, %ymm2
vpunpcklqdq %ymm0, %ymm2, %ymm3
vpunpckhqdq %ymm0, %ymm2, %ymm4
vpxor %ymm3, %ymm4, %ymm3
vpclmulqdq $0, %ymm0, %ymm2, %ymm4
vpclmulqdq $1, %ymm3, %ymm3, %ymm3
vpclmulqdq $17, %ymm0, %ymm2, %ymm0
vpternlogq $150, %ymm4, %ymm0, %ymm3
vpslldq $8, %ymm3, %ymm2
vpxor %ymm2, %ymm4, %ymm2
vpsrldq $8, %ymm3, %ymm3
vpclmulqdq $16, %ymm17, %ymm2, %ymm4
vpshufd $78, %ymm2, %ymm2
vpxor %ymm2, %ymm4, %ymm2
vpclmulqdq $16, %ymm17, %ymm2, %ymm4
vpxor %ymm3, %ymm4, %ymm3
vpshufd $78, %ymm2, %ymm24
vpternlogq $150, %ymm3, %ymm0, %ymm24
.LBB2_21:
vmovq %r10, %xmm2
vmovss 8(%rsi), %xmm0
vmovaps %xmm0, 128(%rsp)
vmovsd (%rsi), %xmm0
vmovaps %xmm0, 112(%rsp)
vmovq %r8, %xmm0
movq 616(%rsp), %rdx
vpternlogq $150, %xmm1, %xmm10, %xmm12
vporq .LCPI2_14(%rip), %xmm5, %xmm22
cmpq $192, %r10
vmovups %ymm16, 256(%rsp)
vmovups %ymm18, 224(%rsp)
vmovups %ymm15, 160(%rsp)
vmovdqa %xmm5, 144(%rsp)
vmovdqu %ymm12, 192(%rsp)
jb .LBB2_27
vmovdqa %xmm0, 64(%rsp)
vmovdqa %xmm2, 80(%rsp)
vmovaps %xmm26, 96(%rsp)
leaq 192(%r9), %rcx
leaq 192(%rdx), %rax
addq $-192, %r10
vpaddd .LCPI2_0(%rip), %xmm22, %xmm0
vinserti32x4 $1, %xmm22, %ymm22, %ymm1
vpaddd .LCPI2_15(%rip), %ymm1, %ymm2
vpaddd .LCPI2_16(%rip), %ymm1, %ymm3
vpaddd .LCPI2_17(%rip), %ymm1, %ymm4
vpaddd .LCPI2_18(%rip), %ymm1, %ymm5
vpaddd .LCPI2_19(%rip), %ymm1, %ymm1
vinserti32x4 $1, %xmm0, %ymm22, %ymm0
vmovups %ymm25, 512(%rsp)
vmovdqu64 %ymm27, 320(%rsp)
vmovdqa64 %ymm29, %ymm27
vinserti32x4 $1, %xmm25, %ymm25, %ymm29
vpxorq %ymm0, %ymm29, %ymm0
vpxorq %ymm2, %ymm29, %ymm2
vpxorq %ymm3, %ymm29, %ymm3
vpxorq %ymm4, %ymm29, %ymm4
vpxorq %ymm5, %ymm29, %ymm5
vpxorq %ymm1, %ymm29, %ymm1
vmovups %ymm23, 480(%rsp)
vmovdqa64 %ymm30, %ymm6
vinserti32x4 $1, %xmm23, %ymm23, %ymm30
vaesenc %ymm30, %ymm0, %ymm0
vaesenc %ymm30, %ymm2, %ymm2
vaesenc %ymm30, %ymm3, %ymm3
vaesenc %ymm30, %ymm4, %ymm4
vaesenc %ymm30, %ymm5, %ymm5
vaesenc %ymm30, %ymm1, %ymm1
vmovups %ymm28, 448(%rsp)
vmovdqa64 %ymm31, %ymm7
vinserti32x4 $1, %xmm28, %ymm28, %ymm31
vaesenc %ymm31, %ymm0, %ymm0
vaesenc %ymm31, %ymm2, %ymm2
vaesenc %ymm31, %ymm3, %ymm3
vaesenc %ymm31, %ymm4, %ymm4
vaesenc %ymm31, %ymm5, %ymm5
vaesenc %ymm31, %ymm1, %ymm1
vmovdqu %ymm6, 416(%rsp)
vinserti32x4 $1, %xmm6, %ymm6, %ymm23
vaesenc %ymm23, %ymm0, %ymm0
vaesenc %ymm23, %ymm2, %ymm2
vaesenc %ymm23, %ymm3, %ymm3
vaesenc %ymm23, %ymm4, %ymm4
vaesenc %ymm23, %ymm5, %ymm5
vaesenc %ymm23, %ymm1, %ymm1
vmovdqu %ymm7, 384(%rsp)
vinserti32x4 $1, %xmm7, %ymm7, %ymm17
vaesenc %ymm17, %ymm0, %ymm0
vaesenc %ymm17, %ymm2, %ymm2
vaesenc %ymm17, %ymm3, %ymm3
vaesenc %ymm17, %ymm4, %ymm4
vaesenc %ymm17, %ymm5, %ymm5
vaesenc %ymm17, %ymm1, %ymm1
vinserti32x4 $1, %xmm15, %ymm15, %ymm25
vaesenc %ymm25, %ymm0, %ymm0
vaesenc %ymm25, %ymm2, %ymm2
vaesenc %ymm25, %ymm3, %ymm3
vaesenc %ymm25, %ymm4, %ymm4
vaesenc %ymm25, %ymm5, %ymm5
vaesenc %ymm25, %ymm1, %ymm1
vinserti32x4 $1, %xmm16, %ymm16, %ymm26
vaesenc %ymm26, %ymm0, %ymm0
vaesenc %ymm26, %ymm2, %ymm2
vaesenc %ymm26, %ymm3, %ymm3
vaesenc %ymm26, %ymm4, %ymm4
vaesenc %ymm26, %ymm5, %ymm5
vaesenc %ymm26, %ymm1, %ymm1
vinserti32x4 $1, %xmm18, %ymm18, %ymm28
vaesenc %ymm28, %ymm0, %ymm0
vaesenc %ymm28, %ymm2, %ymm2
vaesenc %ymm28, %ymm3, %ymm3
vaesenc %ymm28, %ymm4, %ymm4
vaesenc %ymm28, %ymm5, %ymm5
vaesenc %ymm28, %ymm1, %ymm1
vmovdqu 32(%rsp), %ymm6
vinserti128 $1, %xmm6, %ymm6, %ymm14
vaesenc %ymm14, %ymm0, %ymm6
vaesenc %ymm14, %ymm2, %ymm2
vaesenc %ymm14, %ymm3, %ymm3
vaesenc %ymm14, %ymm4, %ymm4
vaesenc %ymm14, %ymm5, %ymm5
vaesenc %ymm14, %ymm1, %ymm1
vmovdqu (%rsp), %ymm0
vinserti128 $1, %xmm0, %ymm0, %ymm0
vaesenc %ymm0, %ymm6, %ymm6
vaesenc %ymm0, %ymm2, %ymm2
vaesenc %ymm0, %ymm3, %ymm7
vaesenc %ymm0, %ymm4, %ymm4
vaesenc %ymm0, %ymm5, %ymm5
vaesenc %ymm0, %ymm1, %ymm1
vmovdqu -32(%rsp), %ymm3
vinserti128 $1, %xmm3, %ymm3, %ymm3
vaesenc %ymm3, %ymm6, %ymm6
vaesenc %ymm3, %ymm2, %ymm8
vaesenc %ymm3, %ymm7, %ymm7
vaesenc %ymm3, %ymm4, %ymm4
vaesenc %ymm3, %ymm5, %ymm5
vaesenc %ymm3, %ymm1, %ymm1
vmovdqu -64(%rsp), %ymm2
vinserti128 $1, %xmm2, %ymm2, %ymm2
vaesenc %ymm2, %ymm6, %ymm6
vaesenc %ymm2, %ymm8, %ymm8
vaesenc %ymm2, %ymm7, %ymm7
vaesenc %ymm2, %ymm4, %ymm9
vaesenc %ymm2, %ymm5, %ymm5
vaesenc %ymm2, %ymm1, %ymm1
vinserti128 $1, %xmm10, %ymm10, %ymm4
vaesenc %ymm4, %ymm6, %ymm6
vaesenc %ymm4, %ymm8, %ymm8
vaesenc %ymm4, %ymm7, %ymm7
vaesenc %ymm4, %ymm9, %ymm9
vaesenc %ymm4, %ymm5, %ymm10
vaesenc %ymm4, %ymm1, %ymm1
vinserti128 $1, %xmm11, %ymm11, %ymm5
vaesenc %ymm5, %ymm6, %ymm11
vaesenc %ymm5, %ymm8, %ymm8
vaesenc %ymm5, %ymm7, %ymm7
vaesenc %ymm5, %ymm9, %ymm9
vaesenc %ymm5, %ymm10, %ymm10
vaesenc %ymm5, %ymm1, %ymm1
vinserti128 $1, %xmm12, %ymm12, %ymm6
vaesenclast %ymm6, %ymm11, %ymm11
vaesenclast %ymm6, %ymm8, %ymm8
vaesenclast %ymm6, %ymm7, %ymm7
vaesenclast %ymm6, %ymm9, %ymm9
vaesenclast %ymm6, %ymm10, %ymm12
vaesenclast %ymm6, %ymm1, %ymm1
vpxor (%r9), %ymm11, %ymm10
vpxor 32(%r9), %ymm8, %ymm13
vpxor 64(%r9), %ymm7, %ymm8
vpxor 96(%r9), %ymm9, %ymm9
vpxorq 128(%r9), %ymm12, %ymm16
vpxor 160(%r9), %ymm1, %ymm11
vmovdqu %ymm10, (%rdx)
vmovdqu %ymm13, 32(%rdx)
vmovdqu %ymm8, 64(%rdx)
vmovdqu %ymm9, 96(%rdx)
vmovdqu64 %ymm16, 128(%rdx)
vmovdqu %ymm11, 160(%rdx)
vpaddd .LCPI2_20(%rip), %xmm22, %xmm7
vmovdqu 288(%rsp), %ymm1
vinserti32x4 $1, %xmm1, %ymm1, %ymm18
vinserti32x4 $1, %xmm27, %ymm27, %ymm12
vmovdqu 320(%rsp), %ymm1
vinserti32x4 $1, %xmm1, %ymm1, %ymm27
cmpq $192, %r10
jb .LBB2_26
vmovdqu %ymm12, 352(%rsp)
vmovdqu %ymm6, 544(%rsp)
.p2align 4, 0x90
.LBB2_24:
vmovdqa %xmm7, 320(%rsp)
vpclmulqdq $0, %ymm11, %ymm18, %ymm12
vpclmulqdq $17, %ymm11, %ymm18, %ymm15
vmovdqa64 %ymm29, %ymm7
vmovdqa64 %ymm20, %ymm29
vmovdqa64 %ymm18, %ymm20
vmovdqa64 %ymm27, %ymm18
vpclmulqdq $0, %ymm16, %ymm19, %ymm27
vpxorq %ymm12, %ymm27, %ymm12
vpclmulqdq $0, %ymm9, %ymm21, %ymm27
vmovdqa %ymm5, %ymm6
vmovdqa %ymm4, %ymm5
vmovdqa %ymm2, %ymm4
vmovdqa %ymm3, %ymm2
vmovdqa %ymm0, %ymm3
vmovdqa %ymm14, %ymm0
vmovdqa64 %ymm28, %ymm14
vmovdqa64 %ymm26, %ymm28
vmovdqu64 352(%rsp), %ymm26
vpclmulqdq $0, %ymm8, %ymm26, %ymm1
vpternlogq $150, %ymm27, %ymm12, %ymm1
vpclmulqdq $17, %ymm16, %ymm19, %ymm12
vpclmulqdq $17, %ymm9, %ymm21, %ymm27
vpxor %ymm15, %ymm12, %ymm12
vpclmulqdq $17, %ymm8, %ymm26, %ymm15
vpternlogq $150, %ymm27, %ymm12, %ymm15
vmovdqa64 %ymm18, %ymm27
vmovdqa64 %ymm20, %ymm18
vmovdqa64 %ymm29, %ymm20
vmovdqa64 %ymm7, %ymm29
vpxorq %ymm24, %ymm10, %ymm10
vpunpcklqdq %ymm11, %ymm18, %ymm12
vpunpckhqdq %ymm11, %ymm18, %ymm11
vpxor %ymm12, %ymm11, %ymm11
vpclmulqdq $1, %ymm11, %ymm11, %ymm11
vpunpcklqdq %ymm16, %ymm19, %ymm12
vpunpckhqdq %ymm16, %ymm19, %ymm16
vpxorq %ymm12, %ymm16, %ymm12
vpunpcklqdq %ymm9, %ymm21, %ymm16
vpclmulqdq $1, %ymm12, %ymm12, %ymm12
vpunpckhqdq %ymm9, %ymm21, %ymm9
vpxorq %ymm16, %ymm9, %ymm9
vpunpcklqdq %ymm8, %ymm26, %ymm16
vpunpckhqdq %ymm8, %ymm26, %ymm8
vmovdqa64 %ymm28, %ymm26
vmovdqa64 %ymm14, %ymm28
vmovdqa %ymm0, %ymm14
vmovdqa %ymm3, %ymm0
vmovdqa %ymm2, %ymm3
vmovdqa %ymm4, %ymm2
vmovdqa %ymm5, %ymm4
vmovdqa %ymm6, %ymm5
vmovdqu 544(%rsp), %ymm6
vpxorq %ymm16, %ymm8, %ymm8
vpxor %ymm11, %ymm12, %ymm11
vpunpcklqdq %ymm13, %ymm20, %ymm12
vpunpckhqdq %ymm13, %ymm20, %ymm16
vpxorq %ymm12, %ymm16, %ymm12
vmovaps 320(%rsp), %xmm7
vpclmulqdq $1, %ymm9, %ymm9, %ymm9
vpclmulqdq $1, %ymm8, %ymm8, %ymm8
vpternlogq $150, %ymm9, %ymm11, %ymm8
vpclmulqdq $0, %ymm13, %ymm20, %ymm9
vpclmulqdq $17, %ymm13, %ymm20, %ymm11
vpclmulqdq $0, %ymm10, %ymm27, %ymm13
vpternlogq $150, %ymm9, %ymm1, %ymm13
vpunpcklqdq %ymm10, %ymm27, %ymm1
vpclmulqdq $1, %ymm12, %ymm12, %ymm9
vpunpckhqdq %ymm10, %ymm27, %ymm12
vpxor %ymm1, %ymm12, %ymm1
vpclmulqdq $1, %ymm1, %ymm1, %ymm1
vpclmulqdq $17, %ymm10, %ymm27, %ymm12
vpternlogq $150, %ymm11, %ymm15, %ymm12
vpternlogq $150, %ymm9, %ymm8, %ymm1
vpternlogq $150, %ymm13, %ymm12, %ymm1
vpslldq $8, %ymm1, %ymm8
vpxor %ymm8, %ymm13, %ymm8
vpsrldq $8, %ymm1, %ymm1
vpbroadcastq .LCPI2_13(%rip), %ymm10
vpclmulqdq $16, %ymm10, %ymm8, %ymm9
vpshufd $78, %ymm8, %ymm8
vpxorq %ymm8, %ymm9, %ymm24
vpclmulqdq $16, %ymm10, %ymm24, %ymm8
vpaddd .LCPI2_21(%rip), %xmm22, %xmm9
vinserti128 $1, %xmm9, %ymm7, %ymm9
vinserti32x4 $1, %xmm22, %ymm22, %ymm10
vpxorq %ymm1, %ymm8, %ymm22
vpaddd .LCPI2_22(%rip), %ymm10, %ymm1
vpaddd .LCPI2_23(%rip), %ymm10, %ymm8
vpaddd .LCPI2_24(%rip), %ymm10, %ymm11
vpaddd .LCPI2_25(%rip), %ymm10, %ymm13
vpaddd .LCPI2_26(%rip), %ymm10, %ymm10
vpxorq %ymm9, %ymm29, %ymm9
vpxorq %ymm1, %ymm29, %ymm1
vpxorq %ymm8, %ymm29, %ymm8
vpxorq %ymm11, %ymm29, %ymm11
vpxorq %ymm13, %ymm29, %ymm13
vpxorq %ymm10, %ymm29, %ymm10
vaesenc %ymm30, %ymm9, %ymm9
vaesenc %ymm30, %ymm1, %ymm1
vaesenc %ymm30, %ymm8, %ymm8
vaesenc %ymm30, %ymm11, %ymm11
vaesenc %ymm30, %ymm13, %ymm13
vaesenc %ymm30, %ymm10, %ymm10
vaesenc %ymm31, %ymm9, %ymm9
vaesenc %ymm31, %ymm1, %ymm1
vaesenc %ymm31, %ymm8, %ymm8
vaesenc %ymm31, %ymm11, %ymm11
vaesenc %ymm31, %ymm13, %ymm13
vaesenc %ymm31, %ymm10, %ymm10
vaesenc %ymm23, %ymm9, %ymm9
vaesenc %ymm23, %ymm1, %ymm1
vaesenc %ymm23, %ymm8, %ymm8
vaesenc %ymm23, %ymm11, %ymm11
vaesenc %ymm23, %ymm13, %ymm13
vaesenc %ymm23, %ymm10, %ymm10
vaesenc %ymm17, %ymm9, %ymm9
vaesenc %ymm17, %ymm1, %ymm1
vaesenc %ymm17, %ymm8, %ymm8
vaesenc %ymm17, %ymm11, %ymm11
vaesenc %ymm17, %ymm13, %ymm13
vaesenc %ymm17, %ymm10, %ymm10
vaesenc %ymm25, %ymm9, %ymm9
vaesenc %ymm25, %ymm1, %ymm1
vaesenc %ymm25, %ymm8, %ymm8
vaesenc %ymm25, %ymm11, %ymm11
vaesenc %ymm25, %ymm13, %ymm13
vaesenc %ymm25, %ymm10, %ymm10
vaesenc %ymm26, %ymm9, %ymm9
vaesenc %ymm26, %ymm1, %ymm1
vaesenc %ymm26, %ymm8, %ymm8
vaesenc %ymm26, %ymm11, %ymm11
vaesenc %ymm26, %ymm13, %ymm13
vaesenc %ymm26, %ymm10, %ymm10
vaesenc %ymm28, %ymm9, %ymm9
vaesenc %ymm28, %ymm1, %ymm1
vaesenc %ymm28, %ymm8, %ymm8
vaesenc %ymm28, %ymm11, %ymm11
vaesenc %ymm28, %ymm13, %ymm13
vaesenc %ymm28, %ymm10, %ymm10
vaesenc %ymm14, %ymm9, %ymm9
vaesenc %ymm14, %ymm1, %ymm1
vaesenc %ymm14, %ymm8, %ymm8
vaesenc %ymm14, %ymm11, %ymm11
vaesenc %ymm14, %ymm13, %ymm13
vaesenc %ymm14, %ymm10, %ymm10
vaesenc %ymm0, %ymm9, %ymm9
vaesenc %ymm0, %ymm1, %ymm1
vaesenc %ymm0, %ymm8, %ymm8
vaesenc %ymm0, %ymm11, %ymm11
vaesenc %ymm0, %ymm13, %ymm13
vaesenc %ymm0, %ymm10, %ymm10
vaesenc %ymm3, %ymm9, %ymm9
vaesenc %ymm3, %ymm1, %ymm1
vaesenc %ymm3, %ymm8, %ymm8
vaesenc %ymm3, %ymm11, %ymm11
vaesenc %ymm3, %ymm13, %ymm13
vaesenc %ymm3, %ymm10, %ymm10
vaesenc %ymm2, %ymm9, %ymm9
vaesenc %ymm2, %ymm1, %ymm1
vaesenc %ymm2, %ymm8, %ymm8
vaesenc %ymm2, %ymm11, %ymm11
vaesenc %ymm2, %ymm13, %ymm13
vaesenc %ymm2, %ymm10, %ymm10
vaesenc %ymm4, %ymm9, %ymm9
vaesenc %ymm4, %ymm1, %ymm1
vaesenc %ymm4, %ymm8, %ymm8
vaesenc %ymm4, %ymm11, %ymm11
vaesenc %ymm4, %ymm13, %ymm13
vaesenc %ymm4, %ymm10, %ymm10
vaesenc %ymm5, %ymm9, %ymm9
vaesenc %ymm5, %ymm1, %ymm1
vaesenc %ymm5, %ymm8, %ymm8
vaesenc %ymm5, %ymm11, %ymm11
vaesenc %ymm5, %ymm13, %ymm13
vaesenc %ymm5, %ymm10, %ymm15
vaesenclast %ymm6, %ymm9, %ymm9
vaesenclast %ymm6, %ymm1, %ymm1
vaesenclast %ymm6, %ymm8, %ymm8
vaesenclast %ymm6, %ymm11, %ymm11
vaesenclast %ymm6, %ymm13, %ymm16
vpxor (%rcx), %ymm9, %ymm10
vpxor 32(%rcx), %ymm1, %ymm13
vpxor 64(%rcx), %ymm8, %ymm8
vpxor 96(%rcx), %ymm11, %ymm9
vaesenclast %ymm6, %ymm15, %ymm1
vpxorq 128(%rcx), %ymm16, %ymm16
vpxor 160(%rcx), %ymm1, %ymm11
vpshufd $78, %ymm24, %ymm24
vpternlogq $150, %ymm22, %ymm12, %ymm24
addq $192, %rcx
vmovdqu %ymm10, (%rax)
vmovdqu %ymm13, 32(%rax)
vmovdqu %ymm8, 64(%rax)
vmovdqu %ymm9, 96(%rax)
vmovdqu64 %ymm16, 128(%rax)
vmovdqu %ymm11, 160(%rax)
addq $192, %rax
addq $-192, %r10
vmovdqa64 %xmm7, %xmm22
vpaddd .LCPI2_20(%rip), %xmm7, %xmm7
cmpq $191, %r10
ja .LBB2_24
vmovupd 160(%rsp), %ymm15
vmovdqu 352(%rsp), %ymm12
.LBB2_26:
vpxorq %ymm24, %ymm10, %ymm0
vpunpcklqdq %ymm11, %ymm18, %ymm2
vpunpckhqdq %ymm11, %ymm18, %ymm3
vpxor %ymm2, %ymm3, %ymm2
vpclmulqdq $0, %ymm11, %ymm18, %ymm3
vpclmulqdq $1, %ymm2, %ymm2, %ymm2
vpclmulqdq $17, %ymm11, %ymm18, %ymm4
vpunpcklqdq %ymm16, %ymm19, %ymm5
vpunpckhqdq %ymm16, %ymm19, %ymm6
vpxor %ymm5, %ymm6, %ymm5
vpclmulqdq $0, %ymm16, %ymm19, %ymm6
vpxor %ymm3, %ymm6, %ymm3
vpclmulqdq $1, %ymm5, %ymm5, %ymm5
vpxor %ymm2, %ymm5, %ymm2
vpclmulqdq $17, %ymm16, %ymm19, %ymm5
vpxor %ymm4, %ymm5, %ymm4
vpunpcklqdq %ymm9, %ymm21, %ymm5
vpunpckhqdq %ymm9, %ymm21, %ymm6
vpxor %ymm5, %ymm6, %ymm5
vpclmulqdq $0, %ymm9, %ymm21, %ymm6
vpclmulqdq $1, %ymm5, %ymm5, %ymm5
vpclmulqdq $17, %ymm9, %ymm21, %ymm9
vpunpcklqdq %ymm8, %ymm12, %ymm10
vpunpckhqdq %ymm8, %ymm12, %ymm11
vpxor %ymm10, %ymm11, %ymm10
vpclmulqdq $0, %ymm8, %ymm12, %ymm11
vpternlogq $150, %ymm6, %ymm3, %ymm11
vpclmulqdq $1, %ymm10, %ymm10, %ymm3
vpternlogq $150, %ymm5, %ymm2, %ymm3
vpclmulqdq $17, %ymm8, %ymm12, %ymm1
vpternlogq $150, %ymm9, %ymm4, %ymm1
vpunpcklqdq %ymm13, %ymm20, %ymm2
vpunpckhqdq %ymm13, %ymm20, %ymm4
vpxor %ymm2, %ymm4, %ymm2
vpclmulqdq $0, %ymm13, %ymm20, %ymm4
vpclmulqdq $1, %ymm2, %ymm2, %ymm2
vpclmulqdq $17, %ymm13, %ymm20, %ymm5
vpunpcklqdq %ymm0, %ymm27, %ymm6
vpunpckhqdq %ymm0, %ymm27, %ymm8
vpxor %ymm6, %ymm8, %ymm6
vpclmulqdq $0, %ymm0, %ymm27, %ymm8
vpternlogq $150, %ymm4, %ymm11, %ymm8
vpclmulqdq $1, %ymm6, %ymm6, %ymm4
vpternlogq $150, %ymm2, %ymm3, %ymm4
vpclmulqdq $17, %ymm0, %ymm27, %ymm0
vpternlogq $150, %ymm5, %ymm1, %ymm0
vpternlogq $150, %ymm8, %ymm0, %ymm4
vpslldq $8, %ymm4, %ymm1
vpxor %ymm1, %ymm8, %ymm1
vpsrldq $8, %ymm4, %ymm2
vpbroadcastq .LCPI2_13(%rip), %ymm4
vpclmulqdq $16, %ymm4, %ymm1, %ymm3
vpshufd $78, %ymm1, %ymm1
vpxor %ymm1, %ymm3, %ymm1
vpclmulqdq $16, %ymm4, %ymm1, %ymm3
vpxor %ymm2, %ymm3, %ymm2
vpshufd $78, %ymm1, %ymm24
vpternlogq $150, %ymm2, %ymm0, %ymm24
movq %rax, %rdx
movq %rcx, %r9
vmovdqa64 %xmm7, %xmm22
vmovupd 512(%rsp), %ymm25
vmovupd 480(%rsp), %ymm23
vmovupd 448(%rsp), %ymm28
vmovapd 96(%rsp), %xmm26
vmovupd 416(%rsp), %ymm30
vmovupd 384(%rsp), %ymm31
vmovupd 256(%rsp), %ymm16
vmovupd 224(%rsp), %ymm18
vmovdqa 80(%rsp), %xmm2
vmovdqa 64(%rsp), %xmm0
.LBB2_27:
vmovapd %xmm26, %xmm27
vpunpcklqdq %xmm2, %xmm0, %xmm0
cmpq $32, %r10
jb .LBB2_30
vmovapd %ymm25, %ymm29
vinsertf32x4 $1, %xmm25, %ymm25, %ymm1
vmovapd %ymm23, %ymm25
vinsertf32x4 $1, %xmm23, %ymm23, %ymm2
vinsertf32x4 $1, %xmm28, %ymm28, %ymm3
vinsertf32x4 $1, %xmm30, %ymm30, %ymm4
vinsertf32x4 $1, %xmm31, %ymm31, %ymm5
vinsertf128 $1, %xmm15, %ymm15, %ymm6
vinsertf32x4 $1, %xmm16, %ymm16, %ymm7
vinsertf32x4 $1, %xmm18, %ymm18, %ymm8
vmovdqu 32(%rsp), %ymm9
vinserti128 $1, %xmm9, %ymm9, %ymm9
vmovdqu (%rsp), %ymm10
vinserti128 $1, %xmm10, %ymm10, %ymm10
vmovdqu -32(%rsp), %ymm11
vinserti128 $1, %xmm11, %ymm11, %ymm11
vmovdqu -64(%rsp), %ymm12
vinserti128 $1, %xmm12, %ymm12, %ymm12
vmovdqu -96(%rsp), %ymm13
vinserti128 $1, %xmm13, %ymm13, %ymm13
vmovdqu -128(%rsp), %ymm14
vinserti128 $1, %xmm14, %ymm14, %ymm14
vmovdqu 192(%rsp), %ymm15
vinserti32x4 $1, %xmm15, %ymm15, %ymm16
vmovdqu 288(%rsp), %ymm15
vinserti32x4 $1, %xmm15, %ymm15, %ymm17
vpmovsxbq .LCPI2_29(%rip), %xmm19
vpmovsxbq .LCPI2_30(%rip), %xmm20
vpbroadcastq .LCPI2_13(%rip), %ymm26
.p2align 4, 0x90
.LBB2_29:
leaq 32(%r9), %rcx
leaq 32(%rdx), %rax
addq $-32, %r10
vpaddd %xmm19, %xmm22, %xmm15
vpaddd %xmm20, %xmm22, %xmm18
vinserti32x4 $1, %xmm15, %ymm22, %ymm15
vxorpd %ymm1, %ymm15, %ymm15
vaesenc %ymm2, %ymm15, %ymm15
vaesenc %ymm3, %ymm15, %ymm15
vaesenc %ymm4, %ymm15, %ymm15
vaesenc %ymm5, %ymm15, %ymm15
vaesenc %ymm6, %ymm15, %ymm15
vaesenc %ymm7, %ymm15, %ymm15
vaesenc %ymm8, %ymm15, %ymm15
vaesenc %ymm9, %ymm15, %ymm15
vaesenc %ymm10, %ymm15, %ymm15
vaesenc %ymm11, %ymm15, %ymm15
vaesenc %ymm12, %ymm15, %ymm15
vaesenc %ymm13, %ymm15, %ymm15
vaesenc %ymm14, %ymm15, %ymm15
vaesenclast %ymm16, %ymm15, %ymm15
vpxor (%r9), %ymm15, %ymm15
vmovdqu %ymm15, (%rdx)
vpxorq %ymm24, %ymm15, %ymm15
vpunpcklqdq %ymm15, %ymm17, %ymm21
vpunpckhqdq %ymm15, %ymm17, %ymm22
vpxorq %ymm21, %ymm22, %ymm21
vpclmulqdq $0, %ymm15, %ymm17, %ymm22
vpclmulqdq $1, %ymm21, %ymm21, %ymm21
vpclmulqdq $17, %ymm15, %ymm17, %ymm15
vpternlogq $150, %ymm22, %ymm15, %ymm21
vpslldq $8, %ymm21, %ymm23
vpxorq %ymm23, %ymm22, %ymm22
vpsrldq $8, %ymm21, %ymm21
vpclmulqdq $16, %ymm26, %ymm22, %ymm23
vpshufd $78, %ymm22, %ymm22
vpxorq %ymm22, %ymm23, %ymm22
vpclmulqdq $16, %ymm26, %ymm22, %ymm23
vpxorq %ymm21, %ymm23, %ymm21
vpshufd $78, %ymm22, %ymm24
vpternlogq $150, %ymm21, %ymm15, %ymm24
movq %rax, %rdx
vmovdqa64 %xmm18, %xmm22
movq %rcx, %r9
cmpq $31, %r10
ja .LBB2_29
jmp .LBB2_31
.LBB2_30:
vmovapd %ymm25, %ymm29
vmovapd %ymm23, %ymm25
movq %rdx, %rax
movq %r9, %rcx
vmovdqa64 %xmm22, %xmm18
.LBB2_31:
vmovdqa 112(%rsp), %xmm1
vpunpcklqdq 128(%rsp), %xmm1, %xmm1
vpsllq $3, %xmm0, %xmm0
testq %r10, %r10
vmovapd %xmm27, %xmm12
je .LBB2_35
movl $-1, %edx
bzhil %r10d, %edx, %edx
kmovd %edx, %k1
vmovdqu8 (%rcx), %ymm2 {%k1} {z}
vpaddd .LCPI2_0(%rip), %xmm18, %xmm3
vinserti32x4 $1, %xmm3, %ymm18, %ymm3
vinsertf32x4 $1, %xmm29, %ymm29, %ymm4
vxorpd %ymm3, %ymm4, %ymm3
vinsertf32x4 $1, %xmm25, %ymm25, %ymm4
vaesenc %ymm4, %ymm3, %ymm3
vinsertf32x4 $1, %xmm28, %ymm28, %ymm4
vaesenc %ymm4, %ymm3, %ymm3
vinsertf32x4 $1, %xmm30, %ymm30, %ymm4
vaesenc %ymm4, %ymm3, %ymm3
vinsertf32x4 $1, %xmm31, %ymm31, %ymm4
vaesenc %ymm4, %ymm3, %ymm3
vmovdqu64 160(%rsp), %ymm27
vinserti32x4 $1, %xmm27, %ymm27, %ymm4
vaesenc %ymm4, %ymm3, %ymm3
vmovdqu 256(%rsp), %ymm6
vinserti128 $1, %xmm6, %ymm6, %ymm4
vaesenc %ymm4, %ymm3, %ymm3
vmovdqu 224(%rsp), %ymm7
vinserti128 $1, %xmm7, %ymm7, %ymm4
vaesenc %ymm4, %ymm3, %ymm3
vmovdqu 32(%rsp), %ymm4
vinserti128 $1, %xmm4, %ymm4, %ymm4
vaesenc %ymm4, %ymm3, %ymm3
vmovdqu (%rsp), %ymm4
vinserti128 $1, %xmm4, %ymm4, %ymm4
vaesenc %ymm4, %ymm3, %ymm3
vmovdqu -32(%rsp), %ymm4
vinserti128 $1, %xmm4, %ymm4, %ymm4
vaesenc %ymm4, %ymm3, %ymm3
vmovdqu -64(%rsp), %ymm4
vinserti128 $1, %xmm4, %ymm4, %ymm4
vaesenc %ymm4, %ymm3, %ymm3
vmovdqu -96(%rsp), %ymm8
vinserti128 $1, %xmm8, %ymm8, %ymm4
vaesenc %ymm4, %ymm3, %ymm3
vmovdqu -128(%rsp), %ymm9
vinserti128 $1, %xmm9, %ymm9, %ymm4
vaesenc %ymm4, %ymm3, %ymm3
vmovdqu 192(%rsp), %ymm11
vinserti128 $1, %xmm11, %ymm11, %ymm4
vaesenclast %ymm4, %ymm3, %ymm3
vpxor %ymm3, %ymm2, %ymm2
vmovdqu8 %ymm2, (%rax) {%k1}
vmovdqu8 (%rax), %ymm2 {%k1} {z}
vpxorq %ymm2, %ymm24, %ymm2
cmpq $17, %r10
vmovupd 288(%rsp), %ymm3
jae .LBB2_34
vmovapd %xmm12, %xmm3
.LBB2_34:
vinsertf128 $1, %xmm3, %ymm3, %ymm3
vpunpcklqdq %ymm2, %ymm3, %ymm4
vpunpckhqdq %ymm2, %ymm3, %ymm5
vxorpd %ymm4, %ymm5, %ymm4
vpclmulqdq $0, %ymm2, %ymm3, %ymm5
vpclmulqdq $1, %ymm4, %ymm4, %ymm4
vpclmulqdq $17, %ymm2, %ymm3, %ymm2
vpternlogq $150, %ymm5, %ymm2, %ymm4
vpslldq $8, %ymm4, %ymm3
vpxor %ymm3, %ymm5, %ymm3
vpsrldq $8, %ymm4, %ymm4
vpbroadcastq .LCPI2_13(%rip), %ymm10
vpclmulqdq $16, %ymm10, %ymm3, %ymm5
vpshufd $78, %ymm3, %ymm3
vpxor %ymm3, %ymm5, %ymm3
vpclmulqdq $16, %ymm10, %ymm3, %ymm5
vpxor %ymm4, %ymm5, %ymm4
vpshufd $78, %ymm3, %ymm24
vpternlogq $150, %ymm4, %ymm2, %ymm24
jmp .LBB2_36
.LBB2_35:
vmovdqu64 160(%rsp), %ymm27
vmovdqu 256(%rsp), %ymm6
vmovdqu 224(%rsp), %ymm7
vmovdqu -96(%rsp), %ymm8
vmovdqu -128(%rsp), %ymm9
vmovdqu 192(%rsp), %ymm11
.LBB2_36:
vextracti32x4 $1, %ymm24, %xmm2
vpxor %xmm1, %xmm2, %xmm1
vpxorq %xmm0, %xmm24, %xmm0
vpclmulqdq $0, %xmm0, %xmm12, %xmm2
vpclmulqdq $1, %xmm0, %xmm12, %xmm3
vpclmulqdq $16, %xmm0, %xmm12, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm0, %xmm12, %xmm0
vpslldq $8, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpsrldq $8, %xmm3, %xmm3
vpbroadcastq .LCPI2_13(%rip), %xmm4
vpclmulqdq $16, %xmm4, %xmm2, %xmm5
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm5, %xmm2
vpclmulqdq $16, %xmm4, %xmm2, %xmm4
vpternlogq $150, %xmm0, %xmm1, %xmm4
vpshufd $78, %xmm2, %xmm0
vpternlogq $150, %xmm3, %xmm4, %xmm0
vpternlogq $120, .LCPI2_27(%rip), %xmm0, %xmm29
vaesenc %xmm25, %xmm29, %xmm0
vaesenc %xmm28, %xmm0, %xmm0
vaesenc %xmm30, %xmm0, %xmm0
vaesenc %xmm31, %xmm0, %xmm0
vaesenc %xmm27, %xmm0, %xmm0
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm7, %xmm0, %xmm0
vaesenc 32(%rsp), %xmm0, %xmm0
vaesenc (%rsp), %xmm0, %xmm0
vaesenc -32(%rsp), %xmm0, %xmm0
vaesenc -64(%rsp), %xmm0, %xmm0
vaesenc %xmm8, %xmm0, %xmm0
vaesenc %xmm9, %xmm0, %xmm0
vaesenclast %xmm11, %xmm0, %xmm0
vpxor 144(%rsp), %xmm0, %xmm0
xorl %eax, %eax
vptest %xmm0, %xmm0
sete %al
.LBB2_37:
addq $584, %rsp
.cfi_def_cfa_offset 8
vzeroupper
retq
.Lfunc_end2:
.size haberdashery_aes256gcmsiv_tigerlake_decrypt, .Lfunc_end2-haberdashery_aes256gcmsiv_tigerlake_decrypt
.cfi_endproc
.section .text.haberdashery_aes256gcmsiv_tigerlake_is_supported,"ax",@progbits
.globl haberdashery_aes256gcmsiv_tigerlake_is_supported
.p2align 4, 0x90
.type haberdashery_aes256gcmsiv_tigerlake_is_supported,@function
haberdashery_aes256gcmsiv_tigerlake_is_supported:
.cfi_startproc
xorl %esi, %esi
movl $1, %eax
xorl %ecx, %ecx
#APP
movq %rbx, %rdi
cpuid
xchgq %rbx, %rdi
#NO_APP
movl %ecx, %edi
movl %edx, %r8d
notl %r8d
notl %edi
xorl %ecx, %ecx
movl $7, %eax
#APP
movq %rbx, %r9
cpuid
xchgq %rbx, %r9
#NO_APP
andl $1993871875, %edi
andl $125829120, %r8d
orl %edi, %r8d
jne .LBB3_3
notl %r9d
andl $-240189143, %r9d
notl %ecx
andl $415260490, %ecx
orl %r9d, %ecx
jne .LBB3_3
shrl $8, %edx
andl $1, %edx
movl %edx, %esi
.LBB3_3:
movl %esi, %eax
retq
.Lfunc_end3:
.size haberdashery_aes256gcmsiv_tigerlake_is_supported, .Lfunc_end3-haberdashery_aes256gcmsiv_tigerlake_is_supported
.cfi_endproc
.ident "rustc version 1.86.0-nightly (9cd60bd2c 2025-02-15)"
.section ".note.GNU-stack","",@progbits
|
ts-phantomnk90/haberdashery
| 88,520
|
asm/aes256gcmdndkv2kc_haswell.s
|
# @generated
# https://github.com/facebookincubator/haberdashery/
.text
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI0_0:
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.LCPI0_1:
.quad 4294967297
.quad 4294967297
.LCPI0_2:
.quad 8589934594
.quad 8589934594
.LCPI0_3:
.quad 17179869188
.quad 17179869188
.LCPI0_4:
.quad 34359738376
.quad 34359738376
.LCPI0_5:
.quad 68719476752
.quad 68719476752
.LCPI0_6:
.quad 137438953504
.quad 137438953504
.LCPI0_7:
.quad 274877907008
.quad 274877907008
.section .rodata.cst4,"aM",@progbits,4
.p2align 2, 0x0
.LCPI0_8:
.byte 13
.byte 14
.byte 15
.byte 12
.section .text.haberdashery_aes256gcmdndkv2kc_haswell_init,"ax",@progbits
.globl haberdashery_aes256gcmdndkv2kc_haswell_init
.p2align 4, 0x90
.type haberdashery_aes256gcmdndkv2kc_haswell_init,@function
haberdashery_aes256gcmdndkv2kc_haswell_init:
.cfi_startproc
cmpq $32, %rdx
jne .LBB0_2
vmovdqu (%rsi), %xmm0
vmovdqu 16(%rsi), %xmm1
vpslldq $4, %xmm0, %xmm2
vpslldq $8, %xmm0, %xmm3
vpxor %xmm3, %xmm2, %xmm2
vpslldq $12, %xmm0, %xmm4
vpbroadcastd .LCPI0_8(%rip), %xmm3
vpshufb %xmm3, %xmm1, %xmm5
vaesenclast .LCPI0_1(%rip), %xmm5, %xmm5
vpxor %xmm4, %xmm2, %xmm2
vpxor %xmm0, %xmm2, %xmm2
vpxor %xmm2, %xmm5, %xmm2
vpslldq $4, %xmm1, %xmm4
vpslldq $8, %xmm1, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpslldq $12, %xmm1, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpshufd $255, %xmm2, %xmm5
vpxor %xmm6, %xmm6, %xmm6
vaesenclast %xmm6, %xmm5, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpslldq $4, %xmm2, %xmm5
vpslldq $8, %xmm2, %xmm7
vpxor %xmm7, %xmm5, %xmm5
vpslldq $12, %xmm2, %xmm7
vpshufb %xmm3, %xmm4, %xmm8
vaesenclast .LCPI0_2(%rip), %xmm8, %xmm8
vpxor %xmm7, %xmm5, %xmm5
vpxor %xmm2, %xmm5, %xmm5
vpxor %xmm5, %xmm8, %xmm5
vpslldq $4, %xmm4, %xmm7
vpslldq $8, %xmm4, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpslldq $12, %xmm4, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpshufd $255, %xmm5, %xmm8
vaesenclast %xmm6, %xmm8, %xmm8
vpxor %xmm4, %xmm7, %xmm7
vpxor %xmm7, %xmm8, %xmm7
vpslldq $4, %xmm5, %xmm8
vpslldq $8, %xmm5, %xmm9
vpxor %xmm9, %xmm8, %xmm8
vpslldq $12, %xmm5, %xmm9
vpxor %xmm9, %xmm8, %xmm8
vpshufb %xmm3, %xmm7, %xmm9
vaesenclast .LCPI0_3(%rip), %xmm9, %xmm9
vpxor %xmm5, %xmm8, %xmm8
vpxor %xmm8, %xmm9, %xmm8
vpslldq $4, %xmm7, %xmm9
vpslldq $8, %xmm7, %xmm10
vpxor %xmm10, %xmm9, %xmm9
vpslldq $12, %xmm7, %xmm10
vpxor %xmm10, %xmm9, %xmm9
vpshufd $255, %xmm8, %xmm10
vaesenclast %xmm6, %xmm10, %xmm10
vpxor %xmm7, %xmm9, %xmm9
vpxor %xmm9, %xmm10, %xmm9
vpslldq $4, %xmm8, %xmm10
vpslldq $8, %xmm8, %xmm11
vpxor %xmm11, %xmm10, %xmm10
vpslldq $12, %xmm8, %xmm11
vpxor %xmm11, %xmm10, %xmm10
vpshufb %xmm3, %xmm9, %xmm11
vaesenclast .LCPI0_4(%rip), %xmm11, %xmm11
vpxor %xmm8, %xmm10, %xmm10
vpxor %xmm10, %xmm11, %xmm10
vpslldq $4, %xmm9, %xmm11
vpslldq $8, %xmm9, %xmm12
vpxor %xmm12, %xmm11, %xmm11
vpslldq $12, %xmm9, %xmm12
vpxor %xmm12, %xmm11, %xmm11
vpshufd $255, %xmm10, %xmm12
vaesenclast %xmm6, %xmm12, %xmm12
vpxor %xmm9, %xmm11, %xmm11
vpxor %xmm11, %xmm12, %xmm11
vpslldq $4, %xmm10, %xmm12
vpslldq $8, %xmm10, %xmm13
vpxor %xmm13, %xmm12, %xmm12
vpslldq $12, %xmm10, %xmm13
vpxor %xmm13, %xmm12, %xmm12
vpshufb %xmm3, %xmm11, %xmm13
vaesenclast .LCPI0_5(%rip), %xmm13, %xmm13
vpxor %xmm10, %xmm12, %xmm12
vpxor %xmm12, %xmm13, %xmm12
vpslldq $4, %xmm11, %xmm13
vpslldq $8, %xmm11, %xmm14
vpxor %xmm14, %xmm13, %xmm13
vpslldq $12, %xmm11, %xmm14
vpxor %xmm14, %xmm13, %xmm13
vpshufd $255, %xmm12, %xmm14
vaesenclast %xmm6, %xmm14, %xmm14
vpxor %xmm11, %xmm13, %xmm13
vpxor %xmm13, %xmm14, %xmm13
vpslldq $4, %xmm12, %xmm14
vpslldq $8, %xmm12, %xmm15
vpxor %xmm15, %xmm14, %xmm14
vpshufb %xmm3, %xmm13, %xmm15
vaesenclast .LCPI0_6(%rip), %xmm15, %xmm15
vpslldq $12, %xmm12, %xmm3
vpxor %xmm3, %xmm14, %xmm3
vpxor %xmm3, %xmm12, %xmm3
vpxor %xmm3, %xmm15, %xmm3
vpslldq $4, %xmm13, %xmm14
vpslldq $8, %xmm13, %xmm15
vpxor %xmm15, %xmm14, %xmm14
vpslldq $12, %xmm13, %xmm15
vpxor %xmm15, %xmm14, %xmm14
vpshufd $255, %xmm3, %xmm15
vaesenclast %xmm6, %xmm15, %xmm6
vpxor %xmm13, %xmm14, %xmm14
vpxor %xmm6, %xmm14, %xmm6
vpslldq $4, %xmm3, %xmm14
vpslldq $8, %xmm3, %xmm15
vpxor %xmm15, %xmm14, %xmm14
vpslldq $12, %xmm3, %xmm15
vpxor %xmm15, %xmm14, %xmm14
vpshufb .LCPI0_0(%rip), %xmm6, %xmm15
vaesenclast .LCPI0_7(%rip), %xmm15, %xmm15
vpxor %xmm3, %xmm14, %xmm14
vpxor %xmm14, %xmm15, %xmm14
vmovdqa %xmm0, (%rdi)
vmovdqa %xmm1, 16(%rdi)
vmovdqa %xmm2, 32(%rdi)
vmovdqa %xmm4, 48(%rdi)
vmovdqa %xmm5, 64(%rdi)
vmovdqa %xmm7, 80(%rdi)
vmovdqa %xmm8, 96(%rdi)
vmovdqa %xmm9, 112(%rdi)
vmovdqa %xmm10, 128(%rdi)
vmovdqa %xmm11, 144(%rdi)
vmovdqa %xmm12, 160(%rdi)
vmovdqa %xmm13, 176(%rdi)
vmovdqa %xmm3, 192(%rdi)
vmovdqa %xmm6, 208(%rdi)
vmovdqa %xmm14, 224(%rdi)
.LBB0_2:
xorl %eax, %eax
cmpq $32, %rdx
sete %al
retq
.Lfunc_end0:
.size haberdashery_aes256gcmdndkv2kc_haswell_init, .Lfunc_end0-haberdashery_aes256gcmdndkv2kc_haswell_init
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI1_0:
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 0
.LCPI1_1:
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 224
.LCPI1_2:
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 225
.LCPI1_3:
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 226
.LCPI1_4:
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 227
.LCPI1_5:
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 228
.LCPI1_6:
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.LCPI1_7:
.quad 4294967297
.quad 4294967297
.LCPI1_14:
.quad 274877907008
.quad 274877907008
.LCPI1_15:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI1_16:
.zero 8
.quad -4467570830351532032
.LCPI1_17:
.byte 15
.byte 128
.byte 128
.byte 128
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI1_18:
.long 1
.long 0
.long 0
.long 0
.LCPI1_19:
.long 2
.long 0
.long 0
.long 0
.LCPI1_20:
.long 3
.long 0
.long 0
.long 0
.LCPI1_21:
.long 4
.long 0
.long 0
.long 0
.LCPI1_22:
.long 5
.long 0
.long 0
.long 0
.LCPI1_23:
.long 6
.long 0
.long 0
.long 0
.LCPI1_24:
.long 7
.long 0
.long 0
.long 0
.LCPI1_25:
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.LCPI1_26:
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.LCPI1_27:
.zero 16
.section .rodata.cst4,"aM",@progbits,4
.p2align 2, 0x0
.LCPI1_8:
.long 0x00000002
.LCPI1_9:
.long 0x0c0f0e0d
.LCPI1_10:
.long 0x00000004
.LCPI1_11:
.long 0x00000008
.LCPI1_12:
.long 0x00000010
.LCPI1_13:
.long 0x00000020
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI1_28:
.quad -4467570830351532032
.section .text.haberdashery_aes256gcmdndkv2kc_haswell_encrypt,"ax",@progbits
.globl haberdashery_aes256gcmdndkv2kc_haswell_encrypt
.p2align 4, 0x90
.type haberdashery_aes256gcmdndkv2kc_haswell_encrypt,@function
haberdashery_aes256gcmdndkv2kc_haswell_encrypt:
.cfi_startproc
pushq %rbp
.cfi_def_cfa_offset 16
pushq %r15
.cfi_def_cfa_offset 24
pushq %r14
.cfi_def_cfa_offset 32
pushq %r13
.cfi_def_cfa_offset 40
pushq %r12
.cfi_def_cfa_offset 48
pushq %rbx
.cfi_def_cfa_offset 56
subq $440, %rsp
.cfi_def_cfa_offset 496
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
.cfi_offset %rbp, -16
movq 496(%rsp), %r15
xorl %eax, %eax
cmpq 512(%rsp), %r15
jne .LBB1_49
movq %r15, %r10
shrq $5, %r10
cmpq $2147483646, %r10
ja .LBB1_49
movabsq $2305843009213693950, %r10
cmpq %r10, %r8
ja .LBB1_49
cmpq $24, %rdx
jne .LBB1_49
cmpq $48, 528(%rsp)
jne .LBB1_49
vmovdqu (%rsi), %xmm0
vpextrb $15, %xmm0, %edx
vpand .LCPI1_0(%rip), %xmm0, %xmm0
vpxor (%rdi), %xmm0, %xmm3
vpxor .LCPI1_1(%rip), %xmm3, %xmm0
vmovdqa 16(%rdi), %xmm4
vmovdqa 32(%rdi), %xmm2
vmovdqa 48(%rdi), %xmm1
vmovdqa 64(%rdi), %xmm5
vaesenc %xmm4, %xmm0, %xmm0
vaesenc %xmm2, %xmm0, %xmm0
vaesenc %xmm1, %xmm0, %xmm0
vaesenc %xmm5, %xmm0, %xmm0
vmovdqa 80(%rdi), %xmm6
vaesenc %xmm6, %xmm0, %xmm0
vmovdqa 96(%rdi), %xmm7
vaesenc %xmm7, %xmm0, %xmm0
vmovdqa 112(%rdi), %xmm8
vaesenc %xmm8, %xmm0, %xmm0
vmovdqa 128(%rdi), %xmm9
vaesenc %xmm9, %xmm0, %xmm0
vmovdqa 144(%rdi), %xmm10
vaesenc %xmm10, %xmm0, %xmm0
vmovdqa 160(%rdi), %xmm11
vaesenc %xmm11, %xmm0, %xmm12
vmovdqa 176(%rdi), %xmm0
vmovdqa %xmm0, 16(%rsp)
vaesenc %xmm0, %xmm12, %xmm12
vpxor .LCPI1_2(%rip), %xmm3, %xmm13
vaesenc %xmm4, %xmm13, %xmm13
vpxor .LCPI1_3(%rip), %xmm3, %xmm14
vpxor .LCPI1_4(%rip), %xmm3, %xmm15
vaesenc %xmm4, %xmm14, %xmm14
vaesenc %xmm4, %xmm15, %xmm15
vpxor .LCPI1_5(%rip), %xmm3, %xmm3
vaesenc %xmm4, %xmm3, %xmm3
vmovdqa 192(%rdi), %xmm4
vaesenc %xmm4, %xmm12, %xmm12
vaesenc %xmm2, %xmm13, %xmm13
vaesenc %xmm2, %xmm14, %xmm14
vaesenc %xmm2, %xmm15, %xmm15
vaesenc %xmm2, %xmm3, %xmm3
vmovdqa 208(%rdi), %xmm2
vaesenc %xmm2, %xmm12, %xmm12
vaesenc %xmm1, %xmm13, %xmm13
vaesenc %xmm1, %xmm14, %xmm14
vaesenc %xmm1, %xmm15, %xmm15
vaesenc %xmm1, %xmm3, %xmm0
vmovdqa 224(%rdi), %xmm3
vaesenclast %xmm3, %xmm12, %xmm1
vmovdqa %xmm1, (%rsp)
vaesenc %xmm5, %xmm13, %xmm12
vaesenc %xmm6, %xmm12, %xmm12
vaesenc %xmm7, %xmm12, %xmm12
vaesenc %xmm8, %xmm12, %xmm12
vaesenc %xmm9, %xmm12, %xmm12
vaesenc %xmm10, %xmm12, %xmm12
vaesenc %xmm11, %xmm12, %xmm12
vmovdqa 16(%rsp), %xmm1
vaesenc %xmm1, %xmm12, %xmm12
vaesenc %xmm4, %xmm12, %xmm12
vaesenc %xmm2, %xmm12, %xmm12
vaesenclast %xmm3, %xmm12, %xmm13
vaesenc %xmm5, %xmm14, %xmm12
vaesenc %xmm6, %xmm12, %xmm12
vaesenc %xmm7, %xmm12, %xmm12
vaesenc %xmm8, %xmm12, %xmm12
vaesenc %xmm9, %xmm12, %xmm12
vaesenc %xmm10, %xmm12, %xmm12
vaesenc %xmm11, %xmm12, %xmm12
vaesenc %xmm1, %xmm12, %xmm12
vaesenc %xmm4, %xmm12, %xmm12
vaesenc %xmm2, %xmm12, %xmm12
vaesenclast %xmm3, %xmm12, %xmm14
vaesenc %xmm5, %xmm15, %xmm12
vaesenc %xmm6, %xmm12, %xmm12
vaesenc %xmm7, %xmm12, %xmm12
vaesenc %xmm8, %xmm12, %xmm12
vaesenc %xmm9, %xmm12, %xmm12
vaesenc %xmm10, %xmm12, %xmm12
vaesenc %xmm11, %xmm12, %xmm1
vmovdqa %xmm1, 160(%rsp)
vaesenc %xmm5, %xmm0, %xmm0
vaesenc %xmm6, %xmm0, %xmm0
vaesenc %xmm7, %xmm0, %xmm0
vaesenc %xmm8, %xmm0, %xmm0
vaesenc %xmm9, %xmm0, %xmm0
vaesenc %xmm10, %xmm0, %xmm0
vaesenc %xmm11, %xmm0, %xmm5
vmovdqa (%rsp), %xmm12
vpxor %xmm12, %xmm13, %xmm8
vpxor %xmm12, %xmm14, %xmm9
vpslldq $4, %xmm8, %xmm0
vpslldq $8, %xmm8, %xmm6
vpxor %xmm6, %xmm0, %xmm0
vpslldq $12, %xmm8, %xmm6
vpxor %xmm6, %xmm0, %xmm0
vpbroadcastd .LCPI1_9(%rip), %xmm7
vpshufb %xmm7, %xmm9, %xmm6
vaesenclast .LCPI1_7(%rip), %xmm6, %xmm6
vpxor %xmm0, %xmm8, %xmm0
vpxor %xmm0, %xmm6, %xmm13
vmovdqa %xmm8, 128(%rsp)
vaesenc %xmm9, %xmm8, %xmm6
vpslldq $4, %xmm9, %xmm0
vpslldq $8, %xmm9, %xmm8
vpxor %xmm0, %xmm8, %xmm0
vpslldq $12, %xmm9, %xmm8
vpxor %xmm0, %xmm8, %xmm0
vpshufd $255, %xmm13, %xmm8
vpxor %xmm1, %xmm1, %xmm1
vaesenclast %xmm1, %xmm8, %xmm8
vmovdqa %xmm9, 304(%rsp)
vpxor %xmm0, %xmm9, %xmm0
vpxor %xmm0, %xmm8, %xmm11
vbroadcastss .LCPI1_8(%rip), %xmm0
vbroadcastss .LCPI1_9(%rip), %xmm8
vmovdqa %xmm13, 240(%rsp)
#APP
vaesenc %xmm13, %xmm6, %xmm6
vpslldq $4, %xmm13, %xmm9
vpslldq $8, %xmm13, %xmm10
vpxor %xmm10, %xmm9, %xmm9
vpslldq $12, %xmm13, %xmm10
vpxor %xmm10, %xmm9, %xmm9
vpxor %xmm13, %xmm9, %xmm9
vpshufb %xmm8, %xmm11, %xmm15
vaesenclast %xmm0, %xmm15, %xmm15
vpxor %xmm9, %xmm15, %xmm15
#NO_APP
vmovdqa %xmm11, 192(%rsp)
#APP
vaesenc %xmm11, %xmm6, %xmm6
vpslldq $4, %xmm11, %xmm0
vpslldq $8, %xmm11, %xmm9
vpxor %xmm0, %xmm9, %xmm0
vpslldq $12, %xmm11, %xmm9
vpxor %xmm0, %xmm9, %xmm0
vpxor %xmm0, %xmm11, %xmm0
vpshufd $255, %xmm15, %xmm14
vaesenclast %xmm1, %xmm14, %xmm14
vpxor %xmm0, %xmm14, %xmm14
#NO_APP
vbroadcastss .LCPI1_10(%rip), %xmm0
vmovaps %xmm15, 288(%rsp)
#APP
vaesenc %xmm15, %xmm6, %xmm6
vpslldq $4, %xmm15, %xmm9
vpslldq $8, %xmm15, %xmm10
vpxor %xmm10, %xmm9, %xmm9
vpslldq $12, %xmm15, %xmm10
vpxor %xmm10, %xmm9, %xmm9
vpxor %xmm15, %xmm9, %xmm9
vpshufb %xmm8, %xmm14, %xmm13
vaesenclast %xmm0, %xmm13, %xmm13
vpxor %xmm9, %xmm13, %xmm13
#NO_APP
vmovaps %xmm14, 224(%rsp)
#APP
vaesenc %xmm14, %xmm6, %xmm6
vpslldq $4, %xmm14, %xmm0
vpslldq $8, %xmm14, %xmm9
vpxor %xmm0, %xmm9, %xmm0
vpslldq $12, %xmm14, %xmm9
vpxor %xmm0, %xmm9, %xmm0
vpxor %xmm0, %xmm14, %xmm0
vpshufd $255, %xmm13, %xmm11
vaesenclast %xmm1, %xmm11, %xmm11
vpxor %xmm0, %xmm11, %xmm11
#NO_APP
vbroadcastss .LCPI1_11(%rip), %xmm0
vmovaps %xmm13, 272(%rsp)
#APP
vaesenc %xmm13, %xmm6, %xmm6
vpslldq $4, %xmm13, %xmm9
vpslldq $8, %xmm13, %xmm10
vpxor %xmm10, %xmm9, %xmm9
vpslldq $12, %xmm13, %xmm10
vpxor %xmm10, %xmm9, %xmm9
vpxor %xmm13, %xmm9, %xmm9
vpshufb %xmm8, %xmm11, %xmm15
vaesenclast %xmm0, %xmm15, %xmm15
vpxor %xmm9, %xmm15, %xmm15
#NO_APP
vmovaps %xmm11, 64(%rsp)
#APP
vaesenc %xmm11, %xmm6, %xmm6
vpslldq $4, %xmm11, %xmm0
vpslldq $8, %xmm11, %xmm9
vpxor %xmm0, %xmm9, %xmm0
vpslldq $12, %xmm11, %xmm9
vpxor %xmm0, %xmm9, %xmm0
vpxor %xmm0, %xmm11, %xmm0
vpshufd $255, %xmm15, %xmm14
vaesenclast %xmm1, %xmm14, %xmm14
vpxor %xmm0, %xmm14, %xmm14
#NO_APP
vbroadcastss .LCPI1_12(%rip), %xmm0
vmovaps %xmm15, 256(%rsp)
#APP
vaesenc %xmm15, %xmm6, %xmm6
vpslldq $4, %xmm15, %xmm9
vpslldq $8, %xmm15, %xmm10
vpxor %xmm10, %xmm9, %xmm9
vpslldq $12, %xmm15, %xmm10
vpxor %xmm10, %xmm9, %xmm9
vpxor %xmm15, %xmm9, %xmm9
vpshufb %xmm8, %xmm14, %xmm13
vaesenclast %xmm0, %xmm13, %xmm13
vpxor %xmm9, %xmm13, %xmm13
#NO_APP
vmovaps %xmm14, 32(%rsp)
#APP
vaesenc %xmm14, %xmm6, %xmm6
vpslldq $4, %xmm14, %xmm0
vpslldq $8, %xmm14, %xmm9
vpxor %xmm0, %xmm9, %xmm0
vpslldq $12, %xmm14, %xmm9
vpxor %xmm0, %xmm9, %xmm0
vpxor %xmm0, %xmm14, %xmm0
vpshufd $255, %xmm13, %xmm11
vaesenclast %xmm1, %xmm11, %xmm11
vpxor %xmm0, %xmm11, %xmm11
#NO_APP
vbroadcastss .LCPI1_13(%rip), %xmm0
vmovaps %xmm13, 208(%rsp)
#APP
vaesenc %xmm13, %xmm6, %xmm6
vpslldq $4, %xmm13, %xmm9
vpslldq $8, %xmm13, %xmm10
vpxor %xmm10, %xmm9, %xmm9
vpslldq $12, %xmm13, %xmm10
vpxor %xmm10, %xmm9, %xmm9
vpxor %xmm13, %xmm9, %xmm9
vpshufb %xmm8, %xmm11, %xmm15
vaesenclast %xmm0, %xmm15, %xmm15
vpxor %xmm9, %xmm15, %xmm15
#NO_APP
vmovdqa %xmm15, %xmm13
vpslldq $4, %xmm11, %xmm0
vpunpcklqdq %xmm11, %xmm1, %xmm8
vpxor %xmm0, %xmm8, %xmm0
vinsertps $55, %xmm11, %xmm0, %xmm8
vxorps %xmm0, %xmm8, %xmm0
vpshufd $255, %xmm15, %xmm8
vaesenclast %xmm1, %xmm8, %xmm8
vxorps %xmm0, %xmm11, %xmm0
vpxor %xmm0, %xmm8, %xmm9
vpslldq $4, %xmm15, %xmm0
vpunpcklqdq %xmm15, %xmm1, %xmm8
vpxor %xmm0, %xmm8, %xmm0
vinsertps $55, %xmm15, %xmm0, %xmm8
vxorps %xmm0, %xmm8, %xmm0
vpshufb %xmm7, %xmm9, %xmm7
vaesenclast .LCPI1_14(%rip), %xmm7, %xmm7
vxorps %xmm0, %xmm15, %xmm0
vpxor %xmm0, %xmm7, %xmm7
vmovdqa 16(%rsp), %xmm8
vmovdqa 160(%rsp), %xmm0
vaesenc %xmm8, %xmm0, %xmm0
vmovaps %xmm11, 112(%rsp)
vaesenc %xmm11, %xmm6, %xmm6
vaesenc %xmm15, %xmm6, %xmm6
vmovdqa %xmm9, 48(%rsp)
vaesenc %xmm9, %xmm6, %xmm6
vmovdqa %xmm7, 96(%rsp)
vaesenclast %xmm7, %xmm6, %xmm6
vpshufb .LCPI1_15(%rip), %xmm6, %xmm6
vaesenc %xmm8, %xmm5, %xmm5
vpsrlq $63, %xmm6, %xmm7
vpaddq %xmm6, %xmm6, %xmm6
vpshufd $78, %xmm7, %xmm8
vpor %xmm6, %xmm8, %xmm6
vpblendd $12, %xmm7, %xmm1, %xmm7
vpsllq $63, %xmm7, %xmm8
vpxor %xmm6, %xmm8, %xmm6
vpsllq $62, %xmm7, %xmm8
vpsllq $57, %xmm7, %xmm7
vpxor %xmm7, %xmm8, %xmm7
vpxor %xmm7, %xmm6, %xmm14
vaesenc %xmm4, %xmm0, %xmm0
vpclmulqdq $0, %xmm14, %xmm14, %xmm6
vpbroadcastq .LCPI1_28(%rip), %xmm8
vpclmulqdq $16, %xmm8, %xmm6, %xmm7
vaesenc %xmm4, %xmm5, %xmm4
vpclmulqdq $17, %xmm14, %xmm14, %xmm5
vpshufd $78, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm6
vpshufd $78, %xmm6, %xmm7
vpxor %xmm7, %xmm5, %xmm5
vpclmulqdq $16, %xmm8, %xmm6, %xmm6
vpxor %xmm6, %xmm5, %xmm15
vaesenc %xmm2, %xmm0, %xmm0
vpclmulqdq $0, %xmm14, %xmm15, %xmm5
vaesenc %xmm2, %xmm4, %xmm2
vpclmulqdq $16, %xmm14, %xmm15, %xmm4
vaesenclast %xmm3, %xmm0, %xmm0
vpclmulqdq $1, %xmm14, %xmm15, %xmm6
vaesenclast %xmm3, %xmm2, %xmm2
vpxor %xmm4, %xmm6, %xmm3
vpslldq $8, %xmm3, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $16, %xmm8, %xmm4, %xmm5
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $17, %xmm14, %xmm15, %xmm5
vpsrldq $8, %xmm3, %xmm3
vpxor %xmm3, %xmm5, %xmm3
vpshufd $78, %xmm4, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpclmulqdq $16, %xmm8, %xmm4, %xmm4
vpxor %xmm4, %xmm3, %xmm10
vpxor %xmm0, %xmm12, %xmm0
vpclmulqdq $0, %xmm10, %xmm10, %xmm3
vpxor %xmm2, %xmm12, %xmm1
vpclmulqdq $16, %xmm8, %xmm3, %xmm2
vpshufd $78, %xmm3, %xmm3
vpclmulqdq $0, %xmm15, %xmm15, %xmm4
vpxor %xmm3, %xmm2, %xmm2
vpclmulqdq $16, %xmm8, %xmm4, %xmm3
vpshufd $78, %xmm4, %xmm4
vpclmulqdq $16, %xmm8, %xmm2, %xmm5
vpxor %xmm4, %xmm3, %xmm3
vpclmulqdq $16, %xmm8, %xmm3, %xmm4
vpshufd $78, %xmm3, %xmm3
vpclmulqdq $17, %xmm15, %xmm15, %xmm6
vpxor %xmm3, %xmm6, %xmm3
vpclmulqdq $17, %xmm10, %xmm10, %xmm6
vpxor %xmm4, %xmm3, %xmm11
vpclmulqdq $0, %xmm14, %xmm11, %xmm3
vpshufd $78, %xmm2, %xmm2
vpclmulqdq $16, %xmm14, %xmm11, %xmm4
vpxor %xmm2, %xmm6, %xmm2
vpclmulqdq $1, %xmm14, %xmm11, %xmm6
vpxor %xmm5, %xmm2, %xmm9
vpxor %xmm4, %xmm6, %xmm2
vpslldq $8, %xmm2, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpclmulqdq $16, %xmm8, %xmm3, %xmm4
vpshufd $78, %xmm3, %xmm3
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm14, %xmm11, %xmm4
vpsrldq $8, %xmm2, %xmm2
vpxor %xmm2, %xmm4, %xmm2
vpshufd $78, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpclmulqdq $16, %xmm8, %xmm3, %xmm3
vpxor %xmm3, %xmm2, %xmm12
movq 520(%rsp), %r12
movzbl 16(%rsi), %edi
movzbl 17(%rsi), %r10d
movzbl 23(%rsi), %r11d
shll $8, %edi
orl %edx, %edi
shll $16, %r10d
orl %edi, %r10d
movzbl 18(%rsi), %edx
shll $24, %edx
orl %r10d, %edx
vmovd %edx, %xmm2
vpinsrd $1, 19(%rsi), %xmm2, %xmm2
vmovdqu %xmm0, (%r12)
vmovdqu %xmm1, 16(%r12)
vpinsrd $2, %r11d, %xmm2, %xmm0
movl $16777216, %edx
vpinsrd $3, %edx, %xmm0, %xmm0
vmovdqa %xmm0, 400(%rsp)
testq %r8, %r8
vmovdqa %xmm9, 368(%rsp)
vmovdqa %xmm10, 352(%rsp)
vmovdqa %xmm11, 336(%rsp)
vmovdqa %xmm12, 320(%rsp)
vmovdqa %xmm13, 176(%rsp)
vmovdqa %xmm14, 16(%rsp)
vmovdqa %xmm15, 384(%rsp)
je .LBB1_23
cmpq $96, %r8
jb .LBB1_7
vmovdqu 32(%rcx), %xmm1
vmovdqu 48(%rcx), %xmm2
vmovdqu 64(%rcx), %xmm3
vmovdqu 80(%rcx), %xmm4
vmovdqa .LCPI1_15(%rip), %xmm0
vpshufb %xmm0, %xmm4, %xmm4
vpclmulqdq $0, %xmm4, %xmm14, %xmm5
vpshufb %xmm0, %xmm1, %xmm6
vpclmulqdq $1, %xmm4, %xmm14, %xmm7
vpshufb %xmm0, %xmm2, %xmm1
vpclmulqdq $16, %xmm4, %xmm14, %xmm2
vpshufb %xmm0, %xmm3, %xmm3
vpclmulqdq $17, %xmm4, %xmm14, %xmm4
vpxor %xmm7, %xmm2, %xmm2
vpclmulqdq $0, %xmm3, %xmm15, %xmm7
vpxor %xmm5, %xmm7, %xmm5
vpclmulqdq $1, %xmm3, %xmm15, %xmm7
vpxor %xmm7, %xmm2, %xmm2
vpclmulqdq $16, %xmm3, %xmm15, %xmm7
vpxor %xmm7, %xmm2, %xmm2
vpclmulqdq $17, %xmm3, %xmm15, %xmm3
vpxor %xmm4, %xmm3, %xmm3
vpclmulqdq $0, %xmm1, %xmm10, %xmm4
vpclmulqdq $1, %xmm1, %xmm10, %xmm7
vpxor %xmm7, %xmm2, %xmm2
vpclmulqdq $0, %xmm6, %xmm11, %xmm7
vpxor %xmm7, %xmm5, %xmm5
vpclmulqdq $16, %xmm1, %xmm10, %xmm7
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $1, %xmm6, %xmm11, %xmm5
vpxor %xmm5, %xmm7, %xmm5
vpxor %xmm5, %xmm2, %xmm2
vpclmulqdq $16, %xmm6, %xmm11, %xmm5
vpxor %xmm5, %xmm2, %xmm2
vpclmulqdq $17, %xmm6, %xmm11, %xmm5
vmovdqu (%rcx), %xmm6
vpxor %xmm5, %xmm3, %xmm3
vmovdqu 16(%rcx), %xmm5
vpshufb %xmm0, %xmm6, %xmm6
vpshufb %xmm0, %xmm5, %xmm5
vpclmulqdq $17, %xmm1, %xmm10, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $0, %xmm5, %xmm12, %xmm3
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $1, %xmm5, %xmm12, %xmm4
vpxor %xmm4, %xmm2, %xmm4
vpclmulqdq $16, %xmm5, %xmm12, %xmm7
vpclmulqdq $17, %xmm5, %xmm12, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $0, %xmm6, %xmm9, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $1, %xmm6, %xmm9, %xmm3
vpxor %xmm3, %xmm7, %xmm3
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $16, %xmm6, %xmm9, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpclmulqdq $17, %xmm6, %xmm9, %xmm4
vpxor %xmm4, %xmm1, %xmm1
addq $96, %rcx
leaq -96(%r8), %rsi
cmpq $96, %rsi
jb .LBB1_13
vmovdqa 368(%rsp), %xmm13
vmovdqa 352(%rsp), %xmm12
vmovdqa 336(%rsp), %xmm11
vmovdqa 320(%rsp), %xmm10
vmovdqa 384(%rsp), %xmm15
.p2align 4, 0x90
.LBB1_12:
vmovdqu (%rcx), %xmm5
vmovdqu 32(%rcx), %xmm6
vmovdqu 48(%rcx), %xmm4
vmovdqu 64(%rcx), %xmm7
vmovdqu 80(%rcx), %xmm8
vpslldq $8, %xmm3, %xmm9
vpxor %xmm2, %xmm9, %xmm2
vpsrldq $8, %xmm3, %xmm3
vpbroadcastq .LCPI1_28(%rip), %xmm14
vpclmulqdq $16, %xmm14, %xmm2, %xmm9
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm9, %xmm2
vpclmulqdq $16, %xmm14, %xmm2, %xmm9
vpxor %xmm3, %xmm1, %xmm1
vpshufd $78, %xmm2, %xmm2
vpshufb %xmm0, %xmm5, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpshufb %xmm0, %xmm8, %xmm3
vmovdqa 16(%rsp), %xmm14
vpclmulqdq $0, %xmm3, %xmm14, %xmm5
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $1, %xmm3, %xmm14, %xmm8
vpxor %xmm1, %xmm9, %xmm1
vpclmulqdq $16, %xmm3, %xmm14, %xmm9
vpshufb %xmm0, %xmm6, %xmm2
vpclmulqdq $17, %xmm3, %xmm14, %xmm3
vpshufb %xmm0, %xmm7, %xmm6
vpclmulqdq $0, %xmm6, %xmm15, %xmm7
vpxor %xmm8, %xmm9, %xmm8
vpclmulqdq $1, %xmm6, %xmm15, %xmm9
vpxor %xmm5, %xmm7, %xmm5
vpclmulqdq $16, %xmm6, %xmm15, %xmm7
vpshufb %xmm0, %xmm4, %xmm4
vpclmulqdq $17, %xmm6, %xmm15, %xmm6
vpxor %xmm7, %xmm9, %xmm7
vpclmulqdq $0, %xmm4, %xmm12, %xmm9
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $1, %xmm4, %xmm12, %xmm8
vpxor %xmm3, %xmm6, %xmm3
vpclmulqdq $16, %xmm4, %xmm12, %xmm6
vpxor %xmm6, %xmm8, %xmm6
vpclmulqdq $0, %xmm2, %xmm11, %xmm8
vpxor %xmm8, %xmm9, %xmm8
vpclmulqdq $17, %xmm4, %xmm12, %xmm4
vpxor %xmm5, %xmm8, %xmm5
vpclmulqdq $1, %xmm2, %xmm11, %xmm8
vpxor %xmm6, %xmm8, %xmm6
vpclmulqdq $17, %xmm2, %xmm11, %xmm8
vpxor %xmm6, %xmm7, %xmm6
vpxor %xmm4, %xmm8, %xmm4
vmovdqu 16(%rcx), %xmm7
vpshufb %xmm0, %xmm7, %xmm7
vpclmulqdq $16, %xmm2, %xmm11, %xmm2
vpxor %xmm4, %xmm3, %xmm3
vpclmulqdq $0, %xmm7, %xmm10, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $1, %xmm7, %xmm10, %xmm5
vpxor %xmm5, %xmm2, %xmm2
vpclmulqdq $16, %xmm7, %xmm10, %xmm5
vpxor %xmm5, %xmm2, %xmm2
vpxor %xmm2, %xmm6, %xmm5
vpclmulqdq $17, %xmm7, %xmm10, %xmm2
vpxor %xmm2, %xmm3, %xmm6
vpclmulqdq $0, %xmm1, %xmm13, %xmm2
vpxor %xmm2, %xmm4, %xmm2
vpclmulqdq $1, %xmm1, %xmm13, %xmm3
vpxor %xmm3, %xmm5, %xmm3
vpclmulqdq $16, %xmm1, %xmm13, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpclmulqdq $17, %xmm1, %xmm13, %xmm1
vpxor %xmm1, %xmm6, %xmm1
addq $96, %rcx
addq $-96, %rsi
cmpq $95, %rsi
ja .LBB1_12
.LBB1_13:
vpslldq $8, %xmm3, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vpsrldq $8, %xmm3, %xmm2
vpbroadcastq .LCPI1_28(%rip), %xmm4
vpclmulqdq $16, %xmm4, %xmm0, %xmm3
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm0
vpclmulqdq $16, %xmm4, %xmm0, %xmm3
vpxor %xmm2, %xmm1, %xmm1
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpxor %xmm3, %xmm0, %xmm5
vmovdqa 16(%rsp), %xmm14
vmovdqa 32(%rsp), %xmm15
vmovdqa 176(%rsp), %xmm13
vmovdqa 48(%rsp), %xmm11
vmovdqa 64(%rsp), %xmm8
jmp .LBB1_8
.LBB1_23:
vmovdqa %xmm8, %xmm6
vpxor %xmm5, %xmm5, %xmm5
testq %r15, %r15
vmovdqa 32(%rsp), %xmm15
vmovdqa 112(%rsp), %xmm9
vmovdqa 96(%rsp), %xmm10
vmovdqa 48(%rsp), %xmm11
vmovdqa 64(%rsp), %xmm8
vmovdqa 128(%rsp), %xmm12
jne .LBB1_29
jmp .LBB1_48
.LBB1_7:
movq %r8, %rsi
vmovdqa 32(%rsp), %xmm15
vmovdqa 48(%rsp), %xmm11
vmovdqa 64(%rsp), %xmm8
vpxor %xmm5, %xmm5, %xmm5
.LBB1_8:
cmpq $16, %rsi
vmovdqa 112(%rsp), %xmm9
vmovdqa 96(%rsp), %xmm10
vmovdqa 128(%rsp), %xmm12
jb .LBB1_9
leaq -16(%rsi), %rdx
testb $16, %dl
je .LBB1_15
cmpq $16, %rdx
jae .LBB1_17
.LBB1_20:
testq %rdx, %rdx
je .LBB1_24
.LBB1_21:
vmovdqa %xmm5, (%rsp)
movq %r9, %r14
movq %r8, %rbx
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, 80(%rsp)
leaq 80(%rsp), %rdi
movq %rcx, %rsi
callq *memcpy@GOTPCREL(%rip)
vmovdqa 80(%rsp), %xmm0
testq %r15, %r15
je .LBB1_22
movabsq $-68719476704, %rax
leaq (%r15,%rax), %rcx
incq %rax
cmpq %rax, %rcx
movl $0, %eax
vmovdqa 128(%rsp), %xmm12
vmovdqa 64(%rsp), %xmm8
vmovdqa 32(%rsp), %xmm15
vmovdqa 112(%rsp), %xmm9
vmovdqa 176(%rsp), %xmm13
vmovdqa 48(%rsp), %xmm11
vmovdqa 96(%rsp), %xmm10
vpbroadcastq .LCPI1_28(%rip), %xmm6
vmovdqa 16(%rsp), %xmm14
vmovdqa (%rsp), %xmm1
jb .LBB1_49
movq %rbx, %r8
movq %r14, %r9
vpshufb .LCPI1_15(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpclmulqdq $0, %xmm0, %xmm14, %xmm1
vpclmulqdq $1, %xmm0, %xmm14, %xmm2
vpclmulqdq $16, %xmm0, %xmm14, %xmm3
vpclmulqdq $17, %xmm0, %xmm14, %xmm0
vpxor %xmm2, %xmm3, %xmm2
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpsrldq $8, %xmm2, %xmm2
vpclmulqdq $16, %xmm6, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm6, %xmm1, %xmm3
vpxor %xmm2, %xmm0, %xmm0
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm5
jmp .LBB1_29
.LBB1_9:
movq %rsi, %rdx
testq %rdx, %rdx
jne .LBB1_21
.LBB1_24:
testq %r15, %r15
je .LBB1_25
movabsq $-68719476704, %rcx
leaq (%r15,%rcx), %rdx
incq %rcx
cmpq %rcx, %rdx
jb .LBB1_49
.LBB1_29:
vmovdqa 400(%rsp), %xmm0
vpshufb .LCPI1_17(%rip), %xmm0, %xmm1
movq 504(%rsp), %rdx
vpaddd .LCPI1_18(%rip), %xmm1, %xmm2
cmpq $96, %r15
jb .LBB1_30
vmovdqa %xmm5, (%rsp)
leaq 96(%r9), %rcx
leaq 96(%rdx), %rax
vmovdqa .LCPI1_15(%rip), %xmm0
vpshufb %xmm0, %xmm2, %xmm2
vpaddd .LCPI1_19(%rip), %xmm1, %xmm3
vpshufb %xmm0, %xmm3, %xmm3
vpaddd .LCPI1_20(%rip), %xmm1, %xmm4
vpaddd .LCPI1_21(%rip), %xmm1, %xmm5
vpshufb %xmm0, %xmm4, %xmm4
vpshufb %xmm0, %xmm5, %xmm5
vpaddd .LCPI1_22(%rip), %xmm1, %xmm6
vpshufb %xmm0, %xmm6, %xmm6
vpaddd .LCPI1_23(%rip), %xmm1, %xmm7
vpshufb %xmm0, %xmm7, %xmm7
vpaddd .LCPI1_24(%rip), %xmm1, %xmm1
vmovdqa %xmm1, 144(%rsp)
vpxor %xmm2, %xmm12, %xmm1
vpxor %xmm3, %xmm12, %xmm2
vpxor %xmm4, %xmm12, %xmm3
vpxor %xmm5, %xmm12, %xmm4
vpxor %xmm6, %xmm12, %xmm5
vpxor %xmm7, %xmm12, %xmm6
vmovaps 304(%rsp), %xmm0
#APP
vaesenc %xmm0, %xmm1, %xmm1
vaesenc %xmm0, %xmm2, %xmm2
vaesenc %xmm0, %xmm3, %xmm3
vaesenc %xmm0, %xmm4, %xmm4
vaesenc %xmm0, %xmm5, %xmm5
vaesenc %xmm0, %xmm6, %xmm6
#NO_APP
vmovdqa 240(%rsp), %xmm12
#APP
vaesenc %xmm12, %xmm1, %xmm1
vaesenc %xmm12, %xmm2, %xmm2
vaesenc %xmm12, %xmm3, %xmm3
vaesenc %xmm12, %xmm4, %xmm4
vaesenc %xmm12, %xmm5, %xmm5
vaesenc %xmm12, %xmm6, %xmm6
#NO_APP
vmovaps 192(%rsp), %xmm0
#APP
vaesenc %xmm0, %xmm1, %xmm1
vaesenc %xmm0, %xmm2, %xmm2
vaesenc %xmm0, %xmm3, %xmm3
vaesenc %xmm0, %xmm4, %xmm4
vaesenc %xmm0, %xmm5, %xmm5
vaesenc %xmm0, %xmm6, %xmm6
#NO_APP
vmovaps 288(%rsp), %xmm0
#APP
vaesenc %xmm0, %xmm1, %xmm1
vaesenc %xmm0, %xmm2, %xmm2
vaesenc %xmm0, %xmm3, %xmm3
vaesenc %xmm0, %xmm4, %xmm4
vaesenc %xmm0, %xmm5, %xmm5
vaesenc %xmm0, %xmm6, %xmm6
#NO_APP
vmovdqa 224(%rsp), %xmm0
#APP
vaesenc %xmm0, %xmm1, %xmm1
vaesenc %xmm0, %xmm2, %xmm2
vaesenc %xmm0, %xmm3, %xmm3
vaesenc %xmm0, %xmm4, %xmm4
vaesenc %xmm0, %xmm5, %xmm5
vaesenc %xmm0, %xmm6, %xmm6
#NO_APP
vmovaps 272(%rsp), %xmm7
#APP
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm4, %xmm4
vaesenc %xmm7, %xmm5, %xmm5
vaesenc %xmm7, %xmm6, %xmm6
#NO_APP
#APP
vaesenc %xmm8, %xmm1, %xmm1
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm8, %xmm3, %xmm3
vaesenc %xmm8, %xmm4, %xmm4
vaesenc %xmm8, %xmm5, %xmm5
vaesenc %xmm8, %xmm6, %xmm6
#NO_APP
vmovdqa 256(%rsp), %xmm7
#APP
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm7, %xmm4, %xmm4
vaesenc %xmm7, %xmm5, %xmm5
vaesenc %xmm7, %xmm6, %xmm6
#NO_APP
#APP
vaesenc %xmm15, %xmm1, %xmm1
vaesenc %xmm15, %xmm2, %xmm2
vaesenc %xmm15, %xmm3, %xmm3
vaesenc %xmm15, %xmm4, %xmm4
vaesenc %xmm15, %xmm5, %xmm5
vaesenc %xmm15, %xmm6, %xmm6
#NO_APP
vmovaps 208(%rsp), %xmm8
#APP
vaesenc %xmm8, %xmm1, %xmm1
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm8, %xmm3, %xmm3
vaesenc %xmm8, %xmm4, %xmm4
vaesenc %xmm8, %xmm5, %xmm5
vaesenc %xmm8, %xmm6, %xmm6
#NO_APP
#APP
vaesenc %xmm9, %xmm1, %xmm1
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm9, %xmm4, %xmm4
vaesenc %xmm9, %xmm5, %xmm5
vaesenc %xmm9, %xmm6, %xmm6
#NO_APP
#APP
vaesenc %xmm13, %xmm1, %xmm1
vaesenc %xmm13, %xmm2, %xmm2
vaesenc %xmm13, %xmm3, %xmm3
vaesenc %xmm13, %xmm4, %xmm4
vaesenc %xmm13, %xmm5, %xmm5
vaesenc %xmm13, %xmm6, %xmm6
#NO_APP
#APP
vaesenc %xmm11, %xmm1, %xmm1
vaesenc %xmm11, %xmm2, %xmm2
vaesenc %xmm11, %xmm3, %xmm3
vaesenc %xmm11, %xmm4, %xmm4
vaesenc %xmm11, %xmm5, %xmm5
vaesenc %xmm11, %xmm6, %xmm6
#NO_APP
#APP
vaesenclast %xmm10, %xmm1, %xmm1
vaesenclast %xmm10, %xmm2, %xmm2
vaesenclast %xmm10, %xmm3, %xmm3
vaesenclast %xmm10, %xmm4, %xmm4
vaesenclast %xmm10, %xmm5, %xmm5
vaesenclast %xmm10, %xmm6, %xmm6
#NO_APP
vpxor (%r9), %xmm1, %xmm13
vpxor 16(%r9), %xmm2, %xmm1
vpxor 32(%r9), %xmm3, %xmm9
vpxor 48(%r9), %xmm4, %xmm2
vpxor 64(%r9), %xmm5, %xmm11
vmovdqa %xmm2, %xmm5
vpxor 80(%r9), %xmm6, %xmm2
vmovdqu %xmm13, (%rdx)
vmovdqu %xmm1, 16(%rdx)
vmovdqu %xmm9, 32(%rdx)
vmovdqu %xmm5, 48(%rdx)
vmovdqu %xmm11, 64(%rdx)
leaq -96(%r15), %rbx
vmovdqu %xmm2, 80(%rdx)
cmpq $96, %rbx
jb .LBB1_36
vmovdqa (%rsp), %xmm0
vmovdqa 144(%rsp), %xmm10
vmovdqa .LCPI1_15(%rip), %xmm8
.p2align 4, 0x90
.LBB1_39:
vmovdqa %xmm5, 160(%rsp)
vmovdqa %xmm1, 144(%rsp)
vpshufb %xmm8, %xmm10, %xmm3
vpaddd .LCPI1_18(%rip), %xmm10, %xmm4
vpshufb %xmm8, %xmm4, %xmm5
vpaddd .LCPI1_19(%rip), %xmm10, %xmm4
vpshufb %xmm8, %xmm4, %xmm6
vpaddd .LCPI1_20(%rip), %xmm10, %xmm4
vpshufb %xmm8, %xmm4, %xmm7
vpaddd .LCPI1_21(%rip), %xmm10, %xmm4
vpshufb %xmm8, %xmm4, %xmm12
vpaddd .LCPI1_22(%rip), %xmm10, %xmm4
vpshufb .LCPI1_15(%rip), %xmm4, %xmm8
vpshufb .LCPI1_15(%rip), %xmm13, %xmm4
vpxor %xmm4, %xmm0, %xmm0
vmovdqa %xmm0, (%rsp)
vpshufb .LCPI1_15(%rip), %xmm2, %xmm0
vmovdqa 128(%rsp), %xmm1
vpxor %xmm3, %xmm1, %xmm13
vpxor %xmm5, %xmm1, %xmm14
vpxor %xmm6, %xmm1, %xmm15
vpxor %xmm7, %xmm1, %xmm2
vpxor %xmm1, %xmm12, %xmm3
vpxor %xmm1, %xmm8, %xmm12
vmovaps 304(%rsp), %xmm4
#APP
vaesenc %xmm4, %xmm13, %xmm13
vaesenc %xmm4, %xmm14, %xmm14
vaesenc %xmm4, %xmm15, %xmm15
vaesenc %xmm4, %xmm2, %xmm2
vaesenc %xmm4, %xmm3, %xmm3
vaesenc %xmm4, %xmm12, %xmm12
#NO_APP
vpxor %xmm6, %xmm6, %xmm6
vpxor %xmm5, %xmm5, %xmm5
vpxor %xmm7, %xmm7, %xmm7
vmovaps 16(%rsp), %xmm4
vmovdqa %xmm9, %xmm1
vmovaps 240(%rsp), %xmm9
#APP
vaesenc %xmm9, %xmm13, %xmm13
vaesenc %xmm9, %xmm14, %xmm14
vaesenc %xmm9, %xmm15, %xmm15
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm9, %xmm12, %xmm12
vpclmulqdq $16, %xmm4, %xmm0, %xmm8
vpxor %xmm6, %xmm8, %xmm6
vpclmulqdq $0, %xmm4, %xmm0, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $17, %xmm4, %xmm0, %xmm8
vpxor %xmm5, %xmm8, %xmm5
vpclmulqdq $1, %xmm4, %xmm0, %xmm8
vpxor %xmm6, %xmm8, %xmm6
#NO_APP
vpshufb .LCPI1_15(%rip), %xmm11, %xmm0
vmovaps 192(%rsp), %xmm4
#APP
vaesenc %xmm4, %xmm13, %xmm13
vaesenc %xmm4, %xmm14, %xmm14
vaesenc %xmm4, %xmm15, %xmm15
vaesenc %xmm4, %xmm2, %xmm2
vaesenc %xmm4, %xmm3, %xmm3
vaesenc %xmm4, %xmm12, %xmm12
#NO_APP
vmovaps 288(%rsp), %xmm4
vmovaps 384(%rsp), %xmm9
#APP
vaesenc %xmm4, %xmm13, %xmm13
vaesenc %xmm4, %xmm14, %xmm14
vaesenc %xmm4, %xmm15, %xmm15
vaesenc %xmm4, %xmm2, %xmm2
vaesenc %xmm4, %xmm3, %xmm3
vaesenc %xmm4, %xmm12, %xmm12
vpclmulqdq $16, %xmm9, %xmm0, %xmm8
vpxor %xmm6, %xmm8, %xmm6
vpclmulqdq $0, %xmm9, %xmm0, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $17, %xmm9, %xmm0, %xmm8
vpxor %xmm5, %xmm8, %xmm5
vpclmulqdq $1, %xmm9, %xmm0, %xmm8
vpxor %xmm6, %xmm8, %xmm6
#NO_APP
vmovdqa 160(%rsp), %xmm0
vpshufb .LCPI1_15(%rip), %xmm0, %xmm0
vmovaps 224(%rsp), %xmm8
#APP
vaesenc %xmm8, %xmm13, %xmm13
vaesenc %xmm8, %xmm14, %xmm14
vaesenc %xmm8, %xmm15, %xmm15
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm8, %xmm3, %xmm3
vaesenc %xmm8, %xmm12, %xmm12
#NO_APP
vmovaps 272(%rsp), %xmm11
vmovaps 352(%rsp), %xmm4
#APP
vaesenc %xmm11, %xmm13, %xmm13
vaesenc %xmm11, %xmm14, %xmm14
vaesenc %xmm11, %xmm15, %xmm15
vaesenc %xmm11, %xmm2, %xmm2
vaesenc %xmm11, %xmm3, %xmm3
vaesenc %xmm11, %xmm12, %xmm12
vpclmulqdq $16, %xmm4, %xmm0, %xmm8
vpxor %xmm6, %xmm8, %xmm6
vpclmulqdq $0, %xmm4, %xmm0, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $17, %xmm4, %xmm0, %xmm8
vpxor %xmm5, %xmm8, %xmm5
vpclmulqdq $1, %xmm4, %xmm0, %xmm8
vpxor %xmm6, %xmm8, %xmm6
#NO_APP
vpshufb .LCPI1_15(%rip), %xmm1, %xmm0
vmovaps 64(%rsp), %xmm1
#APP
vaesenc %xmm1, %xmm13, %xmm13
vaesenc %xmm1, %xmm14, %xmm14
vaesenc %xmm1, %xmm15, %xmm15
vaesenc %xmm1, %xmm2, %xmm2
vaesenc %xmm1, %xmm3, %xmm3
vaesenc %xmm1, %xmm12, %xmm12
#NO_APP
vmovaps 256(%rsp), %xmm1
vmovaps 336(%rsp), %xmm4
#APP
vaesenc %xmm1, %xmm13, %xmm13
vaesenc %xmm1, %xmm14, %xmm14
vaesenc %xmm1, %xmm15, %xmm15
vaesenc %xmm1, %xmm2, %xmm2
vaesenc %xmm1, %xmm3, %xmm3
vaesenc %xmm1, %xmm12, %xmm12
vpclmulqdq $16, %xmm4, %xmm0, %xmm8
vpxor %xmm6, %xmm8, %xmm6
vpclmulqdq $0, %xmm4, %xmm0, %xmm8
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $17, %xmm4, %xmm0, %xmm8
vpxor %xmm5, %xmm8, %xmm5
vpclmulqdq $1, %xmm4, %xmm0, %xmm8
vpxor %xmm6, %xmm8, %xmm6
#NO_APP
vmovdqa .LCPI1_15(%rip), %xmm8
vmovdqa 144(%rsp), %xmm0
vpshufb %xmm8, %xmm0, %xmm0
vmovaps 32(%rsp), %xmm1
#APP
vaesenc %xmm1, %xmm13, %xmm13
vaesenc %xmm1, %xmm14, %xmm14
vaesenc %xmm1, %xmm15, %xmm15
vaesenc %xmm1, %xmm2, %xmm2
vaesenc %xmm1, %xmm3, %xmm3
vaesenc %xmm1, %xmm12, %xmm12
#NO_APP
vmovaps 208(%rsp), %xmm11
vmovaps 320(%rsp), %xmm4
#APP
vaesenc %xmm11, %xmm13, %xmm13
vaesenc %xmm11, %xmm14, %xmm14
vaesenc %xmm11, %xmm15, %xmm15
vaesenc %xmm11, %xmm2, %xmm2
vaesenc %xmm11, %xmm3, %xmm3
vaesenc %xmm11, %xmm12, %xmm12
vpclmulqdq $16, %xmm4, %xmm0, %xmm1
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm4, %xmm0, %xmm1
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $17, %xmm4, %xmm0, %xmm1
vpxor %xmm1, %xmm5, %xmm5
vpclmulqdq $1, %xmm4, %xmm0, %xmm1
vpxor %xmm1, %xmm6, %xmm6
#NO_APP
vmovaps 112(%rsp), %xmm0
#APP
vaesenc %xmm0, %xmm13, %xmm13
vaesenc %xmm0, %xmm14, %xmm14
vaesenc %xmm0, %xmm15, %xmm15
vaesenc %xmm0, %xmm2, %xmm2
vaesenc %xmm0, %xmm3, %xmm3
vaesenc %xmm0, %xmm12, %xmm12
#NO_APP
vmovdqa 176(%rsp), %xmm1
vmovaps 368(%rsp), %xmm4
vmovaps (%rsp), %xmm9
#APP
vaesenc %xmm1, %xmm13, %xmm13
vaesenc %xmm1, %xmm14, %xmm14
vaesenc %xmm1, %xmm15, %xmm15
vaesenc %xmm1, %xmm2, %xmm2
vaesenc %xmm1, %xmm3, %xmm3
vaesenc %xmm1, %xmm12, %xmm12
vpclmulqdq $16, %xmm4, %xmm9, %xmm0
vpxor %xmm0, %xmm6, %xmm6
vpclmulqdq $0, %xmm4, %xmm9, %xmm0
vpxor %xmm0, %xmm7, %xmm7
vpclmulqdq $17, %xmm4, %xmm9, %xmm0
vpxor %xmm0, %xmm5, %xmm5
vpclmulqdq $1, %xmm4, %xmm9, %xmm0
vpxor %xmm0, %xmm6, %xmm6
#NO_APP
vpxor %xmm1, %xmm1, %xmm1
vpunpcklqdq %xmm6, %xmm1, %xmm0
vpxor %xmm0, %xmm7, %xmm0
vpunpckhqdq %xmm1, %xmm6, %xmm1
vpbroadcastq .LCPI1_28(%rip), %xmm6
vpclmulqdq $16, %xmm6, %xmm0, %xmm4
vpxor %xmm1, %xmm5, %xmm1
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm4, %xmm0
vpshufd $78, %xmm0, %xmm4
vpxor %xmm4, %xmm1, %xmm4
vpclmulqdq $16, %xmm6, %xmm0, %xmm0
vmovaps 48(%rsp), %xmm1
#APP
vaesenc %xmm1, %xmm13, %xmm13
vaesenc %xmm1, %xmm14, %xmm14
vaesenc %xmm1, %xmm15, %xmm15
vaesenc %xmm1, %xmm2, %xmm2
vaesenc %xmm1, %xmm3, %xmm3
vaesenc %xmm1, %xmm12, %xmm12
#NO_APP
vmovaps 96(%rsp), %xmm1
#APP
vaesenclast %xmm1, %xmm13, %xmm13
vaesenclast %xmm1, %xmm14, %xmm14
vaesenclast %xmm1, %xmm15, %xmm15
vaesenclast %xmm1, %xmm2, %xmm2
vaesenclast %xmm1, %xmm3, %xmm3
vaesenclast %xmm1, %xmm12, %xmm12
#NO_APP
vpxor (%rcx), %xmm13, %xmm13
vpxor 16(%rcx), %xmm14, %xmm1
vpxor 32(%rcx), %xmm15, %xmm9
vpxor 48(%rcx), %xmm2, %xmm5
vpxor 64(%rcx), %xmm3, %xmm11
vpxor %xmm0, %xmm4, %xmm0
vpxor 80(%rcx), %xmm12, %xmm2
addq $96, %rcx
vmovdqu %xmm13, (%rax)
vmovdqu %xmm1, 16(%rax)
vmovdqu %xmm9, 32(%rax)
vmovdqu %xmm5, 48(%rax)
vmovdqu %xmm11, 64(%rax)
vmovdqu %xmm2, 80(%rax)
addq $96, %rax
addq $-96, %rbx
vpaddd .LCPI1_23(%rip), %xmm10, %xmm10
cmpq $95, %rbx
ja .LBB1_39
vmovdqa %xmm5, 160(%rsp)
vmovdqa %xmm10, 144(%rsp)
vmovdqa %xmm0, (%rsp)
vmovdqa 32(%rsp), %xmm15
vmovdqa 16(%rsp), %xmm14
jmp .LBB1_37
.LBB1_30:
vmovdqa %xmm5, %xmm6
vmovdqa %xmm2, 144(%rsp)
movq %r15, %rbx
vmovdqa 224(%rsp), %xmm5
vmovdqa 208(%rsp), %xmm0
vmovdqa 192(%rsp), %xmm1
movq %r8, %r13
cmpq $16, %rbx
jae .LBB1_41
.LBB1_32:
movq %rdx, %r14
movq %r9, %rsi
vmovdqa 144(%rsp), %xmm14
jmp .LBB1_33
.LBB1_15:
vmovdqu (%rcx), %xmm0
vpshufb .LCPI1_15(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm5, %xmm0
vpclmulqdq $0, %xmm0, %xmm14, %xmm1
vpclmulqdq $1, %xmm0, %xmm14, %xmm2
vpclmulqdq $16, %xmm0, %xmm14, %xmm3
addq $16, %rcx
vpclmulqdq $17, %xmm0, %xmm14, %xmm5
vpxor %xmm2, %xmm3, %xmm2
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpsrldq $8, %xmm2, %xmm2
vpbroadcastq .LCPI1_28(%rip), %xmm3
vmovdqa %xmm15, %xmm0
vmovdqa %xmm3, %xmm15
vpclmulqdq $16, %xmm3, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm15, %xmm1, %xmm3
vmovdqa %xmm0, %xmm15
vpxor %xmm2, %xmm5, %xmm0
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm5
movq %rdx, %rsi
cmpq $16, %rdx
jb .LBB1_20
.LBB1_17:
vmovdqa .LCPI1_15(%rip), %xmm0
vpbroadcastq .LCPI1_28(%rip), %xmm15
.p2align 4, 0x90
.LBB1_18:
vmovdqu (%rcx), %xmm1
vpshufb %xmm0, %xmm1, %xmm1
vpxor %xmm1, %xmm5, %xmm1
vpclmulqdq $0, %xmm1, %xmm14, %xmm2
vpclmulqdq $1, %xmm1, %xmm14, %xmm3
vmovdqu 16(%rcx), %xmm4
vpclmulqdq $16, %xmm1, %xmm14, %xmm5
vpxor %xmm3, %xmm5, %xmm3
vpclmulqdq $17, %xmm1, %xmm14, %xmm1
vpslldq $8, %xmm3, %xmm5
vpxor %xmm5, %xmm2, %xmm2
vpsrldq $8, %xmm3, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpclmulqdq $16, %xmm15, %xmm2, %xmm3
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $16, %xmm15, %xmm2, %xmm3
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpshufb %xmm0, %xmm4, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $0, %xmm1, %xmm14, %xmm2
addq $32, %rcx
vpclmulqdq $1, %xmm1, %xmm14, %xmm3
addq $-32, %rsi
vpclmulqdq $16, %xmm1, %xmm14, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm14, %xmm1
vpslldq $8, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpsrldq $8, %xmm3, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpclmulqdq $16, %xmm15, %xmm2, %xmm3
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $16, %xmm15, %xmm2, %xmm3
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm5
cmpq $15, %rsi
ja .LBB1_18
movq %rsi, %rdx
vmovdqa 32(%rsp), %xmm15
testq %rdx, %rdx
jne .LBB1_21
jmp .LBB1_24
.LBB1_22:
movq %rbx, %r8
jmp .LBB1_46
.LBB1_36:
vmovdqa %xmm5, 160(%rsp)
vmovdqa .LCPI1_15(%rip), %xmm8
.LBB1_37:
vpshufb %xmm8, %xmm2, %xmm3
vpclmulqdq $0, %xmm3, %xmm14, %xmm4
vpshufb %xmm8, %xmm11, %xmm5
vmovdqa 384(%rsp), %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm6
vpclmulqdq $1, %xmm5, %xmm0, %xmm7
vpshufb %xmm8, %xmm13, %xmm2
vmovdqa %xmm8, %xmm10
vpclmulqdq $16, %xmm5, %xmm0, %xmm8
vpxor (%rsp), %xmm2, %xmm2
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpshufb %xmm10, %xmm1, %xmm13
vpclmulqdq $1, %xmm3, %xmm14, %xmm11
vpshufb %xmm10, %xmm9, %xmm9
vpclmulqdq $16, %xmm3, %xmm14, %xmm12
vmovdqa 160(%rsp), %xmm0
vpshufb %xmm10, %xmm0, %xmm0
vmovdqa 352(%rsp), %xmm1
vpclmulqdq $0, %xmm0, %xmm1, %xmm10
vpxor %xmm11, %xmm12, %xmm11
vpclmulqdq $1, %xmm0, %xmm1, %xmm12
vpxor %xmm4, %xmm6, %xmm4
vpclmulqdq $16, %xmm0, %xmm1, %xmm6
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $17, %xmm0, %xmm1, %xmm0
vpxor %xmm7, %xmm11, %xmm7
vpclmulqdq $17, %xmm3, %xmm14, %xmm3
vpxor %xmm3, %xmm5, %xmm3
vmovdqa 336(%rsp), %xmm1
vpclmulqdq $0, %xmm9, %xmm1, %xmm5
vpxor %xmm6, %xmm12, %xmm6
vpclmulqdq $1, %xmm9, %xmm1, %xmm8
vpxor %xmm5, %xmm10, %xmm5
vpclmulqdq $16, %xmm9, %xmm1, %xmm10
vpxor %xmm5, %xmm4, %xmm4
vpclmulqdq $17, %xmm9, %xmm1, %xmm5
vpxor %xmm6, %xmm8, %xmm6
vpxor %xmm6, %xmm7, %xmm6
vpxor %xmm5, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm0
vmovdqa 320(%rsp), %xmm1
vpclmulqdq $0, %xmm13, %xmm1, %xmm3
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $1, %xmm13, %xmm1, %xmm4
vpxor %xmm4, %xmm10, %xmm4
vpclmulqdq $16, %xmm13, %xmm1, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpxor %xmm4, %xmm6, %xmm4
vpclmulqdq $17, %xmm13, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vmovdqa 368(%rsp), %xmm5
vpclmulqdq $0, %xmm2, %xmm5, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $1, %xmm2, %xmm5, %xmm3
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $16, %xmm2, %xmm5, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpclmulqdq $17, %xmm2, %xmm5, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpslldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpsrldq $8, %xmm3, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpbroadcastq .LCPI1_28(%rip), %xmm6
vpclmulqdq $16, %xmm6, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpshufd $78, %xmm1, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpclmulqdq $16, %xmm6, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm6
movq %rax, %rdx
movq %rcx, %r9
vmovdqa 128(%rsp), %xmm12
vmovdqa 192(%rsp), %xmm1
vmovdqa 64(%rsp), %xmm8
vmovdqa 112(%rsp), %xmm9
vmovdqa 176(%rsp), %xmm13
vmovdqa 96(%rsp), %xmm10
vmovdqa 224(%rsp), %xmm5
vmovdqa 208(%rsp), %xmm0
vmovdqa 48(%rsp), %xmm11
movq %r8, %r13
cmpq $16, %rbx
jb .LBB1_32
.LBB1_41:
vmovdqa 240(%rsp), %xmm3
vmovdqa 144(%rsp), %xmm14
.p2align 4, 0x90
.LBB1_42:
vmovdqa .LCPI1_15(%rip), %xmm2
vmovdqa %xmm15, %xmm4
vmovdqa %xmm0, %xmm7
vmovdqa 272(%rsp), %xmm0
vmovdqa %xmm5, %xmm15
vmovdqa %xmm2, %xmm5
vpshufb %xmm2, %xmm14, %xmm2
vpxor %xmm2, %xmm12, %xmm2
vaesenc 304(%rsp), %xmm2, %xmm2
vaesenc %xmm3, %xmm2, %xmm2
vaesenc %xmm1, %xmm2, %xmm2
vaesenc 288(%rsp), %xmm2, %xmm2
vaesenc %xmm15, %xmm2, %xmm2
vaesenc %xmm0, %xmm2, %xmm2
vaesenc %xmm8, %xmm2, %xmm2
vaesenc 256(%rsp), %xmm2, %xmm2
vaesenc %xmm4, %xmm2, %xmm2
vaesenc %xmm7, %xmm2, %xmm2
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm13, %xmm2, %xmm2
vaesenc %xmm11, %xmm2, %xmm2
vaesenclast %xmm10, %xmm2, %xmm2
vpxor (%r9), %xmm2, %xmm2
vpshufb %xmm5, %xmm2, %xmm3
vpxor %xmm3, %xmm6, %xmm3
vmovdqa %xmm4, %xmm1
vmovdqa 16(%rsp), %xmm0
vpclmulqdq $1, %xmm3, %xmm0, %xmm4
vpclmulqdq $16, %xmm3, %xmm0, %xmm5
vmovdqu %xmm2, (%rdx)
vpclmulqdq $0, %xmm3, %xmm0, %xmm2
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
vpslldq $8, %xmm4, %xmm5
vpxor %xmm5, %xmm2, %xmm2
vpsrldq $8, %xmm4, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpbroadcastq .LCPI1_28(%rip), %xmm0
vpclmulqdq $16, %xmm0, %xmm2, %xmm4
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm4, %xmm2
vpclmulqdq $16, %xmm0, %xmm2, %xmm4
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vmovdqa 240(%rsp), %xmm3
vpxor %xmm2, %xmm4, %xmm6
vmovdqa %xmm15, %xmm5
vmovdqa %xmm1, %xmm15
vmovdqa %xmm7, %xmm0
vmovdqa 192(%rsp), %xmm1
vmovdqa 48(%rsp), %xmm11
leaq 16(%r9), %rsi
leaq 16(%rdx), %r14
addq $-16, %rbx
vpaddd .LCPI1_18(%rip), %xmm14, %xmm14
movq %r14, %rdx
movq %rsi, %r9
cmpq $15, %rbx
ja .LBB1_42
.LBB1_33:
vmovdqa %xmm6, %xmm4
vmovdqa %xmm14, 144(%rsp)
testq %rbx, %rbx
je .LBB1_34
vmovdqa %xmm4, (%rsp)
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, 80(%rsp)
leaq 80(%rsp), %rdi
movq memcpy@GOTPCREL(%rip), %rbp
movq %rbx, %rdx
callq *%rbp
vmovdqa 144(%rsp), %xmm0
vpshufb .LCPI1_15(%rip), %xmm0, %xmm0
vpxor 128(%rsp), %xmm0, %xmm0
vaesenc 304(%rsp), %xmm0, %xmm0
vaesenc 240(%rsp), %xmm0, %xmm0
vaesenc 192(%rsp), %xmm0, %xmm0
vaesenc 288(%rsp), %xmm0, %xmm0
vaesenc 224(%rsp), %xmm0, %xmm0
vaesenc 272(%rsp), %xmm0, %xmm0
vaesenc 64(%rsp), %xmm0, %xmm0
vaesenc 256(%rsp), %xmm0, %xmm0
vaesenc 32(%rsp), %xmm0, %xmm0
vaesenc 208(%rsp), %xmm0, %xmm0
vaesenc 112(%rsp), %xmm0, %xmm0
vaesenc 176(%rsp), %xmm0, %xmm0
vaesenc 48(%rsp), %xmm0, %xmm0
vaesenclast 96(%rsp), %xmm0, %xmm0
vpxor 80(%rsp), %xmm0, %xmm0
vmovdqa %xmm0, 160(%rsp)
vmovdqa %xmm0, 80(%rsp)
leaq 80(%rsp), %rsi
movq %r14, %rdi
movq %rbx, %rdx
callq *%rbp
testq %r15, %r15
je .LBB1_44
vmovaps 160(%rsp), %xmm0
vmovaps %xmm0, 416(%rsp)
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, 80(%rsp)
leaq 80(%rsp), %rdi
leaq 416(%rsp), %rsi
movq %rbx, %rdx
callq *memcpy@GOTPCREL(%rip)
vmovdqa 80(%rsp), %xmm0
movq %r13, %r8
.LBB1_46:
vmovdqa 128(%rsp), %xmm12
vmovdqa 64(%rsp), %xmm8
vmovdqa 32(%rsp), %xmm15
vmovdqa 112(%rsp), %xmm9
vmovdqa 176(%rsp), %xmm13
vmovdqa 48(%rsp), %xmm11
vmovdqa 96(%rsp), %xmm10
vpbroadcastq .LCPI1_28(%rip), %xmm6
vmovdqa 16(%rsp), %xmm14
vmovdqa (%rsp), %xmm1
jmp .LBB1_47
.LBB1_34:
movq %r13, %r8
vmovdqa 16(%rsp), %xmm14
vpbroadcastq .LCPI1_28(%rip), %xmm6
vmovdqa %xmm4, %xmm5
jmp .LBB1_48
.LBB1_44:
movq %r13, %r8
vmovdqa 128(%rsp), %xmm12
vmovdqa 64(%rsp), %xmm8
vmovdqa 32(%rsp), %xmm15
vmovdqa 112(%rsp), %xmm9
vmovdqa 176(%rsp), %xmm13
vmovdqa 48(%rsp), %xmm11
vmovdqa 96(%rsp), %xmm10
vpbroadcastq .LCPI1_28(%rip), %xmm6
vmovdqa 16(%rsp), %xmm14
vmovdqa (%rsp), %xmm1
vmovdqa 160(%rsp), %xmm0
.LBB1_47:
vpshufb .LCPI1_15(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpclmulqdq $0, %xmm0, %xmm14, %xmm1
vpclmulqdq $1, %xmm0, %xmm14, %xmm2
vpclmulqdq $16, %xmm0, %xmm14, %xmm3
vpclmulqdq $17, %xmm0, %xmm14, %xmm0
vpxor %xmm2, %xmm3, %xmm2
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpsrldq $8, %xmm2, %xmm2
vpclmulqdq $16, %xmm6, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm6, %xmm1, %xmm3
vpxor %xmm2, %xmm0, %xmm0
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm5
.LBB1_48:
vmovq %r8, %xmm0
vmovq %r15, %xmm1
vpunpcklqdq %xmm0, %xmm1, %xmm0
vpsllq $3, %xmm0, %xmm0
vpxor %xmm0, %xmm5, %xmm0
vpclmulqdq $0, %xmm0, %xmm14, %xmm1
vpclmulqdq $1, %xmm0, %xmm14, %xmm2
vpclmulqdq $16, %xmm0, %xmm14, %xmm3
vpclmulqdq $17, %xmm0, %xmm14, %xmm0
vpxor %xmm2, %xmm3, %xmm2
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpclmulqdq $16, %xmm6, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm6, %xmm1, %xmm3
vpxor %xmm0, %xmm3, %xmm0
vpxor 400(%rsp), %xmm12, %xmm3
vaesenc 304(%rsp), %xmm3, %xmm3
vaesenc 240(%rsp), %xmm3, %xmm3
vaesenc 192(%rsp), %xmm3, %xmm3
vaesenc 288(%rsp), %xmm3, %xmm3
vaesenc 224(%rsp), %xmm3, %xmm3
vaesenc 272(%rsp), %xmm3, %xmm3
vaesenc %xmm8, %xmm3, %xmm3
vaesenc 256(%rsp), %xmm3, %xmm3
vaesenc %xmm15, %xmm3, %xmm3
vaesenc 208(%rsp), %xmm3, %xmm3
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm13, %xmm3, %xmm3
vaesenc %xmm11, %xmm3, %xmm3
vaesenclast %xmm10, %xmm3, %xmm3
vpshufb .LCPI1_25(%rip), %xmm2, %xmm2
vpshufb .LCPI1_26(%rip), %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpshufb .LCPI1_15(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vmovdqu %xmm0, 32(%r12)
movl $1, %eax
.LBB1_49:
addq $440, %rsp
.cfi_def_cfa_offset 56
popq %rbx
.cfi_def_cfa_offset 48
popq %r12
.cfi_def_cfa_offset 40
popq %r13
.cfi_def_cfa_offset 32
popq %r14
.cfi_def_cfa_offset 24
popq %r15
.cfi_def_cfa_offset 16
popq %rbp
.cfi_def_cfa_offset 8
retq
.LBB1_25:
.cfi_def_cfa_offset 496
vpbroadcastq .LCPI1_28(%rip), %xmm6
jmp .LBB1_48
.Lfunc_end1:
.size haberdashery_aes256gcmdndkv2kc_haswell_encrypt, .Lfunc_end1-haberdashery_aes256gcmdndkv2kc_haswell_encrypt
.cfi_endproc
.section .rodata.cst16,"aM",@progbits,16
.p2align 4, 0x0
.LCPI2_0:
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 255
.byte 0
.LCPI2_1:
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 224
.LCPI2_2:
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 225
.LCPI2_3:
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 226
.LCPI2_4:
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 227
.LCPI2_5:
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 228
.LCPI2_6:
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.byte 13
.byte 14
.byte 15
.byte 12
.LCPI2_7:
.quad 4294967297
.quad 4294967297
.LCPI2_14:
.quad 274877907008
.quad 274877907008
.LCPI2_15:
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI2_16:
.zero 8
.quad -4467570830351532032
.LCPI2_17:
.byte 15
.byte 128
.byte 128
.byte 128
.byte 11
.byte 10
.byte 9
.byte 8
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.LCPI2_18:
.long 1
.long 0
.long 0
.long 0
.LCPI2_19:
.long 2
.long 0
.long 0
.long 0
.LCPI2_20:
.long 3
.long 0
.long 0
.long 0
.LCPI2_21:
.long 4
.long 0
.long 0
.long 0
.LCPI2_22:
.long 5
.long 0
.long 0
.long 0
.LCPI2_23:
.long 6
.long 0
.long 0
.long 0
.LCPI2_24:
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 128
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.LCPI2_25:
.byte 7
.byte 6
.byte 5
.byte 4
.byte 3
.byte 2
.byte 1
.byte 0
.byte 15
.byte 14
.byte 13
.byte 12
.byte 11
.byte 10
.byte 9
.byte 8
.LCPI2_26:
.zero 16
.section .rodata.cst4,"aM",@progbits,4
.p2align 2, 0x0
.LCPI2_8:
.long 0x00000002
.LCPI2_9:
.long 0x0c0f0e0d
.LCPI2_10:
.long 0x00000004
.LCPI2_11:
.long 0x00000008
.LCPI2_12:
.long 0x00000010
.LCPI2_13:
.long 0x00000020
.section .rodata.cst8,"aM",@progbits,8
.p2align 3, 0x0
.LCPI2_27:
.quad -4467570830351532032
.section .text.haberdashery_aes256gcmdndkv2kc_haswell_decrypt,"ax",@progbits
.globl haberdashery_aes256gcmdndkv2kc_haswell_decrypt
.p2align 4, 0x90
.type haberdashery_aes256gcmdndkv2kc_haswell_decrypt,@function
haberdashery_aes256gcmdndkv2kc_haswell_decrypt:
.cfi_startproc
pushq %rbp
.cfi_def_cfa_offset 16
pushq %r15
.cfi_def_cfa_offset 24
pushq %r14
.cfi_def_cfa_offset 32
pushq %r13
.cfi_def_cfa_offset 40
pushq %r12
.cfi_def_cfa_offset 48
pushq %rbx
.cfi_def_cfa_offset 56
subq $488, %rsp
.cfi_def_cfa_offset 544
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
.cfi_offset %rbp, -16
movq 544(%rsp), %r15
xorl %eax, %eax
cmpq 576(%rsp), %r15
jne .LBB2_48
movq %r15, %r10
shrq $5, %r10
cmpq $2147483646, %r10
ja .LBB2_48
movabsq $2305843009213693950, %r10
cmpq %r10, %r8
ja .LBB2_48
cmpq $24, %rdx
jne .LBB2_48
cmpq $48, 560(%rsp)
jne .LBB2_48
vmovdqu (%rsi), %xmm0
vmovdqa %xmm0, 320(%rsp)
vpand .LCPI2_0(%rip), %xmm0, %xmm0
vpxor (%rdi), %xmm0, %xmm14
movq 552(%rsp), %r12
vpxor .LCPI2_1(%rip), %xmm14, %xmm0
vmovdqa 16(%rdi), %xmm2
vmovdqa %xmm2, 64(%rsp)
vmovdqa 32(%rdi), %xmm1
vmovdqa 48(%rdi), %xmm15
vmovdqa 64(%rdi), %xmm3
vaesenc %xmm2, %xmm0, %xmm0
vaesenc %xmm1, %xmm0, %xmm0
vmovdqa %xmm1, %xmm2
vmovdqa %xmm1, (%rsp)
vaesenc %xmm15, %xmm0, %xmm0
vaesenc %xmm3, %xmm0, %xmm0
vmovdqa 80(%rdi), %xmm4
vaesenc %xmm4, %xmm0, %xmm0
vmovdqa 96(%rdi), %xmm5
vaesenc %xmm5, %xmm0, %xmm0
vmovdqa 112(%rdi), %xmm6
vaesenc %xmm6, %xmm0, %xmm0
vmovdqa 128(%rdi), %xmm7
vaesenc %xmm7, %xmm0, %xmm0
vmovdqa 144(%rdi), %xmm8
vaesenc %xmm8, %xmm0, %xmm0
vmovdqa 160(%rdi), %xmm9
vaesenc %xmm9, %xmm0, %xmm0
vmovdqa 176(%rdi), %xmm10
vaesenc %xmm10, %xmm0, %xmm0
vmovdqa 192(%rdi), %xmm11
vaesenc %xmm11, %xmm0, %xmm0
vmovdqa 208(%rdi), %xmm12
vaesenc %xmm12, %xmm0, %xmm0
vmovdqa 224(%rdi), %xmm13
vpxor .LCPI2_4(%rip), %xmm14, %xmm1
vaesenclast %xmm13, %xmm0, %xmm0
vmovdqa %xmm0, 16(%rsp)
vmovdqa 64(%rsp), %xmm0
vaesenc %xmm0, %xmm1, %xmm1
vaesenc %xmm2, %xmm1, %xmm1
vaesenc %xmm15, %xmm1, %xmm1
vaesenc %xmm3, %xmm1, %xmm1
vaesenc %xmm4, %xmm1, %xmm1
vaesenc %xmm5, %xmm1, %xmm1
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm8, %xmm1, %xmm1
vaesenc %xmm9, %xmm1, %xmm1
vaesenc %xmm10, %xmm1, %xmm1
vaesenc %xmm11, %xmm1, %xmm1
vaesenc %xmm12, %xmm1, %xmm2
vmovdqa %xmm14, 32(%rsp)
vpxor .LCPI2_5(%rip), %xmm14, %xmm1
vaesenclast %xmm13, %xmm2, %xmm2
vaesenc %xmm0, %xmm1, %xmm0
vaesenc (%rsp), %xmm0, %xmm0
vmovdqa %xmm15, 48(%rsp)
vaesenc %xmm15, %xmm0, %xmm0
vmovdqa %xmm3, 112(%rsp)
vaesenc %xmm3, %xmm0, %xmm0
vmovdqa %xmm4, 272(%rsp)
vaesenc %xmm4, %xmm0, %xmm0
vmovdqa %xmm5, 144(%rsp)
vaesenc %xmm5, %xmm0, %xmm0
vmovdqa %xmm6, 256(%rsp)
vaesenc %xmm6, %xmm0, %xmm0
vmovdqa %xmm7, 128(%rsp)
vaesenc %xmm7, %xmm0, %xmm0
vmovdqa %xmm8, 416(%rsp)
vaesenc %xmm8, %xmm0, %xmm0
vmovdqa %xmm9, 400(%rsp)
vaesenc %xmm9, %xmm0, %xmm0
vmovdqa %xmm10, 384(%rsp)
vaesenc %xmm10, %xmm0, %xmm0
vaesenc %xmm11, %xmm0, %xmm0
vmovdqa %xmm12, 192(%rsp)
vaesenc %xmm12, %xmm0, %xmm0
vpxor (%r12), %xmm2, %xmm1
vmovdqa %xmm13, 96(%rsp)
vaesenclast %xmm13, %xmm0, %xmm0
vmovdqa 16(%rsp), %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpxor 16(%r12), %xmm0, %xmm0
vpxor %xmm2, %xmm0, %xmm0
vpor %xmm1, %xmm0, %xmm0
vptest %xmm0, %xmm0
jne .LBB2_48
vmovdqa 32(%rsp), %xmm1
vpxor .LCPI2_2(%rip), %xmm1, %xmm0
vmovdqa 64(%rsp), %xmm2
vaesenc %xmm2, %xmm0, %xmm0
vpxor .LCPI2_3(%rip), %xmm1, %xmm1
vaesenc %xmm2, %xmm1, %xmm1
vmovdqa (%rsp), %xmm2
vaesenc %xmm2, %xmm0, %xmm0
vaesenc %xmm2, %xmm1, %xmm1
vmovdqa 48(%rsp), %xmm2
vaesenc %xmm2, %xmm0, %xmm0
vmovdqa 112(%rsp), %xmm3
vaesenc %xmm3, %xmm0, %xmm0
vmovdqa 272(%rsp), %xmm4
vaesenc %xmm4, %xmm0, %xmm0
vmovdqa 144(%rsp), %xmm5
vaesenc %xmm5, %xmm0, %xmm0
vmovdqa 256(%rsp), %xmm6
vaesenc %xmm6, %xmm0, %xmm0
vmovdqa 128(%rsp), %xmm7
vaesenc %xmm7, %xmm0, %xmm0
vmovdqa 416(%rsp), %xmm8
vaesenc %xmm8, %xmm0, %xmm0
vmovdqa 400(%rsp), %xmm9
vaesenc %xmm9, %xmm0, %xmm0
vmovdqa 384(%rsp), %xmm10
vaesenc %xmm10, %xmm0, %xmm0
vaesenc %xmm11, %xmm0, %xmm0
vmovdqa 192(%rsp), %xmm12
vaesenc %xmm12, %xmm0, %xmm0
vmovdqa 96(%rsp), %xmm13
vaesenclast %xmm13, %xmm0, %xmm0
vaesenc %xmm2, %xmm1, %xmm1
vaesenc %xmm3, %xmm1, %xmm1
vaesenc %xmm4, %xmm1, %xmm1
vaesenc %xmm5, %xmm1, %xmm1
vaesenc %xmm6, %xmm1, %xmm1
vaesenc %xmm7, %xmm1, %xmm1
vaesenc %xmm8, %xmm1, %xmm1
vaesenc %xmm9, %xmm1, %xmm1
vaesenc %xmm10, %xmm1, %xmm1
vaesenc %xmm11, %xmm1, %xmm1
vaesenc %xmm12, %xmm1, %xmm1
vaesenclast %xmm13, %xmm1, %xmm1
vmovdqa 16(%rsp), %xmm2
vpxor %xmm2, %xmm0, %xmm4
vpxor %xmm2, %xmm1, %xmm13
vpslldq $4, %xmm4, %xmm0
vpslldq $8, %xmm4, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpslldq $12, %xmm4, %xmm2
vpbroadcastd .LCPI2_9(%rip), %xmm1
vpshufb %xmm1, %xmm13, %xmm3
vaesenclast .LCPI2_7(%rip), %xmm3, %xmm3
vpxor %xmm2, %xmm0, %xmm0
vpxor %xmm4, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm7
vmovdqa %xmm4, 272(%rsp)
vaesenc %xmm13, %xmm4, %xmm2
vpslldq $4, %xmm13, %xmm0
vpslldq $8, %xmm13, %xmm3
vpxor %xmm3, %xmm0, %xmm0
vpslldq $12, %xmm13, %xmm3
vpxor %xmm3, %xmm0, %xmm3
vpshufd $255, %xmm7, %xmm4
vpxor %xmm0, %xmm0, %xmm0
vaesenclast %xmm0, %xmm4, %xmm4
vpxor %xmm3, %xmm13, %xmm3
vpxor %xmm3, %xmm4, %xmm8
vbroadcastss .LCPI2_8(%rip), %xmm4
vbroadcastss .LCPI2_9(%rip), %xmm3
vmovdqa %xmm7, 32(%rsp)
#APP
vaesenc %xmm7, %xmm2, %xmm2
vpslldq $4, %xmm7, %xmm5
vpslldq $8, %xmm7, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vpslldq $12, %xmm7, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vpxor %xmm7, %xmm5, %xmm5
vpshufb %xmm3, %xmm8, %xmm11
vaesenclast %xmm4, %xmm11, %xmm11
vpxor %xmm5, %xmm11, %xmm11
#NO_APP
vmovdqa %xmm8, 96(%rsp)
#APP
vaesenc %xmm8, %xmm2, %xmm2
vpslldq $4, %xmm8, %xmm4
vpslldq $8, %xmm8, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpslldq $12, %xmm8, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpxor %xmm4, %xmm8, %xmm4
vpshufd $255, %xmm11, %xmm10
vaesenclast %xmm0, %xmm10, %xmm10
vpxor %xmm4, %xmm10, %xmm10
#NO_APP
vbroadcastss .LCPI2_10(%rip), %xmm4
vmovaps %xmm11, 192(%rsp)
#APP
vaesenc %xmm11, %xmm2, %xmm2
vpslldq $4, %xmm11, %xmm5
vpslldq $8, %xmm11, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vpslldq $12, %xmm11, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vpxor %xmm5, %xmm11, %xmm5
vpshufb %xmm3, %xmm10, %xmm9
vaesenclast %xmm4, %xmm9, %xmm9
vpxor %xmm5, %xmm9, %xmm9
#NO_APP
#APP
vaesenc %xmm10, %xmm2, %xmm2
vpslldq $4, %xmm10, %xmm4
vpslldq $8, %xmm10, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpslldq $12, %xmm10, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpxor %xmm4, %xmm10, %xmm4
vpshufd $255, %xmm9, %xmm11
vaesenclast %xmm0, %xmm11, %xmm11
vpxor %xmm4, %xmm11, %xmm11
#NO_APP
vbroadcastss .LCPI2_11(%rip), %xmm4
#APP
vaesenc %xmm9, %xmm2, %xmm2
vpslldq $4, %xmm9, %xmm5
vpslldq $8, %xmm9, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vpslldq $12, %xmm9, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vpxor %xmm5, %xmm9, %xmm5
vpshufb %xmm3, %xmm11, %xmm8
vaesenclast %xmm4, %xmm8, %xmm8
vpxor %xmm5, %xmm8, %xmm8
#NO_APP
#APP
vaesenc %xmm11, %xmm2, %xmm2
vpslldq $4, %xmm11, %xmm4
vpslldq $8, %xmm11, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpslldq $12, %xmm11, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpxor %xmm4, %xmm11, %xmm4
vpshufd $255, %xmm8, %xmm7
vaesenclast %xmm0, %xmm7, %xmm7
vpxor %xmm4, %xmm7, %xmm7
#NO_APP
vbroadcastss .LCPI2_12(%rip), %xmm4
vmovdqa %xmm8, 256(%rsp)
#APP
vaesenc %xmm8, %xmm2, %xmm2
vpslldq $4, %xmm8, %xmm5
vpslldq $8, %xmm8, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vpslldq $12, %xmm8, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vpxor %xmm5, %xmm8, %xmm5
vpshufb %xmm3, %xmm7, %xmm12
vaesenclast %xmm4, %xmm12, %xmm12
vpxor %xmm5, %xmm12, %xmm12
#NO_APP
vmovaps %xmm7, 240(%rsp)
#APP
vaesenc %xmm7, %xmm2, %xmm2
vpslldq $4, %xmm7, %xmm4
vpslldq $8, %xmm7, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpslldq $12, %xmm7, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpxor %xmm7, %xmm4, %xmm4
vpshufd $255, %xmm12, %xmm14
vaesenclast %xmm0, %xmm14, %xmm14
vpxor %xmm4, %xmm14, %xmm14
#NO_APP
vbroadcastss .LCPI2_13(%rip), %xmm4
vmovaps %xmm12, 128(%rsp)
#APP
vaesenc %xmm12, %xmm2, %xmm2
vpslldq $4, %xmm12, %xmm5
vpslldq $8, %xmm12, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vpslldq $12, %xmm12, %xmm6
vpxor %xmm6, %xmm5, %xmm5
vpxor %xmm5, %xmm12, %xmm5
vpshufb %xmm3, %xmm14, %xmm15
vaesenclast %xmm4, %xmm15, %xmm15
vpxor %xmm5, %xmm15, %xmm15
#NO_APP
vpslldq $4, %xmm14, %xmm3
vpunpcklqdq %xmm14, %xmm0, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vinsertps $55, %xmm14, %xmm0, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpshufd $255, %xmm15, %xmm4
vaesenclast %xmm0, %xmm4, %xmm4
vpxor %xmm3, %xmm14, %xmm3
vpxor %xmm3, %xmm4, %xmm5
vpslldq $4, %xmm15, %xmm3
vpunpcklqdq %xmm15, %xmm0, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vinsertps $55, %xmm15, %xmm0, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpshufb %xmm1, %xmm5, %xmm1
vaesenclast .LCPI2_14(%rip), %xmm1, %xmm1
vpxor %xmm3, %xmm15, %xmm3
vpxor %xmm3, %xmm1, %xmm6
vmovaps %xmm14, 48(%rsp)
vaesenc %xmm14, %xmm2, %xmm1
vmovaps %xmm15, 304(%rsp)
vaesenc %xmm15, %xmm1, %xmm1
vmovdqa %xmm5, 288(%rsp)
vaesenc %xmm5, %xmm1, %xmm1
vaesenclast %xmm6, %xmm1, %xmm1
vpshufb .LCPI2_15(%rip), %xmm1, %xmm1
vpsrlq $63, %xmm1, %xmm2
vpaddq %xmm1, %xmm1, %xmm1
vpshufd $78, %xmm2, %xmm3
vpor %xmm3, %xmm1, %xmm1
vpblendd $12, %xmm2, %xmm0, %xmm0
vpsllq $63, %xmm0, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpsllq $62, %xmm0, %xmm2
vpsllq $57, %xmm0, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vpxor %xmm0, %xmm1, %xmm15
vpclmulqdq $0, %xmm15, %xmm15, %xmm0
vpbroadcastq .LCPI2_27(%rip), %xmm14
vpclmulqdq $16, %xmm14, %xmm0, %xmm1
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpclmulqdq $17, %xmm15, %xmm15, %xmm1
vpshufd $78, %xmm0, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $16, %xmm14, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm7
vpclmulqdq $16, %xmm15, %xmm7, %xmm0
vpclmulqdq $1, %xmm15, %xmm7, %xmm1
vpxor %xmm0, %xmm1, %xmm0
vpclmulqdq $0, %xmm15, %xmm7, %xmm1
vpslldq $8, %xmm0, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $16, %xmm14, %xmm1, %xmm2
vpshufd $78, %xmm1, %xmm1
vpclmulqdq $17, %xmm15, %xmm7, %xmm3
vpxor %xmm1, %xmm2, %xmm1
vpsrldq $8, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm0
vpshufd $78, %xmm1, %xmm2
vpxor %xmm2, %xmm0, %xmm0
vpclmulqdq $16, %xmm14, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm5
vpclmulqdq $0, %xmm7, %xmm7, %xmm0
vpclmulqdq $16, %xmm14, %xmm0, %xmm1
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpclmulqdq $16, %xmm14, %xmm0, %xmm1
vpshufd $78, %xmm0, %xmm0
vpclmulqdq $17, %xmm7, %xmm7, %xmm2
vpxor %xmm0, %xmm2, %xmm0
vpclmulqdq $0, %xmm5, %xmm5, %xmm2
vpxor %xmm1, %xmm0, %xmm12
vpclmulqdq $16, %xmm14, %xmm2, %xmm0
vpshufd $78, %xmm2, %xmm1
vpclmulqdq $16, %xmm15, %xmm12, %xmm2
vpxor %xmm1, %xmm0, %xmm0
vpclmulqdq $1, %xmm15, %xmm12, %xmm1
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $16, %xmm14, %xmm0, %xmm2
vpclmulqdq $0, %xmm15, %xmm12, %xmm3
vpslldq $8, %xmm1, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vmovdqa %xmm5, 448(%rsp)
vpclmulqdq $17, %xmm5, %xmm5, %xmm4
vpshufd $78, %xmm0, %xmm0
vpclmulqdq $16, %xmm14, %xmm3, %xmm5
vpxor %xmm0, %xmm4, %xmm0
vpxor %xmm2, %xmm0, %xmm0
vmovdqa %xmm0, 432(%rsp)
vpshufd $78, %xmm3, %xmm0
vpxor %xmm0, %xmm5, %xmm0
vmovdqa %xmm12, 368(%rsp)
vpsrldq $8, %xmm1, %xmm1
vmovdqa %xmm15, 16(%rsp)
vpclmulqdq $17, %xmm15, %xmm12, %xmm2
vpxor %xmm1, %xmm2, %xmm1
vmovdqa 320(%rsp), %xmm2
vpextrb $15, %xmm2, %edx
vpshufd $78, %xmm0, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $16, %xmm14, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vmovdqa %xmm0, 352(%rsp)
movzbl 23(%rsi), %edi
movzbl 17(%rsi), %r10d
movzbl 16(%rsi), %r11d
shll $8, %r11d
orl %edx, %r11d
shll $16, %r10d
orl %r11d, %r10d
movzbl 18(%rsi), %edx
shll $24, %edx
orl %r10d, %edx
vmovd %edx, %xmm0
vpinsrd $1, 19(%rsi), %xmm0, %xmm0
vpinsrd $2, %edi, %xmm0, %xmm0
movl $16777216, %edx
vpinsrd $3, %edx, %xmm0, %xmm15
testq %r8, %r8
vmovdqa %xmm6, 112(%rsp)
vmovdqa %xmm13, 176(%rsp)
vmovdqa %xmm10, 144(%rsp)
vmovdqa %xmm9, 224(%rsp)
vmovdqa %xmm11, 160(%rsp)
vmovdqa %xmm15, 208(%rsp)
je .LBB2_40
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, (%rsp)
cmpq $96, %r8
jb .LBB2_8
vmovdqu 32(%rcx), %xmm1
vmovdqu 48(%rcx), %xmm2
vmovdqu 64(%rcx), %xmm3
vmovdqu 80(%rcx), %xmm4
vmovdqa .LCPI2_15(%rip), %xmm0
vpshufb %xmm0, %xmm4, %xmm4
vmovdqa 16(%rsp), %xmm8
vpclmulqdq $0, %xmm4, %xmm8, %xmm5
vpshufb %xmm0, %xmm1, %xmm6
vmovdqa %xmm7, %xmm9
vpclmulqdq $1, %xmm4, %xmm8, %xmm7
vpshufb %xmm0, %xmm2, %xmm1
vpclmulqdq $16, %xmm4, %xmm8, %xmm2
vpshufb %xmm0, %xmm3, %xmm3
vpclmulqdq $17, %xmm4, %xmm8, %xmm4
vpxor %xmm7, %xmm2, %xmm2
vpclmulqdq $0, %xmm3, %xmm9, %xmm7
vpxor %xmm5, %xmm7, %xmm5
vpclmulqdq $1, %xmm3, %xmm9, %xmm7
vpxor %xmm7, %xmm2, %xmm2
vpclmulqdq $16, %xmm3, %xmm9, %xmm7
vpxor %xmm7, %xmm2, %xmm2
vmovdqa %xmm9, %xmm10
vpclmulqdq $17, %xmm3, %xmm9, %xmm3
vpxor %xmm4, %xmm3, %xmm3
vmovdqa 448(%rsp), %xmm11
vpclmulqdq $0, %xmm1, %xmm11, %xmm4
vpclmulqdq $1, %xmm1, %xmm11, %xmm7
vpxor %xmm7, %xmm2, %xmm2
vmovdqa 368(%rsp), %xmm8
vpclmulqdq $0, %xmm6, %xmm8, %xmm7
vpxor %xmm7, %xmm5, %xmm5
vpclmulqdq $16, %xmm1, %xmm11, %xmm7
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $1, %xmm6, %xmm8, %xmm5
vpxor %xmm5, %xmm7, %xmm5
vpxor %xmm5, %xmm2, %xmm2
vpclmulqdq $16, %xmm6, %xmm8, %xmm5
vpxor %xmm5, %xmm2, %xmm2
vpclmulqdq $17, %xmm6, %xmm8, %xmm5
vmovdqu (%rcx), %xmm6
vpxor %xmm5, %xmm3, %xmm3
vmovdqu 16(%rcx), %xmm5
vpshufb %xmm0, %xmm6, %xmm6
vpshufb %xmm0, %xmm5, %xmm5
vpclmulqdq $17, %xmm1, %xmm11, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vmovdqa 352(%rsp), %xmm8
vpclmulqdq $0, %xmm5, %xmm8, %xmm3
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $1, %xmm5, %xmm8, %xmm4
vpxor %xmm4, %xmm2, %xmm4
vpclmulqdq $16, %xmm5, %xmm8, %xmm7
vpclmulqdq $17, %xmm5, %xmm8, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vmovdqa 432(%rsp), %xmm14
vpclmulqdq $0, %xmm6, %xmm14, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $1, %xmm6, %xmm14, %xmm3
vpxor %xmm3, %xmm7, %xmm3
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $16, %xmm6, %xmm14, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpclmulqdq $17, %xmm6, %xmm14, %xmm4
vpxor %xmm4, %xmm1, %xmm1
addq $96, %rcx
leaq -96(%r8), %rsi
cmpq $96, %rsi
jb .LBB2_14
vmovdqa 368(%rsp), %xmm12
vmovdqa 352(%rsp), %xmm13
.p2align 4, 0x90
.LBB2_13:
vmovdqu (%rcx), %xmm5
vmovdqu 32(%rcx), %xmm6
vmovdqu 48(%rcx), %xmm4
vmovdqu 64(%rcx), %xmm7
vmovdqu 80(%rcx), %xmm8
vpslldq $8, %xmm3, %xmm9
vpxor %xmm2, %xmm9, %xmm2
vpsrldq $8, %xmm3, %xmm3
vpbroadcastq .LCPI2_27(%rip), %xmm15
vpclmulqdq $16, %xmm15, %xmm2, %xmm9
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm9, %xmm2
vpclmulqdq $16, %xmm15, %xmm2, %xmm9
vpxor %xmm3, %xmm1, %xmm1
vpshufd $78, %xmm2, %xmm2
vpshufb %xmm0, %xmm5, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpshufb %xmm0, %xmm8, %xmm3
vmovdqa 16(%rsp), %xmm15
vpclmulqdq $0, %xmm3, %xmm15, %xmm5
vpxor %xmm2, %xmm1, %xmm1
vpclmulqdq $1, %xmm3, %xmm15, %xmm8
vpxor %xmm1, %xmm9, %xmm1
vpclmulqdq $16, %xmm3, %xmm15, %xmm9
vpshufb %xmm0, %xmm6, %xmm2
vpclmulqdq $17, %xmm3, %xmm15, %xmm3
vpshufb %xmm0, %xmm7, %xmm6
vpclmulqdq $0, %xmm6, %xmm10, %xmm7
vpxor %xmm8, %xmm9, %xmm8
vpclmulqdq $1, %xmm6, %xmm10, %xmm9
vpxor %xmm5, %xmm7, %xmm5
vpclmulqdq $16, %xmm6, %xmm10, %xmm7
vpshufb %xmm0, %xmm4, %xmm4
vpclmulqdq $17, %xmm6, %xmm10, %xmm6
vpxor %xmm7, %xmm9, %xmm7
vpclmulqdq $0, %xmm4, %xmm11, %xmm9
vpxor %xmm7, %xmm8, %xmm7
vpclmulqdq $1, %xmm4, %xmm11, %xmm8
vpxor %xmm3, %xmm6, %xmm3
vpclmulqdq $16, %xmm4, %xmm11, %xmm6
vpxor %xmm6, %xmm8, %xmm6
vpclmulqdq $0, %xmm2, %xmm12, %xmm8
vpxor %xmm8, %xmm9, %xmm8
vpclmulqdq $17, %xmm4, %xmm11, %xmm4
vpxor %xmm5, %xmm8, %xmm5
vpclmulqdq $1, %xmm2, %xmm12, %xmm8
vpxor %xmm6, %xmm8, %xmm6
vpclmulqdq $17, %xmm2, %xmm12, %xmm8
vpxor %xmm6, %xmm7, %xmm6
vpxor %xmm4, %xmm8, %xmm4
vmovdqu 16(%rcx), %xmm7
vpshufb %xmm0, %xmm7, %xmm7
vpclmulqdq $16, %xmm2, %xmm12, %xmm2
vpxor %xmm4, %xmm3, %xmm3
vpclmulqdq $0, %xmm7, %xmm13, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpclmulqdq $1, %xmm7, %xmm13, %xmm5
vpxor %xmm5, %xmm2, %xmm2
vpclmulqdq $16, %xmm7, %xmm13, %xmm5
vpxor %xmm5, %xmm2, %xmm2
vpxor %xmm2, %xmm6, %xmm5
vpclmulqdq $17, %xmm7, %xmm13, %xmm2
vpxor %xmm2, %xmm3, %xmm6
vpclmulqdq $0, %xmm1, %xmm14, %xmm2
vpxor %xmm2, %xmm4, %xmm2
vpclmulqdq $1, %xmm1, %xmm14, %xmm3
vpxor %xmm3, %xmm5, %xmm3
vpclmulqdq $16, %xmm1, %xmm14, %xmm4
vpxor %xmm4, %xmm3, %xmm3
vpclmulqdq $17, %xmm1, %xmm14, %xmm1
vpxor %xmm1, %xmm6, %xmm1
addq $96, %rcx
addq $-96, %rsi
cmpq $95, %rsi
ja .LBB2_13
.LBB2_14:
vpslldq $8, %xmm3, %xmm0
vpxor %xmm0, %xmm2, %xmm0
vpsrldq $8, %xmm3, %xmm2
vpbroadcastq .LCPI2_27(%rip), %xmm4
vpclmulqdq $16, %xmm4, %xmm0, %xmm3
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm0
vpclmulqdq $16, %xmm4, %xmm0, %xmm3
vpxor %xmm2, %xmm1, %xmm1
vpshufd $78, %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpxor %xmm3, %xmm0, %xmm0
vmovdqa %xmm0, (%rsp)
vmovdqa 224(%rsp), %xmm9
vmovdqa 112(%rsp), %xmm6
vmovdqa 16(%rsp), %xmm15
vmovdqa 32(%rsp), %xmm5
vmovdqa %xmm10, %xmm7
vmovdqa 160(%rsp), %xmm11
vmovdqa 176(%rsp), %xmm13
cmpq $16, %rsi
jae .LBB2_15
.LBB2_10:
movq %rsi, %rdx
testq %rdx, %rdx
jne .LBB2_26
jmp .LBB2_22
.LBB2_40:
vmovdqa %xmm11, %xmm2
vmovdqa %xmm13, %xmm10
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, (%rsp)
xorl %r8d, %r8d
testq %r15, %r15
vmovdqa 48(%rsp), %xmm4
vmovdqa 16(%rsp), %xmm14
vmovdqa 32(%rsp), %xmm5
vmovdqa 96(%rsp), %xmm12
jne .LBB2_29
jmp .LBB2_41
.LBB2_8:
movq %r8, %rsi
vmovdqa 16(%rsp), %xmm15
vmovdqa 32(%rsp), %xmm5
cmpq $16, %rsi
jb .LBB2_10
.LBB2_15:
leaq -16(%rsi), %rdx
testb $16, %dl
je .LBB2_16
cmpq $16, %rdx
jae .LBB2_18
.LBB2_21:
testq %rdx, %rdx
je .LBB2_22
.LBB2_26:
vmovdqa %xmm7, 336(%rsp)
movq %r9, %rbx
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, 80(%rsp)
leaq 80(%rsp), %rdi
movq %rcx, %rsi
movq %r8, %r14
callq *memcpy@GOTPCREL(%rip)
movq %r14, %r8
vmovdqa 80(%rsp), %xmm0
shlq $3, %r8
testq %r15, %r15
je .LBB2_24
movabsq $-68719476704, %rax
leaq (%r15,%rax), %rcx
incq %rax
cmpq %rax, %rcx
movl $0, %eax
vmovdqa 176(%rsp), %xmm10
vmovdqa 32(%rsp), %xmm5
vmovdqa 96(%rsp), %xmm11
vmovdqa 224(%rsp), %xmm9
vmovdqa 160(%rsp), %xmm2
vmovdqa 48(%rsp), %xmm4
vmovdqa 112(%rsp), %xmm6
vmovdqa 16(%rsp), %xmm14
vmovdqa 208(%rsp), %xmm15
jb .LBB2_48
movq %rbx, %r9
vpshufb .LCPI2_15(%rip), %xmm0, %xmm0
vpxor (%rsp), %xmm0, %xmm0
vpclmulqdq $0, %xmm0, %xmm14, %xmm1
vpclmulqdq $1, %xmm0, %xmm14, %xmm7
vpclmulqdq $16, %xmm0, %xmm14, %xmm3
vpclmulqdq $17, %xmm0, %xmm14, %xmm0
vpxor %xmm7, %xmm3, %xmm7
vpslldq $8, %xmm7, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpsrldq $8, %xmm7, %xmm7
vpbroadcastq .LCPI2_27(%rip), %xmm3
vmovdqa %xmm11, %xmm12
vmovdqa %xmm5, %xmm11
vmovdqa %xmm3, %xmm5
vpclmulqdq $16, %xmm3, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm5, %xmm1, %xmm3
vmovdqa %xmm11, %xmm5
vpxor %xmm7, %xmm0, %xmm0
vmovdqa 336(%rsp), %xmm7
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm0
vmovdqa %xmm0, (%rsp)
jmp .LBB2_29
.LBB2_16:
vmovdqu (%rcx), %xmm0
vpshufb .LCPI2_15(%rip), %xmm0, %xmm0
vpxor (%rsp), %xmm0, %xmm0
vpclmulqdq $0, %xmm0, %xmm15, %xmm1
vpclmulqdq $1, %xmm0, %xmm15, %xmm2
vpclmulqdq $16, %xmm0, %xmm15, %xmm3
addq $16, %rcx
vpclmulqdq $17, %xmm0, %xmm15, %xmm0
vpxor %xmm2, %xmm3, %xmm2
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpsrldq $8, %xmm2, %xmm2
vpbroadcastq .LCPI2_27(%rip), %xmm4
vpclmulqdq $16, %xmm4, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm4, %xmm1, %xmm3
vpxor %xmm2, %xmm0, %xmm0
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm0
vmovdqa %xmm0, (%rsp)
movq %rdx, %rsi
cmpq $16, %rdx
jb .LBB2_21
.LBB2_18:
vmovdqa .LCPI2_15(%rip), %xmm0
vpbroadcastq .LCPI2_27(%rip), %xmm14
vmovdqa 16(%rsp), %xmm15
vmovdqa (%rsp), %xmm2
.p2align 4, 0x90
.LBB2_19:
vmovdqu (%rcx), %xmm1
vpshufb %xmm0, %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpclmulqdq $0, %xmm1, %xmm15, %xmm2
vpclmulqdq $1, %xmm1, %xmm15, %xmm3
vmovdqu 16(%rcx), %xmm4
vpclmulqdq $16, %xmm1, %xmm15, %xmm5
vpxor %xmm3, %xmm5, %xmm3
vpclmulqdq $17, %xmm1, %xmm15, %xmm1
vpslldq $8, %xmm3, %xmm5
vpxor %xmm5, %xmm2, %xmm2
vpsrldq $8, %xmm3, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpclmulqdq $16, %xmm14, %xmm2, %xmm3
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $16, %xmm14, %xmm2, %xmm3
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpshufb %xmm0, %xmm4, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $0, %xmm1, %xmm15, %xmm2
addq $32, %rcx
vpclmulqdq $1, %xmm1, %xmm15, %xmm3
addq $-32, %rsi
vpclmulqdq $16, %xmm1, %xmm15, %xmm4
vpxor %xmm3, %xmm4, %xmm3
vpclmulqdq $17, %xmm1, %xmm15, %xmm1
vpslldq $8, %xmm3, %xmm4
vpxor %xmm4, %xmm2, %xmm2
vpsrldq $8, %xmm3, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpclmulqdq $16, %xmm14, %xmm2, %xmm3
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm3, %xmm2
vpclmulqdq $16, %xmm14, %xmm2, %xmm3
vpshufd $78, %xmm2, %xmm2
vpxor %xmm2, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm2
cmpq $15, %rsi
ja .LBB2_19
vmovdqa %xmm2, (%rsp)
movq %rsi, %rdx
vmovdqa 32(%rsp), %xmm5
testq %rdx, %rdx
jne .LBB2_26
.LBB2_22:
vmovdqa %xmm11, %xmm2
vmovdqa %xmm13, %xmm10
shlq $3, %r8
testq %r15, %r15
vmovdqa 48(%rsp), %xmm4
vmovdqa 208(%rsp), %xmm15
je .LBB2_23
movabsq $-68719476704, %rcx
leaq (%r15,%rcx), %rdx
incq %rcx
cmpq %rcx, %rdx
vmovdqa 96(%rsp), %xmm12
jb .LBB2_48
.LBB2_29:
vpshufb .LCPI2_17(%rip), %xmm15, %xmm0
movq 568(%rsp), %rax
vpaddd .LCPI2_18(%rip), %xmm0, %xmm1
cmpq $96, %r15
jb .LBB2_30
movq %r15, %rbx
vmovdqa %xmm7, 336(%rsp)
vmovdqa (%rsp), %xmm11
.p2align 4, 0x90
.LBB2_34:
vmovdqu (%r9), %xmm4
vmovdqa %xmm4, 416(%rsp)
vmovups 32(%r9), %xmm0
vmovaps %xmm0, (%rsp)
vmovups 48(%r9), %xmm0
vmovaps %xmm0, 64(%rsp)
vmovdqu 64(%r9), %xmm9
vmovdqa %xmm9, 400(%rsp)
vmovdqu 80(%r9), %xmm8
vmovdqa %xmm8, 320(%rsp)
vmovdqa .LCPI2_15(%rip), %xmm12
vpshufb %xmm12, %xmm1, %xmm0
vmovdqa %xmm1, %xmm10
vpaddd .LCPI2_18(%rip), %xmm1, %xmm1
vpshufb %xmm12, %xmm1, %xmm1
vpaddd .LCPI2_19(%rip), %xmm10, %xmm2
vpshufb %xmm12, %xmm2, %xmm2
vpaddd .LCPI2_20(%rip), %xmm10, %xmm3
vpshufb %xmm12, %xmm3, %xmm3
vpaddd .LCPI2_21(%rip), %xmm10, %xmm5
vpshufb %xmm12, %xmm5, %xmm5
vpaddd .LCPI2_22(%rip), %xmm10, %xmm6
vpshufb %xmm12, %xmm6, %xmm6
vpshufb %xmm12, %xmm4, %xmm7
vpxor %xmm7, %xmm11, %xmm4
vmovdqa %xmm4, 384(%rsp)
vpshufb %xmm12, %xmm8, %xmm4
vmovdqa 272(%rsp), %xmm7
vpxor %xmm0, %xmm7, %xmm14
vpxor %xmm1, %xmm7, %xmm15
vpxor %xmm2, %xmm7, %xmm1
vpxor %xmm3, %xmm7, %xmm2
vpxor %xmm5, %xmm7, %xmm3
vpxor %xmm6, %xmm7, %xmm13
vmovaps 176(%rsp), %xmm0
#APP
vaesenc %xmm0, %xmm14, %xmm14
vaesenc %xmm0, %xmm15, %xmm15
vaesenc %xmm0, %xmm1, %xmm1
vaesenc %xmm0, %xmm2, %xmm2
vaesenc %xmm0, %xmm3, %xmm3
vaesenc %xmm0, %xmm13, %xmm13
#NO_APP
vpxor %xmm5, %xmm5, %xmm5
vpxor %xmm6, %xmm6, %xmm6
vpxor %xmm7, %xmm7, %xmm7
vmovaps 32(%rsp), %xmm8
vmovaps 16(%rsp), %xmm11
#APP
vaesenc %xmm8, %xmm14, %xmm14
vaesenc %xmm8, %xmm15, %xmm15
vaesenc %xmm8, %xmm1, %xmm1
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm8, %xmm3, %xmm3
vaesenc %xmm8, %xmm13, %xmm13
vpclmulqdq $16, %xmm11, %xmm4, %xmm0
vpxor %xmm0, %xmm5, %xmm5
vpclmulqdq $0, %xmm11, %xmm4, %xmm0
vpxor %xmm0, %xmm7, %xmm7
vpclmulqdq $17, %xmm11, %xmm4, %xmm0
vpxor %xmm0, %xmm6, %xmm6
vpclmulqdq $1, %xmm11, %xmm4, %xmm0
vpxor %xmm0, %xmm5, %xmm5
#NO_APP
vpshufb %xmm12, %xmm9, %xmm0
vmovaps 96(%rsp), %xmm4
#APP
vaesenc %xmm4, %xmm14, %xmm14
vaesenc %xmm4, %xmm15, %xmm15
vaesenc %xmm4, %xmm1, %xmm1
vaesenc %xmm4, %xmm2, %xmm2
vaesenc %xmm4, %xmm3, %xmm3
vaesenc %xmm4, %xmm13, %xmm13
#NO_APP
vmovaps 192(%rsp), %xmm8
vmovaps 336(%rsp), %xmm11
#APP
vaesenc %xmm8, %xmm14, %xmm14
vaesenc %xmm8, %xmm15, %xmm15
vaesenc %xmm8, %xmm1, %xmm1
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm8, %xmm3, %xmm3
vaesenc %xmm8, %xmm13, %xmm13
vpclmulqdq $16, %xmm11, %xmm0, %xmm4
vpxor %xmm4, %xmm5, %xmm5
vpclmulqdq $0, %xmm11, %xmm0, %xmm4
vpxor %xmm4, %xmm7, %xmm7
vpclmulqdq $17, %xmm11, %xmm0, %xmm4
vpxor %xmm4, %xmm6, %xmm6
vpclmulqdq $1, %xmm11, %xmm0, %xmm4
vpxor %xmm4, %xmm5, %xmm5
#NO_APP
vmovdqa 64(%rsp), %xmm0
vpshufb %xmm12, %xmm0, %xmm0
vmovaps 144(%rsp), %xmm4
#APP
vaesenc %xmm4, %xmm14, %xmm14
vaesenc %xmm4, %xmm15, %xmm15
vaesenc %xmm4, %xmm1, %xmm1
vaesenc %xmm4, %xmm2, %xmm2
vaesenc %xmm4, %xmm3, %xmm3
vaesenc %xmm4, %xmm13, %xmm13
#NO_APP
vmovaps 448(%rsp), %xmm8
vmovdqa 224(%rsp), %xmm9
#APP
vaesenc %xmm9, %xmm14, %xmm14
vaesenc %xmm9, %xmm15, %xmm15
vaesenc %xmm9, %xmm1, %xmm1
vaesenc %xmm9, %xmm2, %xmm2
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm9, %xmm13, %xmm13
vpclmulqdq $16, %xmm8, %xmm0, %xmm4
vpxor %xmm4, %xmm5, %xmm5
vpclmulqdq $0, %xmm8, %xmm0, %xmm4
vpxor %xmm4, %xmm7, %xmm7
vpclmulqdq $17, %xmm8, %xmm0, %xmm4
vpxor %xmm4, %xmm6, %xmm6
vpclmulqdq $1, %xmm8, %xmm0, %xmm4
vpxor %xmm4, %xmm5, %xmm5
#NO_APP
vmovdqa (%rsp), %xmm0
vpshufb %xmm12, %xmm0, %xmm0
vmovaps 160(%rsp), %xmm4
#APP
vaesenc %xmm4, %xmm14, %xmm14
vaesenc %xmm4, %xmm15, %xmm15
vaesenc %xmm4, %xmm1, %xmm1
vaesenc %xmm4, %xmm2, %xmm2
vaesenc %xmm4, %xmm3, %xmm3
vaesenc %xmm4, %xmm13, %xmm13
#NO_APP
vmovaps 256(%rsp), %xmm8
vmovaps 368(%rsp), %xmm11
#APP
vaesenc %xmm8, %xmm14, %xmm14
vaesenc %xmm8, %xmm15, %xmm15
vaesenc %xmm8, %xmm1, %xmm1
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm8, %xmm3, %xmm3
vaesenc %xmm8, %xmm13, %xmm13
vpclmulqdq $16, %xmm11, %xmm0, %xmm4
vpxor %xmm4, %xmm5, %xmm5
vpclmulqdq $0, %xmm11, %xmm0, %xmm4
vpxor %xmm4, %xmm7, %xmm7
vpclmulqdq $17, %xmm11, %xmm0, %xmm4
vpxor %xmm4, %xmm6, %xmm6
vpclmulqdq $1, %xmm11, %xmm0, %xmm4
vpxor %xmm4, %xmm5, %xmm5
#NO_APP
vmovdqu 16(%r9), %xmm0
vmovaps 240(%rsp), %xmm4
#APP
vaesenc %xmm4, %xmm14, %xmm14
vaesenc %xmm4, %xmm15, %xmm15
vaesenc %xmm4, %xmm1, %xmm1
vaesenc %xmm4, %xmm2, %xmm2
vaesenc %xmm4, %xmm3, %xmm3
vaesenc %xmm4, %xmm13, %xmm13
#NO_APP
vpshufb %xmm12, %xmm0, %xmm4
vmovdqa %xmm9, %xmm8
vmovaps 128(%rsp), %xmm11
vmovaps 352(%rsp), %xmm12
#APP
vaesenc %xmm11, %xmm14, %xmm14
vaesenc %xmm11, %xmm15, %xmm15
vaesenc %xmm11, %xmm1, %xmm1
vaesenc %xmm11, %xmm2, %xmm2
vaesenc %xmm11, %xmm3, %xmm3
vaesenc %xmm11, %xmm13, %xmm13
vpclmulqdq $16, %xmm12, %xmm4, %xmm9
vpxor %xmm5, %xmm9, %xmm5
vpclmulqdq $0, %xmm12, %xmm4, %xmm9
vpxor %xmm7, %xmm9, %xmm7
vpclmulqdq $17, %xmm12, %xmm4, %xmm9
vpxor %xmm6, %xmm9, %xmm6
vpclmulqdq $1, %xmm12, %xmm4, %xmm9
vpxor %xmm5, %xmm9, %xmm5
#NO_APP
vmovdqa %xmm8, %xmm9
vmovaps 48(%rsp), %xmm4
#APP
vaesenc %xmm4, %xmm14, %xmm14
vaesenc %xmm4, %xmm15, %xmm15
vaesenc %xmm4, %xmm1, %xmm1
vaesenc %xmm4, %xmm2, %xmm2
vaesenc %xmm4, %xmm3, %xmm3
vaesenc %xmm4, %xmm13, %xmm13
#NO_APP
vmovdqa 304(%rsp), %xmm8
vmovaps 432(%rsp), %xmm11
vmovdqa 384(%rsp), %xmm12
#APP
vaesenc %xmm8, %xmm14, %xmm14
vaesenc %xmm8, %xmm15, %xmm15
vaesenc %xmm8, %xmm1, %xmm1
vaesenc %xmm8, %xmm2, %xmm2
vaesenc %xmm8, %xmm3, %xmm3
vaesenc %xmm8, %xmm13, %xmm13
vpclmulqdq $16, %xmm11, %xmm12, %xmm4
vpxor %xmm4, %xmm5, %xmm5
vpclmulqdq $0, %xmm11, %xmm12, %xmm4
vpxor %xmm4, %xmm7, %xmm7
vpclmulqdq $17, %xmm11, %xmm12, %xmm4
vpxor %xmm4, %xmm6, %xmm6
vpclmulqdq $1, %xmm11, %xmm12, %xmm4
vpxor %xmm4, %xmm5, %xmm5
#NO_APP
vpxor %xmm8, %xmm8, %xmm8
vpunpcklqdq %xmm5, %xmm8, %xmm4
vpxor %xmm4, %xmm7, %xmm4
vpunpckhqdq %xmm8, %xmm5, %xmm5
vpxor %xmm5, %xmm6, %xmm5
vpbroadcastq .LCPI2_27(%rip), %xmm7
vpclmulqdq $16, %xmm7, %xmm4, %xmm6
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm6, %xmm4
vpclmulqdq $16, %xmm7, %xmm4, %xmm6
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpxor %xmm6, %xmm4, %xmm11
vmovdqa 112(%rsp), %xmm6
vmovaps 288(%rsp), %xmm4
#APP
vaesenc %xmm4, %xmm14, %xmm14
vaesenc %xmm4, %xmm15, %xmm15
vaesenc %xmm4, %xmm1, %xmm1
vaesenc %xmm4, %xmm2, %xmm2
vaesenc %xmm4, %xmm3, %xmm3
vaesenc %xmm4, %xmm13, %xmm13
#NO_APP
#APP
vaesenclast %xmm6, %xmm14, %xmm14
vaesenclast %xmm6, %xmm15, %xmm15
vaesenclast %xmm6, %xmm1, %xmm1
vaesenclast %xmm6, %xmm2, %xmm2
vaesenclast %xmm6, %xmm3, %xmm3
vaesenclast %xmm6, %xmm13, %xmm13
#NO_APP
vpxor 416(%rsp), %xmm14, %xmm4
vpxor %xmm0, %xmm15, %xmm0
vxorps (%rsp), %xmm1, %xmm1
vpxor 64(%rsp), %xmm2, %xmm2
vpxor 400(%rsp), %xmm3, %xmm3
vmovdqu %xmm4, (%rax)
vmovdqu %xmm0, 16(%rax)
vmovups %xmm1, 32(%rax)
vmovdqu %xmm2, 48(%rax)
vmovdqu %xmm3, 64(%rax)
vpxor 320(%rsp), %xmm13, %xmm0
vmovdqu %xmm0, 80(%rax)
addq $96, %r9
addq $96, %rax
addq $-96, %rbx
vpaddd .LCPI2_23(%rip), %xmm10, %xmm1
cmpq $95, %rbx
ja .LBB2_34
vmovdqa %xmm1, %xmm0
vmovdqa %xmm11, (%rsp)
vmovdqa 176(%rsp), %xmm7
vmovdqa 32(%rsp), %xmm5
vmovdqa 96(%rsp), %xmm12
vmovdqa 192(%rsp), %xmm10
vmovdqa 160(%rsp), %xmm11
vmovdqa 240(%rsp), %xmm8
vmovdqa 48(%rsp), %xmm4
vmovdqa 304(%rsp), %xmm1
vmovdqa 288(%rsp), %xmm13
movq %r8, %r13
cmpq $16, %rbx
jae .LBB2_36
.LBB2_32:
movq %rax, %r14
vmovdqa (%rsp), %xmm14
jmp .LBB2_38
.LBB2_30:
vmovdqa %xmm1, %xmm0
movq %r15, %rbx
vmovdqa %xmm10, %xmm7
vmovdqa %xmm2, %xmm11
vmovdqa 240(%rsp), %xmm8
vmovdqa 304(%rsp), %xmm1
vmovdqa 288(%rsp), %xmm13
vmovdqa 192(%rsp), %xmm10
movq %r8, %r13
cmpq $16, %rbx
jb .LBB2_32
.LBB2_36:
vmovdqa (%rsp), %xmm14
.p2align 4, 0x90
.LBB2_37:
vmovdqu (%r9), %xmm2
vmovdqa .LCPI2_15(%rip), %xmm3
vpshufb %xmm3, %xmm2, %xmm3
vpxor %xmm3, %xmm14, %xmm3
vmovdqa 16(%rsp), %xmm15
vpclmulqdq $0, %xmm3, %xmm15, %xmm4
vmovdqa %xmm8, %xmm14
vmovdqa %xmm5, %xmm8
vpclmulqdq $1, %xmm3, %xmm15, %xmm5
vpclmulqdq $16, %xmm3, %xmm15, %xmm6
vpxor %xmm5, %xmm6, %xmm5
vpslldq $8, %xmm5, %xmm6
vpxor %xmm6, %xmm4, %xmm4
vpclmulqdq $17, %xmm3, %xmm15, %xmm3
vpsrldq $8, %xmm5, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vpbroadcastq .LCPI2_27(%rip), %xmm5
vpclmulqdq $16, %xmm5, %xmm4, %xmm5
vpshufd $78, %xmm4, %xmm4
vpxor %xmm4, %xmm5, %xmm4
vpshufd $78, %xmm4, %xmm5
vpxor %xmm5, %xmm3, %xmm3
vmovdqa %xmm8, %xmm5
vmovdqa 256(%rsp), %xmm6
vmovdqa 272(%rsp), %xmm15
vmovdqa %xmm14, %xmm8
vpclmulqdq $16, .LCPI2_16(%rip), %xmm4, %xmm4
vpxor %xmm3, %xmm4, %xmm14
vmovdqa 48(%rsp), %xmm4
vpshufb .LCPI2_15(%rip), %xmm0, %xmm3
vpxor %xmm3, %xmm15, %xmm3
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm5, %xmm3, %xmm3
vaesenc %xmm12, %xmm3, %xmm3
vaesenc %xmm10, %xmm3, %xmm3
vaesenc 144(%rsp), %xmm3, %xmm3
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm11, %xmm3, %xmm3
vaesenc %xmm6, %xmm3, %xmm3
vmovdqa 112(%rsp), %xmm6
vaesenc %xmm8, %xmm3, %xmm3
vaesenc 128(%rsp), %xmm3, %xmm3
vaesenc %xmm4, %xmm3, %xmm3
vaesenc %xmm1, %xmm3, %xmm3
vaesenc %xmm13, %xmm3, %xmm3
vaesenclast %xmm6, %xmm3, %xmm3
vpxor %xmm2, %xmm3, %xmm2
vmovdqu %xmm2, (%rax)
leaq 16(%rax), %r14
addq $-16, %rbx
addq $16, %r9
vpaddd .LCPI2_18(%rip), %xmm0, %xmm0
movq %r14, %rax
cmpq $15, %rbx
ja .LBB2_37
.LBB2_38:
vmovdqa %xmm0, 64(%rsp)
vmovdqa %xmm14, (%rsp)
testq %rbx, %rbx
je .LBB2_39
vpxor %xmm0, %xmm0, %xmm0
vmovdqa %xmm0, 80(%rsp)
leaq 80(%rsp), %rdi
movq memcpy@GOTPCREL(%rip), %rbp
movq %r9, %rsi
movq %rbx, %rdx
callq *%rbp
vmovdqa 80(%rsp), %xmm1
vmovdqa 64(%rsp), %xmm0
vpshufb .LCPI2_15(%rip), %xmm0, %xmm0
vpxor 272(%rsp), %xmm0, %xmm0
vaesenc 176(%rsp), %xmm0, %xmm0
vaesenc 32(%rsp), %xmm0, %xmm0
vaesenc 96(%rsp), %xmm0, %xmm0
vaesenc 192(%rsp), %xmm0, %xmm0
vaesenc 144(%rsp), %xmm0, %xmm0
vaesenc 224(%rsp), %xmm0, %xmm0
vaesenc 160(%rsp), %xmm0, %xmm0
vaesenc 256(%rsp), %xmm0, %xmm0
vaesenc 240(%rsp), %xmm0, %xmm0
vaesenc 128(%rsp), %xmm0, %xmm0
vaesenc 48(%rsp), %xmm0, %xmm0
vaesenc 304(%rsp), %xmm0, %xmm0
vaesenc 288(%rsp), %xmm0, %xmm0
vaesenclast 112(%rsp), %xmm0, %xmm0
vmovdqa %xmm1, 64(%rsp)
vpxor %xmm1, %xmm0, %xmm0
vmovdqa %xmm0, 320(%rsp)
vmovdqa %xmm0, 80(%rsp)
leaq 80(%rsp), %rsi
movq %r14, %rdi
movq %rbx, %rdx
callq *%rbp
vmovdqu 32(%r12), %xmm8
testq %r15, %r15
je .LBB2_44
vmovaps 64(%rsp), %xmm0
vmovaps %xmm0, 464(%rsp)
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, 80(%rsp)
leaq 80(%rsp), %rdi
leaq 464(%rsp), %rsi
movq %rbx, %rdx
vmovdqa %xmm8, 64(%rsp)
callq *memcpy@GOTPCREL(%rip)
vmovdqa 64(%rsp), %xmm8
vmovdqa 80(%rsp), %xmm0
movq %r13, %r8
vmovdqa 208(%rsp), %xmm15
jmp .LBB2_46
.LBB2_39:
vmovdqu 32(%r12), %xmm0
movq %r13, %r8
vmovdqa %xmm7, %xmm12
vpbroadcastq .LCPI2_27(%rip), %xmm5
vmovdqa 16(%rsp), %xmm14
vmovdqa 208(%rsp), %xmm15
vmovdqa %xmm8, %xmm10
vmovdqa %xmm0, %xmm8
vmovdqa 144(%rsp), %xmm7
jmp .LBB2_42
.LBB2_24:
vpshufb .LCPI2_15(%rip), %xmm0, %xmm0
vpxor (%rsp), %xmm0, %xmm0
vmovdqa 16(%rsp), %xmm14
vpclmulqdq $0, %xmm0, %xmm14, %xmm1
vpclmulqdq $1, %xmm0, %xmm14, %xmm2
vpclmulqdq $16, %xmm0, %xmm14, %xmm3
vpclmulqdq $17, %xmm0, %xmm14, %xmm0
vpxor %xmm2, %xmm3, %xmm2
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpsrldq $8, %xmm2, %xmm2
vpbroadcastq .LCPI2_27(%rip), %xmm4
vpclmulqdq $16, %xmm4, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm4, %xmm1, %xmm3
vpxor %xmm2, %xmm0, %xmm0
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm0
vmovdqa %xmm0, (%rsp)
vmovdqa 176(%rsp), %xmm10
vmovdqa 224(%rsp), %xmm9
vmovdqa 160(%rsp), %xmm2
vmovdqa 48(%rsp), %xmm4
vmovdqa 112(%rsp), %xmm6
vmovdqa 208(%rsp), %xmm15
jmp .LBB2_41
.LBB2_44:
movq %r13, %r8
vmovdqa 208(%rsp), %xmm15
vmovdqa 320(%rsp), %xmm0
.LBB2_46:
vpshufb .LCPI2_15(%rip), %xmm0, %xmm0
vpxor (%rsp), %xmm0, %xmm0
vmovdqa 16(%rsp), %xmm14
vpclmulqdq $0, %xmm0, %xmm14, %xmm1
vpclmulqdq $1, %xmm0, %xmm14, %xmm2
vpclmulqdq $16, %xmm0, %xmm14, %xmm3
vpclmulqdq $17, %xmm0, %xmm14, %xmm0
vpxor %xmm2, %xmm3, %xmm2
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpsrldq $8, %xmm2, %xmm2
vpbroadcastq .LCPI2_27(%rip), %xmm5
vpclmulqdq $16, %xmm5, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm5, %xmm1, %xmm3
vpxor %xmm2, %xmm0, %xmm0
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm0, %xmm0
vpxor %xmm0, %xmm3, %xmm2
vmovdqa 176(%rsp), %xmm12
vmovdqa 144(%rsp), %xmm7
vmovdqa 224(%rsp), %xmm9
vmovdqa 160(%rsp), %xmm11
vmovdqa 240(%rsp), %xmm10
vmovdqa 128(%rsp), %xmm13
vmovdqa 48(%rsp), %xmm4
vmovdqa 112(%rsp), %xmm6
jmp .LBB2_47
.LBB2_23:
vmovdqa 16(%rsp), %xmm14
.LBB2_41:
vmovdqu 32(%r12), %xmm8
vpbroadcastq .LCPI2_27(%rip), %xmm5
vmovdqa %xmm10, %xmm12
vmovdqa 144(%rsp), %xmm7
vmovdqa %xmm2, %xmm11
vmovdqa 240(%rsp), %xmm10
.LBB2_42:
vmovdqa 128(%rsp), %xmm13
vmovdqa (%rsp), %xmm2
.LBB2_47:
shlq $3, %r15
vmovq %r8, %xmm0
vmovq %r15, %xmm1
vpunpcklqdq %xmm0, %xmm1, %xmm0
vpxor %xmm2, %xmm0, %xmm0
vpclmulqdq $0, %xmm0, %xmm14, %xmm1
vpclmulqdq $1, %xmm0, %xmm14, %xmm2
vpclmulqdq $16, %xmm0, %xmm14, %xmm3
vpclmulqdq $17, %xmm0, %xmm14, %xmm0
vpxor %xmm2, %xmm3, %xmm2
vpslldq $8, %xmm2, %xmm3
vpxor %xmm3, %xmm1, %xmm1
vpclmulqdq $16, %xmm5, %xmm1, %xmm3
vpshufd $78, %xmm1, %xmm1
vpxor %xmm1, %xmm3, %xmm1
vpclmulqdq $16, %xmm5, %xmm1, %xmm3
vpxor %xmm0, %xmm3, %xmm0
vpxor 272(%rsp), %xmm15, %xmm3
vaesenc %xmm12, %xmm3, %xmm3
vaesenc 32(%rsp), %xmm3, %xmm3
vaesenc 96(%rsp), %xmm3, %xmm3
vaesenc 192(%rsp), %xmm3, %xmm3
vaesenc %xmm7, %xmm3, %xmm3
vaesenc %xmm9, %xmm3, %xmm3
vaesenc %xmm11, %xmm3, %xmm3
vaesenc 256(%rsp), %xmm3, %xmm3
vaesenc %xmm10, %xmm3, %xmm3
vaesenc %xmm13, %xmm3, %xmm3
vaesenc %xmm4, %xmm3, %xmm3
vaesenc 304(%rsp), %xmm3, %xmm3
vaesenc 288(%rsp), %xmm3, %xmm3
vaesenclast %xmm6, %xmm3, %xmm3
vpshufb .LCPI2_24(%rip), %xmm2, %xmm2
vpshufb .LCPI2_25(%rip), %xmm1, %xmm1
vpxor %xmm1, %xmm2, %xmm1
vpxor %xmm1, %xmm8, %xmm1
vpshufb .LCPI2_15(%rip), %xmm0, %xmm0
vpxor %xmm0, %xmm1, %xmm0
vpxor %xmm3, %xmm0, %xmm0
xorl %eax, %eax
vptest %xmm0, %xmm0
sete %al
.LBB2_48:
addq $488, %rsp
.cfi_def_cfa_offset 56
popq %rbx
.cfi_def_cfa_offset 48
popq %r12
.cfi_def_cfa_offset 40
popq %r13
.cfi_def_cfa_offset 32
popq %r14
.cfi_def_cfa_offset 24
popq %r15
.cfi_def_cfa_offset 16
popq %rbp
.cfi_def_cfa_offset 8
retq
.Lfunc_end2:
.size haberdashery_aes256gcmdndkv2kc_haswell_decrypt, .Lfunc_end2-haberdashery_aes256gcmdndkv2kc_haswell_decrypt
.cfi_endproc
.section .text.haberdashery_aes256gcmdndkv2kc_haswell_is_supported,"ax",@progbits
.globl haberdashery_aes256gcmdndkv2kc_haswell_is_supported
.p2align 4, 0x90
.type haberdashery_aes256gcmdndkv2kc_haswell_is_supported,@function
haberdashery_aes256gcmdndkv2kc_haswell_is_supported:
.cfi_startproc
movl $1, %eax
xorl %ecx, %ecx
#APP
movq %rbx, %rsi
cpuid
xchgq %rbx, %rsi
#NO_APP
movl %ecx, %esi
movl %edx, %edi
notl %edi
notl %esi
movl $7, %eax
xorl %ecx, %ecx
#APP
movq %rbx, %r8
cpuid
xchgq %rbx, %r8
#NO_APP
andl $1993871875, %esi
andl $125829120, %edi
orl %esi, %edi
notl %r8d
andl $297, %r8d
xorl %eax, %eax
orl %edi, %r8d
sete %al
retq
.Lfunc_end3:
.size haberdashery_aes256gcmdndkv2kc_haswell_is_supported, .Lfunc_end3-haberdashery_aes256gcmdndkv2kc_haswell_is_supported
.cfi_endproc
.ident "rustc version 1.86.0-nightly (9cd60bd2c 2025-02-15)"
.section ".note.GNU-stack","",@progbits
|
tvallotton/xolotl
| 1,106
|
src/sys/asm/aarch64-linux.s
|
.global switch_context
.type switch_context, @function
.p2align 2
switch_context:
.cfi_startproc
// # Store context
// store sp
mov x6, sp
str x6, [x0, #0]
// General purpose registers
stp x30, x29, [x0, #8]
stp x28, x27, [x0, #24]
stp x26, x25, [x0, #40]
stp x24, x23, [x0, #56]
stp x22, x21, [x0, #72]
stp x20, x19, [x0, #88]
// store d registers
stp d9, d8, [x0, #104]
stp d11, d10, [x0, #120]
stp d13, d12, [x0, #136]
stp d15, d14, [x0, #152]
// load sp
ldr x6, [x1, #0]
mov sp, x6
// General purpose registers
ldp x30, x29, [x1, #8]
ldp x28, x27, [x1, #24]
ldp x26, x25, [x1, #40]
ldp x24, x23, [x1, #56]
ldp x22, x21, [x1, #72]
ldp x20, x19, [x1, #88]
// load d registers
ldp d9, d8, [x1, #104]
ldp d11, d10, [x1, #120]
ldp d13, d12, [x1, #136]
ldp d15, d14, [x1, #152]
mov x0, x2
.cfi_undefined x30
.cfi_undefined x29
br x30
.cfi_endproc
.global stack_pointer
.p2align 2
stack_pointer:
mov x0, sp
br x30
|
tvallotton/xolotl
| 1,078
|
src/sys/asm/aarch64-macos.s
|
.global _switch_context
.p2align 2
_switch_context:
.cfi_startproc
// # Store context
// store sp
mov x6, sp
str x6, [x0, #0]
// General purpose registers
stp x30, x29, [x0, #8]
stp x28, x27, [x0, #24]
stp x26, x25, [x0, #40]
stp x24, x23, [x0, #56]
stp x22, x21, [x0, #72]
stp x20, x19, [x0, #88]
// store d registers
stp d9, d8, [x0, #104]
stp d11, d10, [x0, #120]
stp d13, d12, [x0, #136]
stp d15, d14, [x0, #152]
// load sp
ldr x6, [x1, #0]
mov sp, x6
// General purpose registers
ldp x30, x29, [x1, #8]
ldp x28, x27, [x1, #24]
ldp x26, x25, [x1, #40]
ldp x24, x23, [x1, #56]
ldp x22, x21, [x1, #72]
ldp x20, x19, [x1, #88]
// load d registers
ldp d9, d8, [x1, #104]
ldp d11, d10, [x1, #120]
ldp d13, d12, [x1, #136]
ldp d15, d14, [x1, #152]
mov x0, x2
.cfi_undefined x30
.cfi_undefined x29
br x30
.cfi_endproc
.global _stack_pointer
.p2align 2
_stack_pointer:
mov x0, sp
br x30
|
Umuril/rust-kernel-template
| 1,063
|
src/arch/x86_64/boot2.S
|
.SetupPaging:
.code32
// Disable old paging
MOV eax, cr0
AND eax, 0x7fffffff
MOV cr0, eax
// Enable Paging
MOV edi, 0x200000
MOV cr3, edi // &PML4T
XOR eax, eax
MOV ecx, 0x1000
REP stosd // Repeated store (ecx times the eax value)
// Set PML4T[0] -> PDPT[0]
MOV edi, 0x200000
MOV QWORD PTR [edi], 0x201003
// Set PDPT[0] -> PDT[0]
MOV edi, 0x201000
MOV QWORD PTR [edi], 0x202003
// Set PDT[0] -> PT[0]
MOV edi, 0x202000
MOV QWORD PTR [edi], 0x203003
MOV edi, 0x203000
MOV ebx, 0x00000003 // PT[i] -> Phisical address
MOV ecx, 512 // Loop counter (loop instruction decrements it automatically)
.SetEntryPT:
MOV QWORD PTR [edi], ebx
ADD ebx, 0x1000
ADD edi, 8
loop .SetEntryPT
// Enable PAE-paging
MOV eax, cr4
OR eax, 1 << 5
MOV cr4, eax
RET
.EnablePaging:
.code32
MOV ecx, 0xC0000080
RDMSR
OR eax, 1 << 8
WRMSR
MOV eax, cr0
OR eax, 1 << 31 | 1 << 0
MOV cr0, eax
RET
|
UNIX-73/baremetal_v3
| 1,696
|
src_asm/boot.S
|
/* SPDX-License-Identifier: MIT OR Apache-2.0
*
* Bootloader simplificado:
* - Inicializa la BSS (pone a cero el segmento .bss).
* - Configura el puntero de pila.
* - Salta a la entrada de Rust (_start_rust) en EL1.
*/
/* Macro para cargar una dirección de un símbolo de forma PC-relativa */
.macro ADR_REL reg, sym
adrp \reg, \sym
add \reg, \reg, #:lo12:\sym
.endm
.section .text._start
.global _start
_start:
/* Inicialización de la BSS */
ADR_REL x0, __bss_start /* Dirección de inicio de .bss */
ADR_REL x1, __bss_end_exclusive /* Dirección final de .bss */
.L_bss_init_loop:
cmp x0, x1
beq .L_prepare_rust /* Si se ha recorrido toda la BSS, saltar */
stp xzr, xzr, [x0], #16 /* Escribe 0 en dos registros de 64 bits y avanza 16 bytes */
b .L_bss_init_loop
.L_prepare_rust:
/* Configurar el puntero de pila para EL1 */
ADR_REL x0, __boot_core_stack_end_exclusive /* Carga la dirección final de la pila */
mov sp, x0 /* Usar la pila actual para la fase de boot */
msr SP_EL1, x0 /* Establecer SP_EL1 para EL1 */
/* Configurar SPSR_EL2 para regresar a EL1 en modo AArch64 con SP_EL1 (EL1h)
y con interrupciones enmascaradas (por ejemplo, con valor 0x3c5) */
mov x0, #0x3c5
msr SPSR_EL2, x0
/* Configurar HCR_EL2 para que EL1 se ejecute en AArch64 */
mov x0, #(1 << 31) /* Establece RW=1 */
msr HCR_EL2, x0
/* Configurar ELR_EL2 con la dirección de entrada en EL1 (switch_to_el1) */
ADR_REL x0, switch_to_el1
msr ELR_EL2, x0
/* Realiza la transición a EL1: eret usará SPSR_EL2 y ELR_EL2 para cambiar a EL1 */
eret
.size _start, . - _start
|
UNIX-73/baremetal_v3
| 3,340
|
src_asm/irq/entry.S
|
#include "entry.h"
//D13.2.137
.globl irq_init_vectors
irq_init_vectors:
adr x0, vectors
msr vbar_el1, x0
ret
//C5.2.2
.globl irq_enable
irq_enable:
msr daifclr, #2
ret
.globl irq_disable
irq_disable:
msr daifset, #2
ret
.macro kernel_entry
sub sp, sp, #S_FRAME_SIZE
stp x0, x1, [sp, #16 * 0]
stp x2, x3, [sp, #16 * 1]
stp x4, x5, [sp, #16 * 2]
stp x6, x7, [sp, #16 * 3]
stp x8, x9, [sp, #16 * 4]
stp x10, x11, [sp, #16 * 5]
stp x12, x13, [sp, #16 * 6]
stp x14, x15, [sp, #16 * 7]
stp x16, x17, [sp, #16 * 8]
stp x18, x19, [sp, #16 * 9]
stp x20, x21, [sp, #16 * 10]
stp x22, x23, [sp, #16 * 11]
stp x24, x25, [sp, #16 * 12]
stp x26, x27, [sp, #16 * 13]
stp x28, x29, [sp, #16 * 14]
str x30, [sp, #16 * 15]
.endm
.macro kernel_exit
ldp x0, x1, [sp, #16 * 0]
ldp x2, x3, [sp, #16 * 1]
ldp x4, x5, [sp, #16 * 2]
ldp x6, x7, [sp, #16 * 3]
ldp x8, x9, [sp, #16 * 4]
ldp x10, x11, [sp, #16 * 5]
ldp x12, x13, [sp, #16 * 6]
ldp x14, x15, [sp, #16 * 7]
ldp x16, x17, [sp, #16 * 8]
ldp x18, x19, [sp, #16 * 9]
ldp x20, x21, [sp, #16 * 10]
ldp x22, x23, [sp, #16 * 11]
ldp x24, x25, [sp, #16 * 12]
ldp x26, x27, [sp, #16 * 13]
ldp x28, x29, [sp, #16 * 14]
ldr x30, [sp, #16 * 15]
add sp, sp, #S_FRAME_SIZE
eret
.endm
.macro handle_invalid_entry type
kernel_entry
mov x0, #\type
mrs x1, esr_el1
mrs x2, elr_el1
bl show_invalid_entry_message
b err_hang
.endm
.macro ventry label
.align 7
b \label
.endm
//Exception vectors table
.align 11
.globl vectors
vectors:
ventry sync_invalid_el1t // Synchronous EL1t
ventry irq_invalid_el1t // IRQ EL1t
ventry fiq_invalid_el1t // FIQ EL1t
ventry error_invalid_el1t // Error EL1t
ventry sync_invalid_el1h // Synchronous EL1h
ventry handle_el1_irq // IRQ EL1h
ventry fiq_invalid_el1h // FIQ EL1h
ventry error_invalid_el1h // Error EL1h
ventry sync_invalid_el0_64 // Synchronous 64-bit EL0
ventry irq_invalid_el0_64 // IRQ 64-bit EL0
ventry fiq_invalid_el0_64 // FIQ 64-bit EL0
ventry error_invalid_el0_64 // Error 64-bit EL0
ventry sync_invalid_el0_32 // Synchronous 32-bit EL0
ventry irq_invalid_el0_32 // IRQ 32-bit EL0
ventry fiq_invalid_el0_32 // FIQ 32-bit EL0
ventry error_invalid_el0_32 // Error 32-bit EL0
sync_invalid_el1t:
handle_invalid_entry SYNC_INVALID_EL1t
irq_invalid_el1t:
handle_invalid_entry IRQ_INVALID_EL1t
fiq_invalid_el1t:
handle_invalid_entry FIQ_INVALID_EL1t
error_invalid_el1t:
handle_invalid_entry ERROR_INVALID_EL1t
sync_invalid_el1h:
handle_invalid_entry SYNC_INVALID_EL1h
fiq_invalid_el1h:
handle_invalid_entry FIQ_INVALID_EL1h
error_invalid_el1h:
handle_invalid_entry ERROR_INVALID_EL1h
sync_invalid_el0_64:
handle_invalid_entry SYNC_INVALID_EL0_64
irq_invalid_el0_64:
handle_invalid_entry IRQ_INVALID_EL0_64
fiq_invalid_el0_64:
handle_invalid_entry FIQ_INVALID_EL0_64
error_invalid_el0_64:
handle_invalid_entry ERROR_INVALID_EL0_64
sync_invalid_el0_32:
handle_invalid_entry SYNC_INVALID_EL0_32
irq_invalid_el0_32:
handle_invalid_entry IRQ_INVALID_EL0_32
fiq_invalid_el0_32:
handle_invalid_entry FIQ_INVALID_EL0_32
error_invalid_el0_32:
handle_invalid_entry ERROR_INVALID_EL0_32
handle_el1_irq:
kernel_entry
bl handle_irq
kernel_exit
.globl err_hang
err_hang: b err_hang
|
UnpluggedAOSP12/bootable_libbootloader
| 9,565
|
gbl/efi/arch/riscv64/riscv64_efi_header.S
|
/*
* Copyright (C) 2023 The Android Open Source Project
*
* Licensed under the Apache License, Version 2.0 (the "License");
* you may not use this file except in compliance with the License.
* You may obtain a copy of the License at
*
* http://www.apache.org/licenses/LICENSE-2.0
*
* Unless required by applicable law or agreed to in writing, software
* distributed under the License is distributed on an "AS IS" BASIS,
* WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
* See the License for the specific language governing permissions and
* limitations under the License.
*/
// Refer to https://llvm.org/doxygen/Object_2COFF_8h_source.html and Microsoft Portable Executable
// and Common Object File Format Specification for more detail.
// See https://learn.microsoft.com/en-us/windows/win32/debug/pe-format#machine-types
#define IMAGE_FILE_MACHINE_RISCV64 0x5064
// See https://learn.microsoft.com/en-us/windows/win32/debug/pe-format#characteristics
#define IMAGE_FILE_EXECUTABLE_IMAGE 0x0002
// See https://learn.microsoft.com/en-us/windows/win32/debug/pe-format#optional-header-image-only
#define PE32_PLUS_HEADER_MAGIC 0x020b
// See https://learn.microsoft.com/en-us/windows/win32/debug/pe-format#windows-subsystem
#define IMAGE_SUBSYSTEM_EFI_APPLICATION 10
.macro DATA_DIRECTORY name
\name\()_data_directory:
.long 0 // support::ulittle32_t RelativeVirtualAddress;
.long 0 // support::ulittle32_t Size;
.endm
.section .efi_header,"a"
.global dos_header
// MS-DOS Stub
dos_header:
.short 0x5a4d // Magic 'MZ'
.short 0 // support::ulittle16_t UsedBytesInTheLastPage;
.short 0 // support::ulittle16_t FileSizeInPages;
.short 0 // support::ulittle16_t NumberOfRelocationItems;
.short 0 // support::ulittle16_t HeaderSizeInParagraphs;
.short 0 // support::ulittle16_t MinimumExtraParagraphs;
.short 0 // support::ulittle16_t MaximumExtraParagraphs;
.short 0 // support::ulittle16_t InitialRelativeSS;
.short 0 // support::ulittle16_t InitialSP;
.short 0 // support::ulittle16_t Checksum;
.short 0 // support::ulittle16_t InitialIP;
.short 0 // support::ulittle16_t InitialRelativeCS;
.short 0 // support::ulittle16_t AddressOfRelocationTable;
.short 0 // support::ulittle16_t OverlayNumber;
.skip 2*4 // support::ulittle16_t Reserved[4];
.short 0 // support::ulittle16_t OEMid;
.short 0 // support::ulittle16_t OEMinfo;
.skip 2*10 // support::ulittle16_t Reserved2[10];
// Even though we fixed `dos_header` at 0x00, we still need to subtract it to
// indicate this is relative offset. Otherwise linker complains about referencing
// an absolute address when linking with `-fPIE` (position independent executable)
.long signature - dos_header // support::ulittle32_t AddressOfNewExeHeader;
// Signature
signature:
.long 0x00004550 // "PE\0\0"
// COFF File Header
coff_file_header:
.short IMAGE_FILE_MACHINE_RISCV64 // support::ulittle16_t Machine;
// ".reloc" and ".text"
.short 2 // support::ulittle16_t NumberOfSections;
.long 0 // support::ulittle32_t TimeDateStamp;
.long 0 // support::ulittle32_t PointerToSymbolTable;
.long 0 // support::ulittle32_t NumberOfSymbols;
.short section_table_start - pe32plus_header // support::ulittle16_t SizeOfOptionalHeader;
.short IMAGE_FILE_EXECUTABLE_IMAGE // support::ulittle16_t Characteristics;
// PE32+ Optional Header
pe32plus_header:
.short PE32_PLUS_HEADER_MAGIC // support::ulittle16_t Magic;
.byte 0 // uint8_t MajorLinkerVersion;
.byte 0 // uint8_t MinorLinkerVersion;
.long _end - dos_header // support::ulittle32_t SizeOfCode;
.long 0 // support::ulittle32_t SizeOfInitializedData;
.long 0 // support::ulittle32_t SizeOfUninitializedData;
.long _start - dos_header // support::ulittle32_t AddressOfEntryPoint;
.long dos_header - dos_header // support::ulittle32_t BaseOfCode;
.quad 0 // support::ulittle64_t ImageBase;
.long 512 // support::ulittle32_t SectionAlignment;
.long 512 // support::ulittle32_t FileAlignment;
.short 0 // support::ulittle16_t MajorOperatingSystemVersion;
.short 0 // support::ulittle16_t MinorOperatingSystemVersion;
.short 0 // support::ulittle16_t MajorImageVersion;
.short 0 // support::ulittle16_t MinorImageVersion;
.short 0 // support::ulittle16_t MajorSubsystemVersion;
.short 0 // support::ulittle16_t MinorSubsystemVersion;
.long 0 // support::ulittle32_t Win32VersionValue;
.long _end - dos_header // support::ulittle32_t SizeOfImage;
.long end_of_header - dos_header // support::ulittle32_t SizeOfHeaders;
.long 0 // support::ulittle32_t CheckSum;
.short IMAGE_SUBSYSTEM_EFI_APPLICATION // support::ulittle16_t Subsystem;
.short 0 // support::ulittle16_t DLLCharacteristics;
.quad 0 // support::ulittle64_t SizeOfStackReserve;
.quad 0 // support::ulittle64_t SizeOfStackCommit;
.quad 0 // support::ulittle64_t SizeOfHeapReserve;
.quad 0 // support::ulittle64_t SizeOfHeapCommit;
.long 0 // support::ulittle32_t LoaderFlags;
// 16 data directories in total
.long 16 // support::ulittle32_t NumberOfRvaAndSize;
// The following are data directories mostly for place holder purpose for now. Entries
// such as certification_table might be needed for secure boot in the future.
DATA_DIRECTORY export_table
DATA_DIRECTORY import_table
DATA_DIRECTORY resource_table
DATA_DIRECTORY exception_table
DATA_DIRECTORY certification_table
DATA_DIRECTORY base_relocation_table
DATA_DIRECTORY debug
DATA_DIRECTORY architecture_data
DATA_DIRECTORY global_ptr
DATA_DIRECTORY tls_table
DATA_DIRECTORY load_config_table
DATA_DIRECTORY bound_inport
DATA_DIRECTORY import_address_table
DATA_DIRECTORY delay_import_descriptor
DATA_DIRECTORY CLR_runtime_header
.quad 0
// Section Table
section_table_start:
// .reloc. May be expected by some PE32+ loader
reloc_section:
.ascii ".reloc"
.byte 0
.byte 0 // 8 bytes of `char Name[COFF::NameSize];`
.long 0 // support::ulittle32_t VirtualSize;
.long 0 // support::ulittle32_t VirtualAddress;
.long 0 // support::ulittle32_t SizeOfRawData;
.long 0 // support::ulittle32_t PointerToRawData;
.long 0 // support::ulittle32_t PointerToRelocations;
.long 0 // support::ulittle32_t PointerToLinenumbers;
.short 0 // support::ulittle16_t NumberOfRelocations;
.short 0 // support::ulittle16_t NumberOfLinenumbers;
// https://learn.microsoft.com/en-us/windows/win32/debug/pe-format#section-flags
// We use the same value as Clang would generate with "-Wl,/subsystem:efi_application"
// IMAGE_SCN_CNT_INITIALIZED_DATA | IMAGE_SCN_MEM_DISCARDABLE |
// IMAGE_SCN_MEM_READ
.long 0x42000040 // support::ulittle32_t Characteristics;
// .text
text_section:
.ascii ".text"
.byte 0
.byte 0
.byte 0 // 8 bytes of `char Name[COFF::NameSize];`
.long _end - end_of_header // support::ulittle32_t VirtualSize;
.long end_of_header - dos_header // support::ulittle32_t VirtualAddress;
.long _end - end_of_header // support::ulittle32_t SizeOfRawData;
.long end_of_header - dos_header // support::ulittle32_t PointerToRawData;
.long 0 // support::ulittle32_t PointerToRelocations;
.long 0 // support::ulittle32_t PointerToLinenumbers;
.short 0 // support::ulittle16_t NumberOfRelocations;
.short 0 // support::ulittle16_t NumberOfLinenumbers;
// IMAGE_SCN_CNT_CODE | IMAGE_SCN_CNT_INITIALIZED_DATA |
// IMAGE_SCN_MEM_EXECUTE | IMAGE_SCN_MEM_READ
// We use the same value as Clang would generate with "-Wl,/subsystem:efi_application"
.long 0x60000020 // support::ulittle32_t Characteristics;
end_of_header:
// Traditionally, PE/COFF header occupies the entire first page. We keep this pattern.
.align 9
_start:
// Behave like a function call.
addi sp, sp, -8*3
sd ra, 0(sp)
sd s0, 8(sp)
sd s1, 16(sp)
// Save the EFI image handle from a0
mv s0, a0
// Save the EFI system table from a1
mv s1, a1
// Get the program load address (same as dos_header), and .dynamic section address.
lla a0, dos_header
lla a1, _DYNAMIC
// Apply relocation fixup
call ApplyRelocationHangIfFail
// Now call efi_main.
mv a0, s0
mv a1, s1
call efi_main
// Prepare to return.
ld ra, 0(sp)
ld s0, 8(sp)
ld s1, 16(sp)
add sp, sp, 8*3
ret
|
UnpluggedAOSP12/bootable_libbootloader
| 1,706
|
gbl/libboot/aarch64_cache_helper/disable_cache_mmu.S
|
/*
* Copyright (C) 2023 The Android Open Source Project
*
* Licensed under the Apache License, Version 2.0 (the "License");
* you may not use this file except in compliance with the License.
* You may obtain a copy of the License at
*
* http://www.apache.org/licenses/LICENSE-2.0
*
* Unless required by applicable law or agreed to in writing, software
* distributed under the License is distributed on an "AS IS" BASIS,
* WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
* See the License for the specific language governing permissions and
* limitations under the License.
*/
#include <arch.h>
.global disable_cache_mmu_and_jump
/* ---------------------------------------------------------------
* Disable cache, MMU and jump to the given address with arguments
*
* x0 - x3: Arguments for the target jump address.
* x4: The jump address.
* ---------------------------------------------------------------
*/
disable_cache_mmu_and_jump:
// Query current EL
mrs x5, CurrentEL
cmp x5, #(1 << 3)
beq asm_disable_cache_mmu_el2
/*
* Invalidate instruction cache before disabling it.
*/
ic iallu
isb
asm_disable_cache_mmu_el1:
mrs x5, sctlr_el1
bic x5, x5, #SCTLR_M_BIT
bic x5, x5, #SCTLR_C_BIT
bic x5, x5, #SCTLR_I_BIT
msr sctlr_el1, x5
b asm_finish
asm_disable_cache_mmu_el2:
mrs x5, sctlr_el2
bic x5, x5, #SCTLR_M_BIT
bic x5, x5, #SCTLR_C_BIT
bic x5, x5, #SCTLR_I_BIT
msr sctlr_el2, x5
asm_finish:
ic iallu
isb
/*
* Invalidate TLB.
*/
tlbi vmalle1
br x4
/*
* Prevent speculative execution.
*/
dsb nsh
isb
|
UnpluggedAOSP12/bootable_libbootloader
| 1,306
|
gbl/libboot/aarch64_cache_helper/include/common/asm_macros_common.S
|
/*
* Copyright (C) 2023 The Android Open Source Project
*
* Licensed under the Apache License, Version 2.0 (the "License");
* you may not use this file except in compliance with the License.
* You may obtain a copy of the License at
*
* http://www.apache.org/licenses/LICENSE-2.0
*
* Unless required by applicable law or agreed to in writing, software
* distributed under the License is distributed on an "AS IS" BASIS,
* WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
* See the License for the specific language governing permissions and
* limitations under the License.
*/
/*
* This file replaces "external/arm-trusted-firmware/include/common/asm_macros_common.S" for
* building "external/arm-trusted-firmware/lib/aarch64/cache_helper.S". It defines the "func"
* macro for declaring assembly function. However the original file uses assembly directives
* such as ".size" for debug information which are not recogized by LLVM when building for
* windows/msvc target. Thus we use our custom definition to workaround.
*/
/*
* This macro marks the begin of a function. It simply creates a label.
*/
.macro func _name
\_name:
.endm
/*
* This macro is used to mark the end of a function. For our usage, it's simply a noop.
*/
.macro endfunc _name
.endm
|
unvariant/advent-of-code-2024
| 2,033
|
src/day4.s
|
.pushsection .text
inline:
push rbp
push rbx
push r15
push r14
push r13
push r12
vpbroadcastb ymm4, byte ptr [rip + ascii_x]
vmovdqu ymm0, ymmword ptr [rdi]
vmovdqu ymm8, ymmword ptr [rdi + 141 * 0 + 32 * 0]
vpcmpeqb ymm9, ymm8, ymm4
vpcmpeqb ymm10, ymm8, ymm5
vpcmpeqb ymm11, ymm8, ymm6
vpcmpeqb ymm12, ymm8, ymm7
vpmovmskb eax, ymm9
vpmovmskb edx, ymm10
vpmovmskb ecx, ymm11
vpmovmskb ebx, ymm12
vpinsrd xmm16, eax, 0
vpinsrd xmm17, edx, 0
vpinsrd xmm18, ecx, 0
vpinsrd xmm19, ebx, 0
vmovdqu ymm8, ymmword ptr [rdi + 141 * 0 + 32 * 1]
vpcmpeqb ymm9, ymm8, ymm4
vpcmpeqb ymm10, ymm8, ymm5
vpcmpeqb ymm11, ymm8, ymm6
vpcmpeqb ymm12, ymm8, ymm7
vpmovmskb eax, ymm9
vpmovmskb edx, ymm10
vpmovmskb ecx, ymm11
vpmovmskb ebx, ymm12
vpinsrd xmm16, eax, 1
vpinsrd xmm17, edx, 1
vpinsrd xmm18, ecx, 1
vpinsrd xmm19, ebx, 1
vmovdqu ymm8, ymmword ptr [rdi + 141 * 0 + 32 * 2]
vpcmpeqb ymm9, ymm8, ymm4
vpcmpeqb ymm10, ymm8, ymm5
vpcmpeqb ymm11, ymm8, ymm6
vpcmpeqb ymm12, ymm8, ymm7
vpmovmskb eax, ymm9
vpmovmskb edx, ymm10
vpmovmskb ecx, ymm11
vpmovmskb ebx, ymm12
vpinsrd xmm16, eax, 2
vpinsrd xmm17, edx, 2
vpinsrd xmm18, ecx, 2
vpinsrd xmm19, ebx, 2
vmovdqu ymm8, ymmword ptr [rdi + 141 * 0 + 32 * 3]
vpcmpeqb ymm9, ymm8, ymm4
vpcmpeqb ymm10, ymm8, ymm5
vpcmpeqb ymm11, ymm8, ymm6
vpcmpeqb ymm12, ymm8, ymm7
vpmovmskb eax, ymm9
vpmovmskb edx, ymm10
vpmovmskb ecx, ymm11
vpmovmskb ebx, ymm12
vpinsrd xmm16, eax, 3
vpinsrd xmm17, edx, 3
vpinsrd xmm18, ecx, 3
vpinsrd xmm19, ebx, 3
mov r15, 140
1:
dec r15
jne 1b
pop r12
pop r13
pop r14
pop r15
pop rbx
pop rbp
ret
.popsection
.pushsection .data
ascii_x: .byte 'X'
ascii_m: .byte 'M'
ascii_a: .byte 'A'
ascii_s: .byte 'S'
.popsection
|
Umuril/rust-kernel-template
| 1,063
|
src/arch/x86_64/boot2.S
|
.SetupPaging:
.code32
// Disable old paging
MOV eax, cr0
AND eax, 0x7fffffff
MOV cr0, eax
// Enable Paging
MOV edi, 0x200000
MOV cr3, edi // &PML4T
XOR eax, eax
MOV ecx, 0x1000
REP stosd // Repeated store (ecx times the eax value)
// Set PML4T[0] -> PDPT[0]
MOV edi, 0x200000
MOV QWORD PTR [edi], 0x201003
// Set PDPT[0] -> PDT[0]
MOV edi, 0x201000
MOV QWORD PTR [edi], 0x202003
// Set PDT[0] -> PT[0]
MOV edi, 0x202000
MOV QWORD PTR [edi], 0x203003
MOV edi, 0x203000
MOV ebx, 0x00000003 // PT[i] -> Phisical address
MOV ecx, 512 // Loop counter (loop instruction decrements it automatically)
.SetEntryPT:
MOV QWORD PTR [edi], ebx
ADD ebx, 0x1000
ADD edi, 8
loop .SetEntryPT
// Enable PAE-paging
MOV eax, cr4
OR eax, 1 << 5
MOV cr4, eax
RET
.EnablePaging:
.code32
MOV ecx, 0xC0000080
RDMSR
OR eax, 1 << 8
WRMSR
MOV eax, cr0
OR eax, 1 << 31 | 1 << 0
MOV cr0, eax
RET
|
usenix-security-verdict/verdict
| 70,025
|
deps/libcrux/sys/libjade/jazz/chacha20_avx2.s
|
.att_syntax
.text
.p2align 5
.globl _jade_stream_chacha_chacha20_ietf_amd64_avx2
.globl jade_stream_chacha_chacha20_ietf_amd64_avx2
.globl _jade_stream_chacha_chacha20_ietf_amd64_avx2_xor
.globl jade_stream_chacha_chacha20_ietf_amd64_avx2_xor
_jade_stream_chacha_chacha20_ietf_amd64_avx2:
jade_stream_chacha_chacha20_ietf_amd64_avx2:
movq %rsp, %r10
leaq -1152(%rsp), %rsp
andq $-32, %rsp
cmpq $257, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$1
vmovdqu glob_data + 160(%rip), %ymm0
vmovdqu glob_data + 128(%rip), %ymm1
vmovdqu %ymm0, (%rsp)
vmovdqu %ymm1, 32(%rsp)
vmovdqu glob_data + 256(%rip), %ymm0
vmovdqu glob_data + 288(%rip), %ymm1
vmovdqu glob_data + 320(%rip), %ymm2
vmovdqu glob_data + 352(%rip), %ymm3
vpbroadcastd (%rcx), %ymm4
vpbroadcastd 4(%rcx), %ymm5
vpbroadcastd 8(%rcx), %ymm6
vpbroadcastd 12(%rcx), %ymm7
vpbroadcastd 16(%rcx), %ymm8
vpbroadcastd 20(%rcx), %ymm9
vpbroadcastd 24(%rcx), %ymm10
vpbroadcastd 28(%rcx), %ymm11
vmovdqu glob_data + 224(%rip), %ymm12
vpbroadcastd (%rdx), %ymm13
vpbroadcastd 4(%rdx), %ymm14
vpbroadcastd 8(%rdx), %ymm15
vmovdqu %ymm0, 640(%rsp)
vmovdqu %ymm1, 672(%rsp)
vmovdqu %ymm2, 704(%rsp)
vmovdqu %ymm3, 736(%rsp)
vmovdqu %ymm4, 768(%rsp)
vmovdqu %ymm5, 800(%rsp)
vmovdqu %ymm6, 832(%rsp)
vmovdqu %ymm7, 864(%rsp)
vmovdqu %ymm8, 896(%rsp)
vmovdqu %ymm9, 928(%rsp)
vmovdqu %ymm10, 960(%rsp)
vmovdqu %ymm11, 992(%rsp)
vmovdqu %ymm12, 1024(%rsp)
vmovdqu %ymm13, 1056(%rsp)
vmovdqu %ymm14, 1088(%rsp)
vmovdqu %ymm15, 1120(%rsp)
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2$32
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$33:
vmovdqu 640(%rsp), %ymm0
vmovdqu 672(%rsp), %ymm1
vmovdqu 704(%rsp), %ymm2
vmovdqu 736(%rsp), %ymm3
vmovdqu 768(%rsp), %ymm4
vmovdqu 800(%rsp), %ymm5
vmovdqu 832(%rsp), %ymm6
vmovdqu 864(%rsp), %ymm7
vmovdqu 896(%rsp), %ymm8
vmovdqu 928(%rsp), %ymm9
vmovdqu 960(%rsp), %ymm10
vmovdqu 992(%rsp), %ymm11
vmovdqu 1024(%rsp), %ymm12
vmovdqu 1056(%rsp), %ymm13
vmovdqu 1088(%rsp), %ymm14
vmovdqu 1120(%rsp), %ymm15
vmovdqu %ymm15, 64(%rsp)
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$34:
vpaddd %ymm4, %ymm0, %ymm0
vpxor %ymm0, %ymm12, %ymm12
vpshufb (%rsp), %ymm12, %ymm12
vpaddd %ymm12, %ymm8, %ymm8
vpaddd %ymm6, %ymm2, %ymm2
vpxor %ymm8, %ymm4, %ymm4
vpxor %ymm2, %ymm14, %ymm14
vpslld $12, %ymm4, %ymm15
vpsrld $20, %ymm4, %ymm4
vpxor %ymm15, %ymm4, %ymm4
vpshufb (%rsp), %ymm14, %ymm14
vpaddd %ymm4, %ymm0, %ymm0
vpaddd %ymm14, %ymm10, %ymm10
vpxor %ymm0, %ymm12, %ymm12
vpxor %ymm10, %ymm6, %ymm6
vpshufb 32(%rsp), %ymm12, %ymm12
vpslld $12, %ymm6, %ymm15
vpsrld $20, %ymm6, %ymm6
vpxor %ymm15, %ymm6, %ymm6
vpaddd %ymm12, %ymm8, %ymm8
vpaddd %ymm6, %ymm2, %ymm2
vpxor %ymm8, %ymm4, %ymm4
vpxor %ymm2, %ymm14, %ymm14
vpslld $7, %ymm4, %ymm15
vpsrld $25, %ymm4, %ymm4
vpxor %ymm15, %ymm4, %ymm4
vpshufb 32(%rsp), %ymm14, %ymm14
vpaddd %ymm14, %ymm10, %ymm10
vpxor %ymm10, %ymm6, %ymm6
vpslld $7, %ymm6, %ymm15
vpsrld $25, %ymm6, %ymm6
vpxor %ymm15, %ymm6, %ymm6
vmovdqu 64(%rsp), %ymm15
vmovdqu %ymm14, 96(%rsp)
vpaddd %ymm5, %ymm1, %ymm1
vpxor %ymm1, %ymm13, %ymm13
vpshufb (%rsp), %ymm13, %ymm13
vpaddd %ymm13, %ymm9, %ymm9
vpaddd %ymm7, %ymm3, %ymm3
vpxor %ymm9, %ymm5, %ymm5
vpxor %ymm3, %ymm15, %ymm14
vpslld $12, %ymm5, %ymm15
vpsrld $20, %ymm5, %ymm5
vpxor %ymm15, %ymm5, %ymm5
vpshufb (%rsp), %ymm14, %ymm14
vpaddd %ymm5, %ymm1, %ymm1
vpaddd %ymm14, %ymm11, %ymm11
vpxor %ymm1, %ymm13, %ymm13
vpxor %ymm11, %ymm7, %ymm7
vpshufb 32(%rsp), %ymm13, %ymm13
vpslld $12, %ymm7, %ymm15
vpsrld $20, %ymm7, %ymm7
vpxor %ymm15, %ymm7, %ymm7
vpaddd %ymm13, %ymm9, %ymm9
vpaddd %ymm7, %ymm3, %ymm3
vpxor %ymm9, %ymm5, %ymm5
vpxor %ymm3, %ymm14, %ymm14
vpslld $7, %ymm5, %ymm15
vpsrld $25, %ymm5, %ymm5
vpxor %ymm15, %ymm5, %ymm5
vpshufb 32(%rsp), %ymm14, %ymm14
vpaddd %ymm14, %ymm11, %ymm11
vpxor %ymm11, %ymm7, %ymm7
vpslld $7, %ymm7, %ymm15
vpsrld $25, %ymm7, %ymm7
vpxor %ymm15, %ymm7, %ymm7
vpaddd %ymm6, %ymm1, %ymm1
vpxor %ymm1, %ymm12, %ymm12
vpshufb (%rsp), %ymm12, %ymm12
vpaddd %ymm12, %ymm11, %ymm11
vpaddd %ymm5, %ymm0, %ymm0
vpxor %ymm11, %ymm6, %ymm6
vpxor %ymm0, %ymm14, %ymm14
vpslld $12, %ymm6, %ymm15
vpsrld $20, %ymm6, %ymm6
vpxor %ymm15, %ymm6, %ymm6
vpshufb (%rsp), %ymm14, %ymm14
vpaddd %ymm6, %ymm1, %ymm1
vpaddd %ymm14, %ymm10, %ymm10
vpxor %ymm1, %ymm12, %ymm12
vpxor %ymm10, %ymm5, %ymm5
vpshufb 32(%rsp), %ymm12, %ymm12
vpslld $12, %ymm5, %ymm15
vpsrld $20, %ymm5, %ymm5
vpxor %ymm15, %ymm5, %ymm5
vpaddd %ymm12, %ymm11, %ymm11
vpaddd %ymm5, %ymm0, %ymm0
vpxor %ymm11, %ymm6, %ymm6
vpxor %ymm0, %ymm14, %ymm14
vpslld $7, %ymm6, %ymm15
vpsrld $25, %ymm6, %ymm6
vpxor %ymm15, %ymm6, %ymm6
vpshufb 32(%rsp), %ymm14, %ymm14
vpaddd %ymm14, %ymm10, %ymm10
vpxor %ymm10, %ymm5, %ymm5
vpslld $7, %ymm5, %ymm15
vpsrld $25, %ymm5, %ymm5
vpxor %ymm15, %ymm5, %ymm5
vmovdqu 96(%rsp), %ymm15
vmovdqu %ymm14, 64(%rsp)
vpaddd %ymm7, %ymm2, %ymm2
vpxor %ymm2, %ymm13, %ymm13
vpshufb (%rsp), %ymm13, %ymm13
vpaddd %ymm13, %ymm8, %ymm8
vpaddd %ymm4, %ymm3, %ymm3
vpxor %ymm8, %ymm7, %ymm7
vpxor %ymm3, %ymm15, %ymm14
vpslld $12, %ymm7, %ymm15
vpsrld $20, %ymm7, %ymm7
vpxor %ymm15, %ymm7, %ymm7
vpshufb (%rsp), %ymm14, %ymm14
vpaddd %ymm7, %ymm2, %ymm2
vpaddd %ymm14, %ymm9, %ymm9
vpxor %ymm2, %ymm13, %ymm13
vpxor %ymm9, %ymm4, %ymm4
vpshufb 32(%rsp), %ymm13, %ymm13
vpslld $12, %ymm4, %ymm15
vpsrld $20, %ymm4, %ymm4
vpxor %ymm15, %ymm4, %ymm4
vpaddd %ymm13, %ymm8, %ymm8
vpaddd %ymm4, %ymm3, %ymm3
vpxor %ymm8, %ymm7, %ymm7
vpxor %ymm3, %ymm14, %ymm14
vpslld $7, %ymm7, %ymm15
vpsrld $25, %ymm7, %ymm7
vpxor %ymm15, %ymm7, %ymm7
vpshufb 32(%rsp), %ymm14, %ymm14
vpaddd %ymm14, %ymm9, %ymm9
vpxor %ymm9, %ymm4, %ymm4
vpslld $7, %ymm4, %ymm15
vpsrld $25, %ymm4, %ymm4
vpxor %ymm15, %ymm4, %ymm4
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$34
vmovdqu 64(%rsp), %ymm15
vpaddd 640(%rsp), %ymm0, %ymm0
vpaddd 672(%rsp), %ymm1, %ymm1
vpaddd 704(%rsp), %ymm2, %ymm2
vpaddd 736(%rsp), %ymm3, %ymm3
vpaddd 768(%rsp), %ymm4, %ymm4
vpaddd 800(%rsp), %ymm5, %ymm5
vpaddd 832(%rsp), %ymm6, %ymm6
vpaddd 864(%rsp), %ymm7, %ymm7
vpaddd 896(%rsp), %ymm8, %ymm8
vpaddd 928(%rsp), %ymm9, %ymm9
vpaddd 960(%rsp), %ymm10, %ymm10
vpaddd 992(%rsp), %ymm11, %ymm11
vpaddd 1024(%rsp), %ymm12, %ymm12
vpaddd 1056(%rsp), %ymm13, %ymm13
vpaddd 1088(%rsp), %ymm14, %ymm14
vpaddd 1120(%rsp), %ymm15, %ymm15
vmovdqu %ymm8, 128(%rsp)
vmovdqu %ymm9, 160(%rsp)
vmovdqu %ymm10, 192(%rsp)
vmovdqu %ymm11, 224(%rsp)
vmovdqu %ymm12, 256(%rsp)
vmovdqu %ymm13, 288(%rsp)
vmovdqu %ymm14, 320(%rsp)
vmovdqu %ymm15, 352(%rsp)
vpunpckldq %ymm1, %ymm0, %ymm8
vpunpckhdq %ymm1, %ymm0, %ymm0
vpunpckldq %ymm3, %ymm2, %ymm1
vpunpckhdq %ymm3, %ymm2, %ymm2
vpunpckldq %ymm5, %ymm4, %ymm3
vpunpckhdq %ymm5, %ymm4, %ymm4
vpunpckldq %ymm7, %ymm6, %ymm5
vpunpckhdq %ymm7, %ymm6, %ymm6
vpunpcklqdq %ymm1, %ymm8, %ymm7
vpunpcklqdq %ymm5, %ymm3, %ymm9
vpunpckhqdq %ymm1, %ymm8, %ymm1
vpunpckhqdq %ymm5, %ymm3, %ymm3
vpunpcklqdq %ymm2, %ymm0, %ymm5
vpunpcklqdq %ymm6, %ymm4, %ymm8
vpunpckhqdq %ymm2, %ymm0, %ymm0
vpunpckhqdq %ymm6, %ymm4, %ymm2
vperm2i128 $32, %ymm9, %ymm7, %ymm4
vperm2i128 $49, %ymm9, %ymm7, %ymm6
vperm2i128 $32, %ymm3, %ymm1, %ymm7
vperm2i128 $49, %ymm3, %ymm1, %ymm1
vperm2i128 $32, %ymm8, %ymm5, %ymm3
vperm2i128 $49, %ymm8, %ymm5, %ymm5
vperm2i128 $32, %ymm2, %ymm0, %ymm8
vperm2i128 $49, %ymm2, %ymm0, %ymm0
vmovdqu %ymm4, (%rdi)
vmovdqu %ymm7, 64(%rdi)
vmovdqu %ymm3, 128(%rdi)
vmovdqu %ymm8, 192(%rdi)
vmovdqu %ymm6, 256(%rdi)
vmovdqu %ymm1, 320(%rdi)
vmovdqu %ymm5, 384(%rdi)
vmovdqu %ymm0, 448(%rdi)
vmovdqu 128(%rsp), %ymm0
vmovdqu 192(%rsp), %ymm1
vmovdqu 256(%rsp), %ymm2
vmovdqu 320(%rsp), %ymm3
vpunpckldq 160(%rsp), %ymm0, %ymm4
vpunpckhdq 160(%rsp), %ymm0, %ymm0
vpunpckldq 224(%rsp), %ymm1, %ymm5
vpunpckhdq 224(%rsp), %ymm1, %ymm1
vpunpckldq 288(%rsp), %ymm2, %ymm6
vpunpckhdq 288(%rsp), %ymm2, %ymm2
vpunpckldq 352(%rsp), %ymm3, %ymm7
vpunpckhdq 352(%rsp), %ymm3, %ymm3
vpunpcklqdq %ymm5, %ymm4, %ymm8
vpunpcklqdq %ymm7, %ymm6, %ymm9
vpunpckhqdq %ymm5, %ymm4, %ymm4
vpunpckhqdq %ymm7, %ymm6, %ymm5
vpunpcklqdq %ymm1, %ymm0, %ymm6
vpunpcklqdq %ymm3, %ymm2, %ymm7
vpunpckhqdq %ymm1, %ymm0, %ymm0
vpunpckhqdq %ymm3, %ymm2, %ymm1
vperm2i128 $32, %ymm9, %ymm8, %ymm2
vperm2i128 $49, %ymm9, %ymm8, %ymm3
vperm2i128 $32, %ymm5, %ymm4, %ymm8
vperm2i128 $49, %ymm5, %ymm4, %ymm4
vperm2i128 $32, %ymm7, %ymm6, %ymm5
vperm2i128 $49, %ymm7, %ymm6, %ymm6
vperm2i128 $32, %ymm1, %ymm0, %ymm7
vperm2i128 $49, %ymm1, %ymm0, %ymm0
vmovdqu %ymm2, 32(%rdi)
vmovdqu %ymm8, 96(%rdi)
vmovdqu %ymm5, 160(%rdi)
vmovdqu %ymm7, 224(%rdi)
vmovdqu %ymm3, 288(%rdi)
vmovdqu %ymm4, 352(%rdi)
vmovdqu %ymm6, 416(%rdi)
vmovdqu %ymm0, 480(%rdi)
addq $512, %rdi
addq $-512, %rsi
vmovdqu glob_data + 0(%rip), %ymm0
vpaddd 1024(%rsp), %ymm0, %ymm0
vmovdqu %ymm0, 1024(%rsp)
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$32:
cmpq $512, %rsi
jnb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$33
cmpq $0, %rsi
jbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$2
vmovdqu 640(%rsp), %ymm0
vmovdqu 672(%rsp), %ymm1
vmovdqu 704(%rsp), %ymm2
vmovdqu 736(%rsp), %ymm3
vmovdqu 768(%rsp), %ymm4
vmovdqu 800(%rsp), %ymm5
vmovdqu 832(%rsp), %ymm6
vmovdqu 864(%rsp), %ymm7
vmovdqu 896(%rsp), %ymm8
vmovdqu 928(%rsp), %ymm9
vmovdqu 960(%rsp), %ymm10
vmovdqu 992(%rsp), %ymm11
vmovdqu 1024(%rsp), %ymm12
vmovdqu 1056(%rsp), %ymm13
vmovdqu 1088(%rsp), %ymm14
vmovdqu 1120(%rsp), %ymm15
vmovdqu %ymm15, 64(%rsp)
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$31:
vpaddd %ymm4, %ymm0, %ymm0
vpxor %ymm0, %ymm12, %ymm12
vpshufb (%rsp), %ymm12, %ymm12
vpaddd %ymm12, %ymm8, %ymm8
vpaddd %ymm6, %ymm2, %ymm2
vpxor %ymm8, %ymm4, %ymm4
vpxor %ymm2, %ymm14, %ymm14
vpslld $12, %ymm4, %ymm15
vpsrld $20, %ymm4, %ymm4
vpxor %ymm15, %ymm4, %ymm4
vpshufb (%rsp), %ymm14, %ymm14
vpaddd %ymm4, %ymm0, %ymm0
vpaddd %ymm14, %ymm10, %ymm10
vpxor %ymm0, %ymm12, %ymm12
vpxor %ymm10, %ymm6, %ymm6
vpshufb 32(%rsp), %ymm12, %ymm12
vpslld $12, %ymm6, %ymm15
vpsrld $20, %ymm6, %ymm6
vpxor %ymm15, %ymm6, %ymm6
vpaddd %ymm12, %ymm8, %ymm8
vpaddd %ymm6, %ymm2, %ymm2
vpxor %ymm8, %ymm4, %ymm4
vpxor %ymm2, %ymm14, %ymm14
vpslld $7, %ymm4, %ymm15
vpsrld $25, %ymm4, %ymm4
vpxor %ymm15, %ymm4, %ymm4
vpshufb 32(%rsp), %ymm14, %ymm14
vpaddd %ymm14, %ymm10, %ymm10
vpxor %ymm10, %ymm6, %ymm6
vpslld $7, %ymm6, %ymm15
vpsrld $25, %ymm6, %ymm6
vpxor %ymm15, %ymm6, %ymm6
vmovdqu 64(%rsp), %ymm15
vmovdqu %ymm14, 96(%rsp)
vpaddd %ymm5, %ymm1, %ymm1
vpxor %ymm1, %ymm13, %ymm13
vpshufb (%rsp), %ymm13, %ymm13
vpaddd %ymm13, %ymm9, %ymm9
vpaddd %ymm7, %ymm3, %ymm3
vpxor %ymm9, %ymm5, %ymm5
vpxor %ymm3, %ymm15, %ymm14
vpslld $12, %ymm5, %ymm15
vpsrld $20, %ymm5, %ymm5
vpxor %ymm15, %ymm5, %ymm5
vpshufb (%rsp), %ymm14, %ymm14
vpaddd %ymm5, %ymm1, %ymm1
vpaddd %ymm14, %ymm11, %ymm11
vpxor %ymm1, %ymm13, %ymm13
vpxor %ymm11, %ymm7, %ymm7
vpshufb 32(%rsp), %ymm13, %ymm13
vpslld $12, %ymm7, %ymm15
vpsrld $20, %ymm7, %ymm7
vpxor %ymm15, %ymm7, %ymm7
vpaddd %ymm13, %ymm9, %ymm9
vpaddd %ymm7, %ymm3, %ymm3
vpxor %ymm9, %ymm5, %ymm5
vpxor %ymm3, %ymm14, %ymm14
vpslld $7, %ymm5, %ymm15
vpsrld $25, %ymm5, %ymm5
vpxor %ymm15, %ymm5, %ymm5
vpshufb 32(%rsp), %ymm14, %ymm14
vpaddd %ymm14, %ymm11, %ymm11
vpxor %ymm11, %ymm7, %ymm7
vpslld $7, %ymm7, %ymm15
vpsrld $25, %ymm7, %ymm7
vpxor %ymm15, %ymm7, %ymm7
vpaddd %ymm6, %ymm1, %ymm1
vpxor %ymm1, %ymm12, %ymm12
vpshufb (%rsp), %ymm12, %ymm12
vpaddd %ymm12, %ymm11, %ymm11
vpaddd %ymm5, %ymm0, %ymm0
vpxor %ymm11, %ymm6, %ymm6
vpxor %ymm0, %ymm14, %ymm14
vpslld $12, %ymm6, %ymm15
vpsrld $20, %ymm6, %ymm6
vpxor %ymm15, %ymm6, %ymm6
vpshufb (%rsp), %ymm14, %ymm14
vpaddd %ymm6, %ymm1, %ymm1
vpaddd %ymm14, %ymm10, %ymm10
vpxor %ymm1, %ymm12, %ymm12
vpxor %ymm10, %ymm5, %ymm5
vpshufb 32(%rsp), %ymm12, %ymm12
vpslld $12, %ymm5, %ymm15
vpsrld $20, %ymm5, %ymm5
vpxor %ymm15, %ymm5, %ymm5
vpaddd %ymm12, %ymm11, %ymm11
vpaddd %ymm5, %ymm0, %ymm0
vpxor %ymm11, %ymm6, %ymm6
vpxor %ymm0, %ymm14, %ymm14
vpslld $7, %ymm6, %ymm15
vpsrld $25, %ymm6, %ymm6
vpxor %ymm15, %ymm6, %ymm6
vpshufb 32(%rsp), %ymm14, %ymm14
vpaddd %ymm14, %ymm10, %ymm10
vpxor %ymm10, %ymm5, %ymm5
vpslld $7, %ymm5, %ymm15
vpsrld $25, %ymm5, %ymm5
vpxor %ymm15, %ymm5, %ymm5
vmovdqu 96(%rsp), %ymm15
vmovdqu %ymm14, 64(%rsp)
vpaddd %ymm7, %ymm2, %ymm2
vpxor %ymm2, %ymm13, %ymm13
vpshufb (%rsp), %ymm13, %ymm13
vpaddd %ymm13, %ymm8, %ymm8
vpaddd %ymm4, %ymm3, %ymm3
vpxor %ymm8, %ymm7, %ymm7
vpxor %ymm3, %ymm15, %ymm14
vpslld $12, %ymm7, %ymm15
vpsrld $20, %ymm7, %ymm7
vpxor %ymm15, %ymm7, %ymm7
vpshufb (%rsp), %ymm14, %ymm14
vpaddd %ymm7, %ymm2, %ymm2
vpaddd %ymm14, %ymm9, %ymm9
vpxor %ymm2, %ymm13, %ymm13
vpxor %ymm9, %ymm4, %ymm4
vpshufb 32(%rsp), %ymm13, %ymm13
vpslld $12, %ymm4, %ymm15
vpsrld $20, %ymm4, %ymm4
vpxor %ymm15, %ymm4, %ymm4
vpaddd %ymm13, %ymm8, %ymm8
vpaddd %ymm4, %ymm3, %ymm3
vpxor %ymm8, %ymm7, %ymm7
vpxor %ymm3, %ymm14, %ymm14
vpslld $7, %ymm7, %ymm15
vpsrld $25, %ymm7, %ymm7
vpxor %ymm15, %ymm7, %ymm7
vpshufb 32(%rsp), %ymm14, %ymm14
vpaddd %ymm14, %ymm9, %ymm9
vpxor %ymm9, %ymm4, %ymm4
vpslld $7, %ymm4, %ymm15
vpsrld $25, %ymm4, %ymm4
vpxor %ymm15, %ymm4, %ymm4
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$31
vmovdqu 64(%rsp), %ymm15
vpaddd 640(%rsp), %ymm0, %ymm0
vpaddd 672(%rsp), %ymm1, %ymm1
vpaddd 704(%rsp), %ymm2, %ymm2
vpaddd 736(%rsp), %ymm3, %ymm3
vpaddd 768(%rsp), %ymm4, %ymm4
vpaddd 800(%rsp), %ymm5, %ymm5
vpaddd 832(%rsp), %ymm6, %ymm6
vpaddd 864(%rsp), %ymm7, %ymm7
vpaddd 896(%rsp), %ymm8, %ymm8
vpaddd 928(%rsp), %ymm9, %ymm9
vpaddd 960(%rsp), %ymm10, %ymm10
vpaddd 992(%rsp), %ymm11, %ymm11
vpaddd 1024(%rsp), %ymm12, %ymm12
vpaddd 1056(%rsp), %ymm13, %ymm13
vpaddd 1088(%rsp), %ymm14, %ymm14
vpaddd 1120(%rsp), %ymm15, %ymm15
vmovdqu %ymm8, 128(%rsp)
vmovdqu %ymm9, 160(%rsp)
vmovdqu %ymm10, 192(%rsp)
vmovdqu %ymm11, 224(%rsp)
vmovdqu %ymm12, 256(%rsp)
vmovdqu %ymm13, 288(%rsp)
vmovdqu %ymm14, 320(%rsp)
vmovdqu %ymm15, 352(%rsp)
vpunpckldq %ymm1, %ymm0, %ymm8
vpunpckhdq %ymm1, %ymm0, %ymm0
vpunpckldq %ymm3, %ymm2, %ymm1
vpunpckhdq %ymm3, %ymm2, %ymm2
vpunpckldq %ymm5, %ymm4, %ymm3
vpunpckhdq %ymm5, %ymm4, %ymm4
vpunpckldq %ymm7, %ymm6, %ymm5
vpunpckhdq %ymm7, %ymm6, %ymm6
vpunpcklqdq %ymm1, %ymm8, %ymm7
vpunpcklqdq %ymm5, %ymm3, %ymm9
vpunpckhqdq %ymm1, %ymm8, %ymm1
vpunpckhqdq %ymm5, %ymm3, %ymm3
vpunpcklqdq %ymm2, %ymm0, %ymm5
vpunpcklqdq %ymm6, %ymm4, %ymm8
vpunpckhqdq %ymm2, %ymm0, %ymm0
vpunpckhqdq %ymm6, %ymm4, %ymm2
vperm2i128 $32, %ymm9, %ymm7, %ymm4
vperm2i128 $49, %ymm9, %ymm7, %ymm6
vperm2i128 $32, %ymm3, %ymm1, %ymm7
vperm2i128 $49, %ymm3, %ymm1, %ymm1
vperm2i128 $32, %ymm8, %ymm5, %ymm3
vperm2i128 $49, %ymm8, %ymm5, %ymm5
vperm2i128 $32, %ymm2, %ymm0, %ymm8
vperm2i128 $49, %ymm2, %ymm0, %ymm0
vmovdqu %ymm4, 384(%rsp)
vmovdqu %ymm7, 416(%rsp)
vmovdqu %ymm3, 448(%rsp)
vmovdqu %ymm8, 480(%rsp)
vmovdqu %ymm6, 512(%rsp)
vmovdqu %ymm1, 544(%rsp)
vmovdqu %ymm5, 576(%rsp)
vmovdqu %ymm0, 608(%rsp)
vmovdqu 128(%rsp), %ymm0
vmovdqu 192(%rsp), %ymm1
vmovdqu 256(%rsp), %ymm2
vmovdqu 320(%rsp), %ymm3
vpunpckldq 160(%rsp), %ymm0, %ymm4
vpunpckhdq 160(%rsp), %ymm0, %ymm0
vpunpckldq 224(%rsp), %ymm1, %ymm5
vpunpckhdq 224(%rsp), %ymm1, %ymm1
vpunpckldq 288(%rsp), %ymm2, %ymm6
vpunpckhdq 288(%rsp), %ymm2, %ymm2
vpunpckldq 352(%rsp), %ymm3, %ymm7
vpunpckhdq 352(%rsp), %ymm3, %ymm3
vpunpcklqdq %ymm5, %ymm4, %ymm8
vpunpcklqdq %ymm7, %ymm6, %ymm9
vpunpckhqdq %ymm5, %ymm4, %ymm4
vpunpckhqdq %ymm7, %ymm6, %ymm5
vpunpcklqdq %ymm1, %ymm0, %ymm6
vpunpcklqdq %ymm3, %ymm2, %ymm7
vpunpckhqdq %ymm1, %ymm0, %ymm0
vpunpckhqdq %ymm3, %ymm2, %ymm1
vperm2i128 $32, %ymm9, %ymm8, %ymm2
vperm2i128 $49, %ymm9, %ymm8, %ymm3
vperm2i128 $32, %ymm5, %ymm4, %ymm8
vperm2i128 $49, %ymm5, %ymm4, %ymm4
vperm2i128 $32, %ymm7, %ymm6, %ymm5
vperm2i128 $49, %ymm7, %ymm6, %ymm6
vperm2i128 $32, %ymm1, %ymm0, %ymm7
vperm2i128 $49, %ymm1, %ymm0, %ymm0
vmovdqu 384(%rsp), %ymm12
vmovdqu %ymm2, %ymm11
vmovdqu 416(%rsp), %ymm10
vmovdqu %ymm8, %ymm9
vmovdqu 448(%rsp), %ymm8
vmovdqu 480(%rsp), %ymm2
vmovdqu %ymm7, %ymm1
cmpq $256, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$30
vmovdqu %ymm12, (%rdi)
vmovdqu %ymm11, 32(%rdi)
vmovdqu %ymm10, 64(%rdi)
vmovdqu %ymm9, 96(%rdi)
vmovdqu %ymm8, 128(%rdi)
vmovdqu %ymm5, 160(%rdi)
vmovdqu %ymm2, 192(%rdi)
vmovdqu %ymm1, 224(%rdi)
addq $256, %rdi
addq $-256, %rsi
vmovdqu 512(%rsp), %ymm12
vmovdqu %ymm3, %ymm11
vmovdqu 544(%rsp), %ymm10
vmovdqu %ymm4, %ymm9
vmovdqu 576(%rsp), %ymm8
vmovdqu %ymm6, %ymm5
vmovdqu 608(%rsp), %ymm2
vmovdqu %ymm0, %ymm1
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$30:
cmpq $128, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$29
vmovdqu %ymm12, (%rdi)
vmovdqu %ymm11, 32(%rdi)
vmovdqu %ymm10, 64(%rdi)
vmovdqu %ymm9, 96(%rdi)
addq $128, %rdi
addq $-128, %rsi
vmovdqu %ymm8, %ymm12
vmovdqu %ymm5, %ymm11
vmovdqu %ymm2, %ymm10
vmovdqu %ymm1, %ymm9
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$29:
cmpq $64, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$28
vmovdqu %ymm12, (%rdi)
vmovdqu %ymm11, 32(%rdi)
addq $64, %rdi
addq $-64, %rsi
vmovdqu %ymm10, %ymm12
vmovdqu %ymm9, %ymm11
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$28:
cmpq $32, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$27
vmovdqu %ymm12, (%rdi)
addq $32, %rdi
addq $-32, %rsi
vmovdqu %ymm11, %ymm12
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$27:
vmovdqu %xmm12, %xmm0
cmpq $16, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$26
vmovdqu %xmm0, (%rdi)
addq $16, %rdi
addq $-16, %rsi
vextracti128 $1, %ymm12, %xmm0
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$26:
vpextrq $0, %xmm0, %rax
cmpq $8, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$23
movq %rax, (%rdi)
addq $8, %rdi
addq $-8, %rsi
vpextrq $1, %xmm0, %rax
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$25:
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2$23
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$24:
movb %al, %cl
movb %cl, (%rdi)
shrq $8, %rax
incq %rdi
addq $-1, %rsi
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$23:
cmpq $0, %rsi
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$24
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$22:
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2$2
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$1:
vmovdqu glob_data + 160(%rip), %ymm0
vmovdqu glob_data + 128(%rip), %ymm1
vmovdqu glob_data + 480(%rip), %ymm2
vbroadcasti128 (%rcx), %ymm3
vbroadcasti128 16(%rcx), %ymm4
vpxor %xmm5, %xmm5, %xmm5
vpinsrd $1, (%rdx), %xmm5, %xmm5
vpinsrq $1, 4(%rdx), %xmm5, %xmm5
vpxor %ymm6, %ymm6, %ymm6
vinserti128 $0, %xmm5, %ymm6, %ymm6
vinserti128 $1, %xmm5, %ymm6, %ymm5
vpaddd glob_data + 96(%rip), %ymm5, %ymm5
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2$19
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$20:
vmovdqu %ymm2, %ymm6
vmovdqu %ymm3, %ymm7
vmovdqu %ymm4, %ymm8
vmovdqu %ymm5, %ymm9
vmovdqu %ymm2, %ymm10
vmovdqu %ymm3, %ymm11
vmovdqu %ymm4, %ymm12
vmovdqu %ymm5, %ymm13
vpaddd glob_data + 64(%rip), %ymm13, %ymm13
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$21:
vpaddd %ymm7, %ymm6, %ymm6
vpaddd %ymm11, %ymm10, %ymm10
vpxor %ymm6, %ymm9, %ymm9
vpxor %ymm10, %ymm13, %ymm13
vpshufb %ymm0, %ymm9, %ymm9
vpshufb %ymm0, %ymm13, %ymm13
vpaddd %ymm9, %ymm8, %ymm8
vpaddd %ymm13, %ymm12, %ymm12
vpxor %ymm8, %ymm7, %ymm7
vpslld $12, %ymm7, %ymm14
vpsrld $20, %ymm7, %ymm7
vpxor %ymm12, %ymm11, %ymm11
vpxor %ymm14, %ymm7, %ymm7
vpslld $12, %ymm11, %ymm14
vpsrld $20, %ymm11, %ymm11
vpxor %ymm14, %ymm11, %ymm11
vpaddd %ymm7, %ymm6, %ymm6
vpaddd %ymm11, %ymm10, %ymm10
vpxor %ymm6, %ymm9, %ymm9
vpxor %ymm10, %ymm13, %ymm13
vpshufb %ymm1, %ymm9, %ymm9
vpshufb %ymm1, %ymm13, %ymm13
vpaddd %ymm9, %ymm8, %ymm8
vpaddd %ymm13, %ymm12, %ymm12
vpxor %ymm8, %ymm7, %ymm7
vpslld $7, %ymm7, %ymm14
vpsrld $25, %ymm7, %ymm7
vpxor %ymm12, %ymm11, %ymm11
vpxor %ymm14, %ymm7, %ymm7
vpslld $7, %ymm11, %ymm14
vpsrld $25, %ymm11, %ymm11
vpxor %ymm14, %ymm11, %ymm11
vpshufd $57, %ymm7, %ymm7
vpshufd $78, %ymm8, %ymm8
vpshufd $-109, %ymm9, %ymm9
vpshufd $57, %ymm11, %ymm11
vpshufd $78, %ymm12, %ymm12
vpshufd $-109, %ymm13, %ymm13
vpaddd %ymm7, %ymm6, %ymm6
vpaddd %ymm11, %ymm10, %ymm10
vpxor %ymm6, %ymm9, %ymm9
vpxor %ymm10, %ymm13, %ymm13
vpshufb %ymm0, %ymm9, %ymm9
vpshufb %ymm0, %ymm13, %ymm13
vpaddd %ymm9, %ymm8, %ymm8
vpaddd %ymm13, %ymm12, %ymm12
vpxor %ymm8, %ymm7, %ymm7
vpslld $12, %ymm7, %ymm14
vpsrld $20, %ymm7, %ymm7
vpxor %ymm12, %ymm11, %ymm11
vpxor %ymm14, %ymm7, %ymm7
vpslld $12, %ymm11, %ymm14
vpsrld $20, %ymm11, %ymm11
vpxor %ymm14, %ymm11, %ymm11
vpaddd %ymm7, %ymm6, %ymm6
vpaddd %ymm11, %ymm10, %ymm10
vpxor %ymm6, %ymm9, %ymm9
vpxor %ymm10, %ymm13, %ymm13
vpshufb %ymm1, %ymm9, %ymm9
vpshufb %ymm1, %ymm13, %ymm13
vpaddd %ymm9, %ymm8, %ymm8
vpaddd %ymm13, %ymm12, %ymm12
vpxor %ymm8, %ymm7, %ymm7
vpslld $7, %ymm7, %ymm14
vpsrld $25, %ymm7, %ymm7
vpxor %ymm12, %ymm11, %ymm11
vpxor %ymm14, %ymm7, %ymm7
vpslld $7, %ymm11, %ymm14
vpsrld $25, %ymm11, %ymm11
vpxor %ymm14, %ymm11, %ymm11
vpshufd $-109, %ymm7, %ymm7
vpshufd $78, %ymm8, %ymm8
vpshufd $57, %ymm9, %ymm9
vpshufd $-109, %ymm11, %ymm11
vpshufd $78, %ymm12, %ymm12
vpshufd $57, %ymm13, %ymm13
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$21
vpaddd %ymm2, %ymm6, %ymm6
vpaddd %ymm3, %ymm7, %ymm7
vpaddd %ymm4, %ymm8, %ymm8
vpaddd %ymm5, %ymm9, %ymm9
vpaddd %ymm2, %ymm10, %ymm10
vpaddd %ymm3, %ymm11, %ymm11
vpaddd %ymm4, %ymm12, %ymm12
vpaddd %ymm5, %ymm13, %ymm13
vpaddd glob_data + 64(%rip), %ymm13, %ymm13
vperm2i128 $32, %ymm7, %ymm6, %ymm14
vperm2i128 $32, %ymm9, %ymm8, %ymm15
vperm2i128 $49, %ymm7, %ymm6, %ymm6
vperm2i128 $49, %ymm9, %ymm8, %ymm7
vperm2i128 $32, %ymm11, %ymm10, %ymm8
vperm2i128 $32, %ymm13, %ymm12, %ymm9
vperm2i128 $49, %ymm11, %ymm10, %ymm10
vperm2i128 $49, %ymm13, %ymm12, %ymm11
vmovdqu %ymm14, (%rdi)
vmovdqu %ymm15, 32(%rdi)
vmovdqu %ymm6, 64(%rdi)
vmovdqu %ymm7, 96(%rdi)
vmovdqu %ymm8, 128(%rdi)
vmovdqu %ymm9, 160(%rdi)
vmovdqu %ymm10, 192(%rdi)
vmovdqu %ymm11, 224(%rdi)
addq $256, %rdi
addq $-256, %rsi
vpaddd glob_data + 32(%rip), %ymm5, %ymm5
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$19:
cmpq $256, %rsi
jnb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$20
cmpq $128, %rsi
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$3
vmovdqu %ymm2, %ymm6
vmovdqu %ymm3, %ymm7
vmovdqu %ymm4, %ymm8
vmovdqu %ymm5, %ymm9
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$18:
vpaddd %ymm7, %ymm6, %ymm6
vpxor %ymm6, %ymm9, %ymm9
vpshufb %ymm0, %ymm9, %ymm9
vpaddd %ymm9, %ymm8, %ymm8
vpxor %ymm8, %ymm7, %ymm7
vpslld $12, %ymm7, %ymm10
vpsrld $20, %ymm7, %ymm7
vpxor %ymm10, %ymm7, %ymm7
vpaddd %ymm7, %ymm6, %ymm6
vpxor %ymm6, %ymm9, %ymm9
vpshufb %ymm1, %ymm9, %ymm9
vpaddd %ymm9, %ymm8, %ymm8
vpxor %ymm8, %ymm7, %ymm7
vpslld $7, %ymm7, %ymm10
vpsrld $25, %ymm7, %ymm7
vpxor %ymm10, %ymm7, %ymm7
vpshufd $57, %ymm7, %ymm7
vpshufd $78, %ymm8, %ymm8
vpshufd $-109, %ymm9, %ymm9
vpaddd %ymm7, %ymm6, %ymm6
vpxor %ymm6, %ymm9, %ymm9
vpshufb %ymm0, %ymm9, %ymm9
vpaddd %ymm9, %ymm8, %ymm8
vpxor %ymm8, %ymm7, %ymm7
vpslld $12, %ymm7, %ymm10
vpsrld $20, %ymm7, %ymm7
vpxor %ymm10, %ymm7, %ymm7
vpaddd %ymm7, %ymm6, %ymm6
vpxor %ymm6, %ymm9, %ymm9
vpshufb %ymm1, %ymm9, %ymm9
vpaddd %ymm9, %ymm8, %ymm8
vpxor %ymm8, %ymm7, %ymm7
vpslld $7, %ymm7, %ymm10
vpsrld $25, %ymm7, %ymm7
vpxor %ymm10, %ymm7, %ymm7
vpshufd $-109, %ymm7, %ymm7
vpshufd $78, %ymm8, %ymm8
vpshufd $57, %ymm9, %ymm9
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$18
vpaddd %ymm2, %ymm6, %ymm0
vpaddd %ymm3, %ymm7, %ymm1
vpaddd %ymm4, %ymm8, %ymm2
vpaddd %ymm5, %ymm9, %ymm3
vperm2i128 $32, %ymm1, %ymm0, %ymm5
vperm2i128 $32, %ymm3, %ymm2, %ymm4
vperm2i128 $49, %ymm1, %ymm0, %ymm0
vperm2i128 $49, %ymm3, %ymm2, %ymm1
cmpq $64, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$17
vmovdqu %ymm5, (%rdi)
vmovdqu %ymm4, 32(%rdi)
addq $64, %rdi
addq $-64, %rsi
vmovdqu %ymm0, %ymm5
vmovdqu %ymm1, %ymm4
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$17:
cmpq $32, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$16
vmovdqu %ymm5, (%rdi)
addq $32, %rdi
addq $-32, %rsi
vmovdqu %ymm4, %ymm5
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$16:
vmovdqu %xmm5, %xmm0
cmpq $16, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$15
vmovdqu %xmm0, (%rdi)
addq $16, %rdi
addq $-16, %rsi
vextracti128 $1, %ymm5, %xmm0
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$15:
vpextrq $0, %xmm0, %rax
cmpq $8, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$12
movq %rax, (%rdi)
addq $8, %rdi
addq $-8, %rsi
vpextrq $1, %xmm0, %rax
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$14:
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2$12
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$13:
movb %al, %cl
movb %cl, (%rdi)
shrq $8, %rax
incq %rdi
addq $-1, %rsi
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$12:
cmpq $0, %rsi
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$13
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2$2
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$3:
vmovdqu %ymm2, %ymm6
vmovdqu %ymm3, %ymm7
vmovdqu %ymm4, %ymm8
vmovdqu %ymm5, %ymm9
vmovdqu %ymm2, %ymm10
vmovdqu %ymm3, %ymm11
vmovdqu %ymm4, %ymm12
vmovdqu %ymm5, %ymm13
vpaddd glob_data + 64(%rip), %ymm13, %ymm13
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$11:
vpaddd %ymm7, %ymm6, %ymm6
vpaddd %ymm11, %ymm10, %ymm10
vpxor %ymm6, %ymm9, %ymm9
vpxor %ymm10, %ymm13, %ymm13
vpshufb %ymm0, %ymm9, %ymm9
vpshufb %ymm0, %ymm13, %ymm13
vpaddd %ymm9, %ymm8, %ymm8
vpaddd %ymm13, %ymm12, %ymm12
vpxor %ymm8, %ymm7, %ymm7
vpslld $12, %ymm7, %ymm14
vpsrld $20, %ymm7, %ymm7
vpxor %ymm12, %ymm11, %ymm11
vpxor %ymm14, %ymm7, %ymm7
vpslld $12, %ymm11, %ymm14
vpsrld $20, %ymm11, %ymm11
vpxor %ymm14, %ymm11, %ymm11
vpaddd %ymm7, %ymm6, %ymm6
vpaddd %ymm11, %ymm10, %ymm10
vpxor %ymm6, %ymm9, %ymm9
vpxor %ymm10, %ymm13, %ymm13
vpshufb %ymm1, %ymm9, %ymm9
vpshufb %ymm1, %ymm13, %ymm13
vpaddd %ymm9, %ymm8, %ymm8
vpaddd %ymm13, %ymm12, %ymm12
vpxor %ymm8, %ymm7, %ymm7
vpslld $7, %ymm7, %ymm14
vpsrld $25, %ymm7, %ymm7
vpxor %ymm12, %ymm11, %ymm11
vpxor %ymm14, %ymm7, %ymm7
vpslld $7, %ymm11, %ymm14
vpsrld $25, %ymm11, %ymm11
vpxor %ymm14, %ymm11, %ymm11
vpshufd $57, %ymm7, %ymm7
vpshufd $78, %ymm8, %ymm8
vpshufd $-109, %ymm9, %ymm9
vpshufd $57, %ymm11, %ymm11
vpshufd $78, %ymm12, %ymm12
vpshufd $-109, %ymm13, %ymm13
vpaddd %ymm7, %ymm6, %ymm6
vpaddd %ymm11, %ymm10, %ymm10
vpxor %ymm6, %ymm9, %ymm9
vpxor %ymm10, %ymm13, %ymm13
vpshufb %ymm0, %ymm9, %ymm9
vpshufb %ymm0, %ymm13, %ymm13
vpaddd %ymm9, %ymm8, %ymm8
vpaddd %ymm13, %ymm12, %ymm12
vpxor %ymm8, %ymm7, %ymm7
vpslld $12, %ymm7, %ymm14
vpsrld $20, %ymm7, %ymm7
vpxor %ymm12, %ymm11, %ymm11
vpxor %ymm14, %ymm7, %ymm7
vpslld $12, %ymm11, %ymm14
vpsrld $20, %ymm11, %ymm11
vpxor %ymm14, %ymm11, %ymm11
vpaddd %ymm7, %ymm6, %ymm6
vpaddd %ymm11, %ymm10, %ymm10
vpxor %ymm6, %ymm9, %ymm9
vpxor %ymm10, %ymm13, %ymm13
vpshufb %ymm1, %ymm9, %ymm9
vpshufb %ymm1, %ymm13, %ymm13
vpaddd %ymm9, %ymm8, %ymm8
vpaddd %ymm13, %ymm12, %ymm12
vpxor %ymm8, %ymm7, %ymm7
vpslld $7, %ymm7, %ymm14
vpsrld $25, %ymm7, %ymm7
vpxor %ymm12, %ymm11, %ymm11
vpxor %ymm14, %ymm7, %ymm7
vpslld $7, %ymm11, %ymm14
vpsrld $25, %ymm11, %ymm11
vpxor %ymm14, %ymm11, %ymm11
vpshufd $-109, %ymm7, %ymm7
vpshufd $78, %ymm8, %ymm8
vpshufd $57, %ymm9, %ymm9
vpshufd $-109, %ymm11, %ymm11
vpshufd $78, %ymm12, %ymm12
vpshufd $57, %ymm13, %ymm13
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$11
vpaddd %ymm2, %ymm6, %ymm0
vpaddd %ymm3, %ymm7, %ymm1
vpaddd %ymm4, %ymm8, %ymm6
vpaddd %ymm5, %ymm9, %ymm7
vpaddd %ymm2, %ymm10, %ymm2
vpaddd %ymm3, %ymm11, %ymm3
vpaddd %ymm4, %ymm12, %ymm4
vpaddd %ymm5, %ymm13, %ymm5
vpaddd glob_data + 64(%rip), %ymm5, %ymm5
vperm2i128 $32, %ymm1, %ymm0, %ymm8
vperm2i128 $32, %ymm7, %ymm6, %ymm9
vperm2i128 $49, %ymm1, %ymm0, %ymm0
vperm2i128 $49, %ymm7, %ymm6, %ymm1
vperm2i128 $32, %ymm3, %ymm2, %ymm7
vperm2i128 $32, %ymm5, %ymm4, %ymm6
vperm2i128 $49, %ymm3, %ymm2, %ymm2
vperm2i128 $49, %ymm5, %ymm4, %ymm3
vmovdqu %ymm8, (%rdi)
vmovdqu %ymm9, 32(%rdi)
vmovdqu %ymm0, 64(%rdi)
vmovdqu %ymm1, 96(%rdi)
addq $128, %rdi
addq $-128, %rsi
cmpq $64, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$10
vmovdqu %ymm7, (%rdi)
vmovdqu %ymm6, 32(%rdi)
addq $64, %rdi
addq $-64, %rsi
vmovdqu %ymm2, %ymm7
vmovdqu %ymm3, %ymm6
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$10:
cmpq $32, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$9
vmovdqu %ymm7, (%rdi)
addq $32, %rdi
addq $-32, %rsi
vmovdqu %ymm6, %ymm7
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$9:
vmovdqu %xmm7, %xmm0
cmpq $16, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$8
vmovdqu %xmm0, (%rdi)
addq $16, %rdi
addq $-16, %rsi
vextracti128 $1, %ymm7, %xmm0
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$8:
vpextrq $0, %xmm0, %rax
cmpq $8, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$5
movq %rax, (%rdi)
addq $8, %rdi
addq $-8, %rsi
vpextrq $1, %xmm0, %rax
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$7:
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2$5
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$6:
movb %al, %cl
movb %cl, (%rdi)
shrq $8, %rax
incq %rdi
addq $-1, %rsi
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$5:
cmpq $0, %rsi
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$6
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$4:
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$2:
xorq %rax, %rax
movq %r10, %rsp
ret
_jade_stream_chacha_chacha20_ietf_amd64_avx2_xor:
jade_stream_chacha_chacha20_ietf_amd64_avx2_xor:
movq %rsp, %r10
leaq -1152(%rsp), %rsp
andq $-32, %rsp
cmpq $257, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$1
vmovdqu glob_data + 160(%rip), %ymm0
vmovdqu glob_data + 128(%rip), %ymm1
vmovdqu %ymm0, (%rsp)
vmovdqu %ymm1, 32(%rsp)
vmovdqu glob_data + 256(%rip), %ymm0
vmovdqu glob_data + 288(%rip), %ymm1
vmovdqu glob_data + 320(%rip), %ymm2
vmovdqu glob_data + 352(%rip), %ymm3
vpbroadcastd (%r8), %ymm4
vpbroadcastd 4(%r8), %ymm5
vpbroadcastd 8(%r8), %ymm6
vpbroadcastd 12(%r8), %ymm7
vpbroadcastd 16(%r8), %ymm8
vpbroadcastd 20(%r8), %ymm9
vpbroadcastd 24(%r8), %ymm10
vpbroadcastd 28(%r8), %ymm11
vmovdqu glob_data + 224(%rip), %ymm12
vpbroadcastd (%rcx), %ymm13
vpbroadcastd 4(%rcx), %ymm14
vpbroadcastd 8(%rcx), %ymm15
vmovdqu %ymm0, 640(%rsp)
vmovdqu %ymm1, 672(%rsp)
vmovdqu %ymm2, 704(%rsp)
vmovdqu %ymm3, 736(%rsp)
vmovdqu %ymm4, 768(%rsp)
vmovdqu %ymm5, 800(%rsp)
vmovdqu %ymm6, 832(%rsp)
vmovdqu %ymm7, 864(%rsp)
vmovdqu %ymm8, 896(%rsp)
vmovdqu %ymm9, 928(%rsp)
vmovdqu %ymm10, 960(%rsp)
vmovdqu %ymm11, 992(%rsp)
vmovdqu %ymm12, 1024(%rsp)
vmovdqu %ymm13, 1056(%rsp)
vmovdqu %ymm14, 1088(%rsp)
vmovdqu %ymm15, 1120(%rsp)
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$32
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$33:
vmovdqu 640(%rsp), %ymm0
vmovdqu 672(%rsp), %ymm1
vmovdqu 704(%rsp), %ymm2
vmovdqu 736(%rsp), %ymm3
vmovdqu 768(%rsp), %ymm4
vmovdqu 800(%rsp), %ymm5
vmovdqu 832(%rsp), %ymm6
vmovdqu 864(%rsp), %ymm7
vmovdqu 896(%rsp), %ymm8
vmovdqu 928(%rsp), %ymm9
vmovdqu 960(%rsp), %ymm10
vmovdqu 992(%rsp), %ymm11
vmovdqu 1024(%rsp), %ymm12
vmovdqu 1056(%rsp), %ymm13
vmovdqu 1088(%rsp), %ymm14
vmovdqu 1120(%rsp), %ymm15
vmovdqu %ymm15, 64(%rsp)
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$34:
vpaddd %ymm4, %ymm0, %ymm0
vpxor %ymm0, %ymm12, %ymm12
vpshufb (%rsp), %ymm12, %ymm12
vpaddd %ymm12, %ymm8, %ymm8
vpaddd %ymm6, %ymm2, %ymm2
vpxor %ymm8, %ymm4, %ymm4
vpxor %ymm2, %ymm14, %ymm14
vpslld $12, %ymm4, %ymm15
vpsrld $20, %ymm4, %ymm4
vpxor %ymm15, %ymm4, %ymm4
vpshufb (%rsp), %ymm14, %ymm14
vpaddd %ymm4, %ymm0, %ymm0
vpaddd %ymm14, %ymm10, %ymm10
vpxor %ymm0, %ymm12, %ymm12
vpxor %ymm10, %ymm6, %ymm6
vpshufb 32(%rsp), %ymm12, %ymm12
vpslld $12, %ymm6, %ymm15
vpsrld $20, %ymm6, %ymm6
vpxor %ymm15, %ymm6, %ymm6
vpaddd %ymm12, %ymm8, %ymm8
vpaddd %ymm6, %ymm2, %ymm2
vpxor %ymm8, %ymm4, %ymm4
vpxor %ymm2, %ymm14, %ymm14
vpslld $7, %ymm4, %ymm15
vpsrld $25, %ymm4, %ymm4
vpxor %ymm15, %ymm4, %ymm4
vpshufb 32(%rsp), %ymm14, %ymm14
vpaddd %ymm14, %ymm10, %ymm10
vpxor %ymm10, %ymm6, %ymm6
vpslld $7, %ymm6, %ymm15
vpsrld $25, %ymm6, %ymm6
vpxor %ymm15, %ymm6, %ymm6
vmovdqu 64(%rsp), %ymm15
vmovdqu %ymm14, 96(%rsp)
vpaddd %ymm5, %ymm1, %ymm1
vpxor %ymm1, %ymm13, %ymm13
vpshufb (%rsp), %ymm13, %ymm13
vpaddd %ymm13, %ymm9, %ymm9
vpaddd %ymm7, %ymm3, %ymm3
vpxor %ymm9, %ymm5, %ymm5
vpxor %ymm3, %ymm15, %ymm14
vpslld $12, %ymm5, %ymm15
vpsrld $20, %ymm5, %ymm5
vpxor %ymm15, %ymm5, %ymm5
vpshufb (%rsp), %ymm14, %ymm14
vpaddd %ymm5, %ymm1, %ymm1
vpaddd %ymm14, %ymm11, %ymm11
vpxor %ymm1, %ymm13, %ymm13
vpxor %ymm11, %ymm7, %ymm7
vpshufb 32(%rsp), %ymm13, %ymm13
vpslld $12, %ymm7, %ymm15
vpsrld $20, %ymm7, %ymm7
vpxor %ymm15, %ymm7, %ymm7
vpaddd %ymm13, %ymm9, %ymm9
vpaddd %ymm7, %ymm3, %ymm3
vpxor %ymm9, %ymm5, %ymm5
vpxor %ymm3, %ymm14, %ymm14
vpslld $7, %ymm5, %ymm15
vpsrld $25, %ymm5, %ymm5
vpxor %ymm15, %ymm5, %ymm5
vpshufb 32(%rsp), %ymm14, %ymm14
vpaddd %ymm14, %ymm11, %ymm11
vpxor %ymm11, %ymm7, %ymm7
vpslld $7, %ymm7, %ymm15
vpsrld $25, %ymm7, %ymm7
vpxor %ymm15, %ymm7, %ymm7
vpaddd %ymm6, %ymm1, %ymm1
vpxor %ymm1, %ymm12, %ymm12
vpshufb (%rsp), %ymm12, %ymm12
vpaddd %ymm12, %ymm11, %ymm11
vpaddd %ymm5, %ymm0, %ymm0
vpxor %ymm11, %ymm6, %ymm6
vpxor %ymm0, %ymm14, %ymm14
vpslld $12, %ymm6, %ymm15
vpsrld $20, %ymm6, %ymm6
vpxor %ymm15, %ymm6, %ymm6
vpshufb (%rsp), %ymm14, %ymm14
vpaddd %ymm6, %ymm1, %ymm1
vpaddd %ymm14, %ymm10, %ymm10
vpxor %ymm1, %ymm12, %ymm12
vpxor %ymm10, %ymm5, %ymm5
vpshufb 32(%rsp), %ymm12, %ymm12
vpslld $12, %ymm5, %ymm15
vpsrld $20, %ymm5, %ymm5
vpxor %ymm15, %ymm5, %ymm5
vpaddd %ymm12, %ymm11, %ymm11
vpaddd %ymm5, %ymm0, %ymm0
vpxor %ymm11, %ymm6, %ymm6
vpxor %ymm0, %ymm14, %ymm14
vpslld $7, %ymm6, %ymm15
vpsrld $25, %ymm6, %ymm6
vpxor %ymm15, %ymm6, %ymm6
vpshufb 32(%rsp), %ymm14, %ymm14
vpaddd %ymm14, %ymm10, %ymm10
vpxor %ymm10, %ymm5, %ymm5
vpslld $7, %ymm5, %ymm15
vpsrld $25, %ymm5, %ymm5
vpxor %ymm15, %ymm5, %ymm5
vmovdqu 96(%rsp), %ymm15
vmovdqu %ymm14, 64(%rsp)
vpaddd %ymm7, %ymm2, %ymm2
vpxor %ymm2, %ymm13, %ymm13
vpshufb (%rsp), %ymm13, %ymm13
vpaddd %ymm13, %ymm8, %ymm8
vpaddd %ymm4, %ymm3, %ymm3
vpxor %ymm8, %ymm7, %ymm7
vpxor %ymm3, %ymm15, %ymm14
vpslld $12, %ymm7, %ymm15
vpsrld $20, %ymm7, %ymm7
vpxor %ymm15, %ymm7, %ymm7
vpshufb (%rsp), %ymm14, %ymm14
vpaddd %ymm7, %ymm2, %ymm2
vpaddd %ymm14, %ymm9, %ymm9
vpxor %ymm2, %ymm13, %ymm13
vpxor %ymm9, %ymm4, %ymm4
vpshufb 32(%rsp), %ymm13, %ymm13
vpslld $12, %ymm4, %ymm15
vpsrld $20, %ymm4, %ymm4
vpxor %ymm15, %ymm4, %ymm4
vpaddd %ymm13, %ymm8, %ymm8
vpaddd %ymm4, %ymm3, %ymm3
vpxor %ymm8, %ymm7, %ymm7
vpxor %ymm3, %ymm14, %ymm14
vpslld $7, %ymm7, %ymm15
vpsrld $25, %ymm7, %ymm7
vpxor %ymm15, %ymm7, %ymm7
vpshufb 32(%rsp), %ymm14, %ymm14
vpaddd %ymm14, %ymm9, %ymm9
vpxor %ymm9, %ymm4, %ymm4
vpslld $7, %ymm4, %ymm15
vpsrld $25, %ymm4, %ymm4
vpxor %ymm15, %ymm4, %ymm4
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$34
vmovdqu 64(%rsp), %ymm15
vpaddd 640(%rsp), %ymm0, %ymm0
vpaddd 672(%rsp), %ymm1, %ymm1
vpaddd 704(%rsp), %ymm2, %ymm2
vpaddd 736(%rsp), %ymm3, %ymm3
vpaddd 768(%rsp), %ymm4, %ymm4
vpaddd 800(%rsp), %ymm5, %ymm5
vpaddd 832(%rsp), %ymm6, %ymm6
vpaddd 864(%rsp), %ymm7, %ymm7
vpaddd 896(%rsp), %ymm8, %ymm8
vpaddd 928(%rsp), %ymm9, %ymm9
vpaddd 960(%rsp), %ymm10, %ymm10
vpaddd 992(%rsp), %ymm11, %ymm11
vpaddd 1024(%rsp), %ymm12, %ymm12
vpaddd 1056(%rsp), %ymm13, %ymm13
vpaddd 1088(%rsp), %ymm14, %ymm14
vpaddd 1120(%rsp), %ymm15, %ymm15
vmovdqu %ymm8, 128(%rsp)
vmovdqu %ymm9, 160(%rsp)
vmovdqu %ymm10, 192(%rsp)
vmovdqu %ymm11, 224(%rsp)
vmovdqu %ymm12, 256(%rsp)
vmovdqu %ymm13, 288(%rsp)
vmovdqu %ymm14, 320(%rsp)
vmovdqu %ymm15, 352(%rsp)
vpunpckldq %ymm1, %ymm0, %ymm8
vpunpckhdq %ymm1, %ymm0, %ymm0
vpunpckldq %ymm3, %ymm2, %ymm1
vpunpckhdq %ymm3, %ymm2, %ymm2
vpunpckldq %ymm5, %ymm4, %ymm3
vpunpckhdq %ymm5, %ymm4, %ymm4
vpunpckldq %ymm7, %ymm6, %ymm5
vpunpckhdq %ymm7, %ymm6, %ymm6
vpunpcklqdq %ymm1, %ymm8, %ymm7
vpunpcklqdq %ymm5, %ymm3, %ymm9
vpunpckhqdq %ymm1, %ymm8, %ymm1
vpunpckhqdq %ymm5, %ymm3, %ymm3
vpunpcklqdq %ymm2, %ymm0, %ymm5
vpunpcklqdq %ymm6, %ymm4, %ymm8
vpunpckhqdq %ymm2, %ymm0, %ymm0
vpunpckhqdq %ymm6, %ymm4, %ymm2
vperm2i128 $32, %ymm9, %ymm7, %ymm4
vperm2i128 $49, %ymm9, %ymm7, %ymm6
vperm2i128 $32, %ymm3, %ymm1, %ymm7
vperm2i128 $49, %ymm3, %ymm1, %ymm1
vperm2i128 $32, %ymm8, %ymm5, %ymm3
vperm2i128 $49, %ymm8, %ymm5, %ymm5
vperm2i128 $32, %ymm2, %ymm0, %ymm8
vperm2i128 $49, %ymm2, %ymm0, %ymm0
vpxor (%rsi), %ymm4, %ymm2
vpxor 64(%rsi), %ymm7, %ymm4
vpxor 128(%rsi), %ymm3, %ymm3
vpxor 192(%rsi), %ymm8, %ymm7
vpxor 256(%rsi), %ymm6, %ymm6
vpxor 320(%rsi), %ymm1, %ymm1
vpxor 384(%rsi), %ymm5, %ymm5
vpxor 448(%rsi), %ymm0, %ymm0
vmovdqu %ymm2, (%rdi)
vmovdqu %ymm4, 64(%rdi)
vmovdqu %ymm3, 128(%rdi)
vmovdqu %ymm7, 192(%rdi)
vmovdqu %ymm6, 256(%rdi)
vmovdqu %ymm1, 320(%rdi)
vmovdqu %ymm5, 384(%rdi)
vmovdqu %ymm0, 448(%rdi)
vmovdqu 128(%rsp), %ymm0
vmovdqu 192(%rsp), %ymm1
vmovdqu 256(%rsp), %ymm2
vmovdqu 320(%rsp), %ymm3
vpunpckldq 160(%rsp), %ymm0, %ymm4
vpunpckhdq 160(%rsp), %ymm0, %ymm0
vpunpckldq 224(%rsp), %ymm1, %ymm5
vpunpckhdq 224(%rsp), %ymm1, %ymm1
vpunpckldq 288(%rsp), %ymm2, %ymm6
vpunpckhdq 288(%rsp), %ymm2, %ymm2
vpunpckldq 352(%rsp), %ymm3, %ymm7
vpunpckhdq 352(%rsp), %ymm3, %ymm3
vpunpcklqdq %ymm5, %ymm4, %ymm8
vpunpcklqdq %ymm7, %ymm6, %ymm9
vpunpckhqdq %ymm5, %ymm4, %ymm4
vpunpckhqdq %ymm7, %ymm6, %ymm5
vpunpcklqdq %ymm1, %ymm0, %ymm6
vpunpcklqdq %ymm3, %ymm2, %ymm7
vpunpckhqdq %ymm1, %ymm0, %ymm0
vpunpckhqdq %ymm3, %ymm2, %ymm1
vperm2i128 $32, %ymm9, %ymm8, %ymm2
vperm2i128 $49, %ymm9, %ymm8, %ymm3
vperm2i128 $32, %ymm5, %ymm4, %ymm8
vperm2i128 $49, %ymm5, %ymm4, %ymm4
vperm2i128 $32, %ymm7, %ymm6, %ymm5
vperm2i128 $49, %ymm7, %ymm6, %ymm6
vperm2i128 $32, %ymm1, %ymm0, %ymm7
vperm2i128 $49, %ymm1, %ymm0, %ymm0
vpxor 32(%rsi), %ymm2, %ymm1
vpxor 96(%rsi), %ymm8, %ymm2
vpxor 160(%rsi), %ymm5, %ymm5
vpxor 224(%rsi), %ymm7, %ymm7
vpxor 288(%rsi), %ymm3, %ymm3
vpxor 352(%rsi), %ymm4, %ymm4
vpxor 416(%rsi), %ymm6, %ymm6
vpxor 480(%rsi), %ymm0, %ymm0
vmovdqu %ymm1, 32(%rdi)
vmovdqu %ymm2, 96(%rdi)
vmovdqu %ymm5, 160(%rdi)
vmovdqu %ymm7, 224(%rdi)
vmovdqu %ymm3, 288(%rdi)
vmovdqu %ymm4, 352(%rdi)
vmovdqu %ymm6, 416(%rdi)
vmovdqu %ymm0, 480(%rdi)
addq $512, %rdi
addq $512, %rsi
addq $-512, %rdx
vmovdqu glob_data + 0(%rip), %ymm0
vpaddd 1024(%rsp), %ymm0, %ymm0
vmovdqu %ymm0, 1024(%rsp)
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$32:
cmpq $512, %rdx
jnb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$33
cmpq $0, %rdx
jbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$2
vmovdqu 640(%rsp), %ymm0
vmovdqu 672(%rsp), %ymm1
vmovdqu 704(%rsp), %ymm2
vmovdqu 736(%rsp), %ymm3
vmovdqu 768(%rsp), %ymm4
vmovdqu 800(%rsp), %ymm5
vmovdqu 832(%rsp), %ymm6
vmovdqu 864(%rsp), %ymm7
vmovdqu 896(%rsp), %ymm8
vmovdqu 928(%rsp), %ymm9
vmovdqu 960(%rsp), %ymm10
vmovdqu 992(%rsp), %ymm11
vmovdqu 1024(%rsp), %ymm12
vmovdqu 1056(%rsp), %ymm13
vmovdqu 1088(%rsp), %ymm14
vmovdqu 1120(%rsp), %ymm15
vmovdqu %ymm15, 64(%rsp)
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$31:
vpaddd %ymm4, %ymm0, %ymm0
vpxor %ymm0, %ymm12, %ymm12
vpshufb (%rsp), %ymm12, %ymm12
vpaddd %ymm12, %ymm8, %ymm8
vpaddd %ymm6, %ymm2, %ymm2
vpxor %ymm8, %ymm4, %ymm4
vpxor %ymm2, %ymm14, %ymm14
vpslld $12, %ymm4, %ymm15
vpsrld $20, %ymm4, %ymm4
vpxor %ymm15, %ymm4, %ymm4
vpshufb (%rsp), %ymm14, %ymm14
vpaddd %ymm4, %ymm0, %ymm0
vpaddd %ymm14, %ymm10, %ymm10
vpxor %ymm0, %ymm12, %ymm12
vpxor %ymm10, %ymm6, %ymm6
vpshufb 32(%rsp), %ymm12, %ymm12
vpslld $12, %ymm6, %ymm15
vpsrld $20, %ymm6, %ymm6
vpxor %ymm15, %ymm6, %ymm6
vpaddd %ymm12, %ymm8, %ymm8
vpaddd %ymm6, %ymm2, %ymm2
vpxor %ymm8, %ymm4, %ymm4
vpxor %ymm2, %ymm14, %ymm14
vpslld $7, %ymm4, %ymm15
vpsrld $25, %ymm4, %ymm4
vpxor %ymm15, %ymm4, %ymm4
vpshufb 32(%rsp), %ymm14, %ymm14
vpaddd %ymm14, %ymm10, %ymm10
vpxor %ymm10, %ymm6, %ymm6
vpslld $7, %ymm6, %ymm15
vpsrld $25, %ymm6, %ymm6
vpxor %ymm15, %ymm6, %ymm6
vmovdqu 64(%rsp), %ymm15
vmovdqu %ymm14, 96(%rsp)
vpaddd %ymm5, %ymm1, %ymm1
vpxor %ymm1, %ymm13, %ymm13
vpshufb (%rsp), %ymm13, %ymm13
vpaddd %ymm13, %ymm9, %ymm9
vpaddd %ymm7, %ymm3, %ymm3
vpxor %ymm9, %ymm5, %ymm5
vpxor %ymm3, %ymm15, %ymm14
vpslld $12, %ymm5, %ymm15
vpsrld $20, %ymm5, %ymm5
vpxor %ymm15, %ymm5, %ymm5
vpshufb (%rsp), %ymm14, %ymm14
vpaddd %ymm5, %ymm1, %ymm1
vpaddd %ymm14, %ymm11, %ymm11
vpxor %ymm1, %ymm13, %ymm13
vpxor %ymm11, %ymm7, %ymm7
vpshufb 32(%rsp), %ymm13, %ymm13
vpslld $12, %ymm7, %ymm15
vpsrld $20, %ymm7, %ymm7
vpxor %ymm15, %ymm7, %ymm7
vpaddd %ymm13, %ymm9, %ymm9
vpaddd %ymm7, %ymm3, %ymm3
vpxor %ymm9, %ymm5, %ymm5
vpxor %ymm3, %ymm14, %ymm14
vpslld $7, %ymm5, %ymm15
vpsrld $25, %ymm5, %ymm5
vpxor %ymm15, %ymm5, %ymm5
vpshufb 32(%rsp), %ymm14, %ymm14
vpaddd %ymm14, %ymm11, %ymm11
vpxor %ymm11, %ymm7, %ymm7
vpslld $7, %ymm7, %ymm15
vpsrld $25, %ymm7, %ymm7
vpxor %ymm15, %ymm7, %ymm7
vpaddd %ymm6, %ymm1, %ymm1
vpxor %ymm1, %ymm12, %ymm12
vpshufb (%rsp), %ymm12, %ymm12
vpaddd %ymm12, %ymm11, %ymm11
vpaddd %ymm5, %ymm0, %ymm0
vpxor %ymm11, %ymm6, %ymm6
vpxor %ymm0, %ymm14, %ymm14
vpslld $12, %ymm6, %ymm15
vpsrld $20, %ymm6, %ymm6
vpxor %ymm15, %ymm6, %ymm6
vpshufb (%rsp), %ymm14, %ymm14
vpaddd %ymm6, %ymm1, %ymm1
vpaddd %ymm14, %ymm10, %ymm10
vpxor %ymm1, %ymm12, %ymm12
vpxor %ymm10, %ymm5, %ymm5
vpshufb 32(%rsp), %ymm12, %ymm12
vpslld $12, %ymm5, %ymm15
vpsrld $20, %ymm5, %ymm5
vpxor %ymm15, %ymm5, %ymm5
vpaddd %ymm12, %ymm11, %ymm11
vpaddd %ymm5, %ymm0, %ymm0
vpxor %ymm11, %ymm6, %ymm6
vpxor %ymm0, %ymm14, %ymm14
vpslld $7, %ymm6, %ymm15
vpsrld $25, %ymm6, %ymm6
vpxor %ymm15, %ymm6, %ymm6
vpshufb 32(%rsp), %ymm14, %ymm14
vpaddd %ymm14, %ymm10, %ymm10
vpxor %ymm10, %ymm5, %ymm5
vpslld $7, %ymm5, %ymm15
vpsrld $25, %ymm5, %ymm5
vpxor %ymm15, %ymm5, %ymm5
vmovdqu 96(%rsp), %ymm15
vmovdqu %ymm14, 64(%rsp)
vpaddd %ymm7, %ymm2, %ymm2
vpxor %ymm2, %ymm13, %ymm13
vpshufb (%rsp), %ymm13, %ymm13
vpaddd %ymm13, %ymm8, %ymm8
vpaddd %ymm4, %ymm3, %ymm3
vpxor %ymm8, %ymm7, %ymm7
vpxor %ymm3, %ymm15, %ymm14
vpslld $12, %ymm7, %ymm15
vpsrld $20, %ymm7, %ymm7
vpxor %ymm15, %ymm7, %ymm7
vpshufb (%rsp), %ymm14, %ymm14
vpaddd %ymm7, %ymm2, %ymm2
vpaddd %ymm14, %ymm9, %ymm9
vpxor %ymm2, %ymm13, %ymm13
vpxor %ymm9, %ymm4, %ymm4
vpshufb 32(%rsp), %ymm13, %ymm13
vpslld $12, %ymm4, %ymm15
vpsrld $20, %ymm4, %ymm4
vpxor %ymm15, %ymm4, %ymm4
vpaddd %ymm13, %ymm8, %ymm8
vpaddd %ymm4, %ymm3, %ymm3
vpxor %ymm8, %ymm7, %ymm7
vpxor %ymm3, %ymm14, %ymm14
vpslld $7, %ymm7, %ymm15
vpsrld $25, %ymm7, %ymm7
vpxor %ymm15, %ymm7, %ymm7
vpshufb 32(%rsp), %ymm14, %ymm14
vpaddd %ymm14, %ymm9, %ymm9
vpxor %ymm9, %ymm4, %ymm4
vpslld $7, %ymm4, %ymm15
vpsrld $25, %ymm4, %ymm4
vpxor %ymm15, %ymm4, %ymm4
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$31
vmovdqu 64(%rsp), %ymm15
vpaddd 640(%rsp), %ymm0, %ymm0
vpaddd 672(%rsp), %ymm1, %ymm1
vpaddd 704(%rsp), %ymm2, %ymm2
vpaddd 736(%rsp), %ymm3, %ymm3
vpaddd 768(%rsp), %ymm4, %ymm4
vpaddd 800(%rsp), %ymm5, %ymm5
vpaddd 832(%rsp), %ymm6, %ymm6
vpaddd 864(%rsp), %ymm7, %ymm7
vpaddd 896(%rsp), %ymm8, %ymm8
vpaddd 928(%rsp), %ymm9, %ymm9
vpaddd 960(%rsp), %ymm10, %ymm10
vpaddd 992(%rsp), %ymm11, %ymm11
vpaddd 1024(%rsp), %ymm12, %ymm12
vpaddd 1056(%rsp), %ymm13, %ymm13
vpaddd 1088(%rsp), %ymm14, %ymm14
vpaddd 1120(%rsp), %ymm15, %ymm15
vmovdqu %ymm8, 128(%rsp)
vmovdqu %ymm9, 160(%rsp)
vmovdqu %ymm10, 192(%rsp)
vmovdqu %ymm11, 224(%rsp)
vmovdqu %ymm12, 256(%rsp)
vmovdqu %ymm13, 288(%rsp)
vmovdqu %ymm14, 320(%rsp)
vmovdqu %ymm15, 352(%rsp)
vpunpckldq %ymm1, %ymm0, %ymm8
vpunpckhdq %ymm1, %ymm0, %ymm0
vpunpckldq %ymm3, %ymm2, %ymm1
vpunpckhdq %ymm3, %ymm2, %ymm2
vpunpckldq %ymm5, %ymm4, %ymm3
vpunpckhdq %ymm5, %ymm4, %ymm4
vpunpckldq %ymm7, %ymm6, %ymm5
vpunpckhdq %ymm7, %ymm6, %ymm6
vpunpcklqdq %ymm1, %ymm8, %ymm7
vpunpcklqdq %ymm5, %ymm3, %ymm9
vpunpckhqdq %ymm1, %ymm8, %ymm1
vpunpckhqdq %ymm5, %ymm3, %ymm3
vpunpcklqdq %ymm2, %ymm0, %ymm5
vpunpcklqdq %ymm6, %ymm4, %ymm8
vpunpckhqdq %ymm2, %ymm0, %ymm0
vpunpckhqdq %ymm6, %ymm4, %ymm2
vperm2i128 $32, %ymm9, %ymm7, %ymm4
vperm2i128 $49, %ymm9, %ymm7, %ymm6
vperm2i128 $32, %ymm3, %ymm1, %ymm7
vperm2i128 $49, %ymm3, %ymm1, %ymm1
vperm2i128 $32, %ymm8, %ymm5, %ymm3
vperm2i128 $49, %ymm8, %ymm5, %ymm5
vperm2i128 $32, %ymm2, %ymm0, %ymm8
vperm2i128 $49, %ymm2, %ymm0, %ymm0
vmovdqu %ymm4, 384(%rsp)
vmovdqu %ymm7, 416(%rsp)
vmovdqu %ymm3, 448(%rsp)
vmovdqu %ymm8, 480(%rsp)
vmovdqu %ymm6, 512(%rsp)
vmovdqu %ymm1, 544(%rsp)
vmovdqu %ymm5, 576(%rsp)
vmovdqu %ymm0, 608(%rsp)
vmovdqu 128(%rsp), %ymm0
vmovdqu 192(%rsp), %ymm1
vmovdqu 256(%rsp), %ymm2
vmovdqu 320(%rsp), %ymm3
vpunpckldq 160(%rsp), %ymm0, %ymm4
vpunpckhdq 160(%rsp), %ymm0, %ymm0
vpunpckldq 224(%rsp), %ymm1, %ymm5
vpunpckhdq 224(%rsp), %ymm1, %ymm1
vpunpckldq 288(%rsp), %ymm2, %ymm6
vpunpckhdq 288(%rsp), %ymm2, %ymm2
vpunpckldq 352(%rsp), %ymm3, %ymm7
vpunpckhdq 352(%rsp), %ymm3, %ymm3
vpunpcklqdq %ymm5, %ymm4, %ymm8
vpunpcklqdq %ymm7, %ymm6, %ymm9
vpunpckhqdq %ymm5, %ymm4, %ymm4
vpunpckhqdq %ymm7, %ymm6, %ymm5
vpunpcklqdq %ymm1, %ymm0, %ymm6
vpunpcklqdq %ymm3, %ymm2, %ymm7
vpunpckhqdq %ymm1, %ymm0, %ymm0
vpunpckhqdq %ymm3, %ymm2, %ymm1
vperm2i128 $32, %ymm9, %ymm8, %ymm2
vperm2i128 $49, %ymm9, %ymm8, %ymm3
vperm2i128 $32, %ymm5, %ymm4, %ymm8
vperm2i128 $49, %ymm5, %ymm4, %ymm4
vperm2i128 $32, %ymm7, %ymm6, %ymm5
vperm2i128 $49, %ymm7, %ymm6, %ymm6
vperm2i128 $32, %ymm1, %ymm0, %ymm7
vperm2i128 $49, %ymm1, %ymm0, %ymm0
vmovdqu 384(%rsp), %ymm1
vmovdqu %ymm2, %ymm12
vmovdqu 416(%rsp), %ymm11
vmovdqu %ymm8, %ymm10
vmovdqu 448(%rsp), %ymm9
vmovdqu %ymm5, %ymm8
vmovdqu 480(%rsp), %ymm5
vmovdqu %ymm7, %ymm2
cmpq $256, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$30
vpxor (%rsi), %ymm1, %ymm1
vmovdqu %ymm1, (%rdi)
vpxor 32(%rsi), %ymm12, %ymm1
vmovdqu %ymm1, 32(%rdi)
vpxor 64(%rsi), %ymm11, %ymm1
vmovdqu %ymm1, 64(%rdi)
vpxor 96(%rsi), %ymm10, %ymm1
vmovdqu %ymm1, 96(%rdi)
vpxor 128(%rsi), %ymm9, %ymm1
vmovdqu %ymm1, 128(%rdi)
vpxor 160(%rsi), %ymm8, %ymm1
vmovdqu %ymm1, 160(%rdi)
vpxor 192(%rsi), %ymm5, %ymm1
vmovdqu %ymm1, 192(%rdi)
vpxor 224(%rsi), %ymm2, %ymm1
vmovdqu %ymm1, 224(%rdi)
addq $256, %rdi
addq $256, %rsi
addq $-256, %rdx
vmovdqu 512(%rsp), %ymm1
vmovdqu %ymm3, %ymm12
vmovdqu 544(%rsp), %ymm11
vmovdqu %ymm4, %ymm10
vmovdqu 576(%rsp), %ymm9
vmovdqu %ymm6, %ymm8
vmovdqu 608(%rsp), %ymm5
vmovdqu %ymm0, %ymm2
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$30:
cmpq $128, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$29
vpxor (%rsi), %ymm1, %ymm0
vmovdqu %ymm0, (%rdi)
vpxor 32(%rsi), %ymm12, %ymm0
vmovdqu %ymm0, 32(%rdi)
vpxor 64(%rsi), %ymm11, %ymm0
vmovdqu %ymm0, 64(%rdi)
vpxor 96(%rsi), %ymm10, %ymm0
vmovdqu %ymm0, 96(%rdi)
addq $128, %rdi
addq $128, %rsi
addq $-128, %rdx
vmovdqu %ymm9, %ymm1
vmovdqu %ymm8, %ymm12
vmovdqu %ymm5, %ymm11
vmovdqu %ymm2, %ymm10
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$29:
cmpq $64, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$28
vpxor (%rsi), %ymm1, %ymm0
vmovdqu %ymm0, (%rdi)
vpxor 32(%rsi), %ymm12, %ymm0
vmovdqu %ymm0, 32(%rdi)
addq $64, %rdi
addq $64, %rsi
addq $-64, %rdx
vmovdqu %ymm11, %ymm1
vmovdqu %ymm10, %ymm12
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$28:
cmpq $32, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$27
vpxor (%rsi), %ymm1, %ymm0
vmovdqu %ymm0, (%rdi)
addq $32, %rdi
addq $32, %rsi
addq $-32, %rdx
vmovdqu %ymm12, %ymm1
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$27:
vmovdqu %xmm1, %xmm0
cmpq $16, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$26
vpxor (%rsi), %xmm0, %xmm0
vmovdqu %xmm0, (%rdi)
addq $16, %rdi
addq $16, %rsi
addq $-16, %rdx
vextracti128 $1, %ymm1, %xmm0
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$26:
vpextrq $0, %xmm0, %rax
cmpq $8, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$23
xorq (%rsi), %rax
movq %rax, (%rdi)
addq $8, %rdi
addq $8, %rsi
addq $-8, %rdx
vpextrq $1, %xmm0, %rax
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$25:
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$23
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$24:
movb %al, %cl
xorb (%rsi), %cl
movb %cl, (%rdi)
shrq $8, %rax
incq %rdi
incq %rsi
addq $-1, %rdx
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$23:
cmpq $0, %rdx
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$24
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$22:
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$2
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$1:
vmovdqu glob_data + 160(%rip), %ymm0
vmovdqu glob_data + 128(%rip), %ymm1
vmovdqu glob_data + 480(%rip), %ymm2
vbroadcasti128 (%r8), %ymm3
vbroadcasti128 16(%r8), %ymm4
vpxor %xmm5, %xmm5, %xmm5
vpinsrd $1, (%rcx), %xmm5, %xmm5
vpinsrq $1, 4(%rcx), %xmm5, %xmm5
vpxor %ymm6, %ymm6, %ymm6
vinserti128 $0, %xmm5, %ymm6, %ymm6
vinserti128 $1, %xmm5, %ymm6, %ymm5
vpaddd glob_data + 96(%rip), %ymm5, %ymm5
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$19
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$20:
vmovdqu %ymm2, %ymm6
vmovdqu %ymm3, %ymm7
vmovdqu %ymm4, %ymm8
vmovdqu %ymm5, %ymm9
vmovdqu %ymm2, %ymm10
vmovdqu %ymm3, %ymm11
vmovdqu %ymm4, %ymm12
vmovdqu %ymm5, %ymm13
vpaddd glob_data + 64(%rip), %ymm13, %ymm13
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$21:
vpaddd %ymm7, %ymm6, %ymm6
vpaddd %ymm11, %ymm10, %ymm10
vpxor %ymm6, %ymm9, %ymm9
vpxor %ymm10, %ymm13, %ymm13
vpshufb %ymm0, %ymm9, %ymm9
vpshufb %ymm0, %ymm13, %ymm13
vpaddd %ymm9, %ymm8, %ymm8
vpaddd %ymm13, %ymm12, %ymm12
vpxor %ymm8, %ymm7, %ymm7
vpslld $12, %ymm7, %ymm14
vpsrld $20, %ymm7, %ymm7
vpxor %ymm12, %ymm11, %ymm11
vpxor %ymm14, %ymm7, %ymm7
vpslld $12, %ymm11, %ymm14
vpsrld $20, %ymm11, %ymm11
vpxor %ymm14, %ymm11, %ymm11
vpaddd %ymm7, %ymm6, %ymm6
vpaddd %ymm11, %ymm10, %ymm10
vpxor %ymm6, %ymm9, %ymm9
vpxor %ymm10, %ymm13, %ymm13
vpshufb %ymm1, %ymm9, %ymm9
vpshufb %ymm1, %ymm13, %ymm13
vpaddd %ymm9, %ymm8, %ymm8
vpaddd %ymm13, %ymm12, %ymm12
vpxor %ymm8, %ymm7, %ymm7
vpslld $7, %ymm7, %ymm14
vpsrld $25, %ymm7, %ymm7
vpxor %ymm12, %ymm11, %ymm11
vpxor %ymm14, %ymm7, %ymm7
vpslld $7, %ymm11, %ymm14
vpsrld $25, %ymm11, %ymm11
vpxor %ymm14, %ymm11, %ymm11
vpshufd $57, %ymm7, %ymm7
vpshufd $78, %ymm8, %ymm8
vpshufd $-109, %ymm9, %ymm9
vpshufd $57, %ymm11, %ymm11
vpshufd $78, %ymm12, %ymm12
vpshufd $-109, %ymm13, %ymm13
vpaddd %ymm7, %ymm6, %ymm6
vpaddd %ymm11, %ymm10, %ymm10
vpxor %ymm6, %ymm9, %ymm9
vpxor %ymm10, %ymm13, %ymm13
vpshufb %ymm0, %ymm9, %ymm9
vpshufb %ymm0, %ymm13, %ymm13
vpaddd %ymm9, %ymm8, %ymm8
vpaddd %ymm13, %ymm12, %ymm12
vpxor %ymm8, %ymm7, %ymm7
vpslld $12, %ymm7, %ymm14
vpsrld $20, %ymm7, %ymm7
vpxor %ymm12, %ymm11, %ymm11
vpxor %ymm14, %ymm7, %ymm7
vpslld $12, %ymm11, %ymm14
vpsrld $20, %ymm11, %ymm11
vpxor %ymm14, %ymm11, %ymm11
vpaddd %ymm7, %ymm6, %ymm6
vpaddd %ymm11, %ymm10, %ymm10
vpxor %ymm6, %ymm9, %ymm9
vpxor %ymm10, %ymm13, %ymm13
vpshufb %ymm1, %ymm9, %ymm9
vpshufb %ymm1, %ymm13, %ymm13
vpaddd %ymm9, %ymm8, %ymm8
vpaddd %ymm13, %ymm12, %ymm12
vpxor %ymm8, %ymm7, %ymm7
vpslld $7, %ymm7, %ymm14
vpsrld $25, %ymm7, %ymm7
vpxor %ymm12, %ymm11, %ymm11
vpxor %ymm14, %ymm7, %ymm7
vpslld $7, %ymm11, %ymm14
vpsrld $25, %ymm11, %ymm11
vpxor %ymm14, %ymm11, %ymm11
vpshufd $-109, %ymm7, %ymm7
vpshufd $78, %ymm8, %ymm8
vpshufd $57, %ymm9, %ymm9
vpshufd $-109, %ymm11, %ymm11
vpshufd $78, %ymm12, %ymm12
vpshufd $57, %ymm13, %ymm13
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$21
vpaddd %ymm2, %ymm6, %ymm6
vpaddd %ymm3, %ymm7, %ymm7
vpaddd %ymm4, %ymm8, %ymm8
vpaddd %ymm5, %ymm9, %ymm9
vpaddd %ymm2, %ymm10, %ymm10
vpaddd %ymm3, %ymm11, %ymm11
vpaddd %ymm4, %ymm12, %ymm12
vpaddd %ymm5, %ymm13, %ymm13
vpaddd glob_data + 64(%rip), %ymm13, %ymm13
vperm2i128 $32, %ymm7, %ymm6, %ymm14
vperm2i128 $32, %ymm9, %ymm8, %ymm15
vperm2i128 $49, %ymm7, %ymm6, %ymm6
vperm2i128 $49, %ymm9, %ymm8, %ymm7
vperm2i128 $32, %ymm11, %ymm10, %ymm8
vperm2i128 $32, %ymm13, %ymm12, %ymm9
vperm2i128 $49, %ymm11, %ymm10, %ymm10
vperm2i128 $49, %ymm13, %ymm12, %ymm11
vpxor (%rsi), %ymm14, %ymm12
vmovdqu %ymm12, (%rdi)
vpxor 32(%rsi), %ymm15, %ymm12
vmovdqu %ymm12, 32(%rdi)
vpxor 64(%rsi), %ymm6, %ymm6
vmovdqu %ymm6, 64(%rdi)
vpxor 96(%rsi), %ymm7, %ymm6
vmovdqu %ymm6, 96(%rdi)
vpxor 128(%rsi), %ymm8, %ymm6
vmovdqu %ymm6, 128(%rdi)
vpxor 160(%rsi), %ymm9, %ymm6
vmovdqu %ymm6, 160(%rdi)
vpxor 192(%rsi), %ymm10, %ymm6
vmovdqu %ymm6, 192(%rdi)
vpxor 224(%rsi), %ymm11, %ymm6
vmovdqu %ymm6, 224(%rdi)
addq $256, %rdi
addq $256, %rsi
addq $-256, %rdx
vpaddd glob_data + 32(%rip), %ymm5, %ymm5
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$19:
cmpq $256, %rdx
jnb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$20
cmpq $128, %rdx
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$3
vmovdqu %ymm2, %ymm6
vmovdqu %ymm3, %ymm7
vmovdqu %ymm4, %ymm8
vmovdqu %ymm5, %ymm9
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$18:
vpaddd %ymm7, %ymm6, %ymm6
vpxor %ymm6, %ymm9, %ymm9
vpshufb %ymm0, %ymm9, %ymm9
vpaddd %ymm9, %ymm8, %ymm8
vpxor %ymm8, %ymm7, %ymm7
vpslld $12, %ymm7, %ymm10
vpsrld $20, %ymm7, %ymm7
vpxor %ymm10, %ymm7, %ymm7
vpaddd %ymm7, %ymm6, %ymm6
vpxor %ymm6, %ymm9, %ymm9
vpshufb %ymm1, %ymm9, %ymm9
vpaddd %ymm9, %ymm8, %ymm8
vpxor %ymm8, %ymm7, %ymm7
vpslld $7, %ymm7, %ymm10
vpsrld $25, %ymm7, %ymm7
vpxor %ymm10, %ymm7, %ymm7
vpshufd $57, %ymm7, %ymm7
vpshufd $78, %ymm8, %ymm8
vpshufd $-109, %ymm9, %ymm9
vpaddd %ymm7, %ymm6, %ymm6
vpxor %ymm6, %ymm9, %ymm9
vpshufb %ymm0, %ymm9, %ymm9
vpaddd %ymm9, %ymm8, %ymm8
vpxor %ymm8, %ymm7, %ymm7
vpslld $12, %ymm7, %ymm10
vpsrld $20, %ymm7, %ymm7
vpxor %ymm10, %ymm7, %ymm7
vpaddd %ymm7, %ymm6, %ymm6
vpxor %ymm6, %ymm9, %ymm9
vpshufb %ymm1, %ymm9, %ymm9
vpaddd %ymm9, %ymm8, %ymm8
vpxor %ymm8, %ymm7, %ymm7
vpslld $7, %ymm7, %ymm10
vpsrld $25, %ymm7, %ymm7
vpxor %ymm10, %ymm7, %ymm7
vpshufd $-109, %ymm7, %ymm7
vpshufd $78, %ymm8, %ymm8
vpshufd $57, %ymm9, %ymm9
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$18
vpaddd %ymm2, %ymm6, %ymm0
vpaddd %ymm3, %ymm7, %ymm1
vpaddd %ymm4, %ymm8, %ymm2
vpaddd %ymm5, %ymm9, %ymm3
vperm2i128 $32, %ymm1, %ymm0, %ymm5
vperm2i128 $32, %ymm3, %ymm2, %ymm4
vperm2i128 $49, %ymm1, %ymm0, %ymm0
vperm2i128 $49, %ymm3, %ymm2, %ymm1
cmpq $64, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$17
vpxor (%rsi), %ymm5, %ymm2
vmovdqu %ymm2, (%rdi)
vpxor 32(%rsi), %ymm4, %ymm2
vmovdqu %ymm2, 32(%rdi)
addq $64, %rdi
addq $64, %rsi
addq $-64, %rdx
vmovdqu %ymm0, %ymm5
vmovdqu %ymm1, %ymm4
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$17:
cmpq $32, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$16
vpxor (%rsi), %ymm5, %ymm0
vmovdqu %ymm0, (%rdi)
addq $32, %rdi
addq $32, %rsi
addq $-32, %rdx
vmovdqu %ymm4, %ymm5
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$16:
vmovdqu %xmm5, %xmm0
cmpq $16, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$15
vpxor (%rsi), %xmm0, %xmm0
vmovdqu %xmm0, (%rdi)
addq $16, %rdi
addq $16, %rsi
addq $-16, %rdx
vextracti128 $1, %ymm5, %xmm0
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$15:
vpextrq $0, %xmm0, %rax
cmpq $8, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$12
xorq (%rsi), %rax
movq %rax, (%rdi)
addq $8, %rdi
addq $8, %rsi
addq $-8, %rdx
vpextrq $1, %xmm0, %rax
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$14:
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$12
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$13:
movb %al, %cl
xorb (%rsi), %cl
movb %cl, (%rdi)
shrq $8, %rax
incq %rdi
incq %rsi
addq $-1, %rdx
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$12:
cmpq $0, %rdx
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$13
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$2
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$3:
vmovdqu %ymm2, %ymm6
vmovdqu %ymm3, %ymm7
vmovdqu %ymm4, %ymm8
vmovdqu %ymm5, %ymm9
vmovdqu %ymm2, %ymm10
vmovdqu %ymm3, %ymm11
vmovdqu %ymm4, %ymm12
vmovdqu %ymm5, %ymm13
vpaddd glob_data + 64(%rip), %ymm13, %ymm13
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$11:
vpaddd %ymm7, %ymm6, %ymm6
vpaddd %ymm11, %ymm10, %ymm10
vpxor %ymm6, %ymm9, %ymm9
vpxor %ymm10, %ymm13, %ymm13
vpshufb %ymm0, %ymm9, %ymm9
vpshufb %ymm0, %ymm13, %ymm13
vpaddd %ymm9, %ymm8, %ymm8
vpaddd %ymm13, %ymm12, %ymm12
vpxor %ymm8, %ymm7, %ymm7
vpslld $12, %ymm7, %ymm14
vpsrld $20, %ymm7, %ymm7
vpxor %ymm12, %ymm11, %ymm11
vpxor %ymm14, %ymm7, %ymm7
vpslld $12, %ymm11, %ymm14
vpsrld $20, %ymm11, %ymm11
vpxor %ymm14, %ymm11, %ymm11
vpaddd %ymm7, %ymm6, %ymm6
vpaddd %ymm11, %ymm10, %ymm10
vpxor %ymm6, %ymm9, %ymm9
vpxor %ymm10, %ymm13, %ymm13
vpshufb %ymm1, %ymm9, %ymm9
vpshufb %ymm1, %ymm13, %ymm13
vpaddd %ymm9, %ymm8, %ymm8
vpaddd %ymm13, %ymm12, %ymm12
vpxor %ymm8, %ymm7, %ymm7
vpslld $7, %ymm7, %ymm14
vpsrld $25, %ymm7, %ymm7
vpxor %ymm12, %ymm11, %ymm11
vpxor %ymm14, %ymm7, %ymm7
vpslld $7, %ymm11, %ymm14
vpsrld $25, %ymm11, %ymm11
vpxor %ymm14, %ymm11, %ymm11
vpshufd $57, %ymm7, %ymm7
vpshufd $78, %ymm8, %ymm8
vpshufd $-109, %ymm9, %ymm9
vpshufd $57, %ymm11, %ymm11
vpshufd $78, %ymm12, %ymm12
vpshufd $-109, %ymm13, %ymm13
vpaddd %ymm7, %ymm6, %ymm6
vpaddd %ymm11, %ymm10, %ymm10
vpxor %ymm6, %ymm9, %ymm9
vpxor %ymm10, %ymm13, %ymm13
vpshufb %ymm0, %ymm9, %ymm9
vpshufb %ymm0, %ymm13, %ymm13
vpaddd %ymm9, %ymm8, %ymm8
vpaddd %ymm13, %ymm12, %ymm12
vpxor %ymm8, %ymm7, %ymm7
vpslld $12, %ymm7, %ymm14
vpsrld $20, %ymm7, %ymm7
vpxor %ymm12, %ymm11, %ymm11
vpxor %ymm14, %ymm7, %ymm7
vpslld $12, %ymm11, %ymm14
vpsrld $20, %ymm11, %ymm11
vpxor %ymm14, %ymm11, %ymm11
vpaddd %ymm7, %ymm6, %ymm6
vpaddd %ymm11, %ymm10, %ymm10
vpxor %ymm6, %ymm9, %ymm9
vpxor %ymm10, %ymm13, %ymm13
vpshufb %ymm1, %ymm9, %ymm9
vpshufb %ymm1, %ymm13, %ymm13
vpaddd %ymm9, %ymm8, %ymm8
vpaddd %ymm13, %ymm12, %ymm12
vpxor %ymm8, %ymm7, %ymm7
vpslld $7, %ymm7, %ymm14
vpsrld $25, %ymm7, %ymm7
vpxor %ymm12, %ymm11, %ymm11
vpxor %ymm14, %ymm7, %ymm7
vpslld $7, %ymm11, %ymm14
vpsrld $25, %ymm11, %ymm11
vpxor %ymm14, %ymm11, %ymm11
vpshufd $-109, %ymm7, %ymm7
vpshufd $78, %ymm8, %ymm8
vpshufd $57, %ymm9, %ymm9
vpshufd $-109, %ymm11, %ymm11
vpshufd $78, %ymm12, %ymm12
vpshufd $57, %ymm13, %ymm13
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$11
vpaddd %ymm2, %ymm6, %ymm0
vpaddd %ymm3, %ymm7, %ymm1
vpaddd %ymm4, %ymm8, %ymm6
vpaddd %ymm5, %ymm9, %ymm7
vpaddd %ymm2, %ymm10, %ymm2
vpaddd %ymm3, %ymm11, %ymm3
vpaddd %ymm4, %ymm12, %ymm4
vpaddd %ymm5, %ymm13, %ymm5
vpaddd glob_data + 64(%rip), %ymm5, %ymm5
vperm2i128 $32, %ymm1, %ymm0, %ymm8
vperm2i128 $32, %ymm7, %ymm6, %ymm9
vperm2i128 $49, %ymm1, %ymm0, %ymm0
vperm2i128 $49, %ymm7, %ymm6, %ymm1
vperm2i128 $32, %ymm3, %ymm2, %ymm7
vperm2i128 $32, %ymm5, %ymm4, %ymm6
vperm2i128 $49, %ymm3, %ymm2, %ymm2
vperm2i128 $49, %ymm5, %ymm4, %ymm3
vpxor (%rsi), %ymm8, %ymm4
vmovdqu %ymm4, (%rdi)
vpxor 32(%rsi), %ymm9, %ymm4
vmovdqu %ymm4, 32(%rdi)
vpxor 64(%rsi), %ymm0, %ymm0
vmovdqu %ymm0, 64(%rdi)
vpxor 96(%rsi), %ymm1, %ymm0
vmovdqu %ymm0, 96(%rdi)
addq $128, %rdi
addq $128, %rsi
addq $-128, %rdx
cmpq $64, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$10
vpxor (%rsi), %ymm7, %ymm0
vmovdqu %ymm0, (%rdi)
vpxor 32(%rsi), %ymm6, %ymm0
vmovdqu %ymm0, 32(%rdi)
addq $64, %rdi
addq $64, %rsi
addq $-64, %rdx
vmovdqu %ymm2, %ymm7
vmovdqu %ymm3, %ymm6
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$10:
cmpq $32, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$9
vpxor (%rsi), %ymm7, %ymm0
vmovdqu %ymm0, (%rdi)
addq $32, %rdi
addq $32, %rsi
addq $-32, %rdx
vmovdqu %ymm6, %ymm7
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$9:
vmovdqu %xmm7, %xmm0
cmpq $16, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$8
vpxor (%rsi), %xmm0, %xmm0
vmovdqu %xmm0, (%rdi)
addq $16, %rdi
addq $16, %rsi
addq $-16, %rdx
vextracti128 $1, %ymm7, %xmm0
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$8:
vpextrq $0, %xmm0, %rax
cmpq $8, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$5
xorq (%rsi), %rax
movq %rax, (%rdi)
addq $8, %rdi
addq $8, %rsi
addq $-8, %rdx
vpextrq $1, %xmm0, %rax
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$7:
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$5
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$6:
movb %al, %cl
xorb (%rsi), %cl
movb %cl, (%rdi)
shrq $8, %rax
incq %rdi
incq %rsi
addq $-1, %rdx
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$5:
cmpq $0, %rdx
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$6
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$4:
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$2:
xorq %rax, %rax
movq %r10, %rsp
ret
.data
.p2align 5
_glob_data:
glob_data:
.byte 8
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 4
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 4
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 2
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 2
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 3
.byte 0
.byte 1
.byte 2
.byte 7
.byte 4
.byte 5
.byte 6
.byte 11
.byte 8
.byte 9
.byte 10
.byte 15
.byte 12
.byte 13
.byte 14
.byte 3
.byte 0
.byte 1
.byte 2
.byte 7
.byte 4
.byte 5
.byte 6
.byte 11
.byte 8
.byte 9
.byte 10
.byte 15
.byte 12
.byte 13
.byte 14
.byte 2
.byte 3
.byte 0
.byte 1
.byte 6
.byte 7
.byte 4
.byte 5
.byte 10
.byte 11
.byte 8
.byte 9
.byte 14
.byte 15
.byte 12
.byte 13
.byte 2
.byte 3
.byte 0
.byte 1
.byte 6
.byte 7
.byte 4
.byte 5
.byte 10
.byte 11
.byte 8
.byte 9
.byte 14
.byte 15
.byte 12
.byte 13
.byte 8
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 2
.byte 0
.byte 0
.byte 0
.byte 3
.byte 0
.byte 0
.byte 0
.byte 4
.byte 0
.byte 0
.byte 0
.byte 5
.byte 0
.byte 0
.byte 0
.byte 6
.byte 0
.byte 0
.byte 0
.byte 7
.byte 0
.byte 0
.byte 0
.byte 101
.byte 120
.byte 112
.byte 97
.byte 101
.byte 120
.byte 112
.byte 97
.byte 101
.byte 120
.byte 112
.byte 97
.byte 101
.byte 120
.byte 112
.byte 97
.byte 101
.byte 120
.byte 112
.byte 97
.byte 101
.byte 120
.byte 112
.byte 97
.byte 101
.byte 120
.byte 112
.byte 97
.byte 101
.byte 120
.byte 112
.byte 97
.byte 110
.byte 100
.byte 32
.byte 51
.byte 110
.byte 100
.byte 32
.byte 51
.byte 110
.byte 100
.byte 32
.byte 51
.byte 110
.byte 100
.byte 32
.byte 51
.byte 110
.byte 100
.byte 32
.byte 51
.byte 110
.byte 100
.byte 32
.byte 51
.byte 110
.byte 100
.byte 32
.byte 51
.byte 110
.byte 100
.byte 32
.byte 51
.byte 50
.byte 45
.byte 98
.byte 121
.byte 50
.byte 45
.byte 98
.byte 121
.byte 50
.byte 45
.byte 98
.byte 121
.byte 50
.byte 45
.byte 98
.byte 121
.byte 50
.byte 45
.byte 98
.byte 121
.byte 50
.byte 45
.byte 98
.byte 121
.byte 50
.byte 45
.byte 98
.byte 121
.byte 50
.byte 45
.byte 98
.byte 121
.byte 116
.byte 101
.byte 32
.byte 107
.byte 116
.byte 101
.byte 32
.byte 107
.byte 116
.byte 101
.byte 32
.byte 107
.byte 116
.byte 101
.byte 32
.byte 107
.byte 116
.byte 101
.byte 32
.byte 107
.byte 116
.byte 101
.byte 32
.byte 107
.byte 116
.byte 101
.byte 32
.byte 107
.byte 116
.byte 101
.byte 32
.byte 107
.byte 4
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 4
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 2
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 2
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 101
.byte 120
.byte 112
.byte 97
.byte 110
.byte 100
.byte 32
.byte 51
.byte 50
.byte 45
.byte 98
.byte 121
.byte 116
.byte 101
.byte 32
.byte 107
.byte 101
.byte 120
.byte 112
.byte 97
.byte 110
.byte 100
.byte 32
.byte 51
.byte 50
.byte 45
.byte 98
.byte 121
.byte 116
.byte 101
.byte 32
.byte 107
|
usenix-security-verdict/verdict
| 34,209
|
deps/libcrux/sys/libjade/jazz/sha3_224_avx2.s
|
.att_syntax
.text
.p2align 5
.globl _jade_hash_sha3_224_amd64_avx2
.globl jade_hash_sha3_224_amd64_avx2
_jade_hash_sha3_224_amd64_avx2:
jade_hash_sha3_224_amd64_avx2:
movq %rsp, %rax
leaq -40(%rsp), %rsp
andq $-32, %rsp
movq %rax, 32(%rsp)
movq %rbx, (%rsp)
movq %rbp, 8(%rsp)
movq %r12, 16(%rsp)
movq %r13, 24(%rsp)
movq $28, %r9
movb $6, %al
movq $144, %rcx
leaq -224(%rsp), %rsp
leaq Ljade_hash_sha3_224_amd64_avx2$1(%rip), %r10
jmp L_keccak1600_avx2$1
Ljade_hash_sha3_224_amd64_avx2$1:
leaq 224(%rsp), %rsp
xorq %rax, %rax
movq (%rsp), %rbx
movq 8(%rsp), %rbp
movq 16(%rsp), %r12
movq 24(%rsp), %r13
movq 32(%rsp), %rsp
ret
L_keccak1600_avx2$1:
vpxor %ymm6, %ymm6, %ymm6
vpxor %ymm3, %ymm3, %ymm3
vpxor %ymm4, %ymm4, %ymm4
vpxor %ymm0, %ymm0, %ymm0
vpxor %ymm5, %ymm5, %ymm5
vpxor %ymm1, %ymm1, %ymm1
vpxor %ymm2, %ymm2, %ymm2
leaq glob_data + 1152(%rip), %r8
vpxor %ymm7, %ymm7, %ymm7
vmovdqu %ymm7, (%rsp)
vmovdqu %ymm7, 32(%rsp)
vmovdqu %ymm7, 64(%rsp)
vmovdqu %ymm7, 96(%rsp)
vmovdqu %ymm7, 128(%rsp)
vmovdqu %ymm7, 160(%rsp)
vmovdqu %ymm7, 192(%rsp)
jmp L_keccak1600_avx2$16
L_keccak1600_avx2$17:
movq %rcx, %r11
shrq $3, %r11
movq $0, %rbx
jmp L_keccak1600_avx2$19
L_keccak1600_avx2$20:
movq (%rsi,%rbx,8), %rbp
movq (%r8,%rbx,8), %r12
movq %rbp, (%rsp,%r12,8)
incq %rbx
L_keccak1600_avx2$19:
cmpq %r11, %rbx
jb L_keccak1600_avx2$20
movq (%rsp), %r11
movq %r11, 8(%rsp)
movq %r11, 16(%rsp)
movq %r11, 24(%rsp)
vpxor (%rsp), %ymm6, %ymm6
vpxor 32(%rsp), %ymm3, %ymm3
vpxor 64(%rsp), %ymm4, %ymm4
vpxor 96(%rsp), %ymm0, %ymm0
vpxor 128(%rsp), %ymm5, %ymm5
vpxor 160(%rsp), %ymm1, %ymm1
vpxor 192(%rsp), %ymm2, %ymm2
addq %rcx, %rsi
subq %rcx, %rdx
leaq glob_data + 384(%rip), %r11
movq $0, %rbx
leaq glob_data + 192(%rip), %rbp
leaq glob_data + 0(%rip), %r12
movq $24, %r13
L_keccak1600_avx2$18:
vpshufd $78, %ymm4, %ymm8
vpxor %ymm0, %ymm1, %ymm7
vpxor %ymm2, %ymm5, %ymm9
vpxor %ymm3, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm4, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm4, %ymm4
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rbp), %ymm4, %ymm7
vpsrlvq (%r12), %ymm4, %ymm4
vpor %ymm7, %ymm4, %ymm4
vpxor %ymm9, %ymm0, %ymm0
vpsllvq 64(%rbp), %ymm0, %ymm7
vpsrlvq 64(%r12), %ymm0, %ymm0
vpor %ymm7, %ymm0, %ymm0
vpxor %ymm9, %ymm5, %ymm5
vpsllvq 96(%rbp), %ymm5, %ymm7
vpsrlvq 96(%r12), %ymm5, %ymm5
vpor %ymm7, %ymm5, %ymm10
vpxor %ymm9, %ymm1, %ymm1
vpsllvq 128(%rbp), %ymm1, %ymm5
vpsrlvq 128(%r12), %ymm1, %ymm1
vpor %ymm5, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpermq $-115, %ymm4, %ymm5
vpermq $-115, %ymm0, %ymm7
vpsllvq 160(%rbp), %ymm2, %ymm0
vpsrlvq 160(%r12), %ymm2, %ymm2
vpor %ymm0, %ymm2, %ymm8
vpxor %ymm9, %ymm3, %ymm0
vpermq $27, %ymm10, %ymm3
vpermq $114, %ymm1, %ymm9
vpsllvq 32(%rbp), %ymm0, %ymm1
vpsrlvq 32(%r12), %ymm0, %ymm0
vpor %ymm1, %ymm0, %ymm10
vpsrldq $8, %ymm8, %ymm0
vpandn %ymm0, %ymm8, %ymm0
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm2
vpblendd $12, %ymm7, %ymm5, %ymm4
vpblendd $12, %ymm5, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm2, %ymm2
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm2, %ymm2
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm2, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm2
vpblendd $12, %ymm10, %ymm3, %ymm4
vpblendd $12, %ymm3, %ymm5, %ymm11
vpxor %ymm5, %ymm1, %ymm1
vpblendd $48, %ymm5, %ymm4, %ymm4
vpblendd $48, %ymm7, %ymm11, %ymm11
vpxor %ymm3, %ymm2, %ymm2
vpblendd $-64, %ymm7, %ymm4, %ymm4
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm4, %ymm4
vpxor %ymm9, %ymm4, %ymm12
vpermq $30, %ymm8, %ymm4
vpblendd $48, %ymm6, %ymm4, %ymm4
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm4, %ymm11, %ymm11
vpblendd $12, %ymm3, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm4, %ymm4
vpblendd $48, %ymm5, %ymm13, %ymm13
vpblendd $-64, %ymm5, %ymm4, %ymm4
vpblendd $-64, %ymm3, %ymm13, %ymm13
vpandn %ymm13, %ymm4, %ymm4
vpxor %ymm10, %ymm4, %ymm4
vpermq $0, %ymm0, %ymm13
vpermq $27, %ymm1, %ymm0
vpermq $-115, %ymm2, %ymm1
vpermq $114, %ymm12, %ymm2
vpblendd $12, %ymm5, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm3, %ymm9
vpblendd $48, %ymm3, %ymm12, %ymm3
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm3, %ymm3
vpblendd $-64, %ymm5, %ymm9, %ymm5
vpandn %ymm5, %ymm3, %ymm5
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm3
vpxor %ymm7, %ymm5, %ymm5
vpxor (%r11,%rbx), %ymm6, %ymm6
addq $32, %rbx
decq %r13
jne L_keccak1600_avx2$18
L_keccak1600_avx2$16:
cmpq %rcx, %rdx
jnb L_keccak1600_avx2$17
vpxor %ymm7, %ymm7, %ymm7
vmovdqu %ymm7, (%rsp)
vmovdqu %ymm7, 32(%rsp)
vmovdqu %ymm7, 64(%rsp)
vmovdqu %ymm7, 96(%rsp)
vmovdqu %ymm7, 128(%rsp)
vmovdqu %ymm7, 160(%rsp)
vmovdqu %ymm7, 192(%rsp)
movq %rdx, %r11
shrq $3, %r11
movq $0, %rbx
jmp L_keccak1600_avx2$14
L_keccak1600_avx2$15:
movq (%rsi,%rbx,8), %rbp
movq (%r8,%rbx,8), %r12
movq %rbp, (%rsp,%r12,8)
incq %rbx
L_keccak1600_avx2$14:
cmpq %r11, %rbx
jb L_keccak1600_avx2$15
movq (%r8,%rbx,8), %r11
shlq $3, %r11
shlq $3, %rbx
jmp L_keccak1600_avx2$12
L_keccak1600_avx2$13:
movb (%rsi,%rbx), %bpl
movb %bpl, (%rsp,%r11)
incq %rbx
incq %r11
L_keccak1600_avx2$12:
cmpq %rdx, %rbx
jb L_keccak1600_avx2$13
movb %al, (%rsp,%r11)
movq %rcx, %rax
addq $-1, %rax
shrq $3, %rax
movq (%r8,%rax,8), %rax
shlq $3, %rax
movq %rcx, %rdx
addq $-1, %rdx
andq $7, %rdx
addq %rdx, %rax
xorb $-128, (%rsp,%rax)
movq (%rsp), %rax
movq %rax, 8(%rsp)
movq %rax, 16(%rsp)
movq %rax, 24(%rsp)
vpxor (%rsp), %ymm6, %ymm6
vpxor 32(%rsp), %ymm3, %ymm3
vpxor 64(%rsp), %ymm4, %ymm4
vpxor 96(%rsp), %ymm0, %ymm0
vpxor 128(%rsp), %ymm5, %ymm5
vpxor 160(%rsp), %ymm1, %ymm1
vpxor 192(%rsp), %ymm2, %ymm2
leaq glob_data + 1152(%rip), %rax
jmp L_keccak1600_avx2$7
L_keccak1600_avx2$8:
leaq glob_data + 384(%rip), %rdx
movq $0, %rsi
leaq glob_data + 192(%rip), %r8
leaq glob_data + 0(%rip), %r11
movq $24, %rbx
L_keccak1600_avx2$11:
vpshufd $78, %ymm4, %ymm8
vpxor %ymm0, %ymm1, %ymm7
vpxor %ymm2, %ymm5, %ymm9
vpxor %ymm3, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm4, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm4, %ymm4
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%r8), %ymm4, %ymm7
vpsrlvq (%r11), %ymm4, %ymm4
vpor %ymm7, %ymm4, %ymm4
vpxor %ymm9, %ymm0, %ymm0
vpsllvq 64(%r8), %ymm0, %ymm7
vpsrlvq 64(%r11), %ymm0, %ymm0
vpor %ymm7, %ymm0, %ymm0
vpxor %ymm9, %ymm5, %ymm5
vpsllvq 96(%r8), %ymm5, %ymm7
vpsrlvq 96(%r11), %ymm5, %ymm5
vpor %ymm7, %ymm5, %ymm10
vpxor %ymm9, %ymm1, %ymm1
vpsllvq 128(%r8), %ymm1, %ymm5
vpsrlvq 128(%r11), %ymm1, %ymm1
vpor %ymm5, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpermq $-115, %ymm4, %ymm5
vpermq $-115, %ymm0, %ymm7
vpsllvq 160(%r8), %ymm2, %ymm0
vpsrlvq 160(%r11), %ymm2, %ymm2
vpor %ymm0, %ymm2, %ymm8
vpxor %ymm9, %ymm3, %ymm0
vpermq $27, %ymm10, %ymm3
vpermq $114, %ymm1, %ymm9
vpsllvq 32(%r8), %ymm0, %ymm1
vpsrlvq 32(%r11), %ymm0, %ymm0
vpor %ymm1, %ymm0, %ymm10
vpsrldq $8, %ymm8, %ymm0
vpandn %ymm0, %ymm8, %ymm0
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm2
vpblendd $12, %ymm7, %ymm5, %ymm4
vpblendd $12, %ymm5, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm2, %ymm2
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm2, %ymm2
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm2, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm2
vpblendd $12, %ymm10, %ymm3, %ymm4
vpblendd $12, %ymm3, %ymm5, %ymm11
vpxor %ymm5, %ymm1, %ymm1
vpblendd $48, %ymm5, %ymm4, %ymm4
vpblendd $48, %ymm7, %ymm11, %ymm11
vpxor %ymm3, %ymm2, %ymm2
vpblendd $-64, %ymm7, %ymm4, %ymm4
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm4, %ymm4
vpxor %ymm9, %ymm4, %ymm12
vpermq $30, %ymm8, %ymm4
vpblendd $48, %ymm6, %ymm4, %ymm4
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm4, %ymm11, %ymm11
vpblendd $12, %ymm3, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm4, %ymm4
vpblendd $48, %ymm5, %ymm13, %ymm13
vpblendd $-64, %ymm5, %ymm4, %ymm4
vpblendd $-64, %ymm3, %ymm13, %ymm13
vpandn %ymm13, %ymm4, %ymm4
vpxor %ymm10, %ymm4, %ymm4
vpermq $0, %ymm0, %ymm13
vpermq $27, %ymm1, %ymm0
vpermq $-115, %ymm2, %ymm1
vpermq $114, %ymm12, %ymm2
vpblendd $12, %ymm5, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm3, %ymm9
vpblendd $48, %ymm3, %ymm12, %ymm3
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm3, %ymm3
vpblendd $-64, %ymm5, %ymm9, %ymm5
vpandn %ymm5, %ymm3, %ymm5
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm3
vpxor %ymm7, %ymm5, %ymm5
vpxor (%rdx,%rsi), %ymm6, %ymm6
addq $32, %rsi
decq %rbx
jne L_keccak1600_avx2$11
vmovdqu %ymm6, (%rsp)
vmovdqu %ymm3, 32(%rsp)
vmovdqu %ymm4, 64(%rsp)
vmovdqu %ymm0, 96(%rsp)
vmovdqu %ymm5, 128(%rsp)
vmovdqu %ymm1, 160(%rsp)
vmovdqu %ymm2, 192(%rsp)
movq %rcx, %rdx
shrq $3, %rdx
movq $0, %rsi
jmp L_keccak1600_avx2$9
L_keccak1600_avx2$10:
movq (%rax,%rsi,8), %r8
movq (%rsp,%r8,8), %r8
movq %r8, (%rdi,%rsi,8)
incq %rsi
L_keccak1600_avx2$9:
cmpq %rdx, %rsi
jb L_keccak1600_avx2$10
addq %rcx, %rdi
subq %rcx, %r9
L_keccak1600_avx2$7:
cmpq %rcx, %r9
jnbe L_keccak1600_avx2$8
leaq glob_data + 384(%rip), %rcx
movq $0, %rdx
leaq glob_data + 192(%rip), %rsi
leaq glob_data + 0(%rip), %r8
movq $24, %r11
L_keccak1600_avx2$6:
vpshufd $78, %ymm4, %ymm8
vpxor %ymm0, %ymm1, %ymm7
vpxor %ymm2, %ymm5, %ymm9
vpxor %ymm3, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm4, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm4, %ymm4
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm4, %ymm7
vpsrlvq (%r8), %ymm4, %ymm4
vpor %ymm7, %ymm4, %ymm4
vpxor %ymm9, %ymm0, %ymm0
vpsllvq 64(%rsi), %ymm0, %ymm7
vpsrlvq 64(%r8), %ymm0, %ymm0
vpor %ymm7, %ymm0, %ymm0
vpxor %ymm9, %ymm5, %ymm5
vpsllvq 96(%rsi), %ymm5, %ymm7
vpsrlvq 96(%r8), %ymm5, %ymm5
vpor %ymm7, %ymm5, %ymm10
vpxor %ymm9, %ymm1, %ymm1
vpsllvq 128(%rsi), %ymm1, %ymm5
vpsrlvq 128(%r8), %ymm1, %ymm1
vpor %ymm5, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpermq $-115, %ymm4, %ymm5
vpermq $-115, %ymm0, %ymm7
vpsllvq 160(%rsi), %ymm2, %ymm0
vpsrlvq 160(%r8), %ymm2, %ymm2
vpor %ymm0, %ymm2, %ymm8
vpxor %ymm9, %ymm3, %ymm0
vpermq $27, %ymm10, %ymm3
vpermq $114, %ymm1, %ymm9
vpsllvq 32(%rsi), %ymm0, %ymm1
vpsrlvq 32(%r8), %ymm0, %ymm0
vpor %ymm1, %ymm0, %ymm10
vpsrldq $8, %ymm8, %ymm0
vpandn %ymm0, %ymm8, %ymm0
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm2
vpblendd $12, %ymm7, %ymm5, %ymm4
vpblendd $12, %ymm5, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm2, %ymm2
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm2, %ymm2
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm2, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm2
vpblendd $12, %ymm10, %ymm3, %ymm4
vpblendd $12, %ymm3, %ymm5, %ymm11
vpxor %ymm5, %ymm1, %ymm1
vpblendd $48, %ymm5, %ymm4, %ymm4
vpblendd $48, %ymm7, %ymm11, %ymm11
vpxor %ymm3, %ymm2, %ymm2
vpblendd $-64, %ymm7, %ymm4, %ymm4
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm4, %ymm4
vpxor %ymm9, %ymm4, %ymm12
vpermq $30, %ymm8, %ymm4
vpblendd $48, %ymm6, %ymm4, %ymm4
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm4, %ymm11, %ymm11
vpblendd $12, %ymm3, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm4, %ymm4
vpblendd $48, %ymm5, %ymm13, %ymm13
vpblendd $-64, %ymm5, %ymm4, %ymm4
vpblendd $-64, %ymm3, %ymm13, %ymm13
vpandn %ymm13, %ymm4, %ymm4
vpxor %ymm10, %ymm4, %ymm4
vpermq $0, %ymm0, %ymm13
vpermq $27, %ymm1, %ymm0
vpermq $-115, %ymm2, %ymm1
vpermq $114, %ymm12, %ymm2
vpblendd $12, %ymm5, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm3, %ymm9
vpblendd $48, %ymm3, %ymm12, %ymm3
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm3, %ymm3
vpblendd $-64, %ymm5, %ymm9, %ymm5
vpandn %ymm5, %ymm3, %ymm5
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm3
vpxor %ymm7, %ymm5, %ymm5
vpxor (%rcx,%rdx), %ymm6, %ymm6
addq $32, %rdx
decq %r11
jne L_keccak1600_avx2$6
vmovdqu %ymm6, (%rsp)
vmovdqu %ymm3, 32(%rsp)
vmovdqu %ymm4, 64(%rsp)
vmovdqu %ymm0, 96(%rsp)
vmovdqu %ymm5, 128(%rsp)
vmovdqu %ymm1, 160(%rsp)
vmovdqu %ymm2, 192(%rsp)
movq %r9, %rcx
shrq $3, %rcx
movq $0, %rdx
jmp L_keccak1600_avx2$4
L_keccak1600_avx2$5:
movq (%rax,%rdx,8), %rsi
movq (%rsp,%rsi,8), %rsi
movq %rsi, (%rdi,%rdx,8)
incq %rdx
L_keccak1600_avx2$4:
cmpq %rcx, %rdx
jb L_keccak1600_avx2$5
movq (%rax,%rdx,8), %rax
shlq $3, %rdx
shlq $3, %rax
jmp L_keccak1600_avx2$2
L_keccak1600_avx2$3:
movb (%rsp,%rax), %cl
movb %cl, (%rdi,%rdx)
incq %rdx
incq %rax
L_keccak1600_avx2$2:
cmpq %r9, %rdx
jb L_keccak1600_avx2$3
jmp *%r10
.data
.p2align 5
_glob_data:
glob_data:
.byte 61
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 46
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 28
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 23
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 63
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 2
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 36
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 37
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 19
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 58
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 25
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 54
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 3
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 56
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 62
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 49
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 39
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 44
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 20
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 21
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 43
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 50
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 3
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 18
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 36
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 41
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 62
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 28
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 27
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 45
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 6
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 56
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 39
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 61
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 55
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 2
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 15
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 25
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 20
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 44
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 43
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 21
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 14
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 4
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 5
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 6
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 7
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 24
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 13
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 18
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 23
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 16
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 25
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 22
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 15
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 11
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 12
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 21
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 26
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 19
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 20
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 17
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 14
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 27
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
|
usenix-security-verdict/verdict
| 32,893
|
deps/libcrux/sys/libjade/jazz/poly1305_avx2.s
|
.att_syntax
.text
.p2align 5
.globl _jade_onetimeauth_poly1305_amd64_avx2_verify
.globl jade_onetimeauth_poly1305_amd64_avx2_verify
.globl _jade_onetimeauth_poly1305_amd64_avx2
.globl jade_onetimeauth_poly1305_amd64_avx2
_jade_onetimeauth_poly1305_amd64_avx2_verify:
jade_onetimeauth_poly1305_amd64_avx2_verify:
movq %rsp, %rax
leaq -696(%rsp), %rsp
andq $-32, %rsp
movq %rax, 688(%rsp)
movq %rbx, 640(%rsp)
movq %rbp, 648(%rsp)
movq %r12, 656(%rsp)
movq %r13, 664(%rsp)
movq %r14, 672(%rsp)
movq %r15, 680(%rsp)
movq %rdx, %r14
movq %rcx, %r15
cmpq $256, %r14
jnb Ljade_onetimeauth_poly1305_amd64_avx2_verify$1
movq $0, %rbx
movq $0, %r12
movq $0, %r8
movq (%r15), %rbp
movq 8(%r15), %r13
movq $1152921487695413247, %rax
andq %rax, %rbp
movq $1152921487695413244, %rax
andq %rax, %r13
movq %r13, %r9
shrq $2, %r9
addq %r13, %r9
addq $16, %r15
jmp Ljade_onetimeauth_poly1305_amd64_avx2_verify$9
Ljade_onetimeauth_poly1305_amd64_avx2_verify$10:
addq (%rsi), %rbx
adcq 8(%rsi), %r12
adcq $1, %r8
movq %r9, %r11
imulq %r8, %r11
imulq %rbp, %r8
movq %rbp, %rax
mulq %rbx
movq %rax, %rcx
movq %rdx, %r10
movq %rbp, %rax
mulq %r12
addq %rax, %r10
adcq %rdx, %r8
movq %r9, %rax
mulq %r12
movq %rdx, %r12
addq %r11, %r12
movq %rax, %r11
movq %r13, %rax
mulq %rbx
addq %r11, %rcx
adcq %rax, %r10
adcq %rdx, %r8
movq $-4, %rbx
movq %r8, %rax
shrq $2, %rax
andq %r8, %rbx
addq %rax, %rbx
andq $3, %r8
addq %rcx, %rbx
adcq %r10, %r12
adcq $0, %r8
addq $16, %rsi
addq $-16, %r14
Ljade_onetimeauth_poly1305_amd64_avx2_verify$9:
cmpq $16, %r14
jnb Ljade_onetimeauth_poly1305_amd64_avx2_verify$10
cmpq $0, %r14
jbe Ljade_onetimeauth_poly1305_amd64_avx2_verify$8
xorq %rcx, %rcx
movq %r14, %rax
andq $7, %rax
shlq $3, %rax
shrq $3, %r14
movq %r14, %rdx
xorq $1, %rdx
movq %r14, %r10
addq $-1, %r10
movq %rax, %r11
andq %r10, %r11
xorq %r11, %rcx
xorq %r11, %rax
shlq %cl, %rdx
movq %rax, %rcx
shlq %cl, %r14
movq %rdx, %rax
movq %r14, %rcx
subq $1, %rax
sbbq $0, %rcx
movq (%rsi), %r10
andq %rax, %r10
orq %rdx, %r10
movq 8(%rsi), %rax
andq %rcx, %rax
orq %r14, %rax
addq %r10, %rbx
adcq %rax, %r12
adcq $0, %r8
movq %r9, %rsi
imulq %r8, %rsi
imulq %rbp, %r8
movq %rbp, %rax
mulq %rbx
movq %rax, %rcx
movq %rdx, %r10
movq %rbp, %rax
mulq %r12
addq %rax, %r10
adcq %rdx, %r8
movq %r9, %rax
mulq %r12
movq %rdx, %r12
addq %rsi, %r12
movq %rax, %rsi
movq %r13, %rax
mulq %rbx
addq %rsi, %rcx
adcq %rax, %r10
adcq %rdx, %r8
movq $-4, %rbx
movq %r8, %rax
shrq $2, %rax
andq %r8, %rbx
addq %rax, %rbx
andq $3, %r8
addq %rcx, %rbx
adcq %r10, %r12
adcq $0, %r8
Ljade_onetimeauth_poly1305_amd64_avx2_verify$8:
movq %rbx, %rax
movq %r12, %rcx
addq $5, %rax
adcq $0, %rcx
adcq $0, %r8
shrq $2, %r8
negq %r8
xorq %rbx, %rax
xorq %r12, %rcx
andq %r8, %rax
andq %r8, %rcx
xorq %rbx, %rax
xorq %r12, %rcx
movq (%r15), %rdx
movq 8(%r15), %rsi
addq %rdx, %rax
adcq %rsi, %rcx
jmp Ljade_onetimeauth_poly1305_amd64_avx2_verify$2
Ljade_onetimeauth_poly1305_amd64_avx2_verify$1:
movq (%r15), %rbp
movq 8(%r15), %r13
movq $1152921487695413247, %rax
andq %rax, %rbp
movq $1152921487695413244, %rax
andq %rax, %r13
movq %r13, %r12
shrq $2, %r12
addq %r13, %r12
addq $16, %r15
movq %rbp, %r8
movq %r13, %r11
movq $0, %rbx
movq %r8, %rax
andq $67108863, %rax
movq %rax, 344(%rsp)
movq %r8, %rax
shrq $26, %rax
andq $67108863, %rax
movq %rax, 376(%rsp)
movq %r8, %rax
shrdq $52, %r11, %rax
movq %rax, %rcx
andq $67108863, %rax
movq %rax, 408(%rsp)
shrq $26, %rcx
andq $67108863, %rcx
movq %rcx, 440(%rsp)
movq %r11, %rax
shrdq $40, %rbx, %rax
movq %rax, 472(%rsp)
movq %r12, %r10
imulq %rbx, %r10
imulq %rbp, %rbx
movq %rbp, %rax
mulq %r8
movq %rax, %rcx
movq %rdx, %r9
movq %rbp, %rax
mulq %r11
addq %rax, %r9
adcq %rdx, %rbx
movq %r12, %rax
mulq %r11
movq %rdx, %r11
addq %r10, %r11
movq %rax, %r10
movq %r13, %rax
mulq %r8
addq %r10, %rcx
adcq %rax, %r9
adcq %rdx, %rbx
movq $-4, %r8
movq %rbx, %rax
shrq $2, %rax
andq %rbx, %r8
addq %rax, %r8
andq $3, %rbx
addq %rcx, %r8
adcq %r9, %r11
adcq $0, %rbx
movq %r8, %rax
andq $67108863, %rax
movq %rax, 336(%rsp)
movq %r8, %rax
shrq $26, %rax
andq $67108863, %rax
movq %rax, 368(%rsp)
movq %r8, %rax
shrdq $52, %r11, %rax
movq %rax, %rcx
andq $67108863, %rax
movq %rax, 400(%rsp)
shrq $26, %rcx
andq $67108863, %rcx
movq %rcx, 432(%rsp)
movq %r11, %rax
shrdq $40, %rbx, %rax
movq %rax, 464(%rsp)
movq %r12, %r10
imulq %rbx, %r10
imulq %rbp, %rbx
movq %rbp, %rax
mulq %r8
movq %rax, %rcx
movq %rdx, %r9
movq %rbp, %rax
mulq %r11
addq %rax, %r9
adcq %rdx, %rbx
movq %r12, %rax
mulq %r11
movq %rdx, %r11
addq %r10, %r11
movq %rax, %r10
movq %r13, %rax
mulq %r8
addq %r10, %rcx
adcq %rax, %r9
adcq %rdx, %rbx
movq $-4, %r8
movq %rbx, %rax
shrq $2, %rax
andq %rbx, %r8
addq %rax, %r8
andq $3, %rbx
addq %rcx, %r8
adcq %r9, %r11
adcq $0, %rbx
movq %r8, %rax
andq $67108863, %rax
movq %rax, 328(%rsp)
movq %r8, %rax
shrq $26, %rax
andq $67108863, %rax
movq %rax, 360(%rsp)
movq %r8, %rax
shrdq $52, %r11, %rax
movq %rax, %rcx
andq $67108863, %rax
movq %rax, 392(%rsp)
shrq $26, %rcx
andq $67108863, %rcx
movq %rcx, 424(%rsp)
movq %r11, %rax
shrdq $40, %rbx, %rax
movq %rax, 456(%rsp)
movq %r12, %r9
imulq %rbx, %r9
imulq %rbp, %rbx
movq %rbp, %rax
mulq %r8
movq %rax, %rcx
movq %rdx, %r10
movq %rbp, %rax
mulq %r11
addq %rax, %r10
adcq %rdx, %rbx
movq %r12, %rax
mulq %r11
movq %rdx, %r11
addq %r9, %r11
movq %rax, %r9
movq %r13, %rax
mulq %r8
addq %r9, %rcx
adcq %rax, %r10
adcq %rdx, %rbx
movq $-4, %rax
movq %rbx, %rdx
shrq $2, %rdx
andq %rbx, %rax
addq %rdx, %rax
andq $3, %rbx
addq %rcx, %rax
adcq %r10, %r11
adcq $0, %rbx
movq %rax, %rcx
andq $67108863, %rcx
movq %rcx, 320(%rsp)
movq %rax, %rcx
shrq $26, %rcx
andq $67108863, %rcx
movq %rcx, 352(%rsp)
shrdq $52, %r11, %rax
movq %rax, %rcx
andq $67108863, %rax
movq %rax, 384(%rsp)
shrq $26, %rcx
andq $67108863, %rcx
movq %rcx, 416(%rsp)
shrdq $40, %rbx, %r11
movq %r11, 448(%rsp)
vpbroadcastq glob_data + 16(%rip), %ymm0
vpmuludq 352(%rsp), %ymm0, %ymm1
vmovdqu %ymm1, 64(%rsp)
vpmuludq 384(%rsp), %ymm0, %ymm1
vmovdqu %ymm1, 96(%rsp)
vpmuludq 416(%rsp), %ymm0, %ymm1
vmovdqu %ymm1, 128(%rsp)
vpmuludq 448(%rsp), %ymm0, %ymm0
vmovdqu %ymm0, 160(%rsp)
vpbroadcastq 320(%rsp), %ymm0
vmovdqu %ymm0, 480(%rsp)
vpbroadcastq 352(%rsp), %ymm0
vmovdqu %ymm0, 512(%rsp)
vpbroadcastq 384(%rsp), %ymm0
vmovdqu %ymm0, 544(%rsp)
vpbroadcastq 416(%rsp), %ymm0
vmovdqu %ymm0, 576(%rsp)
vpbroadcastq 448(%rsp), %ymm0
vmovdqu %ymm0, 608(%rsp)
vpbroadcastq 64(%rsp), %ymm0
vmovdqu %ymm0, 192(%rsp)
vpbroadcastq 96(%rsp), %ymm0
vmovdqu %ymm0, 224(%rsp)
vpbroadcastq 128(%rsp), %ymm0
vmovdqu %ymm0, 256(%rsp)
vpbroadcastq 160(%rsp), %ymm0
vmovdqu %ymm0, 288(%rsp)
vpxor %ymm0, %ymm0, %ymm0
vpxor %ymm1, %ymm1, %ymm1
vpxor %ymm6, %ymm6, %ymm6
vpxor %ymm3, %ymm3, %ymm3
vpxor %ymm4, %ymm4, %ymm4
vpbroadcastq glob_data + 8(%rip), %ymm7
vmovdqu %ymm7, (%rsp)
vpbroadcastq glob_data + 0(%rip), %ymm2
vmovdqu %ymm2, 32(%rsp)
vmovdqu (%rsi), %ymm2
vmovdqu 32(%rsi), %ymm5
addq $64, %rsi
vperm2i128 $32, %ymm5, %ymm2, %ymm9
vperm2i128 $49, %ymm5, %ymm2, %ymm2
vpsrldq $6, %ymm9, %ymm5
vpsrldq $6, %ymm2, %ymm10
vpunpckhqdq %ymm2, %ymm9, %ymm8
vpunpcklqdq %ymm2, %ymm9, %ymm9
vpunpcklqdq %ymm10, %ymm5, %ymm10
vpsrlq $4, %ymm10, %ymm2
vpand %ymm7, %ymm2, %ymm2
vpsrlq $26, %ymm9, %ymm11
vpand %ymm7, %ymm9, %ymm5
vpsrlq $30, %ymm10, %ymm9
vpand %ymm7, %ymm9, %ymm9
vpsrlq $40, %ymm8, %ymm8
vpor 32(%rsp), %ymm8, %ymm10
vpand %ymm7, %ymm11, %ymm11
jmp Ljade_onetimeauth_poly1305_amd64_avx2_verify$6
Ljade_onetimeauth_poly1305_amd64_avx2_verify$7:
vmovdqu 480(%rsp), %ymm8
vmovdqu 512(%rsp), %ymm7
vmovdqu 288(%rsp), %ymm13
vpaddq %ymm5, %ymm0, %ymm0
vpaddq %ymm11, %ymm1, %ymm1
vpmuludq %ymm8, %ymm0, %ymm5
vpaddq %ymm2, %ymm6, %ymm2
vpmuludq %ymm7, %ymm0, %ymm6
vpaddq %ymm9, %ymm3, %ymm3
vpmuludq %ymm8, %ymm1, %ymm9
vpaddq %ymm10, %ymm4, %ymm4
vpmuludq %ymm7, %ymm1, %ymm12
vpmuludq %ymm8, %ymm2, %ymm14
vpmuludq %ymm7, %ymm2, %ymm10
vpmuludq %ymm8, %ymm3, %ymm11
vpaddq %ymm6, %ymm9, %ymm6
vpmuludq %ymm7, %ymm3, %ymm9
vpaddq %ymm12, %ymm14, %ymm7
vpmuludq %ymm8, %ymm4, %ymm8
vpaddq %ymm10, %ymm11, %ymm11
vpaddq %ymm9, %ymm8, %ymm12
vpmuludq %ymm13, %ymm1, %ymm14
vmovdqu (%rsi), %ymm8
vpmuludq %ymm13, %ymm2, %ymm15
vmovdqu 544(%rsp), %ymm9
vpmuludq %ymm13, %ymm3, %ymm10
vpmuludq %ymm13, %ymm4, %ymm13
vpaddq %ymm14, %ymm5, %ymm5
vmovdqu 32(%rsi), %ymm14
vpaddq %ymm15, %ymm6, %ymm6
vpaddq %ymm10, %ymm7, %ymm10
vpaddq %ymm13, %ymm11, %ymm11
vpmuludq %ymm9, %ymm0, %ymm15
vperm2i128 $32, %ymm14, %ymm8, %ymm7
vpmuludq %ymm9, %ymm1, %ymm13
vperm2i128 $49, %ymm14, %ymm8, %ymm8
vpmuludq %ymm9, %ymm2, %ymm14
vpaddq %ymm15, %ymm10, %ymm9
vmovdqu 256(%rsp), %ymm10
vpaddq %ymm13, %ymm11, %ymm11
vpaddq %ymm14, %ymm12, %ymm12
vpmuludq %ymm10, %ymm2, %ymm2
vpmuludq %ymm10, %ymm3, %ymm13
vmovdqu 576(%rsp), %ymm14
vpmuludq %ymm10, %ymm4, %ymm10
vpsrldq $6, %ymm7, %ymm15
vpaddq %ymm2, %ymm5, %ymm2
vpsrldq $6, %ymm8, %ymm5
vpaddq %ymm13, %ymm6, %ymm6
vpaddq %ymm9, %ymm10, %ymm9
vmovdqu 224(%rsp), %ymm10
vpmuludq %ymm14, %ymm0, %ymm13
vpmuludq %ymm14, %ymm1, %ymm1
vpunpckhqdq %ymm8, %ymm7, %ymm14
vpunpcklqdq %ymm8, %ymm7, %ymm7
vpaddq %ymm13, %ymm11, %ymm11
vpaddq %ymm1, %ymm12, %ymm1
vpmuludq %ymm10, %ymm3, %ymm3
vpmuludq %ymm10, %ymm4, %ymm8
vpaddq %ymm3, %ymm2, %ymm2
vpaddq %ymm6, %ymm8, %ymm3
vmovdqu (%rsp), %ymm8
vpmuludq 192(%rsp), %ymm4, %ymm4
vpmuludq 608(%rsp), %ymm0, %ymm0
vpunpcklqdq %ymm5, %ymm15, %ymm10
vpsrlq $4, %ymm10, %ymm6
vpaddq %ymm4, %ymm2, %ymm2
vpsrlq $26, %ymm2, %ymm12
vpand %ymm8, %ymm2, %ymm4
vpand %ymm8, %ymm11, %ymm5
vpsrlq $26, %ymm11, %ymm13
vpaddq %ymm0, %ymm1, %ymm1
vpand %ymm8, %ymm6, %ymm2
vpsrlq $26, %ymm7, %ymm11
vpaddq %ymm12, %ymm3, %ymm0
vpaddq %ymm13, %ymm1, %ymm6
vpsrlq $26, %ymm0, %ymm1
vpsrlq $26, %ymm6, %ymm3
vpsllq $2, %ymm3, %ymm12
vpaddq %ymm12, %ymm3, %ymm13
vpand %ymm8, %ymm0, %ymm3
vpand %ymm8, %ymm6, %ymm12
vpaddq %ymm1, %ymm9, %ymm0
vpaddq %ymm13, %ymm4, %ymm1
vpsrlq $26, %ymm0, %ymm4
vpsrlq $26, %ymm1, %ymm9
vpand %ymm8, %ymm0, %ymm6
vpand %ymm8, %ymm1, %ymm0
vpaddq %ymm4, %ymm5, %ymm4
vpaddq %ymm9, %ymm3, %ymm1
vpsrlq $26, %ymm4, %ymm5
vpand %ymm8, %ymm4, %ymm3
vpaddq %ymm5, %ymm12, %ymm4
addq $64, %rsi
vpand %ymm8, %ymm7, %ymm5
vpsrlq $30, %ymm10, %ymm7
vpand %ymm8, %ymm7, %ymm9
vpsrlq $40, %ymm14, %ymm7
vpor 32(%rsp), %ymm7, %ymm10
vpand %ymm8, %ymm11, %ymm11
addq $-64, %r14
Ljade_onetimeauth_poly1305_amd64_avx2_verify$6:
cmpq $128, %r14
jnb Ljade_onetimeauth_poly1305_amd64_avx2_verify$7
addq $-64, %r14
vmovdqu 320(%rsp), %ymm7
vmovdqu 352(%rsp), %ymm8
vmovdqu 160(%rsp), %ymm12
vpaddq %ymm5, %ymm0, %ymm0
vpaddq %ymm11, %ymm1, %ymm1
vpaddq %ymm2, %ymm6, %ymm2
vpaddq %ymm9, %ymm3, %ymm3
vpaddq %ymm10, %ymm4, %ymm4
vpmuludq %ymm7, %ymm0, %ymm5
vpmuludq %ymm7, %ymm1, %ymm6
vpmuludq %ymm7, %ymm2, %ymm9
vpmuludq %ymm7, %ymm3, %ymm10
vpmuludq %ymm7, %ymm4, %ymm7
vpmuludq %ymm8, %ymm0, %ymm11
vpmuludq %ymm8, %ymm1, %ymm13
vpmuludq %ymm8, %ymm2, %ymm14
vpmuludq %ymm8, %ymm3, %ymm8
vmovdqu 384(%rsp), %ymm15
vpaddq %ymm11, %ymm6, %ymm6
vpaddq %ymm13, %ymm9, %ymm9
vpaddq %ymm14, %ymm10, %ymm10
vpaddq %ymm8, %ymm7, %ymm7
vpmuludq %ymm12, %ymm1, %ymm8
vpmuludq %ymm12, %ymm2, %ymm11
vpmuludq %ymm12, %ymm3, %ymm13
vpmuludq %ymm12, %ymm4, %ymm12
vmovdqu 128(%rsp), %ymm14
vpaddq %ymm8, %ymm5, %ymm5
vpaddq %ymm11, %ymm6, %ymm6
vpaddq %ymm13, %ymm9, %ymm8
vpaddq %ymm12, %ymm10, %ymm10
vpmuludq %ymm15, %ymm0, %ymm13
vpmuludq %ymm15, %ymm1, %ymm11
vpmuludq %ymm15, %ymm2, %ymm12
vmovdqu 416(%rsp), %ymm9
vpaddq %ymm13, %ymm8, %ymm8
vpaddq %ymm11, %ymm10, %ymm10
vpaddq %ymm12, %ymm7, %ymm7
vpmuludq %ymm14, %ymm2, %ymm2
vpmuludq %ymm14, %ymm3, %ymm12
vpmuludq %ymm14, %ymm4, %ymm13
vmovdqu 96(%rsp), %ymm11
vpaddq %ymm2, %ymm5, %ymm5
vpaddq %ymm12, %ymm6, %ymm6
vpaddq %ymm8, %ymm13, %ymm2
vpmuludq %ymm9, %ymm0, %ymm8
vpmuludq %ymm9, %ymm1, %ymm9
vpaddq %ymm8, %ymm10, %ymm1
vpaddq %ymm9, %ymm7, %ymm7
vpmuludq %ymm11, %ymm3, %ymm3
vpmuludq %ymm11, %ymm4, %ymm8
vpaddq %ymm3, %ymm5, %ymm5
vpaddq %ymm6, %ymm8, %ymm3
vpmuludq 64(%rsp), %ymm4, %ymm4
vpmuludq 448(%rsp), %ymm0, %ymm0
vpaddq %ymm4, %ymm5, %ymm4
vmovdqu %ymm1, %ymm5
vpaddq %ymm0, %ymm7, %ymm6
vmovdqu (%rsp), %ymm0
vpsrlq $26, %ymm4, %ymm7
vpsrlq $26, %ymm5, %ymm8
vpand %ymm0, %ymm4, %ymm1
vpand %ymm0, %ymm5, %ymm4
vpaddq %ymm7, %ymm3, %ymm3
vpaddq %ymm8, %ymm6, %ymm5
vpsrlq $26, %ymm3, %ymm6
vpsrlq $26, %ymm5, %ymm7
vpsllq $2, %ymm7, %ymm8
vpaddq %ymm8, %ymm7, %ymm7
vpand %ymm0, %ymm3, %ymm8
vpand %ymm0, %ymm5, %ymm3
vpaddq %ymm6, %ymm2, %ymm2
vpaddq %ymm7, %ymm1, %ymm5
vpsrlq $26, %ymm2, %ymm6
vpsrlq $26, %ymm5, %ymm7
vpand %ymm0, %ymm2, %ymm1
vpand %ymm0, %ymm5, %ymm2
vpaddq %ymm6, %ymm4, %ymm4
vpaddq %ymm7, %ymm8, %ymm5
vpsrlq $26, %ymm4, %ymm6
vpand %ymm0, %ymm4, %ymm0
vpaddq %ymm6, %ymm3, %ymm3
vpsllq $26, %ymm5, %ymm4
vpaddq %ymm2, %ymm4, %ymm2
vpsllq $26, %ymm0, %ymm0
vpaddq %ymm1, %ymm0, %ymm0
vpsrldq $8, %ymm3, %ymm1
vpaddq %ymm3, %ymm1, %ymm1
vpermq $-128, %ymm1, %ymm1
vperm2i128 $32, %ymm0, %ymm2, %ymm3
vperm2i128 $49, %ymm0, %ymm2, %ymm0
vpaddq %ymm0, %ymm3, %ymm0
vpunpcklqdq %ymm1, %ymm0, %ymm2
vpunpckhqdq %ymm1, %ymm0, %ymm0
vpaddq %ymm0, %ymm2, %ymm0
vextracti128 $1, %ymm0, %xmm1
vpextrq $0, %xmm0, %rax
vpextrq $0, %xmm1, %r9
vpextrq $1, %xmm1, %rcx
movq %r9, %rbx
shlq $52, %rbx
shrq $12, %r9
movq %rcx, %r8
shrq $24, %r8
shlq $40, %rcx
addq %rax, %rbx
adcq %rcx, %r9
adcq $0, %r8
movq %r8, %rax
movq %r8, %rcx
andq $3, %r8
shrq $2, %rax
andq $-4, %rcx
addq %rcx, %rax
addq %rax, %rbx
adcq $0, %r9
adcq $0, %r8
jmp Ljade_onetimeauth_poly1305_amd64_avx2_verify$4
Ljade_onetimeauth_poly1305_amd64_avx2_verify$5:
addq (%rsi), %rbx
adcq 8(%rsi), %r9
adcq $1, %r8
movq %r12, %r10
imulq %r8, %r10
imulq %rbp, %r8
movq %rbp, %rax
mulq %rbx
movq %rax, %rcx
movq %rdx, %r11
movq %rbp, %rax
mulq %r9
addq %rax, %r11
adcq %rdx, %r8
movq %r12, %rax
mulq %r9
movq %rdx, %r9
addq %r10, %r9
movq %rax, %r10
movq %r13, %rax
mulq %rbx
addq %r10, %rcx
adcq %rax, %r11
adcq %rdx, %r8
movq $-4, %rbx
movq %r8, %rax
shrq $2, %rax
andq %r8, %rbx
addq %rax, %rbx
andq $3, %r8
addq %rcx, %rbx
adcq %r11, %r9
adcq $0, %r8
addq $16, %rsi
addq $-16, %r14
Ljade_onetimeauth_poly1305_amd64_avx2_verify$4:
cmpq $16, %r14
jnb Ljade_onetimeauth_poly1305_amd64_avx2_verify$5
cmpq $0, %r14
jbe Ljade_onetimeauth_poly1305_amd64_avx2_verify$3
xorq %rcx, %rcx
movq %r14, %rax
andq $7, %rax
shlq $3, %rax
shrq $3, %r14
movq %r14, %rdx
xorq $1, %rdx
movq %r14, %r10
addq $-1, %r10
movq %rax, %r11
andq %r10, %r11
xorq %r11, %rcx
xorq %r11, %rax
shlq %cl, %rdx
movq %rax, %rcx
shlq %cl, %r14
movq %rdx, %rax
movq %r14, %rcx
subq $1, %rax
sbbq $0, %rcx
movq (%rsi), %r10
andq %rax, %r10
orq %rdx, %r10
movq 8(%rsi), %rax
andq %rcx, %rax
orq %r14, %rax
addq %r10, %rbx
adcq %rax, %r9
adcq $0, %r8
movq %r12, %rsi
imulq %r8, %rsi
imulq %rbp, %r8
movq %rbp, %rax
mulq %rbx
movq %rax, %rcx
movq %rdx, %r10
movq %rbp, %rax
mulq %r9
addq %rax, %r10
adcq %rdx, %r8
movq %r12, %rax
mulq %r9
movq %rdx, %r9
addq %rsi, %r9
movq %rax, %rsi
movq %r13, %rax
mulq %rbx
addq %rsi, %rcx
adcq %rax, %r10
adcq %rdx, %r8
movq $-4, %rbx
movq %r8, %rax
shrq $2, %rax
andq %r8, %rbx
addq %rax, %rbx
andq $3, %r8
addq %rcx, %rbx
adcq %r10, %r9
adcq $0, %r8
Ljade_onetimeauth_poly1305_amd64_avx2_verify$3:
movq %rbx, %rax
movq %r9, %rcx
addq $5, %rax
adcq $0, %rcx
adcq $0, %r8
shrq $2, %r8
negq %r8
xorq %rbx, %rax
xorq %r9, %rcx
andq %r8, %rax
andq %r8, %rcx
xorq %rbx, %rax
xorq %r9, %rcx
movq (%r15), %rdx
movq 8(%r15), %rsi
addq %rdx, %rax
adcq %rsi, %rcx
Ljade_onetimeauth_poly1305_amd64_avx2_verify$2:
movq %rax, %rdx
xorq (%rdi), %rdx
xorq 8(%rdi), %rcx
orq %rcx, %rdx
xorq %rax, %rax
subq $1, %rdx
adcq $0, %rax
addq $-1, %rax
movq 640(%rsp), %rbx
movq 648(%rsp), %rbp
movq 656(%rsp), %r12
movq 664(%rsp), %r13
movq 672(%rsp), %r14
movq 680(%rsp), %r15
movq 688(%rsp), %rsp
ret
_jade_onetimeauth_poly1305_amd64_avx2:
jade_onetimeauth_poly1305_amd64_avx2:
movq %rsp, %rax
leaq -696(%rsp), %rsp
andq $-32, %rsp
movq %rax, 688(%rsp)
movq %rbx, 640(%rsp)
movq %rbp, 648(%rsp)
movq %r12, 656(%rsp)
movq %r13, 664(%rsp)
movq %r14, 672(%rsp)
movq %r15, 680(%rsp)
movq %rdx, %r14
movq %rcx, %r15
cmpq $256, %r14
jnb Ljade_onetimeauth_poly1305_amd64_avx2$1
movq $0, %rbp
movq $0, %r12
movq $0, %r8
movq (%r15), %r9
movq 8(%r15), %r13
movq $1152921487695413247, %rax
andq %rax, %r9
movq $1152921487695413244, %rax
andq %rax, %r13
movq %r13, %rbx
shrq $2, %rbx
addq %r13, %rbx
addq $16, %r15
jmp Ljade_onetimeauth_poly1305_amd64_avx2$9
Ljade_onetimeauth_poly1305_amd64_avx2$10:
addq (%rsi), %rbp
adcq 8(%rsi), %r12
adcq $1, %r8
movq %rbx, %r11
imulq %r8, %r11
imulq %r9, %r8
movq %r9, %rax
mulq %rbp
movq %rax, %rcx
movq %rdx, %r10
movq %r9, %rax
mulq %r12
addq %rax, %r10
adcq %rdx, %r8
movq %rbx, %rax
mulq %r12
movq %rdx, %r12
addq %r11, %r12
movq %rax, %r11
movq %r13, %rax
mulq %rbp
addq %r11, %rcx
adcq %rax, %r10
adcq %rdx, %r8
movq $-4, %rbp
movq %r8, %rax
shrq $2, %rax
andq %r8, %rbp
addq %rax, %rbp
andq $3, %r8
addq %rcx, %rbp
adcq %r10, %r12
adcq $0, %r8
addq $16, %rsi
addq $-16, %r14
Ljade_onetimeauth_poly1305_amd64_avx2$9:
cmpq $16, %r14
jnb Ljade_onetimeauth_poly1305_amd64_avx2$10
cmpq $0, %r14
jbe Ljade_onetimeauth_poly1305_amd64_avx2$8
xorq %rcx, %rcx
movq %r14, %rax
andq $7, %rax
shlq $3, %rax
shrq $3, %r14
movq %r14, %rdx
xorq $1, %rdx
movq %r14, %r10
addq $-1, %r10
movq %rax, %r11
andq %r10, %r11
xorq %r11, %rcx
xorq %r11, %rax
shlq %cl, %rdx
movq %rax, %rcx
shlq %cl, %r14
movq %rdx, %rax
movq %r14, %rcx
subq $1, %rax
sbbq $0, %rcx
movq (%rsi), %r10
andq %rax, %r10
orq %rdx, %r10
movq 8(%rsi), %rax
andq %rcx, %rax
orq %r14, %rax
addq %r10, %rbp
adcq %rax, %r12
adcq $0, %r8
movq %rbx, %rsi
imulq %r8, %rsi
imulq %r9, %r8
movq %r9, %rax
mulq %rbp
movq %rax, %rcx
movq %rdx, %r10
movq %r9, %rax
mulq %r12
addq %rax, %r10
adcq %rdx, %r8
movq %rbx, %rax
mulq %r12
movq %rdx, %r12
addq %rsi, %r12
movq %rax, %rsi
movq %r13, %rax
mulq %rbp
addq %rsi, %rcx
adcq %rax, %r10
adcq %rdx, %r8
movq $-4, %rbp
movq %r8, %rax
shrq $2, %rax
andq %r8, %rbp
addq %rax, %rbp
andq $3, %r8
addq %rcx, %rbp
adcq %r10, %r12
adcq $0, %r8
Ljade_onetimeauth_poly1305_amd64_avx2$8:
movq %rbp, %rax
movq %r12, %rcx
addq $5, %rax
adcq $0, %rcx
adcq $0, %r8
shrq $2, %r8
negq %r8
xorq %rbp, %rax
xorq %r12, %rcx
andq %r8, %rax
andq %r8, %rcx
xorq %rbp, %rax
xorq %r12, %rcx
movq (%r15), %rdx
movq 8(%r15), %rsi
addq %rdx, %rax
adcq %rsi, %rcx
jmp Ljade_onetimeauth_poly1305_amd64_avx2$2
Ljade_onetimeauth_poly1305_amd64_avx2$1:
movq (%r15), %r13
movq 8(%r15), %r12
movq $1152921487695413247, %rax
andq %rax, %r13
movq $1152921487695413244, %rax
andq %rax, %r12
movq %r12, %rbp
shrq $2, %rbp
addq %r12, %rbp
addq $16, %r15
movq %r13, %r8
movq %r12, %r11
movq $0, %rbx
movq %r8, %rax
andq $67108863, %rax
movq %rax, 344(%rsp)
movq %r8, %rax
shrq $26, %rax
andq $67108863, %rax
movq %rax, 376(%rsp)
movq %r8, %rax
shrdq $52, %r11, %rax
movq %rax, %rcx
andq $67108863, %rax
movq %rax, 408(%rsp)
shrq $26, %rcx
andq $67108863, %rcx
movq %rcx, 440(%rsp)
movq %r11, %rax
shrdq $40, %rbx, %rax
movq %rax, 472(%rsp)
movq %rbp, %r10
imulq %rbx, %r10
imulq %r13, %rbx
movq %r13, %rax
mulq %r8
movq %rax, %rcx
movq %rdx, %r9
movq %r13, %rax
mulq %r11
addq %rax, %r9
adcq %rdx, %rbx
movq %rbp, %rax
mulq %r11
movq %rdx, %r11
addq %r10, %r11
movq %rax, %r10
movq %r12, %rax
mulq %r8
addq %r10, %rcx
adcq %rax, %r9
adcq %rdx, %rbx
movq $-4, %r8
movq %rbx, %rax
shrq $2, %rax
andq %rbx, %r8
addq %rax, %r8
andq $3, %rbx
addq %rcx, %r8
adcq %r9, %r11
adcq $0, %rbx
movq %r8, %rax
andq $67108863, %rax
movq %rax, 336(%rsp)
movq %r8, %rax
shrq $26, %rax
andq $67108863, %rax
movq %rax, 368(%rsp)
movq %r8, %rax
shrdq $52, %r11, %rax
movq %rax, %rcx
andq $67108863, %rax
movq %rax, 400(%rsp)
shrq $26, %rcx
andq $67108863, %rcx
movq %rcx, 432(%rsp)
movq %r11, %rax
shrdq $40, %rbx, %rax
movq %rax, 464(%rsp)
movq %rbp, %r10
imulq %rbx, %r10
imulq %r13, %rbx
movq %r13, %rax
mulq %r8
movq %rax, %rcx
movq %rdx, %r9
movq %r13, %rax
mulq %r11
addq %rax, %r9
adcq %rdx, %rbx
movq %rbp, %rax
mulq %r11
movq %rdx, %r11
addq %r10, %r11
movq %rax, %r10
movq %r12, %rax
mulq %r8
addq %r10, %rcx
adcq %rax, %r9
adcq %rdx, %rbx
movq $-4, %r8
movq %rbx, %rax
shrq $2, %rax
andq %rbx, %r8
addq %rax, %r8
andq $3, %rbx
addq %rcx, %r8
adcq %r9, %r11
adcq $0, %rbx
movq %r8, %rax
andq $67108863, %rax
movq %rax, 328(%rsp)
movq %r8, %rax
shrq $26, %rax
andq $67108863, %rax
movq %rax, 360(%rsp)
movq %r8, %rax
shrdq $52, %r11, %rax
movq %rax, %rcx
andq $67108863, %rax
movq %rax, 392(%rsp)
shrq $26, %rcx
andq $67108863, %rcx
movq %rcx, 424(%rsp)
movq %r11, %rax
shrdq $40, %rbx, %rax
movq %rax, 456(%rsp)
movq %rbp, %r9
imulq %rbx, %r9
imulq %r13, %rbx
movq %r13, %rax
mulq %r8
movq %rax, %rcx
movq %rdx, %r10
movq %r13, %rax
mulq %r11
addq %rax, %r10
adcq %rdx, %rbx
movq %rbp, %rax
mulq %r11
movq %rdx, %r11
addq %r9, %r11
movq %rax, %r9
movq %r12, %rax
mulq %r8
addq %r9, %rcx
adcq %rax, %r10
adcq %rdx, %rbx
movq $-4, %rax
movq %rbx, %rdx
shrq $2, %rdx
andq %rbx, %rax
addq %rdx, %rax
andq $3, %rbx
addq %rcx, %rax
adcq %r10, %r11
adcq $0, %rbx
movq %rax, %rcx
andq $67108863, %rcx
movq %rcx, 320(%rsp)
movq %rax, %rcx
shrq $26, %rcx
andq $67108863, %rcx
movq %rcx, 352(%rsp)
shrdq $52, %r11, %rax
movq %rax, %rcx
andq $67108863, %rax
movq %rax, 384(%rsp)
shrq $26, %rcx
andq $67108863, %rcx
movq %rcx, 416(%rsp)
shrdq $40, %rbx, %r11
movq %r11, 448(%rsp)
vpbroadcastq glob_data + 16(%rip), %ymm0
vpmuludq 352(%rsp), %ymm0, %ymm1
vmovdqu %ymm1, 64(%rsp)
vpmuludq 384(%rsp), %ymm0, %ymm1
vmovdqu %ymm1, 96(%rsp)
vpmuludq 416(%rsp), %ymm0, %ymm1
vmovdqu %ymm1, 128(%rsp)
vpmuludq 448(%rsp), %ymm0, %ymm0
vmovdqu %ymm0, 160(%rsp)
vpbroadcastq 320(%rsp), %ymm0
vmovdqu %ymm0, 480(%rsp)
vpbroadcastq 352(%rsp), %ymm0
vmovdqu %ymm0, 512(%rsp)
vpbroadcastq 384(%rsp), %ymm0
vmovdqu %ymm0, 544(%rsp)
vpbroadcastq 416(%rsp), %ymm0
vmovdqu %ymm0, 576(%rsp)
vpbroadcastq 448(%rsp), %ymm0
vmovdqu %ymm0, 608(%rsp)
vpbroadcastq 64(%rsp), %ymm0
vmovdqu %ymm0, 192(%rsp)
vpbroadcastq 96(%rsp), %ymm0
vmovdqu %ymm0, 224(%rsp)
vpbroadcastq 128(%rsp), %ymm0
vmovdqu %ymm0, 256(%rsp)
vpbroadcastq 160(%rsp), %ymm0
vmovdqu %ymm0, 288(%rsp)
vpxor %ymm0, %ymm0, %ymm0
vpxor %ymm1, %ymm1, %ymm1
vpxor %ymm6, %ymm6, %ymm6
vpxor %ymm3, %ymm3, %ymm3
vpxor %ymm4, %ymm4, %ymm4
vpbroadcastq glob_data + 8(%rip), %ymm7
vmovdqu %ymm7, (%rsp)
vpbroadcastq glob_data + 0(%rip), %ymm2
vmovdqu %ymm2, 32(%rsp)
vmovdqu (%rsi), %ymm2
vmovdqu 32(%rsi), %ymm5
addq $64, %rsi
vperm2i128 $32, %ymm5, %ymm2, %ymm9
vperm2i128 $49, %ymm5, %ymm2, %ymm2
vpsrldq $6, %ymm9, %ymm5
vpsrldq $6, %ymm2, %ymm10
vpunpckhqdq %ymm2, %ymm9, %ymm8
vpunpcklqdq %ymm2, %ymm9, %ymm9
vpunpcklqdq %ymm10, %ymm5, %ymm10
vpsrlq $4, %ymm10, %ymm2
vpand %ymm7, %ymm2, %ymm2
vpsrlq $26, %ymm9, %ymm11
vpand %ymm7, %ymm9, %ymm5
vpsrlq $30, %ymm10, %ymm9
vpand %ymm7, %ymm9, %ymm9
vpsrlq $40, %ymm8, %ymm8
vpor 32(%rsp), %ymm8, %ymm10
vpand %ymm7, %ymm11, %ymm11
jmp Ljade_onetimeauth_poly1305_amd64_avx2$6
Ljade_onetimeauth_poly1305_amd64_avx2$7:
vmovdqu 480(%rsp), %ymm8
vmovdqu 512(%rsp), %ymm7
vmovdqu 288(%rsp), %ymm13
vpaddq %ymm5, %ymm0, %ymm0
vpaddq %ymm11, %ymm1, %ymm1
vpmuludq %ymm8, %ymm0, %ymm5
vpaddq %ymm2, %ymm6, %ymm2
vpmuludq %ymm7, %ymm0, %ymm6
vpaddq %ymm9, %ymm3, %ymm3
vpmuludq %ymm8, %ymm1, %ymm9
vpaddq %ymm10, %ymm4, %ymm4
vpmuludq %ymm7, %ymm1, %ymm12
vpmuludq %ymm8, %ymm2, %ymm14
vpmuludq %ymm7, %ymm2, %ymm10
vpmuludq %ymm8, %ymm3, %ymm11
vpaddq %ymm6, %ymm9, %ymm6
vpmuludq %ymm7, %ymm3, %ymm9
vpaddq %ymm12, %ymm14, %ymm7
vpmuludq %ymm8, %ymm4, %ymm8
vpaddq %ymm10, %ymm11, %ymm11
vpaddq %ymm9, %ymm8, %ymm12
vpmuludq %ymm13, %ymm1, %ymm14
vmovdqu (%rsi), %ymm8
vpmuludq %ymm13, %ymm2, %ymm15
vmovdqu 544(%rsp), %ymm9
vpmuludq %ymm13, %ymm3, %ymm10
vpmuludq %ymm13, %ymm4, %ymm13
vpaddq %ymm14, %ymm5, %ymm5
vmovdqu 32(%rsi), %ymm14
vpaddq %ymm15, %ymm6, %ymm6
vpaddq %ymm10, %ymm7, %ymm10
vpaddq %ymm13, %ymm11, %ymm11
vpmuludq %ymm9, %ymm0, %ymm15
vperm2i128 $32, %ymm14, %ymm8, %ymm7
vpmuludq %ymm9, %ymm1, %ymm13
vperm2i128 $49, %ymm14, %ymm8, %ymm8
vpmuludq %ymm9, %ymm2, %ymm14
vpaddq %ymm15, %ymm10, %ymm9
vmovdqu 256(%rsp), %ymm10
vpaddq %ymm13, %ymm11, %ymm11
vpaddq %ymm14, %ymm12, %ymm12
vpmuludq %ymm10, %ymm2, %ymm2
vpmuludq %ymm10, %ymm3, %ymm13
vmovdqu 576(%rsp), %ymm14
vpmuludq %ymm10, %ymm4, %ymm10
vpsrldq $6, %ymm7, %ymm15
vpaddq %ymm2, %ymm5, %ymm2
vpsrldq $6, %ymm8, %ymm5
vpaddq %ymm13, %ymm6, %ymm6
vpaddq %ymm9, %ymm10, %ymm9
vmovdqu 224(%rsp), %ymm10
vpmuludq %ymm14, %ymm0, %ymm13
vpmuludq %ymm14, %ymm1, %ymm1
vpunpckhqdq %ymm8, %ymm7, %ymm14
vpunpcklqdq %ymm8, %ymm7, %ymm7
vpaddq %ymm13, %ymm11, %ymm11
vpaddq %ymm1, %ymm12, %ymm1
vpmuludq %ymm10, %ymm3, %ymm3
vpmuludq %ymm10, %ymm4, %ymm8
vpaddq %ymm3, %ymm2, %ymm2
vpaddq %ymm6, %ymm8, %ymm3
vmovdqu (%rsp), %ymm8
vpmuludq 192(%rsp), %ymm4, %ymm4
vpmuludq 608(%rsp), %ymm0, %ymm0
vpunpcklqdq %ymm5, %ymm15, %ymm10
vpsrlq $4, %ymm10, %ymm6
vpaddq %ymm4, %ymm2, %ymm2
vpsrlq $26, %ymm2, %ymm12
vpand %ymm8, %ymm2, %ymm4
vpand %ymm8, %ymm11, %ymm5
vpsrlq $26, %ymm11, %ymm13
vpaddq %ymm0, %ymm1, %ymm1
vpand %ymm8, %ymm6, %ymm2
vpsrlq $26, %ymm7, %ymm11
vpaddq %ymm12, %ymm3, %ymm0
vpaddq %ymm13, %ymm1, %ymm6
vpsrlq $26, %ymm0, %ymm1
vpsrlq $26, %ymm6, %ymm3
vpsllq $2, %ymm3, %ymm12
vpaddq %ymm12, %ymm3, %ymm13
vpand %ymm8, %ymm0, %ymm3
vpand %ymm8, %ymm6, %ymm12
vpaddq %ymm1, %ymm9, %ymm0
vpaddq %ymm13, %ymm4, %ymm1
vpsrlq $26, %ymm0, %ymm4
vpsrlq $26, %ymm1, %ymm9
vpand %ymm8, %ymm0, %ymm6
vpand %ymm8, %ymm1, %ymm0
vpaddq %ymm4, %ymm5, %ymm4
vpaddq %ymm9, %ymm3, %ymm1
vpsrlq $26, %ymm4, %ymm5
vpand %ymm8, %ymm4, %ymm3
vpaddq %ymm5, %ymm12, %ymm4
addq $64, %rsi
vpand %ymm8, %ymm7, %ymm5
vpsrlq $30, %ymm10, %ymm7
vpand %ymm8, %ymm7, %ymm9
vpsrlq $40, %ymm14, %ymm7
vpor 32(%rsp), %ymm7, %ymm10
vpand %ymm8, %ymm11, %ymm11
addq $-64, %r14
Ljade_onetimeauth_poly1305_amd64_avx2$6:
cmpq $128, %r14
jnb Ljade_onetimeauth_poly1305_amd64_avx2$7
addq $-64, %r14
vmovdqu 320(%rsp), %ymm7
vmovdqu 352(%rsp), %ymm8
vmovdqu 160(%rsp), %ymm12
vpaddq %ymm5, %ymm0, %ymm0
vpaddq %ymm11, %ymm1, %ymm1
vpaddq %ymm2, %ymm6, %ymm2
vpaddq %ymm9, %ymm3, %ymm3
vpaddq %ymm10, %ymm4, %ymm4
vpmuludq %ymm7, %ymm0, %ymm5
vpmuludq %ymm7, %ymm1, %ymm6
vpmuludq %ymm7, %ymm2, %ymm9
vpmuludq %ymm7, %ymm3, %ymm10
vpmuludq %ymm7, %ymm4, %ymm7
vpmuludq %ymm8, %ymm0, %ymm11
vpmuludq %ymm8, %ymm1, %ymm13
vpmuludq %ymm8, %ymm2, %ymm14
vpmuludq %ymm8, %ymm3, %ymm8
vmovdqu 384(%rsp), %ymm15
vpaddq %ymm11, %ymm6, %ymm6
vpaddq %ymm13, %ymm9, %ymm9
vpaddq %ymm14, %ymm10, %ymm10
vpaddq %ymm8, %ymm7, %ymm7
vpmuludq %ymm12, %ymm1, %ymm8
vpmuludq %ymm12, %ymm2, %ymm11
vpmuludq %ymm12, %ymm3, %ymm13
vpmuludq %ymm12, %ymm4, %ymm12
vmovdqu 128(%rsp), %ymm14
vpaddq %ymm8, %ymm5, %ymm5
vpaddq %ymm11, %ymm6, %ymm6
vpaddq %ymm13, %ymm9, %ymm8
vpaddq %ymm12, %ymm10, %ymm10
vpmuludq %ymm15, %ymm0, %ymm13
vpmuludq %ymm15, %ymm1, %ymm11
vpmuludq %ymm15, %ymm2, %ymm12
vmovdqu 416(%rsp), %ymm9
vpaddq %ymm13, %ymm8, %ymm8
vpaddq %ymm11, %ymm10, %ymm10
vpaddq %ymm12, %ymm7, %ymm7
vpmuludq %ymm14, %ymm2, %ymm2
vpmuludq %ymm14, %ymm3, %ymm12
vpmuludq %ymm14, %ymm4, %ymm13
vmovdqu 96(%rsp), %ymm11
vpaddq %ymm2, %ymm5, %ymm5
vpaddq %ymm12, %ymm6, %ymm6
vpaddq %ymm8, %ymm13, %ymm2
vpmuludq %ymm9, %ymm0, %ymm8
vpmuludq %ymm9, %ymm1, %ymm9
vpaddq %ymm8, %ymm10, %ymm1
vpaddq %ymm9, %ymm7, %ymm7
vpmuludq %ymm11, %ymm3, %ymm3
vpmuludq %ymm11, %ymm4, %ymm8
vpaddq %ymm3, %ymm5, %ymm5
vpaddq %ymm6, %ymm8, %ymm3
vpmuludq 64(%rsp), %ymm4, %ymm4
vpmuludq 448(%rsp), %ymm0, %ymm0
vpaddq %ymm4, %ymm5, %ymm4
vmovdqu %ymm1, %ymm5
vpaddq %ymm0, %ymm7, %ymm6
vmovdqu (%rsp), %ymm0
vpsrlq $26, %ymm4, %ymm7
vpsrlq $26, %ymm5, %ymm8
vpand %ymm0, %ymm4, %ymm1
vpand %ymm0, %ymm5, %ymm4
vpaddq %ymm7, %ymm3, %ymm3
vpaddq %ymm8, %ymm6, %ymm5
vpsrlq $26, %ymm3, %ymm6
vpsrlq $26, %ymm5, %ymm7
vpsllq $2, %ymm7, %ymm8
vpaddq %ymm8, %ymm7, %ymm7
vpand %ymm0, %ymm3, %ymm8
vpand %ymm0, %ymm5, %ymm3
vpaddq %ymm6, %ymm2, %ymm2
vpaddq %ymm7, %ymm1, %ymm5
vpsrlq $26, %ymm2, %ymm6
vpsrlq $26, %ymm5, %ymm7
vpand %ymm0, %ymm2, %ymm1
vpand %ymm0, %ymm5, %ymm2
vpaddq %ymm6, %ymm4, %ymm4
vpaddq %ymm7, %ymm8, %ymm5
vpsrlq $26, %ymm4, %ymm6
vpand %ymm0, %ymm4, %ymm0
vpaddq %ymm6, %ymm3, %ymm3
vpsllq $26, %ymm5, %ymm4
vpaddq %ymm2, %ymm4, %ymm2
vpsllq $26, %ymm0, %ymm0
vpaddq %ymm1, %ymm0, %ymm0
vpsrldq $8, %ymm3, %ymm1
vpaddq %ymm3, %ymm1, %ymm1
vpermq $-128, %ymm1, %ymm1
vperm2i128 $32, %ymm0, %ymm2, %ymm3
vperm2i128 $49, %ymm0, %ymm2, %ymm0
vpaddq %ymm0, %ymm3, %ymm0
vpunpcklqdq %ymm1, %ymm0, %ymm2
vpunpckhqdq %ymm1, %ymm0, %ymm0
vpaddq %ymm0, %ymm2, %ymm0
vextracti128 $1, %ymm0, %xmm1
vpextrq $0, %xmm0, %rax
vpextrq $0, %xmm1, %r8
vpextrq $1, %xmm1, %rcx
movq %r8, %r9
shlq $52, %r9
shrq $12, %r8
movq %rcx, %rbx
shrq $24, %rbx
shlq $40, %rcx
addq %rax, %r9
adcq %rcx, %r8
adcq $0, %rbx
movq %rbx, %rax
movq %rbx, %rcx
andq $3, %rbx
shrq $2, %rax
andq $-4, %rcx
addq %rcx, %rax
addq %rax, %r9
adcq $0, %r8
adcq $0, %rbx
jmp Ljade_onetimeauth_poly1305_amd64_avx2$4
Ljade_onetimeauth_poly1305_amd64_avx2$5:
addq (%rsi), %r9
adcq 8(%rsi), %r8
adcq $1, %rbx
movq %rbp, %r11
imulq %rbx, %r11
imulq %r13, %rbx
movq %r13, %rax
mulq %r9
movq %rax, %rcx
movq %rdx, %r10
movq %r13, %rax
mulq %r8
addq %rax, %r10
adcq %rdx, %rbx
movq %rbp, %rax
mulq %r8
movq %rdx, %r8
addq %r11, %r8
movq %rax, %r11
movq %r12, %rax
mulq %r9
addq %r11, %rcx
adcq %rax, %r10
adcq %rdx, %rbx
movq $-4, %r9
movq %rbx, %rax
shrq $2, %rax
andq %rbx, %r9
addq %rax, %r9
andq $3, %rbx
addq %rcx, %r9
adcq %r10, %r8
adcq $0, %rbx
addq $16, %rsi
addq $-16, %r14
Ljade_onetimeauth_poly1305_amd64_avx2$4:
cmpq $16, %r14
jnb Ljade_onetimeauth_poly1305_amd64_avx2$5
cmpq $0, %r14
jbe Ljade_onetimeauth_poly1305_amd64_avx2$3
xorq %rcx, %rcx
movq %r14, %rax
andq $7, %rax
shlq $3, %rax
shrq $3, %r14
movq %r14, %rdx
xorq $1, %rdx
movq %r14, %r10
addq $-1, %r10
movq %rax, %r11
andq %r10, %r11
xorq %r11, %rcx
xorq %r11, %rax
shlq %cl, %rdx
movq %rax, %rcx
shlq %cl, %r14
movq %rdx, %rax
movq %r14, %rcx
subq $1, %rax
sbbq $0, %rcx
movq (%rsi), %r10
andq %rax, %r10
orq %rdx, %r10
movq 8(%rsi), %rax
andq %rcx, %rax
orq %r14, %rax
addq %r10, %r9
adcq %rax, %r8
adcq $0, %rbx
movq %rbp, %rsi
imulq %rbx, %rsi
imulq %r13, %rbx
movq %r13, %rax
mulq %r9
movq %rax, %rcx
movq %rdx, %r10
movq %r13, %rax
mulq %r8
addq %rax, %r10
adcq %rdx, %rbx
movq %rbp, %rax
mulq %r8
movq %rdx, %r8
addq %rsi, %r8
movq %rax, %rsi
movq %r12, %rax
mulq %r9
addq %rsi, %rcx
adcq %rax, %r10
adcq %rdx, %rbx
movq $-4, %r9
movq %rbx, %rax
shrq $2, %rax
andq %rbx, %r9
addq %rax, %r9
andq $3, %rbx
addq %rcx, %r9
adcq %r10, %r8
adcq $0, %rbx
Ljade_onetimeauth_poly1305_amd64_avx2$3:
movq %r9, %rax
movq %r8, %rcx
addq $5, %rax
adcq $0, %rcx
adcq $0, %rbx
shrq $2, %rbx
negq %rbx
xorq %r9, %rax
xorq %r8, %rcx
andq %rbx, %rax
andq %rbx, %rcx
xorq %r9, %rax
xorq %r8, %rcx
movq (%r15), %rdx
movq 8(%r15), %rsi
addq %rdx, %rax
adcq %rsi, %rcx
Ljade_onetimeauth_poly1305_amd64_avx2$2:
movq %rax, (%rdi)
movq %rcx, 8(%rdi)
xorq %rax, %rax
movq 640(%rsp), %rbx
movq 648(%rsp), %rbp
movq 656(%rsp), %r12
movq 664(%rsp), %r13
movq 672(%rsp), %r14
movq 680(%rsp), %r15
movq 688(%rsp), %rsp
ret
.data
.p2align 5
_glob_data:
glob_data:
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte -1
.byte -1
.byte -1
.byte 3
.byte 0
.byte 0
.byte 0
.byte 0
.byte 5
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
|
usenix-security-verdict/verdict
| 36,058
|
deps/libcrux/sys/libjade/jazz/poly1305_avx.s
|
.att_syntax
.text
.p2align 5
.globl _jade_onetimeauth_poly1305_amd64_avx_verify
.globl jade_onetimeauth_poly1305_amd64_avx_verify
.globl _jade_onetimeauth_poly1305_amd64_avx
.globl jade_onetimeauth_poly1305_amd64_avx
_jade_onetimeauth_poly1305_amd64_avx_verify:
jade_onetimeauth_poly1305_amd64_avx_verify:
movq %rsp, %rax
leaq -600(%rsp), %rsp
andq $-16, %rsp
movq %rax, 592(%rsp)
movq %rbx, 544(%rsp)
movq %rbp, 552(%rsp)
movq %r12, 560(%rsp)
movq %r13, 568(%rsp)
movq %r14, 576(%rsp)
movq %r15, 584(%rsp)
movq %rdx, %r14
movq %rcx, %r15
cmpq $1024, %r14
jnb Ljade_onetimeauth_poly1305_amd64_avx_verify$1
movq $0, %r8
movq $0, %r12
movq $0, %r13
movq (%r15), %rbp
movq 8(%r15), %rbx
movq $1152921487695413247, %rax
andq %rax, %rbp
movq $1152921487695413244, %rax
andq %rax, %rbx
movq %rbx, %r9
shrq $2, %r9
addq %rbx, %r9
addq $16, %r15
jmp Ljade_onetimeauth_poly1305_amd64_avx_verify$9
Ljade_onetimeauth_poly1305_amd64_avx_verify$10:
addq (%rsi), %r8
adcq 8(%rsi), %r12
adcq $1, %r13
movq %r9, %r10
imulq %r13, %r10
imulq %rbp, %r13
movq %rbp, %rax
mulq %r8
movq %rax, %rcx
movq %rdx, %r11
movq %rbp, %rax
mulq %r12
addq %rax, %r11
adcq %rdx, %r13
movq %r9, %rax
mulq %r12
movq %rdx, %r12
addq %r10, %r12
movq %rax, %r10
movq %rbx, %rax
mulq %r8
addq %r10, %rcx
adcq %rax, %r11
adcq %rdx, %r13
movq $-4, %r8
movq %r13, %rax
shrq $2, %rax
andq %r13, %r8
addq %rax, %r8
andq $3, %r13
addq %rcx, %r8
adcq %r11, %r12
adcq $0, %r13
addq $16, %rsi
addq $-16, %r14
Ljade_onetimeauth_poly1305_amd64_avx_verify$9:
cmpq $16, %r14
jnb Ljade_onetimeauth_poly1305_amd64_avx_verify$10
cmpq $0, %r14
jbe Ljade_onetimeauth_poly1305_amd64_avx_verify$8
xorq %rcx, %rcx
movq %r14, %rax
andq $7, %rax
shlq $3, %rax
shrq $3, %r14
movq %r14, %rdx
xorq $1, %rdx
movq %r14, %r10
addq $-1, %r10
movq %rax, %r11
andq %r10, %r11
xorq %r11, %rcx
xorq %r11, %rax
shlq %cl, %rdx
movq %rax, %rcx
shlq %cl, %r14
movq %rdx, %rax
movq %r14, %rcx
subq $1, %rax
sbbq $0, %rcx
movq (%rsi), %r10
andq %rax, %r10
orq %rdx, %r10
movq 8(%rsi), %rax
andq %rcx, %rax
orq %r14, %rax
addq %r10, %r8
adcq %rax, %r12
adcq $0, %r13
movq %r9, %rsi
imulq %r13, %rsi
imulq %rbp, %r13
movq %rbp, %rax
mulq %r8
movq %rax, %rcx
movq %rdx, %r10
movq %rbp, %rax
mulq %r12
addq %rax, %r10
adcq %rdx, %r13
movq %r9, %rax
mulq %r12
movq %rdx, %r12
addq %rsi, %r12
movq %rax, %rsi
movq %rbx, %rax
mulq %r8
addq %rsi, %rcx
adcq %rax, %r10
adcq %rdx, %r13
movq $-4, %r8
movq %r13, %rax
shrq $2, %rax
andq %r13, %r8
addq %rax, %r8
andq $3, %r13
addq %rcx, %r8
adcq %r10, %r12
adcq $0, %r13
Ljade_onetimeauth_poly1305_amd64_avx_verify$8:
movq %r8, %rax
movq %r12, %rcx
addq $5, %rax
adcq $0, %rcx
adcq $0, %r13
shrq $2, %r13
negq %r13
xorq %r8, %rax
xorq %r12, %rcx
andq %r13, %rax
andq %r13, %rcx
xorq %r8, %rax
xorq %r12, %rcx
movq (%r15), %rdx
movq 8(%r15), %rsi
addq %rdx, %rax
adcq %rsi, %rcx
jmp Ljade_onetimeauth_poly1305_amd64_avx_verify$2
Ljade_onetimeauth_poly1305_amd64_avx_verify$1:
movq (%r15), %rbp
movq 8(%r15), %r13
movq $1152921487695413247, %rax
andq %rax, %rbp
movq $1152921487695413244, %rax
andq %rax, %r13
movq %r13, %r12
shrq $2, %r12
addq %r13, %r12
addq $16, %r15
movq %rbp, %r8
movq %r13, %r11
movq $0, %rbx
movq %r8, %rax
andq $67108863, %rax
movq %rax, 232(%rsp)
movq %r8, %rax
shrq $26, %rax
andq $67108863, %rax
movq %rax, 248(%rsp)
movq %r8, %rax
shrdq $52, %r11, %rax
movq %rax, %rcx
andq $67108863, %rax
movq %rax, 264(%rsp)
shrq $26, %rcx
andq $67108863, %rcx
movq %rcx, 280(%rsp)
movq %r11, %rax
shrdq $40, %rbx, %rax
movq %rax, 296(%rsp)
movq %r12, %r10
imulq %rbx, %r10
imulq %rbp, %rbx
movq %rbp, %rax
mulq %r8
movq %rax, %rcx
movq %rdx, %r9
movq %rbp, %rax
mulq %r11
addq %rax, %r9
adcq %rdx, %rbx
movq %r12, %rax
mulq %r11
movq %rdx, %r11
addq %r10, %r11
movq %rax, %r10
movq %r13, %rax
mulq %r8
addq %r10, %rcx
adcq %rax, %r9
adcq %rdx, %rbx
movq $-4, %r8
movq %rbx, %rax
shrq $2, %rax
andq %rbx, %r8
addq %rax, %r8
andq $3, %rbx
addq %rcx, %r8
adcq %r9, %r11
adcq $0, %rbx
movq %r8, %rax
andq $67108863, %rax
movq %rax, 224(%rsp)
movq %r8, %rax
shrq $26, %rax
andq $67108863, %rax
movq %rax, 240(%rsp)
movq %r8, %rax
shrdq $52, %r11, %rax
movq %rax, %rcx
andq $67108863, %rax
movq %rax, 256(%rsp)
shrq $26, %rcx
andq $67108863, %rcx
movq %rcx, 272(%rsp)
movq %r11, %rax
shrdq $40, %rbx, %rax
movq %rax, 288(%rsp)
vpbroadcastq glob_data + 16(%rip), %xmm0
vpmuludq 240(%rsp), %xmm0, %xmm1
vmovdqu %xmm1, 32(%rsp)
vpmuludq 256(%rsp), %xmm0, %xmm1
vmovdqu %xmm1, 48(%rsp)
vpmuludq 272(%rsp), %xmm0, %xmm1
vmovdqu %xmm1, 64(%rsp)
vpmuludq 288(%rsp), %xmm0, %xmm0
vmovdqu %xmm0, 80(%rsp)
vpbroadcastq 224(%rsp), %xmm0
vmovdqu %xmm0, 304(%rsp)
vpbroadcastq 240(%rsp), %xmm0
vmovdqu %xmm0, 320(%rsp)
vpbroadcastq 256(%rsp), %xmm0
vmovdqu %xmm0, 336(%rsp)
vpbroadcastq 272(%rsp), %xmm0
vmovdqu %xmm0, 352(%rsp)
vpbroadcastq 288(%rsp), %xmm0
vmovdqu %xmm0, 368(%rsp)
vpbroadcastq 32(%rsp), %xmm0
vmovdqu %xmm0, 96(%rsp)
vpbroadcastq 48(%rsp), %xmm0
vmovdqu %xmm0, 112(%rsp)
vpbroadcastq 64(%rsp), %xmm0
vmovdqu %xmm0, 128(%rsp)
vpbroadcastq 80(%rsp), %xmm0
vmovdqu %xmm0, 144(%rsp)
movq %r12, %r10
imulq %rbx, %r10
imulq %rbp, %rbx
movq %rbp, %rax
mulq %r8
movq %rax, %rcx
movq %rdx, %r9
movq %rbp, %rax
mulq %r11
addq %rax, %r9
adcq %rdx, %rbx
movq %r12, %rax
mulq %r11
movq %rdx, %r11
addq %r10, %r11
movq %rax, %r10
movq %r13, %rax
mulq %r8
addq %r10, %rcx
adcq %rax, %r9
adcq %rdx, %rbx
movq $-4, %r8
movq %rbx, %rax
shrq $2, %rax
andq %rbx, %r8
addq %rax, %r8
andq $3, %rbx
addq %rcx, %r8
adcq %r9, %r11
adcq $0, %rbx
movq %r12, %r9
imulq %rbx, %r9
imulq %rbp, %rbx
movq %rbp, %rax
mulq %r8
movq %rax, %rcx
movq %rdx, %r10
movq %rbp, %rax
mulq %r11
addq %rax, %r10
adcq %rdx, %rbx
movq %r12, %rax
mulq %r11
movq %rdx, %r11
addq %r9, %r11
movq %rax, %r9
movq %r13, %rax
mulq %r8
addq %r9, %rcx
adcq %rax, %r10
adcq %rdx, %rbx
movq $-4, %rax
movq %rbx, %rdx
shrq $2, %rdx
andq %rbx, %rax
addq %rdx, %rax
andq $3, %rbx
addq %rcx, %rax
adcq %r10, %r11
adcq $0, %rbx
movq %rax, %rcx
andq $67108863, %rcx
movq %rcx, 384(%rsp)
movq %rax, %rcx
shrq $26, %rcx
andq $67108863, %rcx
movq %rcx, 400(%rsp)
shrdq $52, %r11, %rax
movq %rax, %rcx
andq $67108863, %rax
movq %rax, 416(%rsp)
shrq $26, %rcx
andq $67108863, %rcx
movq %rcx, 432(%rsp)
shrdq $40, %rbx, %r11
movq %r11, 448(%rsp)
movq 384(%rsp), %rax
movq %rax, 392(%rsp)
movq 400(%rsp), %rax
movq %rax, 408(%rsp)
movq 416(%rsp), %rax
movq %rax, 424(%rsp)
movq 432(%rsp), %rax
movq %rax, 440(%rsp)
movq 448(%rsp), %rax
movq %rax, 456(%rsp)
vpbroadcastq glob_data + 16(%rip), %xmm0
vpmuludq 400(%rsp), %xmm0, %xmm1
vmovdqu %xmm1, 160(%rsp)
vpmuludq 416(%rsp), %xmm0, %xmm1
vmovdqu %xmm1, 176(%rsp)
vpmuludq 432(%rsp), %xmm0, %xmm1
vmovdqu %xmm1, 192(%rsp)
vpmuludq 448(%rsp), %xmm0, %xmm0
vmovdqu %xmm0, 208(%rsp)
vpxor %xmm3, %xmm3, %xmm3
vpxor %xmm2, %xmm2, %xmm2
vpxor %xmm1, %xmm1, %xmm1
vpxor %xmm4, %xmm4, %xmm4
vpxor %xmm5, %xmm5, %xmm5
vpbroadcastq glob_data + 8(%rip), %xmm0
vmovdqu %xmm0, (%rsp)
vpbroadcastq glob_data + 0(%rip), %xmm0
vmovdqu %xmm0, 16(%rsp)
jmp Ljade_onetimeauth_poly1305_amd64_avx_verify$6
Ljade_onetimeauth_poly1305_amd64_avx_verify$7:
vmovdqu 384(%rsp), %xmm0
vmovdqu 400(%rsp), %xmm12
vmovdqu 208(%rsp), %xmm14
vpmuludq %xmm0, %xmm3, %xmm7
vpmuludq %xmm12, %xmm3, %xmm8
vpmuludq %xmm0, %xmm2, %xmm13
vpmuludq %xmm12, %xmm2, %xmm6
vpmuludq %xmm0, %xmm1, %xmm9
vpmuludq %xmm12, %xmm1, %xmm10
vpmuludq %xmm0, %xmm4, %xmm11
vpaddq %xmm8, %xmm13, %xmm8
vpmuludq %xmm12, %xmm4, %xmm12
vpaddq %xmm6, %xmm9, %xmm9
vpmuludq %xmm0, %xmm5, %xmm0
vpaddq %xmm10, %xmm11, %xmm10
vpaddq %xmm12, %xmm0, %xmm6
vpmuludq %xmm14, %xmm2, %xmm15
vmovdqu (%rsi), %xmm0
vpmuludq %xmm14, %xmm1, %xmm13
vmovdqu 416(%rsp), %xmm12
vpmuludq %xmm14, %xmm4, %xmm11
vpmuludq %xmm14, %xmm5, %xmm14
vpaddq %xmm15, %xmm7, %xmm7
vmovdqu 16(%rsi), %xmm15
vpaddq %xmm13, %xmm8, %xmm8
vpaddq %xmm11, %xmm9, %xmm13
vpaddq %xmm14, %xmm10, %xmm9
vpmuludq %xmm12, %xmm3, %xmm14
vpunpcklqdq %xmm15, %xmm0, %xmm10
vpmuludq %xmm12, %xmm2, %xmm11
vpunpckhqdq %xmm15, %xmm0, %xmm0
vpmuludq %xmm12, %xmm1, %xmm12
vpaddq %xmm14, %xmm13, %xmm13
vmovdqu 192(%rsp), %xmm14
vpaddq %xmm11, %xmm9, %xmm9
vpaddq %xmm12, %xmm6, %xmm6
vpmuludq %xmm14, %xmm1, %xmm11
vpmuludq %xmm14, %xmm4, %xmm12
vmovdqu %xmm10, %xmm1
vpmuludq %xmm14, %xmm5, %xmm14
vpsrlq $26, %xmm1, %xmm1
vpand (%rsp), %xmm1, %xmm1
vmovdqu 432(%rsp), %xmm15
vpaddq %xmm11, %xmm7, %xmm7
vpaddq %xmm12, %xmm8, %xmm8
vpaddq %xmm13, %xmm14, %xmm12
vpmuludq %xmm15, %xmm3, %xmm11
vmovdqu %xmm0, %xmm13
vmovdqu %xmm12, 496(%rsp)
vpmuludq %xmm15, %xmm2, %xmm12
vpsrlq $40, %xmm13, %xmm2
vpor 16(%rsp), %xmm2, %xmm2
vmovdqu 176(%rsp), %xmm13
vpaddq %xmm11, %xmm9, %xmm9
vpaddq %xmm12, %xmm6, %xmm6
vpmuludq %xmm13, %xmm4, %xmm11
vmovdqu %xmm10, %xmm4
vmovdqu %xmm9, 512(%rsp)
vpmuludq %xmm13, %xmm5, %xmm9
vpsrlq $52, %xmm4, %xmm4
vpaddq %xmm11, %xmm7, %xmm7
vpaddq %xmm8, %xmm9, %xmm8
vpmuludq 160(%rsp), %xmm5, %xmm5
vpsllq $12, %xmm0, %xmm9
vmovdqu %xmm8, 480(%rsp)
vpmuludq 448(%rsp), %xmm3, %xmm3
vpor %xmm9, %xmm4, %xmm4
vmovdqu (%rsp), %xmm8
vpaddq %xmm5, %xmm7, %xmm5
vpaddq %xmm3, %xmm6, %xmm3
vmovdqu %xmm5, 464(%rsp)
vmovdqu %xmm3, 528(%rsp)
vpand %xmm8, %xmm10, %xmm3
vpand %xmm8, %xmm4, %xmm4
vpsrlq $14, %xmm0, %xmm0
vpand %xmm8, %xmm0, %xmm0
vmovdqu 304(%rsp), %xmm5
vmovdqu 320(%rsp), %xmm9
vmovdqu 144(%rsp), %xmm12
vpmuludq %xmm5, %xmm3, %xmm7
vpmuludq %xmm9, %xmm3, %xmm8
vpmuludq %xmm5, %xmm1, %xmm14
vpmuludq %xmm9, %xmm1, %xmm11
vpmuludq %xmm5, %xmm4, %xmm13
vpmuludq %xmm9, %xmm4, %xmm6
vpaddq 464(%rsp), %xmm7, %xmm7
vpmuludq %xmm5, %xmm0, %xmm10
vpaddq 480(%rsp), %xmm14, %xmm14
vpaddq %xmm8, %xmm14, %xmm8
vpmuludq %xmm9, %xmm0, %xmm14
vpaddq 496(%rsp), %xmm13, %xmm9
vpaddq %xmm11, %xmm9, %xmm9
vpmuludq %xmm5, %xmm2, %xmm5
vpaddq 512(%rsp), %xmm10, %xmm10
vpaddq %xmm6, %xmm10, %xmm10
vpaddq 528(%rsp), %xmm5, %xmm5
vpaddq %xmm14, %xmm5, %xmm5
vpmuludq %xmm12, %xmm1, %xmm15
vmovdqu 32(%rsi), %xmm14
vpmuludq %xmm12, %xmm4, %xmm13
vmovdqu 336(%rsp), %xmm6
vpmuludq %xmm12, %xmm0, %xmm11
vpmuludq %xmm12, %xmm2, %xmm12
vpaddq %xmm15, %xmm7, %xmm7
vmovdqu 48(%rsi), %xmm15
vpaddq %xmm13, %xmm8, %xmm8
vpaddq %xmm11, %xmm9, %xmm9
vpaddq %xmm12, %xmm10, %xmm10
vpmuludq %xmm6, %xmm3, %xmm11
vpunpcklqdq %xmm15, %xmm14, %xmm12
vpmuludq %xmm6, %xmm1, %xmm13
vpunpckhqdq %xmm15, %xmm14, %xmm14
vpmuludq %xmm6, %xmm4, %xmm6
vpaddq %xmm11, %xmm9, %xmm9
vmovdqu 128(%rsp), %xmm11
vpaddq %xmm13, %xmm10, %xmm10
vpaddq %xmm6, %xmm5, %xmm5
vpmuludq %xmm11, %xmm4, %xmm4
vpmuludq %xmm11, %xmm0, %xmm6
vmovdqu %xmm12, %xmm13
vpmuludq %xmm11, %xmm2, %xmm11
vpsrlq $26, %xmm13, %xmm13
vpand (%rsp), %xmm13, %xmm13
vmovdqu 352(%rsp), %xmm15
vpaddq %xmm4, %xmm7, %xmm4
vpaddq %xmm6, %xmm8, %xmm6
vpaddq %xmm9, %xmm11, %xmm7
vpmuludq %xmm15, %xmm3, %xmm8
vmovdqu %xmm14, %xmm9
vpmuludq %xmm15, %xmm1, %xmm11
vpsrlq $40, %xmm9, %xmm1
vpor 16(%rsp), %xmm1, %xmm1
vmovdqu 112(%rsp), %xmm9
vpaddq %xmm8, %xmm10, %xmm8
vpaddq %xmm11, %xmm5, %xmm5
vpmuludq %xmm9, %xmm0, %xmm0
vmovdqu %xmm12, %xmm10
vpmuludq %xmm9, %xmm2, %xmm11
vpsrlq $52, %xmm10, %xmm9
vpaddq %xmm0, %xmm4, %xmm10
vpaddq %xmm6, %xmm11, %xmm0
vpmuludq 96(%rsp), %xmm2, %xmm6
vpsllq $12, %xmm14, %xmm4
vpmuludq 368(%rsp), %xmm3, %xmm2
vpor %xmm4, %xmm9, %xmm3
vmovdqu (%rsp), %xmm4
vpaddq %xmm6, %xmm10, %xmm6
vpaddq %xmm2, %xmm5, %xmm2
vpand %xmm4, %xmm12, %xmm5
vpaddq %xmm6, %xmm5, %xmm5
vpand %xmm4, %xmm3, %xmm3
vpaddq %xmm7, %xmm3, %xmm3
vpsrlq $14, %xmm14, %xmm6
vpand %xmm4, %xmm6, %xmm6
vpaddq %xmm8, %xmm6, %xmm6
addq $64, %rsi
vpaddq %xmm0, %xmm13, %xmm7
vpaddq %xmm2, %xmm1, %xmm1
vpsrlq $26, %xmm5, %xmm8
vpsrlq $26, %xmm6, %xmm9
vpand %xmm4, %xmm5, %xmm0
vpand %xmm4, %xmm6, %xmm2
vpaddq %xmm8, %xmm7, %xmm5
vpaddq %xmm9, %xmm1, %xmm1
vpsrlq $26, %xmm5, %xmm6
vpsrlq $26, %xmm1, %xmm7
vpsllq $2, %xmm7, %xmm8
vpaddq %xmm8, %xmm7, %xmm7
vpand %xmm4, %xmm5, %xmm8
vpand %xmm4, %xmm1, %xmm5
vpaddq %xmm6, %xmm3, %xmm1
vpaddq %xmm7, %xmm0, %xmm0
vpsrlq $26, %xmm1, %xmm6
vpsrlq $26, %xmm0, %xmm7
vpand %xmm4, %xmm1, %xmm1
vpand %xmm4, %xmm0, %xmm3
vpaddq %xmm6, %xmm2, %xmm0
vpaddq %xmm7, %xmm8, %xmm2
vpsrlq $26, %xmm0, %xmm6
vpand %xmm4, %xmm0, %xmm4
vpaddq %xmm6, %xmm5, %xmm5
addq $-64, %r14
Ljade_onetimeauth_poly1305_amd64_avx_verify$6:
cmpq $64, %r14
jnb Ljade_onetimeauth_poly1305_amd64_avx_verify$7
vmovdqu 224(%rsp), %xmm6
vmovdqu 240(%rsp), %xmm11
vmovdqu 80(%rsp), %xmm14
vpmuludq %xmm6, %xmm3, %xmm0
vpmuludq %xmm6, %xmm2, %xmm7
vpmuludq %xmm6, %xmm1, %xmm8
vpmuludq %xmm6, %xmm4, %xmm9
vpmuludq %xmm6, %xmm5, %xmm10
vpmuludq %xmm11, %xmm3, %xmm15
vpmuludq %xmm11, %xmm2, %xmm12
vpmuludq %xmm11, %xmm1, %xmm13
vpmuludq %xmm11, %xmm4, %xmm11
vmovdqu 256(%rsp), %xmm6
vpaddq %xmm15, %xmm7, %xmm7
vpaddq %xmm12, %xmm8, %xmm8
vpaddq %xmm13, %xmm9, %xmm9
vpaddq %xmm11, %xmm10, %xmm10
vpmuludq %xmm14, %xmm2, %xmm11
vpmuludq %xmm14, %xmm1, %xmm12
vpmuludq %xmm14, %xmm4, %xmm13
vpmuludq %xmm14, %xmm5, %xmm14
vmovdqu 64(%rsp), %xmm15
vpaddq %xmm11, %xmm0, %xmm0
vpaddq %xmm12, %xmm7, %xmm7
vpaddq %xmm13, %xmm8, %xmm8
vpaddq %xmm14, %xmm9, %xmm9
vpmuludq %xmm6, %xmm3, %xmm13
vpmuludq %xmm6, %xmm2, %xmm11
vpmuludq %xmm6, %xmm1, %xmm12
vmovdqu 272(%rsp), %xmm6
vpaddq %xmm13, %xmm8, %xmm8
vpaddq %xmm11, %xmm9, %xmm9
vpaddq %xmm12, %xmm10, %xmm10
vpmuludq %xmm15, %xmm1, %xmm11
vpmuludq %xmm15, %xmm4, %xmm12
vpmuludq %xmm15, %xmm5, %xmm13
vmovdqu 48(%rsp), %xmm1
vpaddq %xmm11, %xmm0, %xmm11
vpaddq %xmm12, %xmm7, %xmm7
vpaddq %xmm8, %xmm13, %xmm0
vpmuludq %xmm6, %xmm3, %xmm8
vpmuludq %xmm6, %xmm2, %xmm6
vpaddq %xmm8, %xmm9, %xmm2
vpaddq %xmm6, %xmm10, %xmm6
vpmuludq %xmm1, %xmm4, %xmm4
vpmuludq %xmm1, %xmm5, %xmm1
vpaddq %xmm4, %xmm11, %xmm4
vpaddq %xmm7, %xmm1, %xmm1
vpmuludq 32(%rsp), %xmm5, %xmm5
vpmuludq 288(%rsp), %xmm3, %xmm3
vpaddq %xmm5, %xmm4, %xmm4
vmovdqu %xmm2, %xmm5
vpaddq %xmm3, %xmm6, %xmm6
vmovdqu (%rsp), %xmm2
vpsrlq $26, %xmm4, %xmm7
vpsrlq $26, %xmm5, %xmm8
vpand %xmm2, %xmm4, %xmm3
vpand %xmm2, %xmm5, %xmm4
vpaddq %xmm7, %xmm1, %xmm1
vpaddq %xmm8, %xmm6, %xmm5
vpsrlq $26, %xmm1, %xmm6
vpsrlq $26, %xmm5, %xmm7
vpsllq $2, %xmm7, %xmm8
vpaddq %xmm8, %xmm7, %xmm7
vpand %xmm2, %xmm1, %xmm8
vpand %xmm2, %xmm5, %xmm1
vpaddq %xmm6, %xmm0, %xmm0
vpaddq %xmm7, %xmm3, %xmm3
vpsrlq $26, %xmm0, %xmm5
vpsrlq $26, %xmm3, %xmm6
vpand %xmm2, %xmm0, %xmm0
vpand %xmm2, %xmm3, %xmm3
vpaddq %xmm5, %xmm4, %xmm4
vpaddq %xmm6, %xmm8, %xmm5
vpsrlq $26, %xmm4, %xmm6
vpand %xmm2, %xmm4, %xmm2
vpaddq %xmm6, %xmm1, %xmm1
vpsllq $26, %xmm5, %xmm4
vpaddq %xmm3, %xmm4, %xmm3
vpsllq $26, %xmm2, %xmm2
vpaddq %xmm0, %xmm2, %xmm0
vpsrldq $8, %xmm1, %xmm2
vpaddq %xmm1, %xmm2, %xmm1
vpunpcklqdq %xmm0, %xmm3, %xmm2
vpunpckhqdq %xmm0, %xmm3, %xmm0
vpaddq %xmm0, %xmm2, %xmm0
vpextrq $0, %xmm0, %rax
vpextrq $1, %xmm0, %r8
vpextrq $0, %xmm1, %rcx
movq %r8, %r9
shlq $52, %r9
shrq $12, %r8
movq %rcx, %rbx
shrq $24, %rbx
shlq $40, %rcx
addq %rax, %r9
adcq %rcx, %r8
adcq $0, %rbx
movq %rbx, %rax
movq %rbx, %rcx
andq $3, %rbx
shrq $2, %rax
andq $-4, %rcx
addq %rcx, %rax
addq %rax, %r9
adcq $0, %r8
adcq $0, %rbx
jmp Ljade_onetimeauth_poly1305_amd64_avx_verify$4
Ljade_onetimeauth_poly1305_amd64_avx_verify$5:
addq (%rsi), %r9
adcq 8(%rsi), %r8
adcq $1, %rbx
movq %r12, %rcx
imulq %rbx, %rcx
imulq %rbp, %rbx
movq %rbp, %rax
mulq %r9
movq %rax, %r11
movq %rdx, %r10
movq %rbp, %rax
mulq %r8
addq %rax, %r10
adcq %rdx, %rbx
movq %r12, %rax
mulq %r8
movq %rdx, %r8
addq %rcx, %r8
movq %rax, %rcx
movq %r13, %rax
mulq %r9
addq %rcx, %r11
adcq %rax, %r10
adcq %rdx, %rbx
movq $-4, %r9
movq %rbx, %rax
shrq $2, %rax
andq %rbx, %r9
addq %rax, %r9
andq $3, %rbx
addq %r11, %r9
adcq %r10, %r8
adcq $0, %rbx
addq $16, %rsi
addq $-16, %r14
Ljade_onetimeauth_poly1305_amd64_avx_verify$4:
cmpq $16, %r14
jnb Ljade_onetimeauth_poly1305_amd64_avx_verify$5
cmpq $0, %r14
jbe Ljade_onetimeauth_poly1305_amd64_avx_verify$3
xorq %rcx, %rcx
movq %r14, %rax
andq $7, %rax
shlq $3, %rax
shrq $3, %r14
movq %r14, %rdx
xorq $1, %rdx
movq %r14, %r10
addq $-1, %r10
movq %rax, %r11
andq %r10, %r11
xorq %r11, %rcx
xorq %r11, %rax
shlq %cl, %rdx
movq %rax, %rcx
shlq %cl, %r14
movq %rdx, %rax
movq %r14, %rcx
subq $1, %rax
sbbq $0, %rcx
movq (%rsi), %r10
andq %rax, %r10
orq %rdx, %r10
movq 8(%rsi), %rax
andq %rcx, %rax
orq %r14, %rax
addq %r10, %r9
adcq %rax, %r8
adcq $0, %rbx
movq %r12, %rsi
imulq %rbx, %rsi
imulq %rbp, %rbx
movq %rbp, %rax
mulq %r9
movq %rax, %rcx
movq %rdx, %r10
movq %rbp, %rax
mulq %r8
addq %rax, %r10
adcq %rdx, %rbx
movq %r12, %rax
mulq %r8
movq %rdx, %r8
addq %rsi, %r8
movq %rax, %rsi
movq %r13, %rax
mulq %r9
addq %rsi, %rcx
adcq %rax, %r10
adcq %rdx, %rbx
movq $-4, %r9
movq %rbx, %rax
shrq $2, %rax
andq %rbx, %r9
addq %rax, %r9
andq $3, %rbx
addq %rcx, %r9
adcq %r10, %r8
adcq $0, %rbx
Ljade_onetimeauth_poly1305_amd64_avx_verify$3:
movq %r9, %rax
movq %r8, %rcx
addq $5, %rax
adcq $0, %rcx
adcq $0, %rbx
shrq $2, %rbx
negq %rbx
xorq %r9, %rax
xorq %r8, %rcx
andq %rbx, %rax
andq %rbx, %rcx
xorq %r9, %rax
xorq %r8, %rcx
movq (%r15), %rdx
movq 8(%r15), %rsi
addq %rdx, %rax
adcq %rsi, %rcx
Ljade_onetimeauth_poly1305_amd64_avx_verify$2:
movq %rax, %rdx
xorq (%rdi), %rdx
xorq 8(%rdi), %rcx
orq %rcx, %rdx
xorq %rax, %rax
subq $1, %rdx
adcq $0, %rax
addq $-1, %rax
movq 544(%rsp), %rbx
movq 552(%rsp), %rbp
movq 560(%rsp), %r12
movq 568(%rsp), %r13
movq 576(%rsp), %r14
movq 584(%rsp), %r15
movq 592(%rsp), %rsp
ret
_jade_onetimeauth_poly1305_amd64_avx:
jade_onetimeauth_poly1305_amd64_avx:
movq %rsp, %rax
leaq -600(%rsp), %rsp
andq $-16, %rsp
movq %rax, 592(%rsp)
movq %rbx, 544(%rsp)
movq %rbp, 552(%rsp)
movq %r12, 560(%rsp)
movq %r13, 568(%rsp)
movq %r14, 576(%rsp)
movq %r15, 584(%rsp)
movq %rdx, %r14
movq %rcx, %r15
cmpq $1024, %r14
jnb Ljade_onetimeauth_poly1305_amd64_avx$1
movq $0, %rbx
movq $0, %r9
movq $0, %rbp
movq (%r15), %r13
movq 8(%r15), %r12
movq $1152921487695413247, %rax
andq %rax, %r13
movq $1152921487695413244, %rax
andq %rax, %r12
movq %r12, %r8
shrq $2, %r8
addq %r12, %r8
addq $16, %r15
jmp Ljade_onetimeauth_poly1305_amd64_avx$9
Ljade_onetimeauth_poly1305_amd64_avx$10:
addq (%rsi), %rbx
adcq 8(%rsi), %r9
adcq $1, %rbp
movq %r8, %r11
imulq %rbp, %r11
imulq %r13, %rbp
movq %r13, %rax
mulq %rbx
movq %rax, %rcx
movq %rdx, %r10
movq %r13, %rax
mulq %r9
addq %rax, %r10
adcq %rdx, %rbp
movq %r8, %rax
mulq %r9
movq %rdx, %r9
addq %r11, %r9
movq %rax, %r11
movq %r12, %rax
mulq %rbx
addq %r11, %rcx
adcq %rax, %r10
adcq %rdx, %rbp
movq $-4, %rbx
movq %rbp, %rax
shrq $2, %rax
andq %rbp, %rbx
addq %rax, %rbx
andq $3, %rbp
addq %rcx, %rbx
adcq %r10, %r9
adcq $0, %rbp
addq $16, %rsi
addq $-16, %r14
Ljade_onetimeauth_poly1305_amd64_avx$9:
cmpq $16, %r14
jnb Ljade_onetimeauth_poly1305_amd64_avx$10
cmpq $0, %r14
jbe Ljade_onetimeauth_poly1305_amd64_avx$8
xorq %rcx, %rcx
movq %r14, %rax
andq $7, %rax
shlq $3, %rax
shrq $3, %r14
movq %r14, %rdx
xorq $1, %rdx
movq %r14, %r10
addq $-1, %r10
movq %rax, %r11
andq %r10, %r11
xorq %r11, %rcx
xorq %r11, %rax
shlq %cl, %rdx
movq %rax, %rcx
shlq %cl, %r14
movq %rdx, %rax
movq %r14, %rcx
subq $1, %rax
sbbq $0, %rcx
movq (%rsi), %r10
andq %rax, %r10
orq %rdx, %r10
movq 8(%rsi), %rax
andq %rcx, %rax
orq %r14, %rax
addq %r10, %rbx
adcq %rax, %r9
adcq $0, %rbp
movq %r8, %rsi
imulq %rbp, %rsi
imulq %r13, %rbp
movq %r13, %rax
mulq %rbx
movq %rax, %rcx
movq %rdx, %r10
movq %r13, %rax
mulq %r9
addq %rax, %r10
adcq %rdx, %rbp
movq %r8, %rax
mulq %r9
movq %rdx, %r9
addq %rsi, %r9
movq %rax, %rsi
movq %r12, %rax
mulq %rbx
addq %rsi, %rcx
adcq %rax, %r10
adcq %rdx, %rbp
movq $-4, %rbx
movq %rbp, %rax
shrq $2, %rax
andq %rbp, %rbx
addq %rax, %rbx
andq $3, %rbp
addq %rcx, %rbx
adcq %r10, %r9
adcq $0, %rbp
Ljade_onetimeauth_poly1305_amd64_avx$8:
movq %rbx, %rax
movq %r9, %rcx
addq $5, %rax
adcq $0, %rcx
adcq $0, %rbp
shrq $2, %rbp
negq %rbp
xorq %rbx, %rax
xorq %r9, %rcx
andq %rbp, %rax
andq %rbp, %rcx
xorq %rbx, %rax
xorq %r9, %rcx
movq (%r15), %rdx
movq 8(%r15), %rsi
addq %rdx, %rax
adcq %rsi, %rcx
jmp Ljade_onetimeauth_poly1305_amd64_avx$2
Ljade_onetimeauth_poly1305_amd64_avx$1:
movq (%r15), %rbp
movq 8(%r15), %r12
movq $1152921487695413247, %rax
andq %rax, %rbp
movq $1152921487695413244, %rax
andq %rax, %r12
movq %r12, %r13
shrq $2, %r13
addq %r12, %r13
addq $16, %r15
movq %rbp, %r8
movq %r12, %r11
movq $0, %rbx
movq %r8, %rax
andq $67108863, %rax
movq %rax, 232(%rsp)
movq %r8, %rax
shrq $26, %rax
andq $67108863, %rax
movq %rax, 248(%rsp)
movq %r8, %rax
shrdq $52, %r11, %rax
movq %rax, %rcx
andq $67108863, %rax
movq %rax, 264(%rsp)
shrq $26, %rcx
andq $67108863, %rcx
movq %rcx, 280(%rsp)
movq %r11, %rax
shrdq $40, %rbx, %rax
movq %rax, 296(%rsp)
movq %r13, %r10
imulq %rbx, %r10
imulq %rbp, %rbx
movq %rbp, %rax
mulq %r8
movq %rax, %rcx
movq %rdx, %r9
movq %rbp, %rax
mulq %r11
addq %rax, %r9
adcq %rdx, %rbx
movq %r13, %rax
mulq %r11
movq %rdx, %r11
addq %r10, %r11
movq %rax, %r10
movq %r12, %rax
mulq %r8
addq %r10, %rcx
adcq %rax, %r9
adcq %rdx, %rbx
movq $-4, %r8
movq %rbx, %rax
shrq $2, %rax
andq %rbx, %r8
addq %rax, %r8
andq $3, %rbx
addq %rcx, %r8
adcq %r9, %r11
adcq $0, %rbx
movq %r8, %rax
andq $67108863, %rax
movq %rax, 224(%rsp)
movq %r8, %rax
shrq $26, %rax
andq $67108863, %rax
movq %rax, 240(%rsp)
movq %r8, %rax
shrdq $52, %r11, %rax
movq %rax, %rcx
andq $67108863, %rax
movq %rax, 256(%rsp)
shrq $26, %rcx
andq $67108863, %rcx
movq %rcx, 272(%rsp)
movq %r11, %rax
shrdq $40, %rbx, %rax
movq %rax, 288(%rsp)
vpbroadcastq glob_data + 16(%rip), %xmm0
vpmuludq 240(%rsp), %xmm0, %xmm1
vmovdqu %xmm1, 32(%rsp)
vpmuludq 256(%rsp), %xmm0, %xmm1
vmovdqu %xmm1, 48(%rsp)
vpmuludq 272(%rsp), %xmm0, %xmm1
vmovdqu %xmm1, 64(%rsp)
vpmuludq 288(%rsp), %xmm0, %xmm0
vmovdqu %xmm0, 80(%rsp)
vpbroadcastq 224(%rsp), %xmm0
vmovdqu %xmm0, 304(%rsp)
vpbroadcastq 240(%rsp), %xmm0
vmovdqu %xmm0, 320(%rsp)
vpbroadcastq 256(%rsp), %xmm0
vmovdqu %xmm0, 336(%rsp)
vpbroadcastq 272(%rsp), %xmm0
vmovdqu %xmm0, 352(%rsp)
vpbroadcastq 288(%rsp), %xmm0
vmovdqu %xmm0, 368(%rsp)
vpbroadcastq 32(%rsp), %xmm0
vmovdqu %xmm0, 96(%rsp)
vpbroadcastq 48(%rsp), %xmm0
vmovdqu %xmm0, 112(%rsp)
vpbroadcastq 64(%rsp), %xmm0
vmovdqu %xmm0, 128(%rsp)
vpbroadcastq 80(%rsp), %xmm0
vmovdqu %xmm0, 144(%rsp)
movq %r13, %r10
imulq %rbx, %r10
imulq %rbp, %rbx
movq %rbp, %rax
mulq %r8
movq %rax, %rcx
movq %rdx, %r9
movq %rbp, %rax
mulq %r11
addq %rax, %r9
adcq %rdx, %rbx
movq %r13, %rax
mulq %r11
movq %rdx, %r11
addq %r10, %r11
movq %rax, %r10
movq %r12, %rax
mulq %r8
addq %r10, %rcx
adcq %rax, %r9
adcq %rdx, %rbx
movq $-4, %r8
movq %rbx, %rax
shrq $2, %rax
andq %rbx, %r8
addq %rax, %r8
andq $3, %rbx
addq %rcx, %r8
adcq %r9, %r11
adcq $0, %rbx
movq %r13, %r9
imulq %rbx, %r9
imulq %rbp, %rbx
movq %rbp, %rax
mulq %r8
movq %rax, %rcx
movq %rdx, %r10
movq %rbp, %rax
mulq %r11
addq %rax, %r10
adcq %rdx, %rbx
movq %r13, %rax
mulq %r11
movq %rdx, %r11
addq %r9, %r11
movq %rax, %r9
movq %r12, %rax
mulq %r8
addq %r9, %rcx
adcq %rax, %r10
adcq %rdx, %rbx
movq $-4, %rax
movq %rbx, %rdx
shrq $2, %rdx
andq %rbx, %rax
addq %rdx, %rax
andq $3, %rbx
addq %rcx, %rax
adcq %r10, %r11
adcq $0, %rbx
movq %rax, %rcx
andq $67108863, %rcx
movq %rcx, 384(%rsp)
movq %rax, %rcx
shrq $26, %rcx
andq $67108863, %rcx
movq %rcx, 400(%rsp)
shrdq $52, %r11, %rax
movq %rax, %rcx
andq $67108863, %rax
movq %rax, 416(%rsp)
shrq $26, %rcx
andq $67108863, %rcx
movq %rcx, 432(%rsp)
shrdq $40, %rbx, %r11
movq %r11, 448(%rsp)
movq 384(%rsp), %rax
movq %rax, 392(%rsp)
movq 400(%rsp), %rax
movq %rax, 408(%rsp)
movq 416(%rsp), %rax
movq %rax, 424(%rsp)
movq 432(%rsp), %rax
movq %rax, 440(%rsp)
movq 448(%rsp), %rax
movq %rax, 456(%rsp)
vpbroadcastq glob_data + 16(%rip), %xmm0
vpmuludq 400(%rsp), %xmm0, %xmm1
vmovdqu %xmm1, 160(%rsp)
vpmuludq 416(%rsp), %xmm0, %xmm1
vmovdqu %xmm1, 176(%rsp)
vpmuludq 432(%rsp), %xmm0, %xmm1
vmovdqu %xmm1, 192(%rsp)
vpmuludq 448(%rsp), %xmm0, %xmm0
vmovdqu %xmm0, 208(%rsp)
vpxor %xmm3, %xmm3, %xmm3
vpxor %xmm2, %xmm2, %xmm2
vpxor %xmm1, %xmm1, %xmm1
vpxor %xmm4, %xmm4, %xmm4
vpxor %xmm5, %xmm5, %xmm5
vpbroadcastq glob_data + 8(%rip), %xmm0
vmovdqu %xmm0, (%rsp)
vpbroadcastq glob_data + 0(%rip), %xmm0
vmovdqu %xmm0, 16(%rsp)
jmp Ljade_onetimeauth_poly1305_amd64_avx$6
Ljade_onetimeauth_poly1305_amd64_avx$7:
vmovdqu 384(%rsp), %xmm0
vmovdqu 400(%rsp), %xmm12
vmovdqu 208(%rsp), %xmm14
vpmuludq %xmm0, %xmm3, %xmm7
vpmuludq %xmm12, %xmm3, %xmm8
vpmuludq %xmm0, %xmm2, %xmm13
vpmuludq %xmm12, %xmm2, %xmm6
vpmuludq %xmm0, %xmm1, %xmm9
vpmuludq %xmm12, %xmm1, %xmm10
vpmuludq %xmm0, %xmm4, %xmm11
vpaddq %xmm8, %xmm13, %xmm8
vpmuludq %xmm12, %xmm4, %xmm12
vpaddq %xmm6, %xmm9, %xmm9
vpmuludq %xmm0, %xmm5, %xmm0
vpaddq %xmm10, %xmm11, %xmm10
vpaddq %xmm12, %xmm0, %xmm6
vpmuludq %xmm14, %xmm2, %xmm15
vmovdqu (%rsi), %xmm0
vpmuludq %xmm14, %xmm1, %xmm13
vmovdqu 416(%rsp), %xmm12
vpmuludq %xmm14, %xmm4, %xmm11
vpmuludq %xmm14, %xmm5, %xmm14
vpaddq %xmm15, %xmm7, %xmm7
vmovdqu 16(%rsi), %xmm15
vpaddq %xmm13, %xmm8, %xmm8
vpaddq %xmm11, %xmm9, %xmm13
vpaddq %xmm14, %xmm10, %xmm9
vpmuludq %xmm12, %xmm3, %xmm14
vpunpcklqdq %xmm15, %xmm0, %xmm10
vpmuludq %xmm12, %xmm2, %xmm11
vpunpckhqdq %xmm15, %xmm0, %xmm0
vpmuludq %xmm12, %xmm1, %xmm12
vpaddq %xmm14, %xmm13, %xmm13
vmovdqu 192(%rsp), %xmm14
vpaddq %xmm11, %xmm9, %xmm9
vpaddq %xmm12, %xmm6, %xmm6
vpmuludq %xmm14, %xmm1, %xmm11
vpmuludq %xmm14, %xmm4, %xmm12
vmovdqu %xmm10, %xmm1
vpmuludq %xmm14, %xmm5, %xmm14
vpsrlq $26, %xmm1, %xmm1
vpand (%rsp), %xmm1, %xmm1
vmovdqu 432(%rsp), %xmm15
vpaddq %xmm11, %xmm7, %xmm7
vpaddq %xmm12, %xmm8, %xmm8
vpaddq %xmm13, %xmm14, %xmm12
vpmuludq %xmm15, %xmm3, %xmm11
vmovdqu %xmm0, %xmm13
vmovdqu %xmm12, 496(%rsp)
vpmuludq %xmm15, %xmm2, %xmm12
vpsrlq $40, %xmm13, %xmm2
vpor 16(%rsp), %xmm2, %xmm2
vmovdqu 176(%rsp), %xmm13
vpaddq %xmm11, %xmm9, %xmm9
vpaddq %xmm12, %xmm6, %xmm6
vpmuludq %xmm13, %xmm4, %xmm11
vmovdqu %xmm10, %xmm4
vmovdqu %xmm9, 512(%rsp)
vpmuludq %xmm13, %xmm5, %xmm9
vpsrlq $52, %xmm4, %xmm4
vpaddq %xmm11, %xmm7, %xmm7
vpaddq %xmm8, %xmm9, %xmm8
vpmuludq 160(%rsp), %xmm5, %xmm5
vpsllq $12, %xmm0, %xmm9
vmovdqu %xmm8, 480(%rsp)
vpmuludq 448(%rsp), %xmm3, %xmm3
vpor %xmm9, %xmm4, %xmm4
vmovdqu (%rsp), %xmm8
vpaddq %xmm5, %xmm7, %xmm5
vpaddq %xmm3, %xmm6, %xmm3
vmovdqu %xmm5, 464(%rsp)
vmovdqu %xmm3, 528(%rsp)
vpand %xmm8, %xmm10, %xmm3
vpand %xmm8, %xmm4, %xmm4
vpsrlq $14, %xmm0, %xmm0
vpand %xmm8, %xmm0, %xmm0
vmovdqu 304(%rsp), %xmm5
vmovdqu 320(%rsp), %xmm9
vmovdqu 144(%rsp), %xmm12
vpmuludq %xmm5, %xmm3, %xmm7
vpmuludq %xmm9, %xmm3, %xmm8
vpmuludq %xmm5, %xmm1, %xmm14
vpmuludq %xmm9, %xmm1, %xmm11
vpmuludq %xmm5, %xmm4, %xmm13
vpmuludq %xmm9, %xmm4, %xmm6
vpaddq 464(%rsp), %xmm7, %xmm7
vpmuludq %xmm5, %xmm0, %xmm10
vpaddq 480(%rsp), %xmm14, %xmm14
vpaddq %xmm8, %xmm14, %xmm8
vpmuludq %xmm9, %xmm0, %xmm14
vpaddq 496(%rsp), %xmm13, %xmm9
vpaddq %xmm11, %xmm9, %xmm9
vpmuludq %xmm5, %xmm2, %xmm5
vpaddq 512(%rsp), %xmm10, %xmm10
vpaddq %xmm6, %xmm10, %xmm10
vpaddq 528(%rsp), %xmm5, %xmm5
vpaddq %xmm14, %xmm5, %xmm5
vpmuludq %xmm12, %xmm1, %xmm15
vmovdqu 32(%rsi), %xmm14
vpmuludq %xmm12, %xmm4, %xmm13
vmovdqu 336(%rsp), %xmm6
vpmuludq %xmm12, %xmm0, %xmm11
vpmuludq %xmm12, %xmm2, %xmm12
vpaddq %xmm15, %xmm7, %xmm7
vmovdqu 48(%rsi), %xmm15
vpaddq %xmm13, %xmm8, %xmm8
vpaddq %xmm11, %xmm9, %xmm9
vpaddq %xmm12, %xmm10, %xmm10
vpmuludq %xmm6, %xmm3, %xmm11
vpunpcklqdq %xmm15, %xmm14, %xmm12
vpmuludq %xmm6, %xmm1, %xmm13
vpunpckhqdq %xmm15, %xmm14, %xmm14
vpmuludq %xmm6, %xmm4, %xmm6
vpaddq %xmm11, %xmm9, %xmm9
vmovdqu 128(%rsp), %xmm11
vpaddq %xmm13, %xmm10, %xmm10
vpaddq %xmm6, %xmm5, %xmm5
vpmuludq %xmm11, %xmm4, %xmm4
vpmuludq %xmm11, %xmm0, %xmm6
vmovdqu %xmm12, %xmm13
vpmuludq %xmm11, %xmm2, %xmm11
vpsrlq $26, %xmm13, %xmm13
vpand (%rsp), %xmm13, %xmm13
vmovdqu 352(%rsp), %xmm15
vpaddq %xmm4, %xmm7, %xmm4
vpaddq %xmm6, %xmm8, %xmm6
vpaddq %xmm9, %xmm11, %xmm7
vpmuludq %xmm15, %xmm3, %xmm8
vmovdqu %xmm14, %xmm9
vpmuludq %xmm15, %xmm1, %xmm11
vpsrlq $40, %xmm9, %xmm1
vpor 16(%rsp), %xmm1, %xmm1
vmovdqu 112(%rsp), %xmm9
vpaddq %xmm8, %xmm10, %xmm8
vpaddq %xmm11, %xmm5, %xmm5
vpmuludq %xmm9, %xmm0, %xmm0
vmovdqu %xmm12, %xmm10
vpmuludq %xmm9, %xmm2, %xmm11
vpsrlq $52, %xmm10, %xmm9
vpaddq %xmm0, %xmm4, %xmm10
vpaddq %xmm6, %xmm11, %xmm0
vpmuludq 96(%rsp), %xmm2, %xmm6
vpsllq $12, %xmm14, %xmm4
vpmuludq 368(%rsp), %xmm3, %xmm2
vpor %xmm4, %xmm9, %xmm3
vmovdqu (%rsp), %xmm4
vpaddq %xmm6, %xmm10, %xmm6
vpaddq %xmm2, %xmm5, %xmm2
vpand %xmm4, %xmm12, %xmm5
vpaddq %xmm6, %xmm5, %xmm5
vpand %xmm4, %xmm3, %xmm3
vpaddq %xmm7, %xmm3, %xmm3
vpsrlq $14, %xmm14, %xmm6
vpand %xmm4, %xmm6, %xmm6
vpaddq %xmm8, %xmm6, %xmm6
addq $64, %rsi
vpaddq %xmm0, %xmm13, %xmm7
vpaddq %xmm2, %xmm1, %xmm1
vpsrlq $26, %xmm5, %xmm8
vpsrlq $26, %xmm6, %xmm9
vpand %xmm4, %xmm5, %xmm0
vpand %xmm4, %xmm6, %xmm2
vpaddq %xmm8, %xmm7, %xmm5
vpaddq %xmm9, %xmm1, %xmm1
vpsrlq $26, %xmm5, %xmm6
vpsrlq $26, %xmm1, %xmm7
vpsllq $2, %xmm7, %xmm8
vpaddq %xmm8, %xmm7, %xmm7
vpand %xmm4, %xmm5, %xmm8
vpand %xmm4, %xmm1, %xmm5
vpaddq %xmm6, %xmm3, %xmm1
vpaddq %xmm7, %xmm0, %xmm0
vpsrlq $26, %xmm1, %xmm6
vpsrlq $26, %xmm0, %xmm7
vpand %xmm4, %xmm1, %xmm1
vpand %xmm4, %xmm0, %xmm3
vpaddq %xmm6, %xmm2, %xmm0
vpaddq %xmm7, %xmm8, %xmm2
vpsrlq $26, %xmm0, %xmm6
vpand %xmm4, %xmm0, %xmm4
vpaddq %xmm6, %xmm5, %xmm5
addq $-64, %r14
Ljade_onetimeauth_poly1305_amd64_avx$6:
cmpq $64, %r14
jnb Ljade_onetimeauth_poly1305_amd64_avx$7
vmovdqu 224(%rsp), %xmm6
vmovdqu 240(%rsp), %xmm11
vmovdqu 80(%rsp), %xmm14
vpmuludq %xmm6, %xmm3, %xmm0
vpmuludq %xmm6, %xmm2, %xmm7
vpmuludq %xmm6, %xmm1, %xmm8
vpmuludq %xmm6, %xmm4, %xmm9
vpmuludq %xmm6, %xmm5, %xmm10
vpmuludq %xmm11, %xmm3, %xmm15
vpmuludq %xmm11, %xmm2, %xmm12
vpmuludq %xmm11, %xmm1, %xmm13
vpmuludq %xmm11, %xmm4, %xmm11
vmovdqu 256(%rsp), %xmm6
vpaddq %xmm15, %xmm7, %xmm7
vpaddq %xmm12, %xmm8, %xmm8
vpaddq %xmm13, %xmm9, %xmm9
vpaddq %xmm11, %xmm10, %xmm10
vpmuludq %xmm14, %xmm2, %xmm11
vpmuludq %xmm14, %xmm1, %xmm12
vpmuludq %xmm14, %xmm4, %xmm13
vpmuludq %xmm14, %xmm5, %xmm14
vmovdqu 64(%rsp), %xmm15
vpaddq %xmm11, %xmm0, %xmm0
vpaddq %xmm12, %xmm7, %xmm7
vpaddq %xmm13, %xmm8, %xmm8
vpaddq %xmm14, %xmm9, %xmm9
vpmuludq %xmm6, %xmm3, %xmm13
vpmuludq %xmm6, %xmm2, %xmm11
vpmuludq %xmm6, %xmm1, %xmm12
vmovdqu 272(%rsp), %xmm6
vpaddq %xmm13, %xmm8, %xmm8
vpaddq %xmm11, %xmm9, %xmm9
vpaddq %xmm12, %xmm10, %xmm10
vpmuludq %xmm15, %xmm1, %xmm11
vpmuludq %xmm15, %xmm4, %xmm12
vpmuludq %xmm15, %xmm5, %xmm13
vmovdqu 48(%rsp), %xmm1
vpaddq %xmm11, %xmm0, %xmm11
vpaddq %xmm12, %xmm7, %xmm7
vpaddq %xmm8, %xmm13, %xmm0
vpmuludq %xmm6, %xmm3, %xmm8
vpmuludq %xmm6, %xmm2, %xmm6
vpaddq %xmm8, %xmm9, %xmm2
vpaddq %xmm6, %xmm10, %xmm6
vpmuludq %xmm1, %xmm4, %xmm4
vpmuludq %xmm1, %xmm5, %xmm1
vpaddq %xmm4, %xmm11, %xmm4
vpaddq %xmm7, %xmm1, %xmm1
vpmuludq 32(%rsp), %xmm5, %xmm5
vpmuludq 288(%rsp), %xmm3, %xmm3
vpaddq %xmm5, %xmm4, %xmm4
vmovdqu %xmm2, %xmm5
vpaddq %xmm3, %xmm6, %xmm6
vmovdqu (%rsp), %xmm2
vpsrlq $26, %xmm4, %xmm7
vpsrlq $26, %xmm5, %xmm8
vpand %xmm2, %xmm4, %xmm3
vpand %xmm2, %xmm5, %xmm4
vpaddq %xmm7, %xmm1, %xmm1
vpaddq %xmm8, %xmm6, %xmm5
vpsrlq $26, %xmm1, %xmm6
vpsrlq $26, %xmm5, %xmm7
vpsllq $2, %xmm7, %xmm8
vpaddq %xmm8, %xmm7, %xmm7
vpand %xmm2, %xmm1, %xmm8
vpand %xmm2, %xmm5, %xmm1
vpaddq %xmm6, %xmm0, %xmm0
vpaddq %xmm7, %xmm3, %xmm3
vpsrlq $26, %xmm0, %xmm5
vpsrlq $26, %xmm3, %xmm6
vpand %xmm2, %xmm0, %xmm0
vpand %xmm2, %xmm3, %xmm3
vpaddq %xmm5, %xmm4, %xmm4
vpaddq %xmm6, %xmm8, %xmm5
vpsrlq $26, %xmm4, %xmm6
vpand %xmm2, %xmm4, %xmm2
vpaddq %xmm6, %xmm1, %xmm1
vpsllq $26, %xmm5, %xmm4
vpaddq %xmm3, %xmm4, %xmm3
vpsllq $26, %xmm2, %xmm2
vpaddq %xmm0, %xmm2, %xmm0
vpsrldq $8, %xmm1, %xmm2
vpaddq %xmm1, %xmm2, %xmm1
vpunpcklqdq %xmm0, %xmm3, %xmm2
vpunpckhqdq %xmm0, %xmm3, %xmm0
vpaddq %xmm0, %xmm2, %xmm0
vpextrq $0, %xmm0, %rax
vpextrq $1, %xmm0, %rbx
vpextrq $0, %xmm1, %rcx
movq %rbx, %r11
shlq $52, %r11
shrq $12, %rbx
movq %rcx, %r8
shrq $24, %r8
shlq $40, %rcx
addq %rax, %r11
adcq %rcx, %rbx
adcq $0, %r8
movq %r8, %rax
movq %r8, %rcx
andq $3, %r8
shrq $2, %rax
andq $-4, %rcx
addq %rcx, %rax
addq %rax, %r11
adcq $0, %rbx
adcq $0, %r8
jmp Ljade_onetimeauth_poly1305_amd64_avx$4
Ljade_onetimeauth_poly1305_amd64_avx$5:
addq (%rsi), %r11
adcq 8(%rsi), %rbx
adcq $1, %r8
movq %r13, %r9
imulq %r8, %r9
imulq %rbp, %r8
movq %rbp, %rax
mulq %r11
movq %rax, %rcx
movq %rdx, %r10
movq %rbp, %rax
mulq %rbx
addq %rax, %r10
adcq %rdx, %r8
movq %r13, %rax
mulq %rbx
movq %rdx, %rbx
addq %r9, %rbx
movq %rax, %r9
movq %r12, %rax
mulq %r11
addq %r9, %rcx
adcq %rax, %r10
adcq %rdx, %r8
movq $-4, %r11
movq %r8, %rax
shrq $2, %rax
andq %r8, %r11
addq %rax, %r11
andq $3, %r8
addq %rcx, %r11
adcq %r10, %rbx
adcq $0, %r8
addq $16, %rsi
addq $-16, %r14
Ljade_onetimeauth_poly1305_amd64_avx$4:
cmpq $16, %r14
jnb Ljade_onetimeauth_poly1305_amd64_avx$5
cmpq $0, %r14
jbe Ljade_onetimeauth_poly1305_amd64_avx$3
xorq %rcx, %rcx
movq %r14, %rax
andq $7, %rax
shlq $3, %rax
shrq $3, %r14
movq %r14, %rdx
xorq $1, %rdx
movq %r14, %r9
addq $-1, %r9
movq %rax, %r10
andq %r9, %r10
xorq %r10, %rcx
xorq %r10, %rax
shlq %cl, %rdx
movq %rax, %rcx
shlq %cl, %r14
movq %rdx, %rax
movq %r14, %rcx
subq $1, %rax
sbbq $0, %rcx
movq (%rsi), %r9
andq %rax, %r9
orq %rdx, %r9
movq 8(%rsi), %rax
andq %rcx, %rax
orq %r14, %rax
addq %r9, %r11
adcq %rax, %rbx
adcq $0, %r8
movq %r13, %rsi
imulq %r8, %rsi
imulq %rbp, %r8
movq %rbp, %rax
mulq %r11
movq %rax, %rcx
movq %rdx, %r9
movq %rbp, %rax
mulq %rbx
addq %rax, %r9
adcq %rdx, %r8
movq %r13, %rax
mulq %rbx
movq %rdx, %rbx
addq %rsi, %rbx
movq %rax, %rsi
movq %r12, %rax
mulq %r11
addq %rsi, %rcx
adcq %rax, %r9
adcq %rdx, %r8
movq $-4, %r11
movq %r8, %rax
shrq $2, %rax
andq %r8, %r11
addq %rax, %r11
andq $3, %r8
addq %rcx, %r11
adcq %r9, %rbx
adcq $0, %r8
Ljade_onetimeauth_poly1305_amd64_avx$3:
movq %r11, %rax
movq %rbx, %rcx
addq $5, %rax
adcq $0, %rcx
adcq $0, %r8
shrq $2, %r8
negq %r8
xorq %r11, %rax
xorq %rbx, %rcx
andq %r8, %rax
andq %r8, %rcx
xorq %r11, %rax
xorq %rbx, %rcx
movq (%r15), %rdx
movq 8(%r15), %rsi
addq %rdx, %rax
adcq %rsi, %rcx
Ljade_onetimeauth_poly1305_amd64_avx$2:
movq %rax, (%rdi)
movq %rcx, 8(%rdi)
xorq %rax, %rax
movq 544(%rsp), %rbx
movq 552(%rsp), %rbp
movq 560(%rsp), %r12
movq 568(%rsp), %r13
movq 576(%rsp), %r14
movq 584(%rsp), %r15
movq 592(%rsp), %rsp
ret
.data
.p2align 5
_glob_data:
glob_data:
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte -1
.byte -1
.byte -1
.byte 3
.byte 0
.byte 0
.byte 0
.byte 0
.byte 5
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
|
usenix-security-verdict/verdict
| 34,208
|
deps/libcrux/sys/libjade/jazz/sha3_512_avx2.s
|
.att_syntax
.text
.p2align 5
.globl _jade_hash_sha3_512_amd64_avx2
.globl jade_hash_sha3_512_amd64_avx2
_jade_hash_sha3_512_amd64_avx2:
jade_hash_sha3_512_amd64_avx2:
movq %rsp, %rax
leaq -40(%rsp), %rsp
andq $-32, %rsp
movq %rax, 32(%rsp)
movq %rbx, (%rsp)
movq %rbp, 8(%rsp)
movq %r12, 16(%rsp)
movq %r13, 24(%rsp)
movq $64, %r9
movb $6, %al
movq $72, %rcx
leaq -224(%rsp), %rsp
leaq Ljade_hash_sha3_512_amd64_avx2$1(%rip), %r10
jmp L_keccak1600_avx2$1
Ljade_hash_sha3_512_amd64_avx2$1:
leaq 224(%rsp), %rsp
xorq %rax, %rax
movq (%rsp), %rbx
movq 8(%rsp), %rbp
movq 16(%rsp), %r12
movq 24(%rsp), %r13
movq 32(%rsp), %rsp
ret
L_keccak1600_avx2$1:
vpxor %ymm6, %ymm6, %ymm6
vpxor %ymm3, %ymm3, %ymm3
vpxor %ymm4, %ymm4, %ymm4
vpxor %ymm0, %ymm0, %ymm0
vpxor %ymm5, %ymm5, %ymm5
vpxor %ymm1, %ymm1, %ymm1
vpxor %ymm2, %ymm2, %ymm2
leaq glob_data + 1152(%rip), %r8
vpxor %ymm7, %ymm7, %ymm7
vmovdqu %ymm7, (%rsp)
vmovdqu %ymm7, 32(%rsp)
vmovdqu %ymm7, 64(%rsp)
vmovdqu %ymm7, 96(%rsp)
vmovdqu %ymm7, 128(%rsp)
vmovdqu %ymm7, 160(%rsp)
vmovdqu %ymm7, 192(%rsp)
jmp L_keccak1600_avx2$16
L_keccak1600_avx2$17:
movq %rcx, %r11
shrq $3, %r11
movq $0, %rbx
jmp L_keccak1600_avx2$19
L_keccak1600_avx2$20:
movq (%rsi,%rbx,8), %rbp
movq (%r8,%rbx,8), %r12
movq %rbp, (%rsp,%r12,8)
incq %rbx
L_keccak1600_avx2$19:
cmpq %r11, %rbx
jb L_keccak1600_avx2$20
movq (%rsp), %r11
movq %r11, 8(%rsp)
movq %r11, 16(%rsp)
movq %r11, 24(%rsp)
vpxor (%rsp), %ymm6, %ymm6
vpxor 32(%rsp), %ymm3, %ymm3
vpxor 64(%rsp), %ymm4, %ymm4
vpxor 96(%rsp), %ymm0, %ymm0
vpxor 128(%rsp), %ymm5, %ymm5
vpxor 160(%rsp), %ymm1, %ymm1
vpxor 192(%rsp), %ymm2, %ymm2
addq %rcx, %rsi
subq %rcx, %rdx
leaq glob_data + 384(%rip), %r11
movq $0, %rbx
leaq glob_data + 192(%rip), %rbp
leaq glob_data + 0(%rip), %r12
movq $24, %r13
L_keccak1600_avx2$18:
vpshufd $78, %ymm4, %ymm8
vpxor %ymm0, %ymm1, %ymm7
vpxor %ymm2, %ymm5, %ymm9
vpxor %ymm3, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm4, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm4, %ymm4
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rbp), %ymm4, %ymm7
vpsrlvq (%r12), %ymm4, %ymm4
vpor %ymm7, %ymm4, %ymm4
vpxor %ymm9, %ymm0, %ymm0
vpsllvq 64(%rbp), %ymm0, %ymm7
vpsrlvq 64(%r12), %ymm0, %ymm0
vpor %ymm7, %ymm0, %ymm0
vpxor %ymm9, %ymm5, %ymm5
vpsllvq 96(%rbp), %ymm5, %ymm7
vpsrlvq 96(%r12), %ymm5, %ymm5
vpor %ymm7, %ymm5, %ymm10
vpxor %ymm9, %ymm1, %ymm1
vpsllvq 128(%rbp), %ymm1, %ymm5
vpsrlvq 128(%r12), %ymm1, %ymm1
vpor %ymm5, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpermq $-115, %ymm4, %ymm5
vpermq $-115, %ymm0, %ymm7
vpsllvq 160(%rbp), %ymm2, %ymm0
vpsrlvq 160(%r12), %ymm2, %ymm2
vpor %ymm0, %ymm2, %ymm8
vpxor %ymm9, %ymm3, %ymm0
vpermq $27, %ymm10, %ymm3
vpermq $114, %ymm1, %ymm9
vpsllvq 32(%rbp), %ymm0, %ymm1
vpsrlvq 32(%r12), %ymm0, %ymm0
vpor %ymm1, %ymm0, %ymm10
vpsrldq $8, %ymm8, %ymm0
vpandn %ymm0, %ymm8, %ymm0
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm2
vpblendd $12, %ymm7, %ymm5, %ymm4
vpblendd $12, %ymm5, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm2, %ymm2
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm2, %ymm2
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm2, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm2
vpblendd $12, %ymm10, %ymm3, %ymm4
vpblendd $12, %ymm3, %ymm5, %ymm11
vpxor %ymm5, %ymm1, %ymm1
vpblendd $48, %ymm5, %ymm4, %ymm4
vpblendd $48, %ymm7, %ymm11, %ymm11
vpxor %ymm3, %ymm2, %ymm2
vpblendd $-64, %ymm7, %ymm4, %ymm4
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm4, %ymm4
vpxor %ymm9, %ymm4, %ymm12
vpermq $30, %ymm8, %ymm4
vpblendd $48, %ymm6, %ymm4, %ymm4
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm4, %ymm11, %ymm11
vpblendd $12, %ymm3, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm4, %ymm4
vpblendd $48, %ymm5, %ymm13, %ymm13
vpblendd $-64, %ymm5, %ymm4, %ymm4
vpblendd $-64, %ymm3, %ymm13, %ymm13
vpandn %ymm13, %ymm4, %ymm4
vpxor %ymm10, %ymm4, %ymm4
vpermq $0, %ymm0, %ymm13
vpermq $27, %ymm1, %ymm0
vpermq $-115, %ymm2, %ymm1
vpermq $114, %ymm12, %ymm2
vpblendd $12, %ymm5, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm3, %ymm9
vpblendd $48, %ymm3, %ymm12, %ymm3
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm3, %ymm3
vpblendd $-64, %ymm5, %ymm9, %ymm5
vpandn %ymm5, %ymm3, %ymm5
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm3
vpxor %ymm7, %ymm5, %ymm5
vpxor (%r11,%rbx), %ymm6, %ymm6
addq $32, %rbx
decq %r13
jne L_keccak1600_avx2$18
L_keccak1600_avx2$16:
cmpq %rcx, %rdx
jnb L_keccak1600_avx2$17
vpxor %ymm7, %ymm7, %ymm7
vmovdqu %ymm7, (%rsp)
vmovdqu %ymm7, 32(%rsp)
vmovdqu %ymm7, 64(%rsp)
vmovdqu %ymm7, 96(%rsp)
vmovdqu %ymm7, 128(%rsp)
vmovdqu %ymm7, 160(%rsp)
vmovdqu %ymm7, 192(%rsp)
movq %rdx, %r11
shrq $3, %r11
movq $0, %rbx
jmp L_keccak1600_avx2$14
L_keccak1600_avx2$15:
movq (%rsi,%rbx,8), %rbp
movq (%r8,%rbx,8), %r12
movq %rbp, (%rsp,%r12,8)
incq %rbx
L_keccak1600_avx2$14:
cmpq %r11, %rbx
jb L_keccak1600_avx2$15
movq (%r8,%rbx,8), %r11
shlq $3, %r11
shlq $3, %rbx
jmp L_keccak1600_avx2$12
L_keccak1600_avx2$13:
movb (%rsi,%rbx), %bpl
movb %bpl, (%rsp,%r11)
incq %rbx
incq %r11
L_keccak1600_avx2$12:
cmpq %rdx, %rbx
jb L_keccak1600_avx2$13
movb %al, (%rsp,%r11)
movq %rcx, %rax
addq $-1, %rax
shrq $3, %rax
movq (%r8,%rax,8), %rax
shlq $3, %rax
movq %rcx, %rdx
addq $-1, %rdx
andq $7, %rdx
addq %rdx, %rax
xorb $-128, (%rsp,%rax)
movq (%rsp), %rax
movq %rax, 8(%rsp)
movq %rax, 16(%rsp)
movq %rax, 24(%rsp)
vpxor (%rsp), %ymm6, %ymm6
vpxor 32(%rsp), %ymm3, %ymm3
vpxor 64(%rsp), %ymm4, %ymm4
vpxor 96(%rsp), %ymm0, %ymm0
vpxor 128(%rsp), %ymm5, %ymm5
vpxor 160(%rsp), %ymm1, %ymm1
vpxor 192(%rsp), %ymm2, %ymm2
leaq glob_data + 1152(%rip), %rax
jmp L_keccak1600_avx2$7
L_keccak1600_avx2$8:
leaq glob_data + 384(%rip), %rdx
movq $0, %rsi
leaq glob_data + 192(%rip), %r8
leaq glob_data + 0(%rip), %r11
movq $24, %rbx
L_keccak1600_avx2$11:
vpshufd $78, %ymm4, %ymm8
vpxor %ymm0, %ymm1, %ymm7
vpxor %ymm2, %ymm5, %ymm9
vpxor %ymm3, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm4, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm4, %ymm4
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%r8), %ymm4, %ymm7
vpsrlvq (%r11), %ymm4, %ymm4
vpor %ymm7, %ymm4, %ymm4
vpxor %ymm9, %ymm0, %ymm0
vpsllvq 64(%r8), %ymm0, %ymm7
vpsrlvq 64(%r11), %ymm0, %ymm0
vpor %ymm7, %ymm0, %ymm0
vpxor %ymm9, %ymm5, %ymm5
vpsllvq 96(%r8), %ymm5, %ymm7
vpsrlvq 96(%r11), %ymm5, %ymm5
vpor %ymm7, %ymm5, %ymm10
vpxor %ymm9, %ymm1, %ymm1
vpsllvq 128(%r8), %ymm1, %ymm5
vpsrlvq 128(%r11), %ymm1, %ymm1
vpor %ymm5, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpermq $-115, %ymm4, %ymm5
vpermq $-115, %ymm0, %ymm7
vpsllvq 160(%r8), %ymm2, %ymm0
vpsrlvq 160(%r11), %ymm2, %ymm2
vpor %ymm0, %ymm2, %ymm8
vpxor %ymm9, %ymm3, %ymm0
vpermq $27, %ymm10, %ymm3
vpermq $114, %ymm1, %ymm9
vpsllvq 32(%r8), %ymm0, %ymm1
vpsrlvq 32(%r11), %ymm0, %ymm0
vpor %ymm1, %ymm0, %ymm10
vpsrldq $8, %ymm8, %ymm0
vpandn %ymm0, %ymm8, %ymm0
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm2
vpblendd $12, %ymm7, %ymm5, %ymm4
vpblendd $12, %ymm5, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm2, %ymm2
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm2, %ymm2
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm2, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm2
vpblendd $12, %ymm10, %ymm3, %ymm4
vpblendd $12, %ymm3, %ymm5, %ymm11
vpxor %ymm5, %ymm1, %ymm1
vpblendd $48, %ymm5, %ymm4, %ymm4
vpblendd $48, %ymm7, %ymm11, %ymm11
vpxor %ymm3, %ymm2, %ymm2
vpblendd $-64, %ymm7, %ymm4, %ymm4
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm4, %ymm4
vpxor %ymm9, %ymm4, %ymm12
vpermq $30, %ymm8, %ymm4
vpblendd $48, %ymm6, %ymm4, %ymm4
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm4, %ymm11, %ymm11
vpblendd $12, %ymm3, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm4, %ymm4
vpblendd $48, %ymm5, %ymm13, %ymm13
vpblendd $-64, %ymm5, %ymm4, %ymm4
vpblendd $-64, %ymm3, %ymm13, %ymm13
vpandn %ymm13, %ymm4, %ymm4
vpxor %ymm10, %ymm4, %ymm4
vpermq $0, %ymm0, %ymm13
vpermq $27, %ymm1, %ymm0
vpermq $-115, %ymm2, %ymm1
vpermq $114, %ymm12, %ymm2
vpblendd $12, %ymm5, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm3, %ymm9
vpblendd $48, %ymm3, %ymm12, %ymm3
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm3, %ymm3
vpblendd $-64, %ymm5, %ymm9, %ymm5
vpandn %ymm5, %ymm3, %ymm5
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm3
vpxor %ymm7, %ymm5, %ymm5
vpxor (%rdx,%rsi), %ymm6, %ymm6
addq $32, %rsi
decq %rbx
jne L_keccak1600_avx2$11
vmovdqu %ymm6, (%rsp)
vmovdqu %ymm3, 32(%rsp)
vmovdqu %ymm4, 64(%rsp)
vmovdqu %ymm0, 96(%rsp)
vmovdqu %ymm5, 128(%rsp)
vmovdqu %ymm1, 160(%rsp)
vmovdqu %ymm2, 192(%rsp)
movq %rcx, %rdx
shrq $3, %rdx
movq $0, %rsi
jmp L_keccak1600_avx2$9
L_keccak1600_avx2$10:
movq (%rax,%rsi,8), %r8
movq (%rsp,%r8,8), %r8
movq %r8, (%rdi,%rsi,8)
incq %rsi
L_keccak1600_avx2$9:
cmpq %rdx, %rsi
jb L_keccak1600_avx2$10
addq %rcx, %rdi
subq %rcx, %r9
L_keccak1600_avx2$7:
cmpq %rcx, %r9
jnbe L_keccak1600_avx2$8
leaq glob_data + 384(%rip), %rcx
movq $0, %rdx
leaq glob_data + 192(%rip), %rsi
leaq glob_data + 0(%rip), %r8
movq $24, %r11
L_keccak1600_avx2$6:
vpshufd $78, %ymm4, %ymm8
vpxor %ymm0, %ymm1, %ymm7
vpxor %ymm2, %ymm5, %ymm9
vpxor %ymm3, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm4, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm4, %ymm4
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm4, %ymm7
vpsrlvq (%r8), %ymm4, %ymm4
vpor %ymm7, %ymm4, %ymm4
vpxor %ymm9, %ymm0, %ymm0
vpsllvq 64(%rsi), %ymm0, %ymm7
vpsrlvq 64(%r8), %ymm0, %ymm0
vpor %ymm7, %ymm0, %ymm0
vpxor %ymm9, %ymm5, %ymm5
vpsllvq 96(%rsi), %ymm5, %ymm7
vpsrlvq 96(%r8), %ymm5, %ymm5
vpor %ymm7, %ymm5, %ymm10
vpxor %ymm9, %ymm1, %ymm1
vpsllvq 128(%rsi), %ymm1, %ymm5
vpsrlvq 128(%r8), %ymm1, %ymm1
vpor %ymm5, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpermq $-115, %ymm4, %ymm5
vpermq $-115, %ymm0, %ymm7
vpsllvq 160(%rsi), %ymm2, %ymm0
vpsrlvq 160(%r8), %ymm2, %ymm2
vpor %ymm0, %ymm2, %ymm8
vpxor %ymm9, %ymm3, %ymm0
vpermq $27, %ymm10, %ymm3
vpermq $114, %ymm1, %ymm9
vpsllvq 32(%rsi), %ymm0, %ymm1
vpsrlvq 32(%r8), %ymm0, %ymm0
vpor %ymm1, %ymm0, %ymm10
vpsrldq $8, %ymm8, %ymm0
vpandn %ymm0, %ymm8, %ymm0
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm2
vpblendd $12, %ymm7, %ymm5, %ymm4
vpblendd $12, %ymm5, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm2, %ymm2
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm2, %ymm2
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm2, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm2
vpblendd $12, %ymm10, %ymm3, %ymm4
vpblendd $12, %ymm3, %ymm5, %ymm11
vpxor %ymm5, %ymm1, %ymm1
vpblendd $48, %ymm5, %ymm4, %ymm4
vpblendd $48, %ymm7, %ymm11, %ymm11
vpxor %ymm3, %ymm2, %ymm2
vpblendd $-64, %ymm7, %ymm4, %ymm4
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm4, %ymm4
vpxor %ymm9, %ymm4, %ymm12
vpermq $30, %ymm8, %ymm4
vpblendd $48, %ymm6, %ymm4, %ymm4
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm4, %ymm11, %ymm11
vpblendd $12, %ymm3, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm4, %ymm4
vpblendd $48, %ymm5, %ymm13, %ymm13
vpblendd $-64, %ymm5, %ymm4, %ymm4
vpblendd $-64, %ymm3, %ymm13, %ymm13
vpandn %ymm13, %ymm4, %ymm4
vpxor %ymm10, %ymm4, %ymm4
vpermq $0, %ymm0, %ymm13
vpermq $27, %ymm1, %ymm0
vpermq $-115, %ymm2, %ymm1
vpermq $114, %ymm12, %ymm2
vpblendd $12, %ymm5, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm3, %ymm9
vpblendd $48, %ymm3, %ymm12, %ymm3
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm3, %ymm3
vpblendd $-64, %ymm5, %ymm9, %ymm5
vpandn %ymm5, %ymm3, %ymm5
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm3
vpxor %ymm7, %ymm5, %ymm5
vpxor (%rcx,%rdx), %ymm6, %ymm6
addq $32, %rdx
decq %r11
jne L_keccak1600_avx2$6
vmovdqu %ymm6, (%rsp)
vmovdqu %ymm3, 32(%rsp)
vmovdqu %ymm4, 64(%rsp)
vmovdqu %ymm0, 96(%rsp)
vmovdqu %ymm5, 128(%rsp)
vmovdqu %ymm1, 160(%rsp)
vmovdqu %ymm2, 192(%rsp)
movq %r9, %rcx
shrq $3, %rcx
movq $0, %rdx
jmp L_keccak1600_avx2$4
L_keccak1600_avx2$5:
movq (%rax,%rdx,8), %rsi
movq (%rsp,%rsi,8), %rsi
movq %rsi, (%rdi,%rdx,8)
incq %rdx
L_keccak1600_avx2$4:
cmpq %rcx, %rdx
jb L_keccak1600_avx2$5
movq (%rax,%rdx,8), %rax
shlq $3, %rdx
shlq $3, %rax
jmp L_keccak1600_avx2$2
L_keccak1600_avx2$3:
movb (%rsp,%rax), %cl
movb %cl, (%rdi,%rdx)
incq %rdx
incq %rax
L_keccak1600_avx2$2:
cmpq %r9, %rdx
jb L_keccak1600_avx2$3
jmp *%r10
.data
.p2align 5
_glob_data:
glob_data:
.byte 61
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 46
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 28
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 23
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 63
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 2
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 36
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 37
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 19
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 58
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 25
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 54
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 3
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 56
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 62
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 49
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 39
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 44
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 20
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 21
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 43
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 50
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 3
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 18
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 36
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 41
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 62
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 28
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 27
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 45
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 6
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 56
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 39
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 61
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 55
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 2
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 15
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 25
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 20
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 44
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 43
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 21
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 14
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 4
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 5
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 6
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 7
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 24
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 13
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 18
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 23
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 16
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 25
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 22
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 15
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 11
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 12
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 21
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 26
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 19
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 20
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 17
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 14
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 27
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
|
usenix-security-verdict/verdict
| 31,350
|
deps/libcrux/sys/libjade/jazz/sha3_256_ref.s
|
.att_syntax
.text
.p2align 5
.globl _jade_hash_sha3_256_amd64_ref
.globl jade_hash_sha3_256_amd64_ref
_jade_hash_sha3_256_amd64_ref:
jade_hash_sha3_256_amd64_ref:
movq %rsp, %rax
leaq -48(%rsp), %rsp
andq $-8, %rsp
movq %rax, 40(%rsp)
movq %rbx, (%rsp)
movq %rbp, 8(%rsp)
movq %r12, 16(%rsp)
movq %r13, 24(%rsp)
movq %r14, 32(%rsp)
movq $32, %rcx
movb $6, %r8b
movq $136, %rax
leaq -448(%rsp), %rsp
call L_keccak1600_ref$1
Ljade_hash_sha3_256_amd64_ref$1:
leaq 448(%rsp), %rsp
xorq %rax, %rax
movq (%rsp), %rbx
movq 8(%rsp), %rbp
movq 16(%rsp), %r12
movq 24(%rsp), %r13
movq 32(%rsp), %r14
movq 40(%rsp), %rsp
ret
L_keccak1600_ref$1:
movq %rdi, 8(%rsp)
movq %rcx, 16(%rsp)
movb %r8b, 448(%rsp)
xorq %rcx, %rcx
movq %rcx, 48(%rsp)
movq %rcx, 56(%rsp)
movq %rcx, 64(%rsp)
movq %rcx, 72(%rsp)
movq %rcx, 80(%rsp)
movq %rcx, 88(%rsp)
movq %rcx, 96(%rsp)
movq %rcx, 104(%rsp)
movq %rcx, 112(%rsp)
movq %rcx, 120(%rsp)
movq %rcx, 128(%rsp)
movq %rcx, 136(%rsp)
movq %rcx, 144(%rsp)
movq %rcx, 152(%rsp)
movq %rcx, 160(%rsp)
movq %rcx, 168(%rsp)
movq %rcx, 176(%rsp)
movq %rcx, 184(%rsp)
movq %rcx, 192(%rsp)
movq %rcx, 200(%rsp)
movq %rcx, 208(%rsp)
movq %rcx, 216(%rsp)
movq %rcx, 224(%rsp)
movq %rcx, 232(%rsp)
movq %rcx, 240(%rsp)
jmp L_keccak1600_ref$16
L_keccak1600_ref$17:
movq %rax, %rcx
shrq $3, %rcx
movq $0, %rdi
jmp L_keccak1600_ref$19
L_keccak1600_ref$20:
movq (%rsi,%rdi,8), %r8
xorq %r8, 48(%rsp,%rdi,8)
incq %rdi
L_keccak1600_ref$19:
cmpq %rcx, %rdi
jb L_keccak1600_ref$20
addq %rax, %rsi
subq %rax, %rdx
movq %rsi, 24(%rsp)
movq %rdx, 32(%rsp)
movq %rax, 40(%rsp)
leaq glob_data + 0(%rip), %rax
movq $0, %rcx
L_keccak1600_ref$18:
movq (%rax,%rcx,8), %r10
movq 48(%rsp), %r9
movq 56(%rsp), %r8
movq 64(%rsp), %r11
movq 72(%rsp), %rbx
movq 80(%rsp), %rbp
xorq 88(%rsp), %r9
xorq 96(%rsp), %r8
xorq 104(%rsp), %r11
xorq 112(%rsp), %rbx
xorq 120(%rsp), %rbp
xorq 128(%rsp), %r9
xorq 136(%rsp), %r8
xorq 144(%rsp), %r11
xorq 152(%rsp), %rbx
xorq 160(%rsp), %rbp
xorq 168(%rsp), %r9
xorq 176(%rsp), %r8
xorq 184(%rsp), %r11
xorq 192(%rsp), %rbx
xorq 200(%rsp), %rbp
xorq 208(%rsp), %r9
xorq 216(%rsp), %r8
xorq 224(%rsp), %r11
xorq 232(%rsp), %rbx
xorq 240(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 48(%rsp), %r11
xorq %rdx, %r11
movq 96(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 144(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 192(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 240(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 248(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 256(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 264(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 272(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 280(%rsp)
movq 72(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 120(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 128(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 176(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 224(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 288(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 296(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 304(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 312(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 320(%rsp)
movq 56(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 104(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 152(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 200(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 208(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 328(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 336(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 344(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 352(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 360(%rsp)
movq 80(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 88(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 136(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 184(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 232(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 368(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 376(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 384(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 392(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 400(%rsp)
movq 64(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 112(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 160(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 168(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 216(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 408(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 416(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 424(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 432(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 440(%rsp)
movq 8(%rax,%rcx,8), %r10
movq 248(%rsp), %r9
movq 256(%rsp), %r8
movq 264(%rsp), %r11
movq 272(%rsp), %rbx
movq 280(%rsp), %rbp
xorq 288(%rsp), %r9
xorq 296(%rsp), %r8
xorq 304(%rsp), %r11
xorq 312(%rsp), %rbx
xorq 320(%rsp), %rbp
xorq 328(%rsp), %r9
xorq 336(%rsp), %r8
xorq 344(%rsp), %r11
xorq 352(%rsp), %rbx
xorq 360(%rsp), %rbp
xorq 368(%rsp), %r9
xorq 376(%rsp), %r8
xorq 384(%rsp), %r11
xorq 392(%rsp), %rbx
xorq 400(%rsp), %rbp
xorq 408(%rsp), %r9
xorq 416(%rsp), %r8
xorq 424(%rsp), %r11
xorq 432(%rsp), %rbx
xorq 440(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 248(%rsp), %r11
xorq %rdx, %r11
movq 296(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 344(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 392(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 440(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 48(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 56(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 64(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 72(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 80(%rsp)
movq 272(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 320(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 328(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 376(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 424(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 88(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 96(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 104(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 112(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 120(%rsp)
movq 256(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 304(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 352(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 400(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 408(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 128(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 136(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 144(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 152(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 160(%rsp)
movq 280(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 288(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 336(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 384(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 432(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 168(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 176(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 184(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 192(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 200(%rsp)
movq 264(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 312(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 360(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 368(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 416(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 208(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 216(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 224(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 232(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 240(%rsp)
addq $2, %rcx
cmpq $23, %rcx
jb L_keccak1600_ref$18
movq 24(%rsp), %rsi
movq 32(%rsp), %rdx
movq 40(%rsp), %rax
L_keccak1600_ref$16:
cmpq %rax, %rdx
jnb L_keccak1600_ref$17
movb 448(%rsp), %cl
movq %rdx, %rdi
shrq $3, %rdi
movq $0, %r8
jmp L_keccak1600_ref$14
L_keccak1600_ref$15:
movq (%rsi,%r8,8), %r9
xorq %r9, 48(%rsp,%r8,8)
incq %r8
L_keccak1600_ref$14:
cmpq %rdi, %r8
jb L_keccak1600_ref$15
shlq $3, %r8
jmp L_keccak1600_ref$12
L_keccak1600_ref$13:
movb (%rsi,%r8), %dil
xorb %dil, 48(%rsp,%r8)
incq %r8
L_keccak1600_ref$12:
cmpq %rdx, %r8
jb L_keccak1600_ref$13
xorb %cl, 48(%rsp,%r8)
movq %rax, %rcx
addq $-1, %rcx
xorb $-128, 48(%rsp,%rcx)
movq 16(%rsp), %rdx
jmp L_keccak1600_ref$7
L_keccak1600_ref$8:
movq %rdx, 16(%rsp)
movq %rax, 40(%rsp)
leaq glob_data + 0(%rip), %rax
movq $0, %rcx
L_keccak1600_ref$11:
movq (%rax,%rcx,8), %r10
movq 48(%rsp), %r9
movq 56(%rsp), %r8
movq 64(%rsp), %r11
movq 72(%rsp), %rbx
movq 80(%rsp), %rbp
xorq 88(%rsp), %r9
xorq 96(%rsp), %r8
xorq 104(%rsp), %r11
xorq 112(%rsp), %rbx
xorq 120(%rsp), %rbp
xorq 128(%rsp), %r9
xorq 136(%rsp), %r8
xorq 144(%rsp), %r11
xorq 152(%rsp), %rbx
xorq 160(%rsp), %rbp
xorq 168(%rsp), %r9
xorq 176(%rsp), %r8
xorq 184(%rsp), %r11
xorq 192(%rsp), %rbx
xorq 200(%rsp), %rbp
xorq 208(%rsp), %r9
xorq 216(%rsp), %r8
xorq 224(%rsp), %r11
xorq 232(%rsp), %rbx
xorq 240(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 48(%rsp), %r11
xorq %rdx, %r11
movq 96(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 144(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 192(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 240(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 248(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 256(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 264(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 272(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 280(%rsp)
movq 72(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 120(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 128(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 176(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 224(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 288(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 296(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 304(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 312(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 320(%rsp)
movq 56(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 104(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 152(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 200(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 208(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 328(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 336(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 344(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 352(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 360(%rsp)
movq 80(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 88(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 136(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 184(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 232(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 368(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 376(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 384(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 392(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 400(%rsp)
movq 64(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 112(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 160(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 168(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 216(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 408(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 416(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 424(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 432(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 440(%rsp)
movq 8(%rax,%rcx,8), %r10
movq 248(%rsp), %r9
movq 256(%rsp), %r8
movq 264(%rsp), %r11
movq 272(%rsp), %rbx
movq 280(%rsp), %rbp
xorq 288(%rsp), %r9
xorq 296(%rsp), %r8
xorq 304(%rsp), %r11
xorq 312(%rsp), %rbx
xorq 320(%rsp), %rbp
xorq 328(%rsp), %r9
xorq 336(%rsp), %r8
xorq 344(%rsp), %r11
xorq 352(%rsp), %rbx
xorq 360(%rsp), %rbp
xorq 368(%rsp), %r9
xorq 376(%rsp), %r8
xorq 384(%rsp), %r11
xorq 392(%rsp), %rbx
xorq 400(%rsp), %rbp
xorq 408(%rsp), %r9
xorq 416(%rsp), %r8
xorq 424(%rsp), %r11
xorq 432(%rsp), %rbx
xorq 440(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 248(%rsp), %r11
xorq %rdx, %r11
movq 296(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 344(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 392(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 440(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 48(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 56(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 64(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 72(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 80(%rsp)
movq 272(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 320(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 328(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 376(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 424(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 88(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 96(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 104(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 112(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 120(%rsp)
movq 256(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 304(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 352(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 400(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 408(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 128(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 136(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 144(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 152(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 160(%rsp)
movq 280(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 288(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 336(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 384(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 432(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 168(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 176(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 184(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 192(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 200(%rsp)
movq 264(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 312(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 360(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 368(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 416(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 208(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 216(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 224(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 232(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 240(%rsp)
addq $2, %rcx
cmpq $23, %rcx
jb L_keccak1600_ref$11
movq 8(%rsp), %rcx
movq 16(%rsp), %rdx
movq 40(%rsp), %rax
movq %rax, %rsi
shrq $3, %rsi
movq $0, %rdi
jmp L_keccak1600_ref$9
L_keccak1600_ref$10:
movq 48(%rsp,%rdi,8), %r8
movq %r8, (%rcx,%rdi,8)
incq %rdi
L_keccak1600_ref$9:
cmpq %rsi, %rdi
jb L_keccak1600_ref$10
addq %rax, %rcx
subq %rax, %rdx
movq %rcx, 8(%rsp)
L_keccak1600_ref$7:
cmpq %rax, %rdx
jnbe L_keccak1600_ref$8
movq %rdx, 40(%rsp)
leaq glob_data + 0(%rip), %rax
movq $0, %rcx
L_keccak1600_ref$6:
movq (%rax,%rcx,8), %r10
movq 48(%rsp), %r9
movq 56(%rsp), %r8
movq 64(%rsp), %r11
movq 72(%rsp), %rbx
movq 80(%rsp), %rbp
xorq 88(%rsp), %r9
xorq 96(%rsp), %r8
xorq 104(%rsp), %r11
xorq 112(%rsp), %rbx
xorq 120(%rsp), %rbp
xorq 128(%rsp), %r9
xorq 136(%rsp), %r8
xorq 144(%rsp), %r11
xorq 152(%rsp), %rbx
xorq 160(%rsp), %rbp
xorq 168(%rsp), %r9
xorq 176(%rsp), %r8
xorq 184(%rsp), %r11
xorq 192(%rsp), %rbx
xorq 200(%rsp), %rbp
xorq 208(%rsp), %r9
xorq 216(%rsp), %r8
xorq 224(%rsp), %r11
xorq 232(%rsp), %rbx
xorq 240(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 48(%rsp), %r11
xorq %rdx, %r11
movq 96(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 144(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 192(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 240(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 248(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 256(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 264(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 272(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 280(%rsp)
movq 72(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 120(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 128(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 176(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 224(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 288(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 296(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 304(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 312(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 320(%rsp)
movq 56(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 104(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 152(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 200(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 208(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 328(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 336(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 344(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 352(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 360(%rsp)
movq 80(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 88(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 136(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 184(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 232(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 368(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 376(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 384(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 392(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 400(%rsp)
movq 64(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 112(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 160(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 168(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 216(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 408(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 416(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 424(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 432(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 440(%rsp)
movq 8(%rax,%rcx,8), %r10
movq 248(%rsp), %r9
movq 256(%rsp), %r8
movq 264(%rsp), %r11
movq 272(%rsp), %rbx
movq 280(%rsp), %rbp
xorq 288(%rsp), %r9
xorq 296(%rsp), %r8
xorq 304(%rsp), %r11
xorq 312(%rsp), %rbx
xorq 320(%rsp), %rbp
xorq 328(%rsp), %r9
xorq 336(%rsp), %r8
xorq 344(%rsp), %r11
xorq 352(%rsp), %rbx
xorq 360(%rsp), %rbp
xorq 368(%rsp), %r9
xorq 376(%rsp), %r8
xorq 384(%rsp), %r11
xorq 392(%rsp), %rbx
xorq 400(%rsp), %rbp
xorq 408(%rsp), %r9
xorq 416(%rsp), %r8
xorq 424(%rsp), %r11
xorq 432(%rsp), %rbx
xorq 440(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 248(%rsp), %r11
xorq %rdx, %r11
movq 296(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 344(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 392(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 440(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 48(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 56(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 64(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 72(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 80(%rsp)
movq 272(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 320(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 328(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 376(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 424(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 88(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 96(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 104(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 112(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 120(%rsp)
movq 256(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 304(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 352(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 400(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 408(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 128(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 136(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 144(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 152(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 160(%rsp)
movq 280(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 288(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 336(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 384(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 432(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 168(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 176(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 184(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 192(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 200(%rsp)
movq 264(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 312(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 360(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 368(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 416(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 208(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 216(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 224(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 232(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 240(%rsp)
addq $2, %rcx
cmpq $23, %rcx
jb L_keccak1600_ref$6
movq 8(%rsp), %rax
movq 40(%rsp), %rcx
movq %rcx, %rdx
shrq $3, %rdx
movq $0, %rsi
jmp L_keccak1600_ref$4
L_keccak1600_ref$5:
movq 48(%rsp,%rsi,8), %rdi
movq %rdi, (%rax,%rsi,8)
incq %rsi
L_keccak1600_ref$4:
cmpq %rdx, %rsi
jb L_keccak1600_ref$5
shlq $3, %rsi
jmp L_keccak1600_ref$2
L_keccak1600_ref$3:
movb 48(%rsp,%rsi), %dl
movb %dl, (%rax,%rsi)
incq %rsi
L_keccak1600_ref$2:
cmpq %rcx, %rsi
jb L_keccak1600_ref$3
ret
.data
.p2align 5
_glob_data:
glob_data:
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
|
usenix-security-verdict/verdict
| 18,425
|
deps/libcrux/sys/libjade/jazz/chacha20_ref.s
|
.att_syntax
.text
.p2align 5
.globl _jade_stream_chacha_chacha20_ietf_amd64_ref
.globl jade_stream_chacha_chacha20_ietf_amd64_ref
.globl _jade_stream_chacha_chacha20_ietf_amd64_ref_xor
.globl jade_stream_chacha_chacha20_ietf_amd64_ref_xor
_jade_stream_chacha_chacha20_ietf_amd64_ref:
jade_stream_chacha_chacha20_ietf_amd64_ref:
movq %rsp, %rax
leaq -152(%rsp), %rsp
andq $-8, %rsp
movq %rax, 144(%rsp)
movq %rbx, 96(%rsp)
movq %rbp, 104(%rsp)
movq %r12, 112(%rsp)
movq %r13, 120(%rsp)
movq %r14, 128(%rsp)
movq %r15, 136(%rsp)
movq %rdi, (%rsp)
movq %rsi, 8(%rsp)
movl $1634760805, 16(%rsp)
movl $857760878, 20(%rsp)
movl $2036477234, 24(%rsp)
movl $1797285236, 28(%rsp)
movl (%rcx), %eax
movl %eax, 32(%rsp)
movl 4(%rcx), %eax
movl %eax, 36(%rsp)
movl 8(%rcx), %eax
movl %eax, 40(%rsp)
movl 12(%rcx), %eax
movl %eax, 44(%rsp)
movl 16(%rcx), %eax
movl %eax, 48(%rsp)
movl 20(%rcx), %eax
movl %eax, 52(%rsp)
movl 24(%rcx), %eax
movl %eax, 56(%rsp)
movl 28(%rcx), %eax
movl %eax, 60(%rsp)
movl $0, 64(%rsp)
movl (%rdx), %eax
movl %eax, 68(%rsp)
movl 4(%rdx), %eax
movl %eax, 72(%rsp)
movl 8(%rdx), %eax
movl %eax, 76(%rsp)
jmp Ljade_stream_chacha_chacha20_ietf_amd64_ref$7
Ljade_stream_chacha_chacha20_ietf_amd64_ref$8:
movl 76(%rsp), %eax
movl %eax, 80(%rsp)
movl 16(%rsp), %r14d
movl 20(%rsp), %r13d
movl 24(%rsp), %eax
movl 28(%rsp), %r15d
movl 32(%rsp), %ecx
movl 36(%rsp), %edx
movl 40(%rsp), %esi
movl 44(%rsp), %edi
movl 48(%rsp), %r8d
movl 52(%rsp), %r9d
movl 56(%rsp), %r10d
movl 60(%rsp), %r11d
movl 64(%rsp), %ebx
movl 68(%rsp), %ebp
movl 72(%rsp), %r12d
movl %r12d, 84(%rsp)
movl $10, %r12d
Ljade_stream_chacha_chacha20_ietf_amd64_ref$9:
movl %r12d, 88(%rsp)
movl 84(%rsp), %r12d
addl %ecx, %r14d
addl %esi, %eax
xorl %r14d, %ebx
xorl %eax, %r12d
roll $16, %ebx
roll $16, %r12d
addl %ebx, %r8d
addl %r12d, %r10d
xorl %r8d, %ecx
xorl %r10d, %esi
roll $12, %ecx
roll $12, %esi
addl %ecx, %r14d
addl %esi, %eax
xorl %r14d, %ebx
xorl %eax, %r12d
roll $8, %ebx
roll $8, %r12d
addl %ebx, %r8d
addl %r12d, %r10d
xorl %r8d, %ecx
xorl %r10d, %esi
roll $7, %ecx
roll $7, %esi
movl %r12d, 92(%rsp)
movl 80(%rsp), %r12d
addl %edx, %r13d
addl %edi, %r15d
xorl %r13d, %ebp
xorl %r15d, %r12d
roll $16, %ebp
roll $16, %r12d
addl %ebp, %r9d
addl %r12d, %r11d
xorl %r9d, %edx
xorl %r11d, %edi
roll $12, %edx
roll $12, %edi
addl %edx, %r13d
addl %edi, %r15d
xorl %r13d, %ebp
xorl %r15d, %r12d
roll $8, %ebp
roll $8, %r12d
addl %ebp, %r9d
addl %r12d, %r11d
xorl %r9d, %edx
xorl %r11d, %edi
roll $7, %edx
roll $7, %edi
addl %esi, %r13d
addl %edx, %r14d
xorl %r13d, %ebx
xorl %r14d, %r12d
roll $16, %ebx
roll $16, %r12d
addl %ebx, %r11d
addl %r12d, %r10d
xorl %r11d, %esi
xorl %r10d, %edx
roll $12, %esi
roll $12, %edx
addl %esi, %r13d
addl %edx, %r14d
xorl %r13d, %ebx
xorl %r14d, %r12d
roll $8, %ebx
roll $8, %r12d
addl %ebx, %r11d
addl %r12d, %r10d
xorl %r11d, %esi
xorl %r10d, %edx
roll $7, %esi
roll $7, %edx
movl %r12d, 80(%rsp)
movl 92(%rsp), %r12d
addl %edi, %eax
addl %ecx, %r15d
xorl %eax, %ebp
xorl %r15d, %r12d
roll $16, %ebp
roll $16, %r12d
addl %ebp, %r8d
addl %r12d, %r9d
xorl %r8d, %edi
xorl %r9d, %ecx
roll $12, %edi
roll $12, %ecx
addl %edi, %eax
addl %ecx, %r15d
xorl %eax, %ebp
xorl %r15d, %r12d
roll $8, %ebp
roll $8, %r12d
addl %ebp, %r8d
addl %r12d, %r9d
xorl %r8d, %edi
xorl %r9d, %ecx
roll $7, %edi
roll $7, %ecx
movl %r12d, 84(%rsp)
movl 88(%rsp), %r12d
decl %r12d
cmpl $0, %r12d
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_ref$9
movl 84(%rsp), %r12d
addl 20(%rsp), %r13d
addl 16(%rsp), %r14d
movl %r13d, %r13d
shlq $32, %r13
movl %r14d, %r14d
xorq %r14, %r13
addl 28(%rsp), %r15d
addl 24(%rsp), %eax
movl %r15d, %r14d
shlq $32, %r14
movl %eax, %eax
xorq %rax, %r14
movq (%rsp), %rax
movq %r13, (%rax)
addl 36(%rsp), %edx
addl 32(%rsp), %ecx
movl %edx, %edx
shlq $32, %rdx
movl %ecx, %ecx
xorq %rcx, %rdx
movq %r14, 8(%rax)
addl 44(%rsp), %edi
addl 40(%rsp), %esi
movl %edi, %ecx
shlq $32, %rcx
movl %esi, %esi
xorq %rsi, %rcx
movq %rdx, 16(%rax)
addl 52(%rsp), %r9d
addl 48(%rsp), %r8d
movl %r9d, %edx
shlq $32, %rdx
movl %r8d, %esi
xorq %rsi, %rdx
movq %rcx, 24(%rax)
addl 60(%rsp), %r11d
addl 56(%rsp), %r10d
movl %r11d, %ecx
shlq $32, %rcx
movl %r10d, %esi
xorq %rsi, %rcx
movq %rdx, 32(%rax)
addl 68(%rsp), %ebp
addl 64(%rsp), %ebx
movl %ebp, %edx
shlq $32, %rdx
movl %ebx, %esi
xorq %rsi, %rdx
movq %rcx, 40(%rax)
movl 80(%rsp), %ecx
addl 76(%rsp), %ecx
addl 72(%rsp), %r12d
movl %ecx, %ecx
shlq $32, %rcx
movl %r12d, %esi
xorq %rsi, %rcx
movq %rdx, 48(%rax)
movq %rcx, 56(%rax)
movq 8(%rsp), %rcx
addq $64, %rax
addq $-64, %rcx
movq %rax, (%rsp)
movq %rcx, 8(%rsp)
movl 64(%rsp), %eax
incl %eax
movl %eax, 64(%rsp)
Ljade_stream_chacha_chacha20_ietf_amd64_ref$7:
movq 8(%rsp), %rax
cmpq $64, %rax
jnb Ljade_stream_chacha_chacha20_ietf_amd64_ref$8
cmpq $0, %rax
jbe Ljade_stream_chacha_chacha20_ietf_amd64_ref$1
movl 76(%rsp), %eax
movl %eax, 80(%rsp)
movl 16(%rsp), %eax
movl 20(%rsp), %ecx
movl 24(%rsp), %edx
movl 28(%rsp), %esi
movl 32(%rsp), %edi
movl 36(%rsp), %r8d
movl 40(%rsp), %r9d
movl 44(%rsp), %r10d
movl 48(%rsp), %r11d
movl 52(%rsp), %ebx
movl 56(%rsp), %ebp
movl 60(%rsp), %r12d
movl 64(%rsp), %r13d
movl 68(%rsp), %r14d
movl 72(%rsp), %r15d
movl %r15d, 84(%rsp)
movl $10, %r15d
Ljade_stream_chacha_chacha20_ietf_amd64_ref$6:
movl %r15d, 88(%rsp)
movl 84(%rsp), %r15d
addl %edi, %eax
addl %r9d, %edx
xorl %eax, %r13d
xorl %edx, %r15d
roll $16, %r13d
roll $16, %r15d
addl %r13d, %r11d
addl %r15d, %ebp
xorl %r11d, %edi
xorl %ebp, %r9d
roll $12, %edi
roll $12, %r9d
addl %edi, %eax
addl %r9d, %edx
xorl %eax, %r13d
xorl %edx, %r15d
roll $8, %r13d
roll $8, %r15d
addl %r13d, %r11d
addl %r15d, %ebp
xorl %r11d, %edi
xorl %ebp, %r9d
roll $7, %edi
roll $7, %r9d
movl %r15d, 92(%rsp)
movl 80(%rsp), %r15d
addl %r8d, %ecx
addl %r10d, %esi
xorl %ecx, %r14d
xorl %esi, %r15d
roll $16, %r14d
roll $16, %r15d
addl %r14d, %ebx
addl %r15d, %r12d
xorl %ebx, %r8d
xorl %r12d, %r10d
roll $12, %r8d
roll $12, %r10d
addl %r8d, %ecx
addl %r10d, %esi
xorl %ecx, %r14d
xorl %esi, %r15d
roll $8, %r14d
roll $8, %r15d
addl %r14d, %ebx
addl %r15d, %r12d
xorl %ebx, %r8d
xorl %r12d, %r10d
roll $7, %r8d
roll $7, %r10d
addl %r9d, %ecx
addl %r8d, %eax
xorl %ecx, %r13d
xorl %eax, %r15d
roll $16, %r13d
roll $16, %r15d
addl %r13d, %r12d
addl %r15d, %ebp
xorl %r12d, %r9d
xorl %ebp, %r8d
roll $12, %r9d
roll $12, %r8d
addl %r9d, %ecx
addl %r8d, %eax
xorl %ecx, %r13d
xorl %eax, %r15d
roll $8, %r13d
roll $8, %r15d
addl %r13d, %r12d
addl %r15d, %ebp
xorl %r12d, %r9d
xorl %ebp, %r8d
roll $7, %r9d
roll $7, %r8d
movl %r15d, 80(%rsp)
movl 92(%rsp), %r15d
addl %r10d, %edx
addl %edi, %esi
xorl %edx, %r14d
xorl %esi, %r15d
roll $16, %r14d
roll $16, %r15d
addl %r14d, %r11d
addl %r15d, %ebx
xorl %r11d, %r10d
xorl %ebx, %edi
roll $12, %r10d
roll $12, %edi
addl %r10d, %edx
addl %edi, %esi
xorl %edx, %r14d
xorl %esi, %r15d
roll $8, %r14d
roll $8, %r15d
addl %r14d, %r11d
addl %r15d, %ebx
xorl %r11d, %r10d
xorl %ebx, %edi
roll $7, %r10d
roll $7, %edi
movl %r15d, 84(%rsp)
movl 88(%rsp), %r15d
decl %r15d
cmpl $0, %r15d
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_ref$6
movl 84(%rsp), %r15d
addl 16(%rsp), %eax
addl 20(%rsp), %ecx
addl 24(%rsp), %edx
addl 28(%rsp), %esi
addl 32(%rsp), %edi
addl 36(%rsp), %r8d
addl 40(%rsp), %r9d
addl 44(%rsp), %r10d
addl 48(%rsp), %r11d
addl 52(%rsp), %ebx
addl 56(%rsp), %ebp
addl 60(%rsp), %r12d
addl 64(%rsp), %r13d
addl 68(%rsp), %r14d
addl 72(%rsp), %r15d
movl %r15d, 84(%rsp)
movl 80(%rsp), %r15d
addl 76(%rsp), %r15d
movl %r15d, 80(%rsp)
movl 84(%rsp), %r15d
movl %eax, 16(%rsp)
movl %ecx, 20(%rsp)
movl %edx, 24(%rsp)
movl %esi, 28(%rsp)
movl %edi, 32(%rsp)
movl %r8d, 36(%rsp)
movl %r9d, 40(%rsp)
movl %r10d, 44(%rsp)
movl %r11d, 48(%rsp)
movl %ebx, 52(%rsp)
movl %ebp, 56(%rsp)
movl %r12d, 60(%rsp)
movl %r13d, 64(%rsp)
movl %r14d, 68(%rsp)
movl %r15d, 72(%rsp)
movl 80(%rsp), %eax
movl %eax, 76(%rsp)
movq (%rsp), %rax
movq 8(%rsp), %rcx
movq %rcx, %rdx
shrq $3, %rdx
movq $0, %rsi
jmp Ljade_stream_chacha_chacha20_ietf_amd64_ref$4
Ljade_stream_chacha_chacha20_ietf_amd64_ref$5:
movq 16(%rsp,%rsi,8), %rdi
movq %rdi, (%rax,%rsi,8)
incq %rsi
Ljade_stream_chacha_chacha20_ietf_amd64_ref$4:
cmpq %rdx, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_ref$5
shlq $3, %rsi
jmp Ljade_stream_chacha_chacha20_ietf_amd64_ref$2
Ljade_stream_chacha_chacha20_ietf_amd64_ref$3:
movb 16(%rsp,%rsi), %dl
movb %dl, (%rax,%rsi)
incq %rsi
Ljade_stream_chacha_chacha20_ietf_amd64_ref$2:
cmpq %rcx, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_ref$3
Ljade_stream_chacha_chacha20_ietf_amd64_ref$1:
xorq %rax, %rax
movq 96(%rsp), %rbx
movq 104(%rsp), %rbp
movq 112(%rsp), %r12
movq 120(%rsp), %r13
movq 128(%rsp), %r14
movq 136(%rsp), %r15
movq 144(%rsp), %rsp
ret
_jade_stream_chacha_chacha20_ietf_amd64_ref_xor:
jade_stream_chacha_chacha20_ietf_amd64_ref_xor:
movq %rsp, %rax
leaq -160(%rsp), %rsp
andq $-8, %rsp
movq %rax, 152(%rsp)
movq %rbx, 104(%rsp)
movq %rbp, 112(%rsp)
movq %r12, 120(%rsp)
movq %r13, 128(%rsp)
movq %r14, 136(%rsp)
movq %r15, 144(%rsp)
movq %rdi, (%rsp)
movq %rsi, 8(%rsp)
movq %rdx, 16(%rsp)
movl $1634760805, 24(%rsp)
movl $857760878, 28(%rsp)
movl $2036477234, 32(%rsp)
movl $1797285236, 36(%rsp)
movl (%r8), %eax
movl %eax, 40(%rsp)
movl 4(%r8), %eax
movl %eax, 44(%rsp)
movl 8(%r8), %eax
movl %eax, 48(%rsp)
movl 12(%r8), %eax
movl %eax, 52(%rsp)
movl 16(%r8), %eax
movl %eax, 56(%rsp)
movl 20(%r8), %eax
movl %eax, 60(%rsp)
movl 24(%r8), %eax
movl %eax, 64(%rsp)
movl 28(%r8), %eax
movl %eax, 68(%rsp)
movl $0, 72(%rsp)
movl (%rcx), %eax
movl %eax, 76(%rsp)
movl 4(%rcx), %eax
movl %eax, 80(%rsp)
movl 8(%rcx), %eax
movl %eax, 84(%rsp)
jmp Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$7
Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$8:
movl 84(%rsp), %eax
movl %eax, 88(%rsp)
movl 24(%rsp), %r14d
movl 28(%rsp), %r13d
movl 32(%rsp), %eax
movl 36(%rsp), %r15d
movl 40(%rsp), %ecx
movl 44(%rsp), %edx
movl 48(%rsp), %esi
movl 52(%rsp), %edi
movl 56(%rsp), %r8d
movl 60(%rsp), %r9d
movl 64(%rsp), %r10d
movl 68(%rsp), %r11d
movl 72(%rsp), %ebx
movl 76(%rsp), %ebp
movl 80(%rsp), %r12d
movl %r12d, 92(%rsp)
movl $10, %r12d
Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$9:
movl %r12d, 96(%rsp)
movl 92(%rsp), %r12d
addl %ecx, %r14d
addl %esi, %eax
xorl %r14d, %ebx
xorl %eax, %r12d
roll $16, %ebx
roll $16, %r12d
addl %ebx, %r8d
addl %r12d, %r10d
xorl %r8d, %ecx
xorl %r10d, %esi
roll $12, %ecx
roll $12, %esi
addl %ecx, %r14d
addl %esi, %eax
xorl %r14d, %ebx
xorl %eax, %r12d
roll $8, %ebx
roll $8, %r12d
addl %ebx, %r8d
addl %r12d, %r10d
xorl %r8d, %ecx
xorl %r10d, %esi
roll $7, %ecx
roll $7, %esi
movl %r12d, 100(%rsp)
movl 88(%rsp), %r12d
addl %edx, %r13d
addl %edi, %r15d
xorl %r13d, %ebp
xorl %r15d, %r12d
roll $16, %ebp
roll $16, %r12d
addl %ebp, %r9d
addl %r12d, %r11d
xorl %r9d, %edx
xorl %r11d, %edi
roll $12, %edx
roll $12, %edi
addl %edx, %r13d
addl %edi, %r15d
xorl %r13d, %ebp
xorl %r15d, %r12d
roll $8, %ebp
roll $8, %r12d
addl %ebp, %r9d
addl %r12d, %r11d
xorl %r9d, %edx
xorl %r11d, %edi
roll $7, %edx
roll $7, %edi
addl %esi, %r13d
addl %edx, %r14d
xorl %r13d, %ebx
xorl %r14d, %r12d
roll $16, %ebx
roll $16, %r12d
addl %ebx, %r11d
addl %r12d, %r10d
xorl %r11d, %esi
xorl %r10d, %edx
roll $12, %esi
roll $12, %edx
addl %esi, %r13d
addl %edx, %r14d
xorl %r13d, %ebx
xorl %r14d, %r12d
roll $8, %ebx
roll $8, %r12d
addl %ebx, %r11d
addl %r12d, %r10d
xorl %r11d, %esi
xorl %r10d, %edx
roll $7, %esi
roll $7, %edx
movl %r12d, 88(%rsp)
movl 100(%rsp), %r12d
addl %edi, %eax
addl %ecx, %r15d
xorl %eax, %ebp
xorl %r15d, %r12d
roll $16, %ebp
roll $16, %r12d
addl %ebp, %r8d
addl %r12d, %r9d
xorl %r8d, %edi
xorl %r9d, %ecx
roll $12, %edi
roll $12, %ecx
addl %edi, %eax
addl %ecx, %r15d
xorl %eax, %ebp
xorl %r15d, %r12d
roll $8, %ebp
roll $8, %r12d
addl %ebp, %r8d
addl %r12d, %r9d
xorl %r8d, %edi
xorl %r9d, %ecx
roll $7, %edi
roll $7, %ecx
movl %r12d, 92(%rsp)
movl 96(%rsp), %r12d
decl %r12d
cmpl $0, %r12d
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$9
movl 92(%rsp), %r12d
addl 28(%rsp), %r13d
addl 24(%rsp), %r14d
movl %r13d, %r13d
shlq $32, %r13
movl %r14d, %r14d
xorq %r14, %r13
movq 8(%rsp), %r14
xorq (%r14), %r13
addl 36(%rsp), %r15d
addl 32(%rsp), %eax
movl %r15d, %r15d
shlq $32, %r15
movl %eax, %eax
xorq %rax, %r15
xorq 8(%r14), %r15
movq (%rsp), %rax
movq %r13, (%rax)
addl 44(%rsp), %edx
addl 40(%rsp), %ecx
movl %edx, %edx
shlq $32, %rdx
movl %ecx, %ecx
xorq %rcx, %rdx
xorq 16(%r14), %rdx
movq %r15, 8(%rax)
addl 52(%rsp), %edi
addl 48(%rsp), %esi
movl %edi, %ecx
shlq $32, %rcx
movl %esi, %esi
xorq %rsi, %rcx
xorq 24(%r14), %rcx
movq %rdx, 16(%rax)
addl 60(%rsp), %r9d
addl 56(%rsp), %r8d
movl %r9d, %edx
shlq $32, %rdx
movl %r8d, %esi
xorq %rsi, %rdx
xorq 32(%r14), %rdx
movq %rcx, 24(%rax)
addl 68(%rsp), %r11d
addl 64(%rsp), %r10d
movl %r11d, %ecx
shlq $32, %rcx
movl %r10d, %esi
xorq %rsi, %rcx
xorq 40(%r14), %rcx
movq %rdx, 32(%rax)
addl 76(%rsp), %ebp
addl 72(%rsp), %ebx
movl %ebp, %edx
shlq $32, %rdx
movl %ebx, %esi
xorq %rsi, %rdx
xorq 48(%r14), %rdx
movq %rcx, 40(%rax)
movl 88(%rsp), %ecx
addl 84(%rsp), %ecx
addl 80(%rsp), %r12d
movl %ecx, %ecx
shlq $32, %rcx
movl %r12d, %esi
xorq %rsi, %rcx
xorq 56(%r14), %rcx
movq %rdx, 48(%rax)
movq %rcx, 56(%rax)
movq 16(%rsp), %rcx
addq $64, %rax
addq $64, %r14
addq $-64, %rcx
movq %rax, (%rsp)
movq %r14, 8(%rsp)
movq %rcx, 16(%rsp)
movl 72(%rsp), %eax
incl %eax
movl %eax, 72(%rsp)
Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$7:
movq 16(%rsp), %rax
cmpq $64, %rax
jnb Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$8
cmpq $0, %rax
jbe Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$1
movl 84(%rsp), %eax
movl %eax, 88(%rsp)
movl 24(%rsp), %eax
movl 28(%rsp), %ecx
movl 32(%rsp), %edx
movl 36(%rsp), %esi
movl 40(%rsp), %edi
movl 44(%rsp), %r8d
movl 48(%rsp), %r9d
movl 52(%rsp), %r10d
movl 56(%rsp), %r11d
movl 60(%rsp), %ebx
movl 64(%rsp), %ebp
movl 68(%rsp), %r12d
movl 72(%rsp), %r13d
movl 76(%rsp), %r14d
movl 80(%rsp), %r15d
movl %r15d, 92(%rsp)
movl $10, %r15d
Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$6:
movl %r15d, 96(%rsp)
movl 92(%rsp), %r15d
addl %edi, %eax
addl %r9d, %edx
xorl %eax, %r13d
xorl %edx, %r15d
roll $16, %r13d
roll $16, %r15d
addl %r13d, %r11d
addl %r15d, %ebp
xorl %r11d, %edi
xorl %ebp, %r9d
roll $12, %edi
roll $12, %r9d
addl %edi, %eax
addl %r9d, %edx
xorl %eax, %r13d
xorl %edx, %r15d
roll $8, %r13d
roll $8, %r15d
addl %r13d, %r11d
addl %r15d, %ebp
xorl %r11d, %edi
xorl %ebp, %r9d
roll $7, %edi
roll $7, %r9d
movl %r15d, 100(%rsp)
movl 88(%rsp), %r15d
addl %r8d, %ecx
addl %r10d, %esi
xorl %ecx, %r14d
xorl %esi, %r15d
roll $16, %r14d
roll $16, %r15d
addl %r14d, %ebx
addl %r15d, %r12d
xorl %ebx, %r8d
xorl %r12d, %r10d
roll $12, %r8d
roll $12, %r10d
addl %r8d, %ecx
addl %r10d, %esi
xorl %ecx, %r14d
xorl %esi, %r15d
roll $8, %r14d
roll $8, %r15d
addl %r14d, %ebx
addl %r15d, %r12d
xorl %ebx, %r8d
xorl %r12d, %r10d
roll $7, %r8d
roll $7, %r10d
addl %r9d, %ecx
addl %r8d, %eax
xorl %ecx, %r13d
xorl %eax, %r15d
roll $16, %r13d
roll $16, %r15d
addl %r13d, %r12d
addl %r15d, %ebp
xorl %r12d, %r9d
xorl %ebp, %r8d
roll $12, %r9d
roll $12, %r8d
addl %r9d, %ecx
addl %r8d, %eax
xorl %ecx, %r13d
xorl %eax, %r15d
roll $8, %r13d
roll $8, %r15d
addl %r13d, %r12d
addl %r15d, %ebp
xorl %r12d, %r9d
xorl %ebp, %r8d
roll $7, %r9d
roll $7, %r8d
movl %r15d, 88(%rsp)
movl 100(%rsp), %r15d
addl %r10d, %edx
addl %edi, %esi
xorl %edx, %r14d
xorl %esi, %r15d
roll $16, %r14d
roll $16, %r15d
addl %r14d, %r11d
addl %r15d, %ebx
xorl %r11d, %r10d
xorl %ebx, %edi
roll $12, %r10d
roll $12, %edi
addl %r10d, %edx
addl %edi, %esi
xorl %edx, %r14d
xorl %esi, %r15d
roll $8, %r14d
roll $8, %r15d
addl %r14d, %r11d
addl %r15d, %ebx
xorl %r11d, %r10d
xorl %ebx, %edi
roll $7, %r10d
roll $7, %edi
movl %r15d, 92(%rsp)
movl 96(%rsp), %r15d
decl %r15d
cmpl $0, %r15d
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$6
movl 92(%rsp), %r15d
addl 24(%rsp), %eax
addl 28(%rsp), %ecx
addl 32(%rsp), %edx
addl 36(%rsp), %esi
addl 40(%rsp), %edi
addl 44(%rsp), %r8d
addl 48(%rsp), %r9d
addl 52(%rsp), %r10d
addl 56(%rsp), %r11d
addl 60(%rsp), %ebx
addl 64(%rsp), %ebp
addl 68(%rsp), %r12d
addl 72(%rsp), %r13d
addl 76(%rsp), %r14d
addl 80(%rsp), %r15d
movl %r15d, 92(%rsp)
movl 88(%rsp), %r15d
addl 84(%rsp), %r15d
movl %r15d, 88(%rsp)
movl 92(%rsp), %r15d
movl %eax, 24(%rsp)
movl %ecx, 28(%rsp)
movl %edx, 32(%rsp)
movl %esi, 36(%rsp)
movl %edi, 40(%rsp)
movl %r8d, 44(%rsp)
movl %r9d, 48(%rsp)
movl %r10d, 52(%rsp)
movl %r11d, 56(%rsp)
movl %ebx, 60(%rsp)
movl %ebp, 64(%rsp)
movl %r12d, 68(%rsp)
movl %r13d, 72(%rsp)
movl %r14d, 76(%rsp)
movl %r15d, 80(%rsp)
movl 88(%rsp), %eax
movl %eax, 84(%rsp)
movq (%rsp), %rax
movq 8(%rsp), %rcx
movq 16(%rsp), %rdx
movq %rdx, %rsi
shrq $3, %rsi
movq $0, %rdi
jmp Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$4
Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$5:
movq (%rcx,%rdi,8), %r8
xorq 24(%rsp,%rdi,8), %r8
movq %r8, (%rax,%rdi,8)
incq %rdi
Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$4:
cmpq %rsi, %rdi
jb Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$5
shlq $3, %rdi
jmp Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$2
Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$3:
movb (%rcx,%rdi), %sil
xorb 24(%rsp,%rdi), %sil
movb %sil, (%rax,%rdi)
incq %rdi
Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$2:
cmpq %rdx, %rdi
jb Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$3
Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$1:
xorq %rax, %rax
movq 104(%rsp), %rbx
movq 112(%rsp), %rbp
movq 120(%rsp), %r12
movq 128(%rsp), %r13
movq 136(%rsp), %r14
movq 144(%rsp), %r15
movq 152(%rsp), %rsp
ret
|
usenix-security-verdict/verdict
| 31,350
|
deps/libcrux/sys/libjade/jazz/sha3_224_ref.s
|
.att_syntax
.text
.p2align 5
.globl _jade_hash_sha3_224_amd64_ref
.globl jade_hash_sha3_224_amd64_ref
_jade_hash_sha3_224_amd64_ref:
jade_hash_sha3_224_amd64_ref:
movq %rsp, %rax
leaq -48(%rsp), %rsp
andq $-8, %rsp
movq %rax, 40(%rsp)
movq %rbx, (%rsp)
movq %rbp, 8(%rsp)
movq %r12, 16(%rsp)
movq %r13, 24(%rsp)
movq %r14, 32(%rsp)
movq $28, %rcx
movb $6, %r8b
movq $144, %rax
leaq -448(%rsp), %rsp
call L_keccak1600_ref$1
Ljade_hash_sha3_224_amd64_ref$1:
leaq 448(%rsp), %rsp
xorq %rax, %rax
movq (%rsp), %rbx
movq 8(%rsp), %rbp
movq 16(%rsp), %r12
movq 24(%rsp), %r13
movq 32(%rsp), %r14
movq 40(%rsp), %rsp
ret
L_keccak1600_ref$1:
movq %rdi, 8(%rsp)
movq %rcx, 16(%rsp)
movb %r8b, 448(%rsp)
xorq %rcx, %rcx
movq %rcx, 48(%rsp)
movq %rcx, 56(%rsp)
movq %rcx, 64(%rsp)
movq %rcx, 72(%rsp)
movq %rcx, 80(%rsp)
movq %rcx, 88(%rsp)
movq %rcx, 96(%rsp)
movq %rcx, 104(%rsp)
movq %rcx, 112(%rsp)
movq %rcx, 120(%rsp)
movq %rcx, 128(%rsp)
movq %rcx, 136(%rsp)
movq %rcx, 144(%rsp)
movq %rcx, 152(%rsp)
movq %rcx, 160(%rsp)
movq %rcx, 168(%rsp)
movq %rcx, 176(%rsp)
movq %rcx, 184(%rsp)
movq %rcx, 192(%rsp)
movq %rcx, 200(%rsp)
movq %rcx, 208(%rsp)
movq %rcx, 216(%rsp)
movq %rcx, 224(%rsp)
movq %rcx, 232(%rsp)
movq %rcx, 240(%rsp)
jmp L_keccak1600_ref$16
L_keccak1600_ref$17:
movq %rax, %rcx
shrq $3, %rcx
movq $0, %rdi
jmp L_keccak1600_ref$19
L_keccak1600_ref$20:
movq (%rsi,%rdi,8), %r8
xorq %r8, 48(%rsp,%rdi,8)
incq %rdi
L_keccak1600_ref$19:
cmpq %rcx, %rdi
jb L_keccak1600_ref$20
addq %rax, %rsi
subq %rax, %rdx
movq %rsi, 24(%rsp)
movq %rdx, 32(%rsp)
movq %rax, 40(%rsp)
leaq glob_data + 0(%rip), %rax
movq $0, %rcx
L_keccak1600_ref$18:
movq (%rax,%rcx,8), %r10
movq 48(%rsp), %r9
movq 56(%rsp), %r8
movq 64(%rsp), %r11
movq 72(%rsp), %rbx
movq 80(%rsp), %rbp
xorq 88(%rsp), %r9
xorq 96(%rsp), %r8
xorq 104(%rsp), %r11
xorq 112(%rsp), %rbx
xorq 120(%rsp), %rbp
xorq 128(%rsp), %r9
xorq 136(%rsp), %r8
xorq 144(%rsp), %r11
xorq 152(%rsp), %rbx
xorq 160(%rsp), %rbp
xorq 168(%rsp), %r9
xorq 176(%rsp), %r8
xorq 184(%rsp), %r11
xorq 192(%rsp), %rbx
xorq 200(%rsp), %rbp
xorq 208(%rsp), %r9
xorq 216(%rsp), %r8
xorq 224(%rsp), %r11
xorq 232(%rsp), %rbx
xorq 240(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 48(%rsp), %r11
xorq %rdx, %r11
movq 96(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 144(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 192(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 240(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 248(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 256(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 264(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 272(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 280(%rsp)
movq 72(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 120(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 128(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 176(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 224(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 288(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 296(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 304(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 312(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 320(%rsp)
movq 56(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 104(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 152(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 200(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 208(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 328(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 336(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 344(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 352(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 360(%rsp)
movq 80(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 88(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 136(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 184(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 232(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 368(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 376(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 384(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 392(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 400(%rsp)
movq 64(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 112(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 160(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 168(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 216(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 408(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 416(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 424(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 432(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 440(%rsp)
movq 8(%rax,%rcx,8), %r10
movq 248(%rsp), %r9
movq 256(%rsp), %r8
movq 264(%rsp), %r11
movq 272(%rsp), %rbx
movq 280(%rsp), %rbp
xorq 288(%rsp), %r9
xorq 296(%rsp), %r8
xorq 304(%rsp), %r11
xorq 312(%rsp), %rbx
xorq 320(%rsp), %rbp
xorq 328(%rsp), %r9
xorq 336(%rsp), %r8
xorq 344(%rsp), %r11
xorq 352(%rsp), %rbx
xorq 360(%rsp), %rbp
xorq 368(%rsp), %r9
xorq 376(%rsp), %r8
xorq 384(%rsp), %r11
xorq 392(%rsp), %rbx
xorq 400(%rsp), %rbp
xorq 408(%rsp), %r9
xorq 416(%rsp), %r8
xorq 424(%rsp), %r11
xorq 432(%rsp), %rbx
xorq 440(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 248(%rsp), %r11
xorq %rdx, %r11
movq 296(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 344(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 392(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 440(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 48(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 56(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 64(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 72(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 80(%rsp)
movq 272(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 320(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 328(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 376(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 424(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 88(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 96(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 104(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 112(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 120(%rsp)
movq 256(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 304(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 352(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 400(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 408(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 128(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 136(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 144(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 152(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 160(%rsp)
movq 280(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 288(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 336(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 384(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 432(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 168(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 176(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 184(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 192(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 200(%rsp)
movq 264(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 312(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 360(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 368(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 416(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 208(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 216(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 224(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 232(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 240(%rsp)
addq $2, %rcx
cmpq $23, %rcx
jb L_keccak1600_ref$18
movq 24(%rsp), %rsi
movq 32(%rsp), %rdx
movq 40(%rsp), %rax
L_keccak1600_ref$16:
cmpq %rax, %rdx
jnb L_keccak1600_ref$17
movb 448(%rsp), %cl
movq %rdx, %rdi
shrq $3, %rdi
movq $0, %r8
jmp L_keccak1600_ref$14
L_keccak1600_ref$15:
movq (%rsi,%r8,8), %r9
xorq %r9, 48(%rsp,%r8,8)
incq %r8
L_keccak1600_ref$14:
cmpq %rdi, %r8
jb L_keccak1600_ref$15
shlq $3, %r8
jmp L_keccak1600_ref$12
L_keccak1600_ref$13:
movb (%rsi,%r8), %dil
xorb %dil, 48(%rsp,%r8)
incq %r8
L_keccak1600_ref$12:
cmpq %rdx, %r8
jb L_keccak1600_ref$13
xorb %cl, 48(%rsp,%r8)
movq %rax, %rcx
addq $-1, %rcx
xorb $-128, 48(%rsp,%rcx)
movq 16(%rsp), %rdx
jmp L_keccak1600_ref$7
L_keccak1600_ref$8:
movq %rdx, 16(%rsp)
movq %rax, 40(%rsp)
leaq glob_data + 0(%rip), %rax
movq $0, %rcx
L_keccak1600_ref$11:
movq (%rax,%rcx,8), %r10
movq 48(%rsp), %r9
movq 56(%rsp), %r8
movq 64(%rsp), %r11
movq 72(%rsp), %rbx
movq 80(%rsp), %rbp
xorq 88(%rsp), %r9
xorq 96(%rsp), %r8
xorq 104(%rsp), %r11
xorq 112(%rsp), %rbx
xorq 120(%rsp), %rbp
xorq 128(%rsp), %r9
xorq 136(%rsp), %r8
xorq 144(%rsp), %r11
xorq 152(%rsp), %rbx
xorq 160(%rsp), %rbp
xorq 168(%rsp), %r9
xorq 176(%rsp), %r8
xorq 184(%rsp), %r11
xorq 192(%rsp), %rbx
xorq 200(%rsp), %rbp
xorq 208(%rsp), %r9
xorq 216(%rsp), %r8
xorq 224(%rsp), %r11
xorq 232(%rsp), %rbx
xorq 240(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 48(%rsp), %r11
xorq %rdx, %r11
movq 96(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 144(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 192(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 240(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 248(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 256(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 264(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 272(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 280(%rsp)
movq 72(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 120(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 128(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 176(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 224(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 288(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 296(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 304(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 312(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 320(%rsp)
movq 56(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 104(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 152(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 200(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 208(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 328(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 336(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 344(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 352(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 360(%rsp)
movq 80(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 88(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 136(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 184(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 232(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 368(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 376(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 384(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 392(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 400(%rsp)
movq 64(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 112(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 160(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 168(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 216(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 408(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 416(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 424(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 432(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 440(%rsp)
movq 8(%rax,%rcx,8), %r10
movq 248(%rsp), %r9
movq 256(%rsp), %r8
movq 264(%rsp), %r11
movq 272(%rsp), %rbx
movq 280(%rsp), %rbp
xorq 288(%rsp), %r9
xorq 296(%rsp), %r8
xorq 304(%rsp), %r11
xorq 312(%rsp), %rbx
xorq 320(%rsp), %rbp
xorq 328(%rsp), %r9
xorq 336(%rsp), %r8
xorq 344(%rsp), %r11
xorq 352(%rsp), %rbx
xorq 360(%rsp), %rbp
xorq 368(%rsp), %r9
xorq 376(%rsp), %r8
xorq 384(%rsp), %r11
xorq 392(%rsp), %rbx
xorq 400(%rsp), %rbp
xorq 408(%rsp), %r9
xorq 416(%rsp), %r8
xorq 424(%rsp), %r11
xorq 432(%rsp), %rbx
xorq 440(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 248(%rsp), %r11
xorq %rdx, %r11
movq 296(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 344(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 392(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 440(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 48(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 56(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 64(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 72(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 80(%rsp)
movq 272(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 320(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 328(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 376(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 424(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 88(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 96(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 104(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 112(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 120(%rsp)
movq 256(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 304(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 352(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 400(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 408(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 128(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 136(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 144(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 152(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 160(%rsp)
movq 280(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 288(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 336(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 384(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 432(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 168(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 176(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 184(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 192(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 200(%rsp)
movq 264(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 312(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 360(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 368(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 416(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 208(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 216(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 224(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 232(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 240(%rsp)
addq $2, %rcx
cmpq $23, %rcx
jb L_keccak1600_ref$11
movq 8(%rsp), %rcx
movq 16(%rsp), %rdx
movq 40(%rsp), %rax
movq %rax, %rsi
shrq $3, %rsi
movq $0, %rdi
jmp L_keccak1600_ref$9
L_keccak1600_ref$10:
movq 48(%rsp,%rdi,8), %r8
movq %r8, (%rcx,%rdi,8)
incq %rdi
L_keccak1600_ref$9:
cmpq %rsi, %rdi
jb L_keccak1600_ref$10
addq %rax, %rcx
subq %rax, %rdx
movq %rcx, 8(%rsp)
L_keccak1600_ref$7:
cmpq %rax, %rdx
jnbe L_keccak1600_ref$8
movq %rdx, 40(%rsp)
leaq glob_data + 0(%rip), %rax
movq $0, %rcx
L_keccak1600_ref$6:
movq (%rax,%rcx,8), %r10
movq 48(%rsp), %r9
movq 56(%rsp), %r8
movq 64(%rsp), %r11
movq 72(%rsp), %rbx
movq 80(%rsp), %rbp
xorq 88(%rsp), %r9
xorq 96(%rsp), %r8
xorq 104(%rsp), %r11
xorq 112(%rsp), %rbx
xorq 120(%rsp), %rbp
xorq 128(%rsp), %r9
xorq 136(%rsp), %r8
xorq 144(%rsp), %r11
xorq 152(%rsp), %rbx
xorq 160(%rsp), %rbp
xorq 168(%rsp), %r9
xorq 176(%rsp), %r8
xorq 184(%rsp), %r11
xorq 192(%rsp), %rbx
xorq 200(%rsp), %rbp
xorq 208(%rsp), %r9
xorq 216(%rsp), %r8
xorq 224(%rsp), %r11
xorq 232(%rsp), %rbx
xorq 240(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 48(%rsp), %r11
xorq %rdx, %r11
movq 96(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 144(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 192(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 240(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 248(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 256(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 264(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 272(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 280(%rsp)
movq 72(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 120(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 128(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 176(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 224(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 288(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 296(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 304(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 312(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 320(%rsp)
movq 56(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 104(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 152(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 200(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 208(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 328(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 336(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 344(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 352(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 360(%rsp)
movq 80(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 88(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 136(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 184(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 232(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 368(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 376(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 384(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 392(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 400(%rsp)
movq 64(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 112(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 160(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 168(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 216(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 408(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 416(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 424(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 432(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 440(%rsp)
movq 8(%rax,%rcx,8), %r10
movq 248(%rsp), %r9
movq 256(%rsp), %r8
movq 264(%rsp), %r11
movq 272(%rsp), %rbx
movq 280(%rsp), %rbp
xorq 288(%rsp), %r9
xorq 296(%rsp), %r8
xorq 304(%rsp), %r11
xorq 312(%rsp), %rbx
xorq 320(%rsp), %rbp
xorq 328(%rsp), %r9
xorq 336(%rsp), %r8
xorq 344(%rsp), %r11
xorq 352(%rsp), %rbx
xorq 360(%rsp), %rbp
xorq 368(%rsp), %r9
xorq 376(%rsp), %r8
xorq 384(%rsp), %r11
xorq 392(%rsp), %rbx
xorq 400(%rsp), %rbp
xorq 408(%rsp), %r9
xorq 416(%rsp), %r8
xorq 424(%rsp), %r11
xorq 432(%rsp), %rbx
xorq 440(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 248(%rsp), %r11
xorq %rdx, %r11
movq 296(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 344(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 392(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 440(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 48(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 56(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 64(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 72(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 80(%rsp)
movq 272(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 320(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 328(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 376(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 424(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 88(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 96(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 104(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 112(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 120(%rsp)
movq 256(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 304(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 352(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 400(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 408(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 128(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 136(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 144(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 152(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 160(%rsp)
movq 280(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 288(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 336(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 384(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 432(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 168(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 176(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 184(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 192(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 200(%rsp)
movq 264(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 312(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 360(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 368(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 416(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 208(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 216(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 224(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 232(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 240(%rsp)
addq $2, %rcx
cmpq $23, %rcx
jb L_keccak1600_ref$6
movq 8(%rsp), %rax
movq 40(%rsp), %rcx
movq %rcx, %rdx
shrq $3, %rdx
movq $0, %rsi
jmp L_keccak1600_ref$4
L_keccak1600_ref$5:
movq 48(%rsp,%rsi,8), %rdi
movq %rdi, (%rax,%rsi,8)
incq %rsi
L_keccak1600_ref$4:
cmpq %rdx, %rsi
jb L_keccak1600_ref$5
shlq $3, %rsi
jmp L_keccak1600_ref$2
L_keccak1600_ref$3:
movb 48(%rsp,%rsi), %dl
movb %dl, (%rax,%rsi)
incq %rsi
L_keccak1600_ref$2:
cmpq %rcx, %rsi
jb L_keccak1600_ref$3
ret
.data
.p2align 5
_glob_data:
glob_data:
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
|
usenix-security-verdict/verdict
| 678,286
|
deps/libcrux/sys/libjade/jazz/kyber_kyber768_avx2.s
|
.att_syntax
.text
.p2align 5
.globl _jade_kem_kyber_kyber768_amd64_avx2_dec
.globl jade_kem_kyber_kyber768_amd64_avx2_dec
.globl _jade_kem_kyber_kyber768_amd64_avx2_enc
.globl jade_kem_kyber_kyber768_amd64_avx2_enc
.globl _jade_kem_kyber_kyber768_amd64_avx2_enc_derand
.globl jade_kem_kyber_kyber768_amd64_avx2_enc_derand
.globl _jade_kem_kyber_kyber768_amd64_avx2_keypair
.globl jade_kem_kyber_kyber768_amd64_avx2_keypair
.globl _jade_kem_kyber_kyber768_amd64_avx2_keypair_derand
.globl jade_kem_kyber_kyber768_amd64_avx2_keypair_derand
_jade_kem_kyber_kyber768_amd64_avx2_dec:
jade_kem_kyber_kyber768_amd64_avx2_dec:
movq %rsp, %rax
leaq -17200(%rsp), %rsp
andq $-32, %rsp
movq %rax, 17192(%rsp)
movq %rbx, 17160(%rsp)
movq %rbp, 17168(%rsp)
movq %r12, 17176(%rsp)
movq %r13, 17184(%rsp)
movq %rdi, 17120(%rsp)
movq %rsi, 17128(%rsp)
leaq 32(%rsp), %rax
vpbroadcastd glob_data + 6404(%rip), %ymm0
vmovdqu glob_data + 64(%rip), %ymm1
vpbroadcastq glob_data + 6192(%rip), %ymm2
vpbroadcastd glob_data + 6400(%rip), %ymm3
vmovdqu (%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6368(%rsp)
vmovdqu 20(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6400(%rsp)
vmovdqu 40(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6432(%rsp)
vmovdqu 60(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6464(%rsp)
vmovdqu 80(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6496(%rsp)
vmovdqu 100(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6528(%rsp)
vmovdqu 120(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6560(%rsp)
vmovdqu 140(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6592(%rsp)
vmovdqu 160(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6624(%rsp)
vmovdqu 180(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6656(%rsp)
vmovdqu 200(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6688(%rsp)
vmovdqu 220(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6720(%rsp)
vmovdqu 240(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6752(%rsp)
vmovdqu 260(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6784(%rsp)
vmovdqu 280(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6816(%rsp)
vmovdqu 300(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6848(%rsp)
vmovdqu 320(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6880(%rsp)
vmovdqu 340(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6912(%rsp)
vmovdqu 360(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6944(%rsp)
vmovdqu 380(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6976(%rsp)
vmovdqu 400(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7008(%rsp)
vmovdqu 420(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7040(%rsp)
vmovdqu 440(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7072(%rsp)
vmovdqu 460(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7104(%rsp)
vmovdqu 480(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7136(%rsp)
vmovdqu 500(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7168(%rsp)
vmovdqu 520(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7200(%rsp)
vmovdqu 540(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7232(%rsp)
vmovdqu 560(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7264(%rsp)
vmovdqu 580(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7296(%rsp)
vmovdqu 600(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7328(%rsp)
vmovdqu 620(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7360(%rsp)
vmovdqu 640(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7392(%rsp)
vmovdqu 660(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7424(%rsp)
vmovdqu 680(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7456(%rsp)
vmovdqu 700(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7488(%rsp)
vmovdqu 720(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7520(%rsp)
vmovdqu 740(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7552(%rsp)
vmovdqu 760(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7584(%rsp)
vmovdqu 780(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7616(%rsp)
vmovdqu 800(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7648(%rsp)
vmovdqu 820(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7680(%rsp)
vmovdqu 840(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7712(%rsp)
vmovdqu 860(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7744(%rsp)
vmovdqu 880(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7776(%rsp)
vmovdqu 900(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7808(%rsp)
vmovdqu 920(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7840(%rsp)
vmovdqu 940(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm1
vpsllvd %ymm2, %ymm1, %ymm1
vpsrlw $1, %ymm1, %ymm1
vpand %ymm3, %ymm1, %ymm1
vpmulhrsw %ymm0, %ymm1, %ymm0
vmovdqu %ymm0, 7872(%rsp)
addq $960, %rsi
leaq 2432(%rsp), %rcx
leaq -16(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$145(%rip), %r8
jmp L_poly_decompress$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$145:
leaq 16(%rsp), %rsp
movq %rdx, %rdi
leaq 7904(%rsp), %r8
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$144(%rip), %r10
jmp L_poly_frombytes$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$144:
addq $384, %rdi
leaq 8416(%rsp), %r8
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$143(%rip), %r10
jmp L_poly_frombytes$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$143:
addq $384, %rdi
leaq 8928(%rsp), %r8
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$142(%rip), %r10
jmp L_poly_frombytes$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$142:
leaq 6368(%rsp), %rcx
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$141(%rip), %rdi
jmp L_poly_ntt$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$141:
leaq 6880(%rsp), %rcx
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$140(%rip), %rdi
jmp L_poly_ntt$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$140:
leaq 7392(%rsp), %rcx
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$139(%rip), %rdi
jmp L_poly_ntt$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$139:
leaq 2944(%rsp), %rcx
leaq 7904(%rsp), %rsi
leaq 6368(%rsp), %rdi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$138(%rip), %r8
jmp L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$138:
leaq 3456(%rsp), %rcx
leaq 8416(%rsp), %rsi
leaq 6880(%rsp), %rdi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$137(%rip), %r8
jmp L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$137:
leaq 2944(%rsp), %rcx
leaq 3456(%rsp), %rsi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$136(%rip), %rdi
jmp L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$136:
leaq 3456(%rsp), %rcx
leaq 8928(%rsp), %rsi
leaq 7392(%rsp), %rdi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$135(%rip), %r8
jmp L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$135:
leaq 2944(%rsp), %rcx
leaq 3456(%rsp), %rsi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$134(%rip), %rdi
jmp L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$134:
leaq 2944(%rsp), %rcx
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$133(%rip), %rdi
jmp L_poly_invntt$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$133:
leaq 3456(%rsp), %rcx
leaq 2432(%rsp), %rsi
leaq 2944(%rsp), %rdi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$132(%rip), %r8
jmp L_poly_sub$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$132:
leaq 3456(%rsp), %rcx
vmovdqu glob_data + 448(%rip), %ymm0
vmovdqu glob_data + 384(%rip), %ymm1
vmovdqu (%rcx), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, (%rcx)
vmovdqu 32(%rcx), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 32(%rcx)
vmovdqu 64(%rcx), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 64(%rcx)
vmovdqu 96(%rcx), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 96(%rcx)
vmovdqu 128(%rcx), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 128(%rcx)
vmovdqu 160(%rcx), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 160(%rcx)
vmovdqu 192(%rcx), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 192(%rcx)
vmovdqu 224(%rcx), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 224(%rcx)
vmovdqu 256(%rcx), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 256(%rcx)
vmovdqu 288(%rcx), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 288(%rcx)
vmovdqu 320(%rcx), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 320(%rcx)
vmovdqu 352(%rcx), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 352(%rcx)
vmovdqu 384(%rcx), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 384(%rcx)
vmovdqu 416(%rcx), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 416(%rcx)
vmovdqu 448(%rcx), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 448(%rcx)
vmovdqu 480(%rcx), %ymm2
vpmulhw %ymm1, %ymm2, %ymm1
vpsraw $10, %ymm1, %ymm1
vpmullw %ymm0, %ymm1, %ymm0
vpsubw %ymm0, %ymm2, %ymm0
vmovdqu %ymm0, 480(%rcx)
leaq 3456(%rsp), %rcx
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$131(%rip), %rdi
jmp L_poly_tomsg_1$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$131:
leaq 32(%rdx), %rax
addq $2304, %rax
movq (%rax), %rcx
movq %rcx, 64(%rsp)
movq 8(%rax), %rcx
movq %rcx, 72(%rsp)
movq 16(%rax), %rcx
movq %rcx, 80(%rsp)
movq 24(%rax), %rax
movq %rax, 88(%rsp)
movq %rdx, 17136(%rsp)
leaq 96(%rsp), %rax
leaq 32(%rsp), %rcx
leaq -256(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$130(%rip), %rdx
movq %rdx, 224(%rsp)
jmp L_sha3_512_64$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$130:
leaq 256(%rsp), %rsp
movq 17136(%rsp), %rcx
addq $1152, %rcx
leaq 5280(%rsp), %rdx
leaq 32(%rsp), %rax
leaq 128(%rsp), %rsi
movq %rdx, 17144(%rsp)
movq %rcx, %rdi
leaq 6368(%rsp), %r8
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$129(%rip), %r10
jmp L_poly_frombytes$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$129:
addq $384, %rdi
leaq 6880(%rsp), %r8
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$128(%rip), %r10
jmp L_poly_frombytes$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$128:
addq $384, %rdi
leaq 7392(%rsp), %r8
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$127(%rip), %r10
jmp L_poly_frombytes$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$127:
movq $0, %rdx
addq $1152, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$125
Ljade_kem_kyber_kyber768_amd64_avx2_dec$126:
movq (%rcx), %rdi
movq %rdi, (%rsp,%rdx,8)
addq $8, %rcx
incq %rdx
Ljade_kem_kyber_kyber768_amd64_avx2_dec$125:
cmpq $4, %rdx
jb Ljade_kem_kyber_kyber768_amd64_avx2_dec$126
leaq 3456(%rsp), %rcx
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$124(%rip), %r8
jmp L_poly_frommsg_1$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$124:
movq %rsi, 17152(%rsp)
vmovdqu (%rsp), %ymm0
vmovdqu %ymm0, 384(%rsp)
vmovdqu %ymm0, 896(%rsp)
vmovdqu %ymm0, 1408(%rsp)
vmovdqu %ymm0, 1920(%rsp)
vmovdqu %ymm0, (%rsp)
movb $0, 416(%rsp)
movb $0, 417(%rsp)
movb $0, 928(%rsp)
movb $1, 929(%rsp)
movb $0, 1440(%rsp)
movb $2, 1441(%rsp)
movb $1, 1952(%rsp)
movb $0, 1953(%rsp)
leaq 4480(%rsp), %rax
leaq 384(%rsp), %rcx
leaq 896(%rsp), %rdx
leaq 1408(%rsp), %rsi
leaq 1920(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$123(%rip), %r8
movq %r8, (%rsp)
jmp L_shake128_absorb4x_34$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$123:
leaq 8(%rsp), %rsp
leaq 4480(%rsp), %rax
leaq 384(%rsp), %rdi
leaq 896(%rsp), %r8
leaq 1408(%rsp), %r9
leaq 1920(%rsp), %r10
movq %rdi, %r11
movq %r8, %rbx
movq %r9, %rbp
movq %r10, %r12
leaq -832(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$122(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$122:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r11)
vmovhpd %xmm1, (%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbp)
vmovhpd %xmm0, (%r12)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r11)
vmovhpd %xmm1, 8(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbp)
vmovhpd %xmm0, 8(%r12)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r11)
vmovhpd %xmm1, 16(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbp)
vmovhpd %xmm0, 16(%r12)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r11)
vmovhpd %xmm1, 24(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbp)
vmovhpd %xmm0, 24(%r12)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r11)
vmovhpd %xmm1, 32(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbp)
vmovhpd %xmm0, 32(%r12)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r11)
vmovhpd %xmm1, 40(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbp)
vmovhpd %xmm0, 40(%r12)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r11)
vmovhpd %xmm1, 48(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbp)
vmovhpd %xmm0, 48(%r12)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r11)
vmovhpd %xmm1, 56(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbp)
vmovhpd %xmm0, 56(%r12)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r11)
vmovhpd %xmm1, 64(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbp)
vmovhpd %xmm0, 64(%r12)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r11)
vmovhpd %xmm1, 72(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbp)
vmovhpd %xmm0, 72(%r12)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r11)
vmovhpd %xmm1, 80(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbp)
vmovhpd %xmm0, 80(%r12)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r11)
vmovhpd %xmm1, 88(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbp)
vmovhpd %xmm0, 88(%r12)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r11)
vmovhpd %xmm1, 96(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbp)
vmovhpd %xmm0, 96(%r12)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r11)
vmovhpd %xmm1, 104(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbp)
vmovhpd %xmm0, 104(%r12)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r11)
vmovhpd %xmm1, 112(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbp)
vmovhpd %xmm0, 112(%r12)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r11)
vmovhpd %xmm1, 120(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbp)
vmovhpd %xmm0, 120(%r12)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r11)
vmovhpd %xmm1, 128(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbp)
vmovhpd %xmm0, 128(%r12)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%r11)
vmovhpd %xmm1, 136(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%rbp)
vmovhpd %xmm0, 136(%r12)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%r11)
vmovhpd %xmm1, 144(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%rbp)
vmovhpd %xmm0, 144(%r12)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%r11)
vmovhpd %xmm1, 152(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%rbp)
vmovhpd %xmm0, 152(%r12)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%r11)
vmovhpd %xmm1, 160(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%rbp)
vmovhpd %xmm0, 160(%r12)
leaq 168(%rdi), %r11
leaq 168(%r8), %rbx
leaq 168(%r9), %rbp
leaq 168(%r10), %r12
leaq -832(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$121(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$121:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r11)
vmovhpd %xmm1, (%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbp)
vmovhpd %xmm0, (%r12)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r11)
vmovhpd %xmm1, 8(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbp)
vmovhpd %xmm0, 8(%r12)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r11)
vmovhpd %xmm1, 16(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbp)
vmovhpd %xmm0, 16(%r12)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r11)
vmovhpd %xmm1, 24(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbp)
vmovhpd %xmm0, 24(%r12)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r11)
vmovhpd %xmm1, 32(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbp)
vmovhpd %xmm0, 32(%r12)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r11)
vmovhpd %xmm1, 40(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbp)
vmovhpd %xmm0, 40(%r12)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r11)
vmovhpd %xmm1, 48(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbp)
vmovhpd %xmm0, 48(%r12)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r11)
vmovhpd %xmm1, 56(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbp)
vmovhpd %xmm0, 56(%r12)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r11)
vmovhpd %xmm1, 64(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbp)
vmovhpd %xmm0, 64(%r12)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r11)
vmovhpd %xmm1, 72(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbp)
vmovhpd %xmm0, 72(%r12)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r11)
vmovhpd %xmm1, 80(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbp)
vmovhpd %xmm0, 80(%r12)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r11)
vmovhpd %xmm1, 88(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbp)
vmovhpd %xmm0, 88(%r12)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r11)
vmovhpd %xmm1, 96(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbp)
vmovhpd %xmm0, 96(%r12)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r11)
vmovhpd %xmm1, 104(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbp)
vmovhpd %xmm0, 104(%r12)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r11)
vmovhpd %xmm1, 112(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbp)
vmovhpd %xmm0, 112(%r12)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r11)
vmovhpd %xmm1, 120(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbp)
vmovhpd %xmm0, 120(%r12)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r11)
vmovhpd %xmm1, 128(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbp)
vmovhpd %xmm0, 128(%r12)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%r11)
vmovhpd %xmm1, 136(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%rbp)
vmovhpd %xmm0, 136(%r12)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%r11)
vmovhpd %xmm1, 144(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%rbp)
vmovhpd %xmm0, 144(%r12)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%r11)
vmovhpd %xmm1, 152(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%rbp)
vmovhpd %xmm0, 152(%r12)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%r11)
vmovhpd %xmm1, 160(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%rbp)
vmovhpd %xmm0, 160(%r12)
leaq 336(%rdi), %rdi
leaq 336(%r8), %r8
leaq 336(%r9), %r9
leaq 336(%r10), %r10
leaq -832(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$120(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$120:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%rdi)
vmovhpd %xmm1, (%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%r9)
vmovhpd %xmm0, (%r10)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%rdi)
vmovhpd %xmm1, 8(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%r9)
vmovhpd %xmm0, 8(%r10)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%rdi)
vmovhpd %xmm1, 16(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%r9)
vmovhpd %xmm0, 16(%r10)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%rdi)
vmovhpd %xmm1, 24(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%r9)
vmovhpd %xmm0, 24(%r10)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%rdi)
vmovhpd %xmm1, 32(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%r9)
vmovhpd %xmm0, 32(%r10)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%rdi)
vmovhpd %xmm1, 40(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%r9)
vmovhpd %xmm0, 40(%r10)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%rdi)
vmovhpd %xmm1, 48(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%r9)
vmovhpd %xmm0, 48(%r10)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%rdi)
vmovhpd %xmm1, 56(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%r9)
vmovhpd %xmm0, 56(%r10)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%rdi)
vmovhpd %xmm1, 64(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%r9)
vmovhpd %xmm0, 64(%r10)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%rdi)
vmovhpd %xmm1, 72(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%r9)
vmovhpd %xmm0, 72(%r10)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%rdi)
vmovhpd %xmm1, 80(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%r9)
vmovhpd %xmm0, 80(%r10)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%rdi)
vmovhpd %xmm1, 88(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%r9)
vmovhpd %xmm0, 88(%r10)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%rdi)
vmovhpd %xmm1, 96(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%r9)
vmovhpd %xmm0, 96(%r10)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%rdi)
vmovhpd %xmm1, 104(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%r9)
vmovhpd %xmm0, 104(%r10)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%rdi)
vmovhpd %xmm1, 112(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%r9)
vmovhpd %xmm0, 112(%r10)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%rdi)
vmovhpd %xmm1, 120(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%r9)
vmovhpd %xmm0, 120(%r10)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%rdi)
vmovhpd %xmm1, 128(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%r9)
vmovhpd %xmm0, 128(%r10)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%rdi)
vmovhpd %xmm1, 136(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%r9)
vmovhpd %xmm0, 136(%r10)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%rdi)
vmovhpd %xmm1, 144(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%r9)
vmovhpd %xmm0, 144(%r10)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%rdi)
vmovhpd %xmm1, 152(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%r9)
vmovhpd %xmm0, 152(%r10)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%rdi)
vmovhpd %xmm1, 160(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%r9)
vmovhpd %xmm0, 160(%r10)
leaq 12512(%rsp), %rbx
leaq 384(%rsp), %rbp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$119(%rip), %r11
jmp L_rej_uniform_avx$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$119:
movq %r13, %r9
leaq 13024(%rsp), %rbx
leaq 896(%rsp), %rbp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$118(%rip), %r11
jmp L_rej_uniform_avx$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$118:
movq %r13, %rdi
leaq 13536(%rsp), %rbx
leaq 1408(%rsp), %rbp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$117(%rip), %r11
jmp L_rej_uniform_avx$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$117:
movq %r13, %r8
leaq 14048(%rsp), %rbx
leaq 1920(%rsp), %rbp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$116(%rip), %r11
jmp L_rej_uniform_avx$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$116:
cmpq $255, %r9
setbe %al
cmpq $255, %rdi
setbe %cl
orb %cl, %al
cmpq $255, %r8
setbe %cl
cmpq $255, %r13
setbe %dl
orb %dl, %cl
orb %al, %cl
jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$93
Ljade_kem_kyber_kyber768_amd64_avx2_dec$94:
leaq 4480(%rsp), %rax
leaq 384(%rsp), %r10
leaq 896(%rsp), %r11
leaq 1408(%rsp), %rbx
leaq 1920(%rsp), %rbp
leaq -832(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$115(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$115:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r10)
vmovhpd %xmm1, (%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbx)
vmovhpd %xmm0, (%rbp)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r10)
vmovhpd %xmm1, 8(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbx)
vmovhpd %xmm0, 8(%rbp)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r10)
vmovhpd %xmm1, 16(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbx)
vmovhpd %xmm0, 16(%rbp)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r10)
vmovhpd %xmm1, 24(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbx)
vmovhpd %xmm0, 24(%rbp)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r10)
vmovhpd %xmm1, 32(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbx)
vmovhpd %xmm0, 32(%rbp)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r10)
vmovhpd %xmm1, 40(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbx)
vmovhpd %xmm0, 40(%rbp)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r10)
vmovhpd %xmm1, 48(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbx)
vmovhpd %xmm0, 48(%rbp)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r10)
vmovhpd %xmm1, 56(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbx)
vmovhpd %xmm0, 56(%rbp)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r10)
vmovhpd %xmm1, 64(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbx)
vmovhpd %xmm0, 64(%rbp)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r10)
vmovhpd %xmm1, 72(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbx)
vmovhpd %xmm0, 72(%rbp)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r10)
vmovhpd %xmm1, 80(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbx)
vmovhpd %xmm0, 80(%rbp)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r10)
vmovhpd %xmm1, 88(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbx)
vmovhpd %xmm0, 88(%rbp)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r10)
vmovhpd %xmm1, 96(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbx)
vmovhpd %xmm0, 96(%rbp)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r10)
vmovhpd %xmm1, 104(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbx)
vmovhpd %xmm0, 104(%rbp)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r10)
vmovhpd %xmm1, 112(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbx)
vmovhpd %xmm0, 112(%rbp)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r10)
vmovhpd %xmm1, 120(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbx)
vmovhpd %xmm0, 120(%rbp)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r10)
vmovhpd %xmm1, 128(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbx)
vmovhpd %xmm0, 128(%rbp)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%r10)
vmovhpd %xmm1, 136(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%rbx)
vmovhpd %xmm0, 136(%rbp)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%r10)
vmovhpd %xmm1, 144(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%rbx)
vmovhpd %xmm0, 144(%rbp)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%r10)
vmovhpd %xmm1, 152(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%rbx)
vmovhpd %xmm0, 152(%rbp)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%r10)
vmovhpd %xmm1, 160(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%rbx)
vmovhpd %xmm0, 160(%rbp)
leaq 12512(%rsp), %rax
leaq 384(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r9
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$110
Ljade_kem_kyber_kyber768_amd64_avx2_dec$111:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$114
movw %si, (%rax,%r9,2)
incq %r9
Ljade_kem_kyber_kyber768_amd64_avx2_dec$114:
cmpq $256, %r9
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$112
cmpw $3329, %r11w
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$112
movw %r11w, (%rax,%r9,2)
incq %r9
Ljade_kem_kyber_kyber768_amd64_avx2_dec$113:
Ljade_kem_kyber_kyber768_amd64_avx2_dec$112:
cmpq $255, %r9
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
Ljade_kem_kyber_kyber768_amd64_avx2_dec$110:
jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$111
leaq 13024(%rsp), %rax
leaq 896(%rsp), %rcx
movq $0, %rdx
cmpq $255, %rdi
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$105
Ljade_kem_kyber_kyber768_amd64_avx2_dec$106:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$109
movw %si, (%rax,%rdi,2)
incq %rdi
Ljade_kem_kyber_kyber768_amd64_avx2_dec$109:
cmpq $256, %rdi
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$107
cmpw $3329, %r11w
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$107
movw %r11w, (%rax,%rdi,2)
incq %rdi
Ljade_kem_kyber_kyber768_amd64_avx2_dec$108:
Ljade_kem_kyber_kyber768_amd64_avx2_dec$107:
cmpq $255, %rdi
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
Ljade_kem_kyber_kyber768_amd64_avx2_dec$105:
jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$106
leaq 13536(%rsp), %rax
leaq 1408(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r8
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$100
Ljade_kem_kyber_kyber768_amd64_avx2_dec$101:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$104
movw %si, (%rax,%r8,2)
incq %r8
Ljade_kem_kyber_kyber768_amd64_avx2_dec$104:
cmpq $256, %r8
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$102
cmpw $3329, %r11w
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$102
movw %r11w, (%rax,%r8,2)
incq %r8
Ljade_kem_kyber_kyber768_amd64_avx2_dec$103:
Ljade_kem_kyber_kyber768_amd64_avx2_dec$102:
cmpq $255, %r8
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
Ljade_kem_kyber_kyber768_amd64_avx2_dec$100:
jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$101
leaq 14048(%rsp), %rax
leaq 1920(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r13
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$95
Ljade_kem_kyber_kyber768_amd64_avx2_dec$96:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$99
movw %si, (%rax,%r13,2)
incq %r13
Ljade_kem_kyber_kyber768_amd64_avx2_dec$99:
cmpq $256, %r13
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$97
cmpw $3329, %r11w
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$97
movw %r11w, (%rax,%r13,2)
incq %r13
Ljade_kem_kyber_kyber768_amd64_avx2_dec$98:
Ljade_kem_kyber_kyber768_amd64_avx2_dec$97:
cmpq $255, %r13
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
Ljade_kem_kyber_kyber768_amd64_avx2_dec$95:
jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$96
cmpq $255, %r9
setbe %al
cmpq $255, %rdi
setbe %cl
orb %cl, %al
cmpq $255, %r8
setbe %cl
cmpq $255, %r13
setbe %dl
orb %dl, %cl
orb %al, %cl
Ljade_kem_kyber_kyber768_amd64_avx2_dec$93:
jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$94
vmovdqu (%rsp), %ymm0
vmovdqu %ymm0, 384(%rsp)
vmovdqu %ymm0, 896(%rsp)
vmovdqu %ymm0, 1408(%rsp)
vmovdqu %ymm0, 1920(%rsp)
vmovdqu %ymm0, (%rsp)
movb $1, 416(%rsp)
movb $1, 417(%rsp)
movb $1, 928(%rsp)
movb $2, 929(%rsp)
movb $2, 1440(%rsp)
movb $0, 1441(%rsp)
movb $2, 1952(%rsp)
movb $1, 1953(%rsp)
leaq 4480(%rsp), %rax
leaq 384(%rsp), %rcx
leaq 896(%rsp), %rdx
leaq 1408(%rsp), %rsi
leaq 1920(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$92(%rip), %r8
movq %r8, (%rsp)
jmp L_shake128_absorb4x_34$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$92:
leaq 8(%rsp), %rsp
leaq 4480(%rsp), %rax
leaq 384(%rsp), %rdi
leaq 896(%rsp), %r8
leaq 1408(%rsp), %r9
leaq 1920(%rsp), %r10
movq %rdi, %r11
movq %r8, %rbx
movq %r9, %rbp
movq %r10, %r12
leaq -832(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$91(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$91:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r11)
vmovhpd %xmm1, (%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbp)
vmovhpd %xmm0, (%r12)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r11)
vmovhpd %xmm1, 8(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbp)
vmovhpd %xmm0, 8(%r12)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r11)
vmovhpd %xmm1, 16(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbp)
vmovhpd %xmm0, 16(%r12)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r11)
vmovhpd %xmm1, 24(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbp)
vmovhpd %xmm0, 24(%r12)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r11)
vmovhpd %xmm1, 32(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbp)
vmovhpd %xmm0, 32(%r12)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r11)
vmovhpd %xmm1, 40(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbp)
vmovhpd %xmm0, 40(%r12)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r11)
vmovhpd %xmm1, 48(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbp)
vmovhpd %xmm0, 48(%r12)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r11)
vmovhpd %xmm1, 56(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbp)
vmovhpd %xmm0, 56(%r12)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r11)
vmovhpd %xmm1, 64(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbp)
vmovhpd %xmm0, 64(%r12)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r11)
vmovhpd %xmm1, 72(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbp)
vmovhpd %xmm0, 72(%r12)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r11)
vmovhpd %xmm1, 80(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbp)
vmovhpd %xmm0, 80(%r12)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r11)
vmovhpd %xmm1, 88(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbp)
vmovhpd %xmm0, 88(%r12)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r11)
vmovhpd %xmm1, 96(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbp)
vmovhpd %xmm0, 96(%r12)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r11)
vmovhpd %xmm1, 104(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbp)
vmovhpd %xmm0, 104(%r12)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r11)
vmovhpd %xmm1, 112(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbp)
vmovhpd %xmm0, 112(%r12)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r11)
vmovhpd %xmm1, 120(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbp)
vmovhpd %xmm0, 120(%r12)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r11)
vmovhpd %xmm1, 128(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbp)
vmovhpd %xmm0, 128(%r12)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%r11)
vmovhpd %xmm1, 136(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%rbp)
vmovhpd %xmm0, 136(%r12)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%r11)
vmovhpd %xmm1, 144(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%rbp)
vmovhpd %xmm0, 144(%r12)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%r11)
vmovhpd %xmm1, 152(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%rbp)
vmovhpd %xmm0, 152(%r12)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%r11)
vmovhpd %xmm1, 160(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%rbp)
vmovhpd %xmm0, 160(%r12)
leaq 168(%rdi), %r11
leaq 168(%r8), %rbx
leaq 168(%r9), %rbp
leaq 168(%r10), %r12
leaq -832(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$90(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$90:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r11)
vmovhpd %xmm1, (%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbp)
vmovhpd %xmm0, (%r12)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r11)
vmovhpd %xmm1, 8(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbp)
vmovhpd %xmm0, 8(%r12)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r11)
vmovhpd %xmm1, 16(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbp)
vmovhpd %xmm0, 16(%r12)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r11)
vmovhpd %xmm1, 24(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbp)
vmovhpd %xmm0, 24(%r12)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r11)
vmovhpd %xmm1, 32(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbp)
vmovhpd %xmm0, 32(%r12)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r11)
vmovhpd %xmm1, 40(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbp)
vmovhpd %xmm0, 40(%r12)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r11)
vmovhpd %xmm1, 48(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbp)
vmovhpd %xmm0, 48(%r12)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r11)
vmovhpd %xmm1, 56(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbp)
vmovhpd %xmm0, 56(%r12)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r11)
vmovhpd %xmm1, 64(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbp)
vmovhpd %xmm0, 64(%r12)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r11)
vmovhpd %xmm1, 72(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbp)
vmovhpd %xmm0, 72(%r12)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r11)
vmovhpd %xmm1, 80(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbp)
vmovhpd %xmm0, 80(%r12)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r11)
vmovhpd %xmm1, 88(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbp)
vmovhpd %xmm0, 88(%r12)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r11)
vmovhpd %xmm1, 96(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbp)
vmovhpd %xmm0, 96(%r12)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r11)
vmovhpd %xmm1, 104(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbp)
vmovhpd %xmm0, 104(%r12)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r11)
vmovhpd %xmm1, 112(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbp)
vmovhpd %xmm0, 112(%r12)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r11)
vmovhpd %xmm1, 120(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbp)
vmovhpd %xmm0, 120(%r12)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r11)
vmovhpd %xmm1, 128(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbp)
vmovhpd %xmm0, 128(%r12)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%r11)
vmovhpd %xmm1, 136(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%rbp)
vmovhpd %xmm0, 136(%r12)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%r11)
vmovhpd %xmm1, 144(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%rbp)
vmovhpd %xmm0, 144(%r12)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%r11)
vmovhpd %xmm1, 152(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%rbp)
vmovhpd %xmm0, 152(%r12)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%r11)
vmovhpd %xmm1, 160(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%rbp)
vmovhpd %xmm0, 160(%r12)
leaq 336(%rdi), %rdi
leaq 336(%r8), %r8
leaq 336(%r9), %r9
leaq 336(%r10), %r10
leaq -832(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$89(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$89:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%rdi)
vmovhpd %xmm1, (%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%r9)
vmovhpd %xmm0, (%r10)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%rdi)
vmovhpd %xmm1, 8(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%r9)
vmovhpd %xmm0, 8(%r10)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%rdi)
vmovhpd %xmm1, 16(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%r9)
vmovhpd %xmm0, 16(%r10)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%rdi)
vmovhpd %xmm1, 24(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%r9)
vmovhpd %xmm0, 24(%r10)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%rdi)
vmovhpd %xmm1, 32(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%r9)
vmovhpd %xmm0, 32(%r10)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%rdi)
vmovhpd %xmm1, 40(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%r9)
vmovhpd %xmm0, 40(%r10)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%rdi)
vmovhpd %xmm1, 48(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%r9)
vmovhpd %xmm0, 48(%r10)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%rdi)
vmovhpd %xmm1, 56(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%r9)
vmovhpd %xmm0, 56(%r10)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%rdi)
vmovhpd %xmm1, 64(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%r9)
vmovhpd %xmm0, 64(%r10)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%rdi)
vmovhpd %xmm1, 72(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%r9)
vmovhpd %xmm0, 72(%r10)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%rdi)
vmovhpd %xmm1, 80(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%r9)
vmovhpd %xmm0, 80(%r10)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%rdi)
vmovhpd %xmm1, 88(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%r9)
vmovhpd %xmm0, 88(%r10)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%rdi)
vmovhpd %xmm1, 96(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%r9)
vmovhpd %xmm0, 96(%r10)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%rdi)
vmovhpd %xmm1, 104(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%r9)
vmovhpd %xmm0, 104(%r10)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%rdi)
vmovhpd %xmm1, 112(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%r9)
vmovhpd %xmm0, 112(%r10)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%rdi)
vmovhpd %xmm1, 120(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%r9)
vmovhpd %xmm0, 120(%r10)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%rdi)
vmovhpd %xmm1, 128(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%r9)
vmovhpd %xmm0, 128(%r10)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%rdi)
vmovhpd %xmm1, 136(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%r9)
vmovhpd %xmm0, 136(%r10)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%rdi)
vmovhpd %xmm1, 144(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%r9)
vmovhpd %xmm0, 144(%r10)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%rdi)
vmovhpd %xmm1, 152(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%r9)
vmovhpd %xmm0, 152(%r10)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%rdi)
vmovhpd %xmm1, 160(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%r9)
vmovhpd %xmm0, 160(%r10)
leaq 14560(%rsp), %rbx
leaq 384(%rsp), %rbp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$88(%rip), %r11
jmp L_rej_uniform_avx$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$88:
movq %r13, %rdi
leaq 15072(%rsp), %rbx
leaq 896(%rsp), %rbp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$87(%rip), %r11
jmp L_rej_uniform_avx$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$87:
movq %r13, %r8
leaq 15584(%rsp), %rbx
leaq 1408(%rsp), %rbp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$86(%rip), %r11
jmp L_rej_uniform_avx$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$86:
movq %r13, %r9
leaq 16096(%rsp), %rbx
leaq 1920(%rsp), %rbp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$85(%rip), %r11
jmp L_rej_uniform_avx$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$85:
cmpq $255, %rdi
setbe %al
cmpq $255, %r8
setbe %cl
orb %cl, %al
cmpq $255, %r9
setbe %cl
cmpq $255, %r13
setbe %dl
orb %dl, %cl
orb %al, %cl
jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$62
Ljade_kem_kyber_kyber768_amd64_avx2_dec$63:
leaq 4480(%rsp), %rax
leaq 384(%rsp), %r10
leaq 896(%rsp), %r11
leaq 1408(%rsp), %rbx
leaq 1920(%rsp), %rbp
leaq -832(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$84(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$84:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r10)
vmovhpd %xmm1, (%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbx)
vmovhpd %xmm0, (%rbp)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r10)
vmovhpd %xmm1, 8(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbx)
vmovhpd %xmm0, 8(%rbp)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r10)
vmovhpd %xmm1, 16(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbx)
vmovhpd %xmm0, 16(%rbp)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r10)
vmovhpd %xmm1, 24(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbx)
vmovhpd %xmm0, 24(%rbp)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r10)
vmovhpd %xmm1, 32(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbx)
vmovhpd %xmm0, 32(%rbp)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r10)
vmovhpd %xmm1, 40(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbx)
vmovhpd %xmm0, 40(%rbp)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r10)
vmovhpd %xmm1, 48(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbx)
vmovhpd %xmm0, 48(%rbp)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r10)
vmovhpd %xmm1, 56(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbx)
vmovhpd %xmm0, 56(%rbp)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r10)
vmovhpd %xmm1, 64(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbx)
vmovhpd %xmm0, 64(%rbp)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r10)
vmovhpd %xmm1, 72(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbx)
vmovhpd %xmm0, 72(%rbp)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r10)
vmovhpd %xmm1, 80(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbx)
vmovhpd %xmm0, 80(%rbp)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r10)
vmovhpd %xmm1, 88(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbx)
vmovhpd %xmm0, 88(%rbp)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r10)
vmovhpd %xmm1, 96(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbx)
vmovhpd %xmm0, 96(%rbp)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r10)
vmovhpd %xmm1, 104(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbx)
vmovhpd %xmm0, 104(%rbp)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r10)
vmovhpd %xmm1, 112(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbx)
vmovhpd %xmm0, 112(%rbp)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r10)
vmovhpd %xmm1, 120(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbx)
vmovhpd %xmm0, 120(%rbp)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r10)
vmovhpd %xmm1, 128(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbx)
vmovhpd %xmm0, 128(%rbp)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%r10)
vmovhpd %xmm1, 136(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%rbx)
vmovhpd %xmm0, 136(%rbp)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%r10)
vmovhpd %xmm1, 144(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%rbx)
vmovhpd %xmm0, 144(%rbp)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%r10)
vmovhpd %xmm1, 152(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%rbx)
vmovhpd %xmm0, 152(%rbp)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%r10)
vmovhpd %xmm1, 160(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%rbx)
vmovhpd %xmm0, 160(%rbp)
leaq 14560(%rsp), %rax
leaq 384(%rsp), %rcx
movq $0, %rdx
cmpq $255, %rdi
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$79
Ljade_kem_kyber_kyber768_amd64_avx2_dec$80:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$83
movw %si, (%rax,%rdi,2)
incq %rdi
Ljade_kem_kyber_kyber768_amd64_avx2_dec$83:
cmpq $256, %rdi
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$81
cmpw $3329, %r11w
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$81
movw %r11w, (%rax,%rdi,2)
incq %rdi
Ljade_kem_kyber_kyber768_amd64_avx2_dec$82:
Ljade_kem_kyber_kyber768_amd64_avx2_dec$81:
cmpq $255, %rdi
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
Ljade_kem_kyber_kyber768_amd64_avx2_dec$79:
jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$80
leaq 15072(%rsp), %rax
leaq 896(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r8
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$74
Ljade_kem_kyber_kyber768_amd64_avx2_dec$75:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$78
movw %si, (%rax,%r8,2)
incq %r8
Ljade_kem_kyber_kyber768_amd64_avx2_dec$78:
cmpq $256, %r8
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$76
cmpw $3329, %r11w
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$76
movw %r11w, (%rax,%r8,2)
incq %r8
Ljade_kem_kyber_kyber768_amd64_avx2_dec$77:
Ljade_kem_kyber_kyber768_amd64_avx2_dec$76:
cmpq $255, %r8
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
Ljade_kem_kyber_kyber768_amd64_avx2_dec$74:
jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$75
leaq 15584(%rsp), %rax
leaq 1408(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r9
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$69
Ljade_kem_kyber_kyber768_amd64_avx2_dec$70:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$73
movw %si, (%rax,%r9,2)
incq %r9
Ljade_kem_kyber_kyber768_amd64_avx2_dec$73:
cmpq $256, %r9
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$71
cmpw $3329, %r11w
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$71
movw %r11w, (%rax,%r9,2)
incq %r9
Ljade_kem_kyber_kyber768_amd64_avx2_dec$72:
Ljade_kem_kyber_kyber768_amd64_avx2_dec$71:
cmpq $255, %r9
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
Ljade_kem_kyber_kyber768_amd64_avx2_dec$69:
jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$70
leaq 16096(%rsp), %rax
leaq 1920(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r13
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$64
Ljade_kem_kyber_kyber768_amd64_avx2_dec$65:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$68
movw %si, (%rax,%r13,2)
incq %r13
Ljade_kem_kyber_kyber768_amd64_avx2_dec$68:
cmpq $256, %r13
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$66
cmpw $3329, %r11w
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$66
movw %r11w, (%rax,%r13,2)
incq %r13
Ljade_kem_kyber_kyber768_amd64_avx2_dec$67:
Ljade_kem_kyber_kyber768_amd64_avx2_dec$66:
cmpq $255, %r13
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
Ljade_kem_kyber_kyber768_amd64_avx2_dec$64:
jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$65
cmpq $255, %rdi
setbe %al
cmpq $255, %r8
setbe %cl
orb %cl, %al
cmpq $255, %r9
setbe %cl
cmpq $255, %r13
setbe %dl
orb %dl, %cl
orb %al, %cl
Ljade_kem_kyber_kyber768_amd64_avx2_dec$62:
jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$63
vmovdqu (%rsp), %ymm0
vmovdqu %ymm0, 384(%rsp)
movb $2, 416(%rsp)
movb $2, 417(%rsp)
leaq 384(%rsp), %rax
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 160(%rsp)
vmovdqu %ymm0, 192(%rsp)
vmovdqu %ymm0, 224(%rsp)
vmovdqu %ymm0, 256(%rsp)
vmovdqu %ymm0, 288(%rsp)
vmovdqu %ymm0, 320(%rsp)
vmovdqu %ymm0, 352(%rsp)
vpbroadcastq (%rax), %ymm5
movq 8(%rax), %rcx
movq glob_data + 6208(%rip), %rdx
movq %rcx, 160(%rsp,%rdx,8)
movq 16(%rax), %rcx
movq glob_data + 6216(%rip), %rdx
movq %rcx, 160(%rsp,%rdx,8)
movq 24(%rax), %rcx
movq glob_data + 6224(%rip), %rdx
movq %rcx, 160(%rsp,%rdx,8)
movb 32(%rax), %cl
movq glob_data + 6232(%rip), %rdx
shlq $3, %rdx
movb %cl, 160(%rsp,%rdx)
movb 33(%rax), %al
incq %rdx
movb %al, 160(%rsp,%rdx)
incq %rdx
movb $31, 160(%rsp,%rdx)
movq glob_data + 6360(%rip), %rax
shlq $3, %rax
movq $167, %rcx
andq $7, %rcx
addq %rcx, %rax
movb $-128, 160(%rsp,%rax)
vmovdqu 192(%rsp), %ymm0
vmovdqu 224(%rsp), %ymm1
vmovdqu 256(%rsp), %ymm2
vmovdqu 288(%rsp), %ymm6
vmovdqu 320(%rsp), %ymm3
vmovdqu 352(%rsp), %ymm4
leaq 384(%rsp), %rax
leaq glob_data + 3328(%rip), %rcx
movq $0, %rdx
leaq glob_data + 3136(%rip), %rsi
leaq glob_data + 2944(%rip), %rdi
movq $24, %r8
Ljade_kem_kyber_kyber768_amd64_avx2_dec$61:
vpshufd $78, %ymm1, %ymm8
vpxor %ymm2, %ymm3, %ymm7
vpxor %ymm4, %ymm6, %ymm9
vpxor %ymm0, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm1, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm5, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm1, %ymm1
vpxor %ymm11, %ymm5, %ymm5
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm1, %ymm7
vpsrlvq (%rdi), %ymm1, %ymm1
vpor %ymm7, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpsllvq 64(%rsi), %ymm2, %ymm7
vpsrlvq 64(%rdi), %ymm2, %ymm2
vpor %ymm7, %ymm2, %ymm2
vpxor %ymm9, %ymm6, %ymm6
vpsllvq 96(%rsi), %ymm6, %ymm7
vpsrlvq 96(%rdi), %ymm6, %ymm6
vpor %ymm7, %ymm6, %ymm10
vpxor %ymm9, %ymm3, %ymm3
vpsllvq 128(%rsi), %ymm3, %ymm6
vpsrlvq 128(%rdi), %ymm3, %ymm3
vpor %ymm6, %ymm3, %ymm3
vpxor %ymm9, %ymm4, %ymm4
vpermq $-115, %ymm1, %ymm6
vpermq $-115, %ymm2, %ymm7
vpsllvq 160(%rsi), %ymm4, %ymm1
vpsrlvq 160(%rdi), %ymm4, %ymm2
vpor %ymm1, %ymm2, %ymm8
vpxor %ymm9, %ymm0, %ymm1
vpermq $27, %ymm10, %ymm0
vpermq $114, %ymm3, %ymm9
vpsllvq 32(%rsi), %ymm1, %ymm2
vpsrlvq 32(%rdi), %ymm1, %ymm1
vpor %ymm2, %ymm1, %ymm10
vpsrldq $8, %ymm8, %ymm1
vpandn %ymm1, %ymm8, %ymm2
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm3
vpblendd $12, %ymm7, %ymm6, %ymm4
vpblendd $12, %ymm6, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm0, %ymm3, %ymm3
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm0, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm3, %ymm3
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm3, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm4
vpblendd $12, %ymm10, %ymm0, %ymm11
vpblendd $12, %ymm0, %ymm6, %ymm12
vpxor %ymm6, %ymm1, %ymm3
vpblendd $48, %ymm6, %ymm11, %ymm1
vpblendd $48, %ymm7, %ymm12, %ymm11
vpxor %ymm0, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm1, %ymm1
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm1, %ymm1
vpxor %ymm9, %ymm1, %ymm12
vpermq $30, %ymm8, %ymm1
vpblendd $48, %ymm5, %ymm1, %ymm1
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm5, %ymm11, %ymm11
vpandn %ymm1, %ymm11, %ymm11
vpblendd $12, %ymm0, %ymm7, %ymm1
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm1, %ymm1
vpblendd $48, %ymm6, %ymm13, %ymm13
vpblendd $-64, %ymm6, %ymm1, %ymm1
vpblendd $-64, %ymm0, %ymm13, %ymm13
vpandn %ymm13, %ymm1, %ymm1
vpxor %ymm10, %ymm1, %ymm1
vpermq $0, %ymm2, %ymm13
vpermq $27, %ymm3, %ymm2
vpermq $-115, %ymm4, %ymm3
vpermq $114, %ymm12, %ymm4
vpblendd $12, %ymm6, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm0, %ymm9
vpblendd $48, %ymm0, %ymm12, %ymm0
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm0, %ymm0
vpblendd $-64, %ymm6, %ymm9, %ymm6
vpandn %ymm6, %ymm0, %ymm6
vpxor %ymm13, %ymm5, %ymm5
vpxor %ymm8, %ymm11, %ymm0
vpxor %ymm7, %ymm6, %ymm6
vpxor (%rcx,%rdx), %ymm5, %ymm5
addq $32, %rdx
decq %r8
jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$61
vmovdqu %ymm5, 160(%rsp)
vmovdqu %ymm0, 192(%rsp)
vmovdqu %ymm1, 224(%rsp)
vmovdqu %ymm2, 256(%rsp)
vmovdqu %ymm6, 288(%rsp)
vmovdqu %ymm3, 320(%rsp)
vmovdqu %ymm4, 352(%rsp)
movq glob_data + 6200(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, (%rax)
movq glob_data + 6208(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 8(%rax)
movq glob_data + 6216(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 16(%rax)
movq glob_data + 6224(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 24(%rax)
movq glob_data + 6232(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 32(%rax)
movq glob_data + 6240(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 40(%rax)
movq glob_data + 6248(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 48(%rax)
movq glob_data + 6256(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 56(%rax)
movq glob_data + 6264(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 64(%rax)
movq glob_data + 6272(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 72(%rax)
movq glob_data + 6280(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 80(%rax)
movq glob_data + 6288(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 88(%rax)
movq glob_data + 6296(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 96(%rax)
movq glob_data + 6304(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 104(%rax)
movq glob_data + 6312(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 112(%rax)
movq glob_data + 6320(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 120(%rax)
movq glob_data + 6328(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 128(%rax)
movq glob_data + 6336(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 136(%rax)
movq glob_data + 6344(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 144(%rax)
movq glob_data + 6352(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 152(%rax)
movq glob_data + 6360(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 160(%rax)
leaq 552(%rsp), %rax
leaq glob_data + 3328(%rip), %rcx
movq $0, %rdx
leaq glob_data + 3136(%rip), %rsi
leaq glob_data + 2944(%rip), %rdi
movq $24, %r8
Ljade_kem_kyber_kyber768_amd64_avx2_dec$60:
vpshufd $78, %ymm1, %ymm8
vpxor %ymm2, %ymm3, %ymm7
vpxor %ymm4, %ymm6, %ymm9
vpxor %ymm0, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm1, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm5, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm1, %ymm1
vpxor %ymm11, %ymm5, %ymm5
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm1, %ymm7
vpsrlvq (%rdi), %ymm1, %ymm1
vpor %ymm7, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpsllvq 64(%rsi), %ymm2, %ymm7
vpsrlvq 64(%rdi), %ymm2, %ymm2
vpor %ymm7, %ymm2, %ymm2
vpxor %ymm9, %ymm6, %ymm6
vpsllvq 96(%rsi), %ymm6, %ymm7
vpsrlvq 96(%rdi), %ymm6, %ymm6
vpor %ymm7, %ymm6, %ymm10
vpxor %ymm9, %ymm3, %ymm3
vpsllvq 128(%rsi), %ymm3, %ymm6
vpsrlvq 128(%rdi), %ymm3, %ymm3
vpor %ymm6, %ymm3, %ymm3
vpxor %ymm9, %ymm4, %ymm4
vpermq $-115, %ymm1, %ymm6
vpermq $-115, %ymm2, %ymm7
vpsllvq 160(%rsi), %ymm4, %ymm1
vpsrlvq 160(%rdi), %ymm4, %ymm2
vpor %ymm1, %ymm2, %ymm8
vpxor %ymm9, %ymm0, %ymm1
vpermq $27, %ymm10, %ymm0
vpermq $114, %ymm3, %ymm9
vpsllvq 32(%rsi), %ymm1, %ymm2
vpsrlvq 32(%rdi), %ymm1, %ymm1
vpor %ymm2, %ymm1, %ymm10
vpsrldq $8, %ymm8, %ymm1
vpandn %ymm1, %ymm8, %ymm2
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm3
vpblendd $12, %ymm7, %ymm6, %ymm4
vpblendd $12, %ymm6, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm0, %ymm3, %ymm3
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm0, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm3, %ymm3
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm3, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm4
vpblendd $12, %ymm10, %ymm0, %ymm11
vpblendd $12, %ymm0, %ymm6, %ymm12
vpxor %ymm6, %ymm1, %ymm3
vpblendd $48, %ymm6, %ymm11, %ymm1
vpblendd $48, %ymm7, %ymm12, %ymm11
vpxor %ymm0, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm1, %ymm1
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm1, %ymm1
vpxor %ymm9, %ymm1, %ymm12
vpermq $30, %ymm8, %ymm1
vpblendd $48, %ymm5, %ymm1, %ymm1
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm5, %ymm11, %ymm11
vpandn %ymm1, %ymm11, %ymm11
vpblendd $12, %ymm0, %ymm7, %ymm1
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm1, %ymm1
vpblendd $48, %ymm6, %ymm13, %ymm13
vpblendd $-64, %ymm6, %ymm1, %ymm1
vpblendd $-64, %ymm0, %ymm13, %ymm13
vpandn %ymm13, %ymm1, %ymm1
vpxor %ymm10, %ymm1, %ymm1
vpermq $0, %ymm2, %ymm13
vpermq $27, %ymm3, %ymm2
vpermq $-115, %ymm4, %ymm3
vpermq $114, %ymm12, %ymm4
vpblendd $12, %ymm6, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm0, %ymm9
vpblendd $48, %ymm0, %ymm12, %ymm0
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm0, %ymm0
vpblendd $-64, %ymm6, %ymm9, %ymm6
vpandn %ymm6, %ymm0, %ymm6
vpxor %ymm13, %ymm5, %ymm5
vpxor %ymm8, %ymm11, %ymm0
vpxor %ymm7, %ymm6, %ymm6
vpxor (%rcx,%rdx), %ymm5, %ymm5
addq $32, %rdx
decq %r8
jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$60
vmovdqu %ymm5, 160(%rsp)
vmovdqu %ymm0, 192(%rsp)
vmovdqu %ymm1, 224(%rsp)
vmovdqu %ymm2, 256(%rsp)
vmovdqu %ymm6, 288(%rsp)
vmovdqu %ymm3, 320(%rsp)
vmovdqu %ymm4, 352(%rsp)
movq glob_data + 6200(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, (%rax)
movq glob_data + 6208(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 8(%rax)
movq glob_data + 6216(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 16(%rax)
movq glob_data + 6224(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 24(%rax)
movq glob_data + 6232(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 32(%rax)
movq glob_data + 6240(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 40(%rax)
movq glob_data + 6248(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 48(%rax)
movq glob_data + 6256(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 56(%rax)
movq glob_data + 6264(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 64(%rax)
movq glob_data + 6272(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 72(%rax)
movq glob_data + 6280(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 80(%rax)
movq glob_data + 6288(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 88(%rax)
movq glob_data + 6296(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 96(%rax)
movq glob_data + 6304(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 104(%rax)
movq glob_data + 6312(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 112(%rax)
movq glob_data + 6320(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 120(%rax)
movq glob_data + 6328(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 128(%rax)
movq glob_data + 6336(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 136(%rax)
movq glob_data + 6344(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 144(%rax)
movq glob_data + 6352(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 152(%rax)
movq glob_data + 6360(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 160(%rax)
leaq 720(%rsp), %rax
leaq glob_data + 3328(%rip), %rcx
movq $0, %rdx
leaq glob_data + 3136(%rip), %rsi
leaq glob_data + 2944(%rip), %rdi
movq $24, %r8
Ljade_kem_kyber_kyber768_amd64_avx2_dec$59:
vpshufd $78, %ymm1, %ymm8
vpxor %ymm2, %ymm3, %ymm7
vpxor %ymm4, %ymm6, %ymm9
vpxor %ymm0, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm1, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm5, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm1, %ymm1
vpxor %ymm11, %ymm5, %ymm5
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm1, %ymm7
vpsrlvq (%rdi), %ymm1, %ymm1
vpor %ymm7, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpsllvq 64(%rsi), %ymm2, %ymm7
vpsrlvq 64(%rdi), %ymm2, %ymm2
vpor %ymm7, %ymm2, %ymm2
vpxor %ymm9, %ymm6, %ymm6
vpsllvq 96(%rsi), %ymm6, %ymm7
vpsrlvq 96(%rdi), %ymm6, %ymm6
vpor %ymm7, %ymm6, %ymm10
vpxor %ymm9, %ymm3, %ymm3
vpsllvq 128(%rsi), %ymm3, %ymm6
vpsrlvq 128(%rdi), %ymm3, %ymm3
vpor %ymm6, %ymm3, %ymm3
vpxor %ymm9, %ymm4, %ymm4
vpermq $-115, %ymm1, %ymm6
vpermq $-115, %ymm2, %ymm7
vpsllvq 160(%rsi), %ymm4, %ymm1
vpsrlvq 160(%rdi), %ymm4, %ymm2
vpor %ymm1, %ymm2, %ymm8
vpxor %ymm9, %ymm0, %ymm1
vpermq $27, %ymm10, %ymm0
vpermq $114, %ymm3, %ymm9
vpsllvq 32(%rsi), %ymm1, %ymm2
vpsrlvq 32(%rdi), %ymm1, %ymm1
vpor %ymm2, %ymm1, %ymm10
vpsrldq $8, %ymm8, %ymm1
vpandn %ymm1, %ymm8, %ymm2
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm3
vpblendd $12, %ymm7, %ymm6, %ymm4
vpblendd $12, %ymm6, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm0, %ymm3, %ymm3
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm0, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm3, %ymm3
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm3, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm4
vpblendd $12, %ymm10, %ymm0, %ymm11
vpblendd $12, %ymm0, %ymm6, %ymm12
vpxor %ymm6, %ymm1, %ymm3
vpblendd $48, %ymm6, %ymm11, %ymm1
vpblendd $48, %ymm7, %ymm12, %ymm11
vpxor %ymm0, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm1, %ymm1
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm1, %ymm1
vpxor %ymm9, %ymm1, %ymm12
vpermq $30, %ymm8, %ymm1
vpblendd $48, %ymm5, %ymm1, %ymm1
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm5, %ymm11, %ymm11
vpandn %ymm1, %ymm11, %ymm11
vpblendd $12, %ymm0, %ymm7, %ymm1
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm1, %ymm1
vpblendd $48, %ymm6, %ymm13, %ymm13
vpblendd $-64, %ymm6, %ymm1, %ymm1
vpblendd $-64, %ymm0, %ymm13, %ymm13
vpandn %ymm13, %ymm1, %ymm1
vpxor %ymm10, %ymm1, %ymm1
vpermq $0, %ymm2, %ymm13
vpermq $27, %ymm3, %ymm2
vpermq $-115, %ymm4, %ymm3
vpermq $114, %ymm12, %ymm4
vpblendd $12, %ymm6, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm0, %ymm9
vpblendd $48, %ymm0, %ymm12, %ymm0
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm0, %ymm0
vpblendd $-64, %ymm6, %ymm9, %ymm6
vpandn %ymm6, %ymm0, %ymm6
vpxor %ymm13, %ymm5, %ymm5
vpxor %ymm8, %ymm11, %ymm0
vpxor %ymm7, %ymm6, %ymm6
vpxor (%rcx,%rdx), %ymm5, %ymm5
addq $32, %rdx
decq %r8
jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$59
vmovdqu %ymm5, 160(%rsp)
vmovdqu %ymm0, 192(%rsp)
vmovdqu %ymm1, 224(%rsp)
vmovdqu %ymm2, 256(%rsp)
vmovdqu %ymm6, 288(%rsp)
vmovdqu %ymm3, 320(%rsp)
vmovdqu %ymm4, 352(%rsp)
movq glob_data + 6200(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, (%rax)
movq glob_data + 6208(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 8(%rax)
movq glob_data + 6216(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 16(%rax)
movq glob_data + 6224(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 24(%rax)
movq glob_data + 6232(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 32(%rax)
movq glob_data + 6240(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 40(%rax)
movq glob_data + 6248(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 48(%rax)
movq glob_data + 6256(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 56(%rax)
movq glob_data + 6264(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 64(%rax)
movq glob_data + 6272(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 72(%rax)
movq glob_data + 6280(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 80(%rax)
movq glob_data + 6288(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 88(%rax)
movq glob_data + 6296(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 96(%rax)
movq glob_data + 6304(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 104(%rax)
movq glob_data + 6312(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 112(%rax)
movq glob_data + 6320(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 120(%rax)
movq glob_data + 6328(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 128(%rax)
movq glob_data + 6336(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 136(%rax)
movq glob_data + 6344(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 144(%rax)
movq glob_data + 6352(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 152(%rax)
movq glob_data + 6360(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 160(%rax)
vmovdqu %ymm5, 160(%rsp)
vmovdqu %ymm0, 192(%rsp)
vmovdqu %ymm1, 224(%rsp)
vmovdqu %ymm2, 256(%rsp)
vmovdqu %ymm6, 288(%rsp)
vmovdqu %ymm3, 320(%rsp)
vmovdqu %ymm4, 352(%rsp)
leaq 16608(%rsp), %rbx
leaq 384(%rsp), %rbp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$58(%rip), %r11
jmp L_rej_uniform_avx$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$58:
cmpq $255, %r13
setbe %al
vmovdqu 160(%rsp), %ymm6
vmovdqu 192(%rsp), %ymm0
vmovdqu 224(%rsp), %ymm1
vmovdqu 256(%rsp), %ymm2
vmovdqu 288(%rsp), %ymm3
vmovdqu 320(%rsp), %ymm4
vmovdqu 352(%rsp), %ymm5
jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$50
Ljade_kem_kyber_kyber768_amd64_avx2_dec$51:
leaq 384(%rsp), %rax
leaq glob_data + 3328(%rip), %rcx
movq $0, %rdx
leaq glob_data + 3136(%rip), %rsi
leaq glob_data + 2944(%rip), %rdi
movq $24, %r8
Ljade_kem_kyber_kyber768_amd64_avx2_dec$57:
vpshufd $78, %ymm1, %ymm8
vpxor %ymm2, %ymm4, %ymm7
vpxor %ymm5, %ymm3, %ymm9
vpxor %ymm0, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm1, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm1, %ymm1
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm1, %ymm7
vpsrlvq (%rdi), %ymm1, %ymm1
vpor %ymm7, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpsllvq 64(%rsi), %ymm2, %ymm7
vpsrlvq 64(%rdi), %ymm2, %ymm2
vpor %ymm7, %ymm2, %ymm2
vpxor %ymm9, %ymm3, %ymm3
vpsllvq 96(%rsi), %ymm3, %ymm7
vpsrlvq 96(%rdi), %ymm3, %ymm3
vpor %ymm7, %ymm3, %ymm10
vpxor %ymm9, %ymm4, %ymm3
vpsllvq 128(%rsi), %ymm3, %ymm4
vpsrlvq 128(%rdi), %ymm3, %ymm3
vpor %ymm4, %ymm3, %ymm4
vpxor %ymm9, %ymm5, %ymm5
vpermq $-115, %ymm1, %ymm3
vpermq $-115, %ymm2, %ymm7
vpsllvq 160(%rsi), %ymm5, %ymm1
vpsrlvq 160(%rdi), %ymm5, %ymm2
vpor %ymm1, %ymm2, %ymm8
vpxor %ymm9, %ymm0, %ymm1
vpermq $27, %ymm10, %ymm0
vpermq $114, %ymm4, %ymm9
vpsllvq 32(%rsi), %ymm1, %ymm2
vpsrlvq 32(%rdi), %ymm1, %ymm1
vpor %ymm2, %ymm1, %ymm10
vpsrldq $8, %ymm8, %ymm1
vpandn %ymm1, %ymm8, %ymm2
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm3, %ymm5
vpblendd $12, %ymm3, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm0, %ymm4, %ymm4
vpblendd $48, %ymm10, %ymm5, %ymm5
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm0, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm9, %ymm5, %ymm5
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm4, %ymm1, %ymm1
vpandn %ymm11, %ymm5, %ymm5
vpblendd $12, %ymm10, %ymm0, %ymm11
vpblendd $12, %ymm0, %ymm3, %ymm12
vpxor %ymm3, %ymm1, %ymm4
vpblendd $48, %ymm3, %ymm11, %ymm1
vpblendd $48, %ymm7, %ymm12, %ymm11
vpxor %ymm0, %ymm5, %ymm5
vpblendd $-64, %ymm7, %ymm1, %ymm1
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm1, %ymm1
vpxor %ymm9, %ymm1, %ymm12
vpermq $30, %ymm8, %ymm1
vpblendd $48, %ymm6, %ymm1, %ymm1
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm1, %ymm11, %ymm11
vpblendd $12, %ymm0, %ymm7, %ymm1
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm13, %ymm13
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm0, %ymm13, %ymm13
vpandn %ymm13, %ymm1, %ymm1
vpxor %ymm10, %ymm1, %ymm1
vpermq $0, %ymm2, %ymm13
vpermq $27, %ymm4, %ymm2
vpermq $-115, %ymm5, %ymm4
vpermq $114, %ymm12, %ymm5
vpblendd $12, %ymm3, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm0, %ymm9
vpblendd $48, %ymm0, %ymm12, %ymm0
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm0, %ymm0
vpblendd $-64, %ymm3, %ymm9, %ymm3
vpandn %ymm3, %ymm0, %ymm3
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm0
vpxor %ymm7, %ymm3, %ymm3
vpxor (%rcx,%rdx), %ymm6, %ymm6
addq $32, %rdx
decq %r8
jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$57
vmovdqu %ymm6, 160(%rsp)
vmovdqu %ymm0, 192(%rsp)
vmovdqu %ymm1, 224(%rsp)
vmovdqu %ymm2, 256(%rsp)
vmovdqu %ymm3, 288(%rsp)
vmovdqu %ymm4, 320(%rsp)
vmovdqu %ymm5, 352(%rsp)
movq glob_data + 6200(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, (%rax)
movq glob_data + 6208(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 8(%rax)
movq glob_data + 6216(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 16(%rax)
movq glob_data + 6224(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 24(%rax)
movq glob_data + 6232(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 32(%rax)
movq glob_data + 6240(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 40(%rax)
movq glob_data + 6248(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 48(%rax)
movq glob_data + 6256(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 56(%rax)
movq glob_data + 6264(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 64(%rax)
movq glob_data + 6272(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 72(%rax)
movq glob_data + 6280(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 80(%rax)
movq glob_data + 6288(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 88(%rax)
movq glob_data + 6296(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 96(%rax)
movq glob_data + 6304(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 104(%rax)
movq glob_data + 6312(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 112(%rax)
movq glob_data + 6320(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 120(%rax)
movq glob_data + 6328(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 128(%rax)
movq glob_data + 6336(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 136(%rax)
movq glob_data + 6344(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 144(%rax)
movq glob_data + 6352(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 152(%rax)
movq glob_data + 6360(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 160(%rax)
leaq 16608(%rsp), %rax
leaq 384(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r13
setbe %sil
cmpq $165, %rdx
setbe %dil
testb %dil, %sil
jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$52
Ljade_kem_kyber_kyber768_amd64_avx2_dec$53:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw (%rcx,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$56
movw %si, (%rax,%r13,2)
incq %r13
Ljade_kem_kyber_kyber768_amd64_avx2_dec$56:
cmpq $256, %r13
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$54
cmpw $3329, %r8w
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$54
movw %r8w, (%rax,%r13,2)
incq %r13
Ljade_kem_kyber_kyber768_amd64_avx2_dec$55:
Ljade_kem_kyber_kyber768_amd64_avx2_dec$54:
cmpq $255, %r13
setbe %sil
cmpq $165, %rdx
setbe %dil
testb %dil, %sil
Ljade_kem_kyber_kyber768_amd64_avx2_dec$52:
jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$53
cmpq $255, %r13
setbe %al
Ljade_kem_kyber_kyber768_amd64_avx2_dec$50:
cmpb $0, %al
jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$51
leaq 12512(%rsp), %rax
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$49(%rip), %rcx
jmp L_nttunpack$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$49:
leaq 13024(%rsp), %rax
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$48(%rip), %rcx
jmp L_nttunpack$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$48:
leaq 13536(%rsp), %rax
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$47(%rip), %rcx
jmp L_nttunpack$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$47:
leaq 14048(%rsp), %rax
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$46(%rip), %rcx
jmp L_nttunpack$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$46:
leaq 14560(%rsp), %rax
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$45(%rip), %rcx
jmp L_nttunpack$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$45:
leaq 15072(%rsp), %rax
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$44(%rip), %rcx
jmp L_nttunpack$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$44:
leaq 15584(%rsp), %rax
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$43(%rip), %rcx
jmp L_nttunpack$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$43:
leaq 16096(%rsp), %rax
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$42(%rip), %rcx
jmp L_nttunpack$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$42:
leaq 16608(%rsp), %rax
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$41(%rip), %rcx
jmp L_nttunpack$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$41:
movq 17152(%rsp), %r10
movb $0, %cl
leaq 7904(%rsp), %rax
leaq 8416(%rsp), %rdi
leaq 8928(%rsp), %r8
leaq 9440(%rsp), %r9
leaq -1472(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$40(%rip), %rdx
movq %rdx, 1464(%rsp)
jmp L_poly_getnoise_eta1_4x$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$40:
leaq 1472(%rsp), %rsp
movb $4, %cl
leaq 9952(%rsp), %rax
leaq 10464(%rsp), %rdi
leaq 2944(%rsp), %r8
leaq 10976(%rsp), %r9
leaq -1472(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$39(%rip), %rdx
movq %rdx, 1464(%rsp)
jmp L_poly_getnoise_eta1_4x$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$39:
leaq 1472(%rsp), %rsp
leaq 7904(%rsp), %rcx
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$38(%rip), %rdi
jmp L_poly_ntt$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$38:
leaq 8416(%rsp), %rcx
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$37(%rip), %rdi
jmp L_poly_ntt$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$37:
leaq 8928(%rsp), %rcx
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$36(%rip), %rdi
jmp L_poly_ntt$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$36:
leaq 10976(%rsp), %rcx
leaq 12512(%rsp), %rsi
leaq 7904(%rsp), %rdi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$35(%rip), %r8
jmp L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$35:
leaq 2432(%rsp), %rcx
leaq 13024(%rsp), %rsi
leaq 8416(%rsp), %rdi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$34(%rip), %r8
jmp L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$34:
leaq 10976(%rsp), %rcx
leaq 2432(%rsp), %rsi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$33(%rip), %rdi
jmp L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$33:
leaq 2432(%rsp), %rcx
leaq 13536(%rsp), %rsi
leaq 8928(%rsp), %rdi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$32(%rip), %r8
jmp L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$32:
leaq 10976(%rsp), %rcx
leaq 2432(%rsp), %rsi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$31(%rip), %rdi
jmp L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$31:
leaq 11488(%rsp), %rcx
leaq 14048(%rsp), %rsi
leaq 7904(%rsp), %rdi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$30(%rip), %r8
jmp L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$30:
leaq 2432(%rsp), %rcx
leaq 14560(%rsp), %rsi
leaq 8416(%rsp), %rdi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$29(%rip), %r8
jmp L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$29:
leaq 11488(%rsp), %rcx
leaq 2432(%rsp), %rsi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$28(%rip), %rdi
jmp L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$28:
leaq 2432(%rsp), %rcx
leaq 15072(%rsp), %rsi
leaq 8928(%rsp), %rdi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$27(%rip), %r8
jmp L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$27:
leaq 11488(%rsp), %rcx
leaq 2432(%rsp), %rsi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$26(%rip), %rdi
jmp L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$26:
leaq 12000(%rsp), %rcx
leaq 15584(%rsp), %rsi
leaq 7904(%rsp), %rdi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$25(%rip), %r8
jmp L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$25:
leaq 2432(%rsp), %rcx
leaq 16096(%rsp), %rsi
leaq 8416(%rsp), %rdi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$24(%rip), %r8
jmp L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$24:
leaq 12000(%rsp), %rcx
leaq 2432(%rsp), %rsi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$23(%rip), %rdi
jmp L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$23:
leaq 2432(%rsp), %rcx
leaq 16608(%rsp), %rsi
leaq 8928(%rsp), %rdi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$22(%rip), %r8
jmp L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$22:
leaq 12000(%rsp), %rcx
leaq 2432(%rsp), %rsi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$21(%rip), %rdi
jmp L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$21:
leaq 2432(%rsp), %rcx
leaq 6368(%rsp), %rsi
leaq 7904(%rsp), %rdi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$20(%rip), %r8
jmp L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$20:
leaq 3968(%rsp), %rcx
leaq 6880(%rsp), %rsi
leaq 8416(%rsp), %rdi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$19(%rip), %r8
jmp L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$19:
leaq 2432(%rsp), %rcx
leaq 3968(%rsp), %rsi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$18(%rip), %rdi
jmp L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$18:
leaq 3968(%rsp), %rcx
leaq 7392(%rsp), %rsi
leaq 8928(%rsp), %rdi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$17(%rip), %r8
jmp L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$17:
leaq 2432(%rsp), %rcx
leaq 3968(%rsp), %rsi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$16(%rip), %rdi
jmp L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$16:
leaq 10976(%rsp), %rcx
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$15(%rip), %rdi
jmp L_poly_invntt$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$15:
leaq 11488(%rsp), %rcx
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$14(%rip), %rdi
jmp L_poly_invntt$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$14:
leaq 12000(%rsp), %rcx
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$13(%rip), %rdi
jmp L_poly_invntt$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$13:
leaq 2432(%rsp), %rcx
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$12(%rip), %rdi
jmp L_poly_invntt$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$12:
leaq 10976(%rsp), %rcx
leaq 9440(%rsp), %rsi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$11(%rip), %rdi
jmp L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$11:
leaq 11488(%rsp), %rcx
leaq 9952(%rsp), %rsi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$10(%rip), %rdi
jmp L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$10:
leaq 12000(%rsp), %rcx
leaq 10464(%rsp), %rsi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$9(%rip), %rdi
jmp L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$9:
leaq 2432(%rsp), %rcx
leaq 2944(%rsp), %rsi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$8(%rip), %rdi
jmp L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$8:
leaq 2432(%rsp), %rcx
leaq 3456(%rsp), %rsi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$7(%rip), %rdi
jmp L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$7:
leaq 10976(%rsp), %rax
vmovdqu glob_data + 448(%rip), %ymm0
vmovdqu glob_data + 384(%rip), %ymm1
vmovdqu (%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, (%rax)
vmovdqu 32(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 32(%rax)
vmovdqu 64(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 64(%rax)
vmovdqu 96(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 96(%rax)
vmovdqu 128(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 128(%rax)
vmovdqu 160(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 160(%rax)
vmovdqu 192(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 192(%rax)
vmovdqu 224(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 224(%rax)
vmovdqu 256(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 256(%rax)
vmovdqu 288(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 288(%rax)
vmovdqu 320(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 320(%rax)
vmovdqu 352(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 352(%rax)
vmovdqu 384(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 384(%rax)
vmovdqu 416(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 416(%rax)
vmovdqu 448(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 448(%rax)
vmovdqu 480(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm1
vpsraw $10, %ymm1, %ymm1
vpmullw %ymm0, %ymm1, %ymm0
vpsubw %ymm0, %ymm2, %ymm0
vmovdqu %ymm0, 480(%rax)
leaq 11488(%rsp), %rax
vmovdqu glob_data + 448(%rip), %ymm0
vmovdqu glob_data + 384(%rip), %ymm1
vmovdqu (%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, (%rax)
vmovdqu 32(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 32(%rax)
vmovdqu 64(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 64(%rax)
vmovdqu 96(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 96(%rax)
vmovdqu 128(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 128(%rax)
vmovdqu 160(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 160(%rax)
vmovdqu 192(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 192(%rax)
vmovdqu 224(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 224(%rax)
vmovdqu 256(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 256(%rax)
vmovdqu 288(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 288(%rax)
vmovdqu 320(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 320(%rax)
vmovdqu 352(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 352(%rax)
vmovdqu 384(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 384(%rax)
vmovdqu 416(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 416(%rax)
vmovdqu 448(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 448(%rax)
vmovdqu 480(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm1
vpsraw $10, %ymm1, %ymm1
vpmullw %ymm0, %ymm1, %ymm0
vpsubw %ymm0, %ymm2, %ymm0
vmovdqu %ymm0, 480(%rax)
leaq 12000(%rsp), %rax
vmovdqu glob_data + 448(%rip), %ymm0
vmovdqu glob_data + 384(%rip), %ymm1
vmovdqu (%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, (%rax)
vmovdqu 32(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 32(%rax)
vmovdqu 64(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 64(%rax)
vmovdqu 96(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 96(%rax)
vmovdqu 128(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 128(%rax)
vmovdqu 160(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 160(%rax)
vmovdqu 192(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 192(%rax)
vmovdqu 224(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 224(%rax)
vmovdqu 256(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 256(%rax)
vmovdqu 288(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 288(%rax)
vmovdqu 320(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 320(%rax)
vmovdqu 352(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 352(%rax)
vmovdqu 384(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 384(%rax)
vmovdqu 416(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 416(%rax)
vmovdqu 448(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 448(%rax)
vmovdqu 480(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm1
vpsraw $10, %ymm1, %ymm1
vpmullw %ymm0, %ymm1, %ymm0
vpsubw %ymm0, %ymm2, %ymm0
vmovdqu %ymm0, 480(%rax)
leaq 2432(%rsp), %rax
vmovdqu glob_data + 448(%rip), %ymm0
vmovdqu glob_data + 384(%rip), %ymm1
vmovdqu (%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, (%rax)
vmovdqu 32(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 32(%rax)
vmovdqu 64(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 64(%rax)
vmovdqu 96(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 96(%rax)
vmovdqu 128(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 128(%rax)
vmovdqu 160(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 160(%rax)
vmovdqu 192(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 192(%rax)
vmovdqu 224(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 224(%rax)
vmovdqu 256(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 256(%rax)
vmovdqu 288(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 288(%rax)
vmovdqu 320(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 320(%rax)
vmovdqu 352(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 352(%rax)
vmovdqu 384(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 384(%rax)
vmovdqu 416(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 416(%rax)
vmovdqu 448(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 448(%rax)
vmovdqu 480(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm1
vpsraw $10, %ymm1, %ymm1
vpmullw %ymm0, %ymm1, %ymm0
vpsubw %ymm0, %ymm2, %ymm0
vmovdqu %ymm0, 480(%rax)
movq 17144(%rsp), %rax
movq %rax, %rdx
leaq 10976(%rsp), %rcx
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$6(%rip), %r8
jmp L_poly_csubq$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$6:
leaq 11488(%rsp), %rcx
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$5(%rip), %r8
jmp L_poly_csubq$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$5:
leaq 12000(%rsp), %rcx
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$4(%rip), %r8
jmp L_poly_csubq$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$4:
leaq glob_data + 384(%rip), %rcx
vmovdqu (%rcx), %ymm0
vpsllw $3, %ymm0, %ymm1
vpbroadcastw glob_data + 6422(%rip), %ymm2
vpbroadcastw glob_data + 6420(%rip), %ymm3
vpbroadcastw glob_data + 6418(%rip), %ymm4
vpbroadcastq glob_data + 6184(%rip), %ymm5
vpbroadcastq glob_data + 6176(%rip), %ymm6
vmovdqu glob_data + 32(%rip), %ymm7
vmovdqu 10976(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, (%rdx)
vpextrd $0, %xmm8, 16(%rdx)
vmovdqu 11008(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 20(%rdx)
vpextrd $0, %xmm8, 36(%rdx)
vmovdqu 11040(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 40(%rdx)
vpextrd $0, %xmm8, 56(%rdx)
vmovdqu 11072(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 60(%rdx)
vpextrd $0, %xmm8, 76(%rdx)
vmovdqu 11104(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 80(%rdx)
vpextrd $0, %xmm8, 96(%rdx)
vmovdqu 11136(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 100(%rdx)
vpextrd $0, %xmm8, 116(%rdx)
vmovdqu 11168(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 120(%rdx)
vpextrd $0, %xmm8, 136(%rdx)
vmovdqu 11200(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 140(%rdx)
vpextrd $0, %xmm8, 156(%rdx)
vmovdqu 11232(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 160(%rdx)
vpextrd $0, %xmm8, 176(%rdx)
vmovdqu 11264(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 180(%rdx)
vpextrd $0, %xmm8, 196(%rdx)
vmovdqu 11296(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 200(%rdx)
vpextrd $0, %xmm8, 216(%rdx)
vmovdqu 11328(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 220(%rdx)
vpextrd $0, %xmm8, 236(%rdx)
vmovdqu 11360(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 240(%rdx)
vpextrd $0, %xmm8, 256(%rdx)
vmovdqu 11392(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 260(%rdx)
vpextrd $0, %xmm8, 276(%rdx)
vmovdqu 11424(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 280(%rdx)
vpextrd $0, %xmm8, 296(%rdx)
vmovdqu 11456(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 300(%rdx)
vpextrd $0, %xmm8, 316(%rdx)
vmovdqu 11488(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 320(%rdx)
vpextrd $0, %xmm8, 336(%rdx)
vmovdqu 11520(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 340(%rdx)
vpextrd $0, %xmm8, 356(%rdx)
vmovdqu 11552(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 360(%rdx)
vpextrd $0, %xmm8, 376(%rdx)
vmovdqu 11584(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 380(%rdx)
vpextrd $0, %xmm8, 396(%rdx)
vmovdqu 11616(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 400(%rdx)
vpextrd $0, %xmm8, 416(%rdx)
vmovdqu 11648(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 420(%rdx)
vpextrd $0, %xmm8, 436(%rdx)
vmovdqu 11680(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 440(%rdx)
vpextrd $0, %xmm8, 456(%rdx)
vmovdqu 11712(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 460(%rdx)
vpextrd $0, %xmm8, 476(%rdx)
vmovdqu 11744(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 480(%rdx)
vpextrd $0, %xmm8, 496(%rdx)
vmovdqu 11776(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 500(%rdx)
vpextrd $0, %xmm8, 516(%rdx)
vmovdqu 11808(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 520(%rdx)
vpextrd $0, %xmm8, 536(%rdx)
vmovdqu 11840(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 540(%rdx)
vpextrd $0, %xmm8, 556(%rdx)
vmovdqu 11872(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 560(%rdx)
vpextrd $0, %xmm8, 576(%rdx)
vmovdqu 11904(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 580(%rdx)
vpextrd $0, %xmm8, 596(%rdx)
vmovdqu 11936(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 600(%rdx)
vpextrd $0, %xmm8, 616(%rdx)
vmovdqu 11968(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 620(%rdx)
vpextrd $0, %xmm8, 636(%rdx)
vmovdqu 12000(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 640(%rdx)
vpextrd $0, %xmm8, 656(%rdx)
vmovdqu 12032(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 660(%rdx)
vpextrd $0, %xmm8, 676(%rdx)
vmovdqu 12064(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 680(%rdx)
vpextrd $0, %xmm8, 696(%rdx)
vmovdqu 12096(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 700(%rdx)
vpextrd $0, %xmm8, 716(%rdx)
vmovdqu 12128(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 720(%rdx)
vpextrd $0, %xmm8, 736(%rdx)
vmovdqu 12160(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 740(%rdx)
vpextrd $0, %xmm8, 756(%rdx)
vmovdqu 12192(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 760(%rdx)
vpextrd $0, %xmm8, 776(%rdx)
vmovdqu 12224(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 780(%rdx)
vpextrd $0, %xmm8, 796(%rdx)
vmovdqu 12256(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 800(%rdx)
vpextrd $0, %xmm8, 816(%rdx)
vmovdqu 12288(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 820(%rdx)
vpextrd $0, %xmm8, 836(%rdx)
vmovdqu 12320(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 840(%rdx)
vpextrd $0, %xmm8, 856(%rdx)
vmovdqu 12352(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 860(%rdx)
vpextrd $0, %xmm8, 876(%rdx)
vmovdqu 12384(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 880(%rdx)
vpextrd $0, %xmm8, 896(%rdx)
vmovdqu 12416(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 900(%rdx)
vpextrd $0, %xmm8, 916(%rdx)
vmovdqu 12448(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 920(%rdx)
vpextrd $0, %xmm8, 936(%rdx)
vmovdqu 12480(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm1
vpaddw %ymm2, %ymm8, %ymm2
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm0
vpsubw %ymm2, %ymm1, %ymm2
vpandn %ymm2, %ymm1, %ymm1
vpsrlw $15, %ymm1, %ymm1
vpsubw %ymm1, %ymm0, %ymm0
vpmulhrsw %ymm3, %ymm0, %ymm0
vpand %ymm4, %ymm0, %ymm0
vpmaddwd %ymm5, %ymm0, %ymm0
vpsllvd %ymm6, %ymm0, %ymm0
vpsrlq $12, %ymm0, %ymm0
vpshufb %ymm7, %ymm0, %ymm0
vmovdqu %xmm0, %xmm1
vextracti128 $1, %ymm0, %xmm0
vpblendw $-32, %xmm0, %xmm1, %xmm1
vmovdqu %xmm1, 940(%rdx)
vpextrd $0, %xmm0, 956(%rdx)
leaq 960(%rax), %rax
leaq 2432(%rsp), %rcx
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$3(%rip), %rsi
jmp L_poly_compress_1$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$3:
movq 17128(%rsp), %r8
leaq 5280(%rsp), %rax
movq $0, %rcx
movq $1, %rdx
vpxor %ymm0, %ymm0, %ymm0
vmovdqu (%rax), %ymm1
vmovdqu (%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 32(%rax), %ymm1
vmovdqu 32(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 64(%rax), %ymm1
vmovdqu 64(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 96(%rax), %ymm1
vmovdqu 96(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 128(%rax), %ymm1
vmovdqu 128(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 160(%rax), %ymm1
vmovdqu 160(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 192(%rax), %ymm1
vmovdqu 192(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 224(%rax), %ymm1
vmovdqu 224(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 256(%rax), %ymm1
vmovdqu 256(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 288(%rax), %ymm1
vmovdqu 288(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 320(%rax), %ymm1
vmovdqu 320(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 352(%rax), %ymm1
vmovdqu 352(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 384(%rax), %ymm1
vmovdqu 384(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 416(%rax), %ymm1
vmovdqu 416(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 448(%rax), %ymm1
vmovdqu 448(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 480(%rax), %ymm1
vmovdqu 480(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 512(%rax), %ymm1
vmovdqu 512(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 544(%rax), %ymm1
vmovdqu 544(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 576(%rax), %ymm1
vmovdqu 576(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 608(%rax), %ymm1
vmovdqu 608(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 640(%rax), %ymm1
vmovdqu 640(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 672(%rax), %ymm1
vmovdqu 672(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 704(%rax), %ymm1
vmovdqu 704(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 736(%rax), %ymm1
vmovdqu 736(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 768(%rax), %ymm1
vmovdqu 768(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 800(%rax), %ymm1
vmovdqu 800(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 832(%rax), %ymm1
vmovdqu 832(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 864(%rax), %ymm1
vmovdqu 864(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 896(%rax), %ymm1
vmovdqu 896(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 928(%rax), %ymm1
vmovdqu 928(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 960(%rax), %ymm1
vmovdqu 960(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 992(%rax), %ymm1
vmovdqu 992(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 1024(%rax), %ymm1
vmovdqu 1024(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 1056(%rax), %ymm1
vmovdqu 1056(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vptest %ymm0, %ymm0
cmovne %rdx, %rcx
negq %rcx
shrq $63, %rcx
movq 17136(%rsp), %rax
addq $64, %rax
addq $2304, %rax
leaq 96(%rsp), %rdx
negq %rcx
movq %rcx, 17136(%rsp)
vpbroadcastq 17136(%rsp), %ymm0
vmovdqu (%rdx), %ymm1
vmovdqu (%rax), %ymm2
vpblendvb %ymm0, %ymm2, %ymm1, %ymm0
vmovdqu %ymm0, (%rdx)
movq $1088, %rdi
leaq 128(%rsp), %rax
leaq -256(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$2(%rip), %rcx
movq %rcx, 224(%rsp)
jmp L_sha3_256$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$2:
leaq 256(%rsp), %rsp
movq 17120(%rsp), %rdx
movq $32, %rcx
leaq 96(%rsp), %rax
leaq -256(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$1(%rip), %rsi
movq %rsi, 224(%rsp)
jmp L_shake256_64$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$1:
leaq 256(%rsp), %rsp
xorq %rax, %rax
movq 17160(%rsp), %rbx
movq 17168(%rsp), %rbp
movq 17176(%rsp), %r12
movq 17184(%rsp), %r13
movq 17192(%rsp), %rsp
ret
_jade_kem_kyber_kyber768_amd64_avx2_enc:
jade_kem_kyber_kyber768_amd64_avx2_enc:
movq %rsp, %rax
leaq -72(%rsp), %rsp
andq $-32, %rsp
movq %rax, 64(%rsp)
movq %rbx, 32(%rsp)
movq %rbp, 40(%rsp)
movq %r12, 48(%rsp)
movq %r13, 56(%rsp)
movq %rdi, %rbp
movq %rsi, %r12
movq %rdx, %rbx
movq %rsp, %rdi
movq $32, %rsi
call __jasmin_syscall_randombytes__
movq %rsp, %rcx
leaq -16064(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_enc$1(%rip), %rax
movq %rax, 16056(%rsp)
jmp L__crypto_kem_enc_derand_jazz$1
Ljade_kem_kyber_kyber768_amd64_avx2_enc$1:
leaq 16064(%rsp), %rsp
xorq %rax, %rax
movq 32(%rsp), %rbx
movq 40(%rsp), %rbp
movq 48(%rsp), %r12
movq 56(%rsp), %r13
movq 64(%rsp), %rsp
ret
_jade_kem_kyber_kyber768_amd64_avx2_enc_derand:
jade_kem_kyber_kyber768_amd64_avx2_enc_derand:
movq %rsp, %rax
leaq -72(%rsp), %rsp
andq $-32, %rsp
movq %rax, 64(%rsp)
movq %rbx, 32(%rsp)
movq %rbp, 40(%rsp)
movq %r12, 48(%rsp)
movq %r13, 56(%rsp)
movq %rdi, %rbp
movq %rsi, %r12
movq %rdx, %rbx
movq %rsp, %rax
movb (%rcx), %dl
movb %dl, (%rax)
movb 1(%rcx), %dl
movb %dl, 1(%rax)
movb 2(%rcx), %dl
movb %dl, 2(%rax)
movb 3(%rcx), %dl
movb %dl, 3(%rax)
movb 4(%rcx), %dl
movb %dl, 4(%rax)
movb 5(%rcx), %dl
movb %dl, 5(%rax)
movb 6(%rcx), %dl
movb %dl, 6(%rax)
movb 7(%rcx), %dl
movb %dl, 7(%rax)
movb 8(%rcx), %dl
movb %dl, 8(%rax)
movb 9(%rcx), %dl
movb %dl, 9(%rax)
movb 10(%rcx), %dl
movb %dl, 10(%rax)
movb 11(%rcx), %dl
movb %dl, 11(%rax)
movb 12(%rcx), %dl
movb %dl, 12(%rax)
movb 13(%rcx), %dl
movb %dl, 13(%rax)
movb 14(%rcx), %dl
movb %dl, 14(%rax)
movb 15(%rcx), %dl
movb %dl, 15(%rax)
movb 16(%rcx), %dl
movb %dl, 16(%rax)
movb 17(%rcx), %dl
movb %dl, 17(%rax)
movb 18(%rcx), %dl
movb %dl, 18(%rax)
movb 19(%rcx), %dl
movb %dl, 19(%rax)
movb 20(%rcx), %dl
movb %dl, 20(%rax)
movb 21(%rcx), %dl
movb %dl, 21(%rax)
movb 22(%rcx), %dl
movb %dl, 22(%rax)
movb 23(%rcx), %dl
movb %dl, 23(%rax)
movb 24(%rcx), %dl
movb %dl, 24(%rax)
movb 25(%rcx), %dl
movb %dl, 25(%rax)
movb 26(%rcx), %dl
movb %dl, 26(%rax)
movb 27(%rcx), %dl
movb %dl, 27(%rax)
movb 28(%rcx), %dl
movb %dl, 28(%rax)
movb 29(%rcx), %dl
movb %dl, 29(%rax)
movb 30(%rcx), %dl
movb %dl, 30(%rax)
movb 31(%rcx), %cl
movb %cl, 31(%rax)
movq %rsp, %rcx
leaq -16064(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_enc_derand$1(%rip), %rax
movq %rax, 16056(%rsp)
jmp L__crypto_kem_enc_derand_jazz$1
Ljade_kem_kyber_kyber768_amd64_avx2_enc_derand$1:
leaq 16064(%rsp), %rsp
xorq %rax, %rax
movq 32(%rsp), %rbx
movq 40(%rsp), %rbp
movq 48(%rsp), %r12
movq 56(%rsp), %r13
movq 64(%rsp), %rsp
ret
_jade_kem_kyber_kyber768_amd64_avx2_keypair:
jade_kem_kyber_kyber768_amd64_avx2_keypair:
movq %rsp, %rax
leaq -104(%rsp), %rsp
andq $-32, %rsp
movq %rax, 96(%rsp)
movq %rbx, 64(%rsp)
movq %rbp, 72(%rsp)
movq %r12, 80(%rsp)
movq %r13, 88(%rsp)
movq %rdi, %rbp
movq %rsi, %rbx
movq %rsp, %rdi
movq $64, %rsi
call __jasmin_syscall_randombytes__
movq %rsp, %rax
leaq -13024(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_keypair$1(%rip), %rcx
movq %rcx, 13000(%rsp)
jmp L__crypto_kem_keypair_derand_jazz$1
Ljade_kem_kyber_kyber768_amd64_avx2_keypair$1:
leaq 13024(%rsp), %rsp
xorq %rax, %rax
movq 64(%rsp), %rbx
movq 72(%rsp), %rbp
movq 80(%rsp), %r12
movq 88(%rsp), %r13
movq 96(%rsp), %rsp
ret
_jade_kem_kyber_kyber768_amd64_avx2_keypair_derand:
jade_kem_kyber_kyber768_amd64_avx2_keypair_derand:
movq %rsp, %rax
leaq -104(%rsp), %rsp
andq $-32, %rsp
movq %rax, 96(%rsp)
movq %rbx, 64(%rsp)
movq %rbp, 72(%rsp)
movq %r12, 80(%rsp)
movq %r13, 88(%rsp)
movq %rdi, %rbp
movq %rsi, %rbx
movq %rsp, %rax
movb (%rdx), %cl
movb %cl, (%rax)
movb 1(%rdx), %cl
movb %cl, 1(%rax)
movb 2(%rdx), %cl
movb %cl, 2(%rax)
movb 3(%rdx), %cl
movb %cl, 3(%rax)
movb 4(%rdx), %cl
movb %cl, 4(%rax)
movb 5(%rdx), %cl
movb %cl, 5(%rax)
movb 6(%rdx), %cl
movb %cl, 6(%rax)
movb 7(%rdx), %cl
movb %cl, 7(%rax)
movb 8(%rdx), %cl
movb %cl, 8(%rax)
movb 9(%rdx), %cl
movb %cl, 9(%rax)
movb 10(%rdx), %cl
movb %cl, 10(%rax)
movb 11(%rdx), %cl
movb %cl, 11(%rax)
movb 12(%rdx), %cl
movb %cl, 12(%rax)
movb 13(%rdx), %cl
movb %cl, 13(%rax)
movb 14(%rdx), %cl
movb %cl, 14(%rax)
movb 15(%rdx), %cl
movb %cl, 15(%rax)
movb 16(%rdx), %cl
movb %cl, 16(%rax)
movb 17(%rdx), %cl
movb %cl, 17(%rax)
movb 18(%rdx), %cl
movb %cl, 18(%rax)
movb 19(%rdx), %cl
movb %cl, 19(%rax)
movb 20(%rdx), %cl
movb %cl, 20(%rax)
movb 21(%rdx), %cl
movb %cl, 21(%rax)
movb 22(%rdx), %cl
movb %cl, 22(%rax)
movb 23(%rdx), %cl
movb %cl, 23(%rax)
movb 24(%rdx), %cl
movb %cl, 24(%rax)
movb 25(%rdx), %cl
movb %cl, 25(%rax)
movb 26(%rdx), %cl
movb %cl, 26(%rax)
movb 27(%rdx), %cl
movb %cl, 27(%rax)
movb 28(%rdx), %cl
movb %cl, 28(%rax)
movb 29(%rdx), %cl
movb %cl, 29(%rax)
movb 30(%rdx), %cl
movb %cl, 30(%rax)
movb 31(%rdx), %cl
movb %cl, 31(%rax)
movb 32(%rdx), %cl
movb %cl, 32(%rax)
movb 33(%rdx), %cl
movb %cl, 33(%rax)
movb 34(%rdx), %cl
movb %cl, 34(%rax)
movb 35(%rdx), %cl
movb %cl, 35(%rax)
movb 36(%rdx), %cl
movb %cl, 36(%rax)
movb 37(%rdx), %cl
movb %cl, 37(%rax)
movb 38(%rdx), %cl
movb %cl, 38(%rax)
movb 39(%rdx), %cl
movb %cl, 39(%rax)
movb 40(%rdx), %cl
movb %cl, 40(%rax)
movb 41(%rdx), %cl
movb %cl, 41(%rax)
movb 42(%rdx), %cl
movb %cl, 42(%rax)
movb 43(%rdx), %cl
movb %cl, 43(%rax)
movb 44(%rdx), %cl
movb %cl, 44(%rax)
movb 45(%rdx), %cl
movb %cl, 45(%rax)
movb 46(%rdx), %cl
movb %cl, 46(%rax)
movb 47(%rdx), %cl
movb %cl, 47(%rax)
movb 48(%rdx), %cl
movb %cl, 48(%rax)
movb 49(%rdx), %cl
movb %cl, 49(%rax)
movb 50(%rdx), %cl
movb %cl, 50(%rax)
movb 51(%rdx), %cl
movb %cl, 51(%rax)
movb 52(%rdx), %cl
movb %cl, 52(%rax)
movb 53(%rdx), %cl
movb %cl, 53(%rax)
movb 54(%rdx), %cl
movb %cl, 54(%rax)
movb 55(%rdx), %cl
movb %cl, 55(%rax)
movb 56(%rdx), %cl
movb %cl, 56(%rax)
movb 57(%rdx), %cl
movb %cl, 57(%rax)
movb 58(%rdx), %cl
movb %cl, 58(%rax)
movb 59(%rdx), %cl
movb %cl, 59(%rax)
movb 60(%rdx), %cl
movb %cl, 60(%rax)
movb 61(%rdx), %cl
movb %cl, 61(%rax)
movb 62(%rdx), %cl
movb %cl, 62(%rax)
movb 63(%rdx), %cl
movb %cl, 63(%rax)
movq %rsp, %rax
leaq -13024(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_keypair_derand$1(%rip), %rcx
movq %rcx, 13000(%rsp)
jmp L__crypto_kem_keypair_derand_jazz$1
Ljade_kem_kyber_kyber768_amd64_avx2_keypair_derand$1:
leaq 13024(%rsp), %rsp
xorq %rax, %rax
movq 64(%rsp), %rbx
movq 72(%rsp), %rbp
movq 80(%rsp), %r12
movq 88(%rsp), %r13
movq 96(%rsp), %rsp
ret
L__crypto_kem_enc_derand_jazz$1:
movq %rbx, 16032(%rsp)
movq %rbp, 16040(%rsp)
movq %r12, 16048(%rsp)
leaq 32(%rsp), %rax
leaq -256(%rsp), %rsp
leaq L__crypto_kem_enc_derand_jazz$133(%rip), %rdx
movq %rdx, 224(%rsp)
jmp L_sha3_256_32$1
L__crypto_kem_enc_derand_jazz$133:
leaq 256(%rsp), %rsp
movq 16032(%rsp), %r8
movq $1184, %rdi
leaq 64(%rsp), %rax
leaq -256(%rsp), %rsp
leaq L__crypto_kem_enc_derand_jazz$132(%rip), %rcx
movq %rcx, 224(%rsp)
jmp L_sha3_256$1
L__crypto_kem_enc_derand_jazz$132:
leaq 256(%rsp), %rsp
leaq 96(%rsp), %rax
leaq 32(%rsp), %rcx
leaq -256(%rsp), %rsp
leaq L__crypto_kem_enc_derand_jazz$131(%rip), %rdx
movq %rdx, 224(%rsp)
jmp L_sha3_512_64$1
L__crypto_kem_enc_derand_jazz$131:
leaq 256(%rsp), %rsp
movq 16032(%rsp), %rcx
leaq 32(%rsp), %rax
leaq 128(%rsp), %rdx
movq %rcx, %rdi
leaq 5280(%rsp), %r8
leaq L__crypto_kem_enc_derand_jazz$130(%rip), %r10
jmp L_poly_frombytes$1
L__crypto_kem_enc_derand_jazz$130:
addq $384, %rdi
leaq 5792(%rsp), %r8
leaq L__crypto_kem_enc_derand_jazz$129(%rip), %r10
jmp L_poly_frombytes$1
L__crypto_kem_enc_derand_jazz$129:
addq $384, %rdi
leaq 6304(%rsp), %r8
leaq L__crypto_kem_enc_derand_jazz$128(%rip), %r10
jmp L_poly_frombytes$1
L__crypto_kem_enc_derand_jazz$128:
movq $0, %rsi
addq $1152, %rcx
jmp L__crypto_kem_enc_derand_jazz$126
L__crypto_kem_enc_derand_jazz$127:
movq (%rcx), %rdi
movq %rdi, (%rsp,%rsi,8)
addq $8, %rcx
incq %rsi
L__crypto_kem_enc_derand_jazz$126:
cmpq $4, %rsi
jb L__crypto_kem_enc_derand_jazz$127
leaq 2432(%rsp), %rcx
leaq L__crypto_kem_enc_derand_jazz$125(%rip), %r8
jmp L_poly_frommsg_1$1
L__crypto_kem_enc_derand_jazz$125:
movq %rdx, 16032(%rsp)
vmovdqu (%rsp), %ymm0
vmovdqu %ymm0, 384(%rsp)
vmovdqu %ymm0, 896(%rsp)
vmovdqu %ymm0, 1408(%rsp)
vmovdqu %ymm0, 1920(%rsp)
vmovdqu %ymm0, (%rsp)
movb $0, 416(%rsp)
movb $0, 417(%rsp)
movb $0, 928(%rsp)
movb $1, 929(%rsp)
movb $0, 1440(%rsp)
movb $2, 1441(%rsp)
movb $1, 1952(%rsp)
movb $0, 1953(%rsp)
leaq 4480(%rsp), %rax
leaq 384(%rsp), %rcx
leaq 896(%rsp), %rdx
leaq 1408(%rsp), %rsi
leaq 1920(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq L__crypto_kem_enc_derand_jazz$124(%rip), %r8
movq %r8, (%rsp)
jmp L_shake128_absorb4x_34$1
L__crypto_kem_enc_derand_jazz$124:
leaq 8(%rsp), %rsp
leaq 4480(%rsp), %rax
leaq 384(%rsp), %rdi
leaq 896(%rsp), %r8
leaq 1408(%rsp), %r9
leaq 1920(%rsp), %r10
movq %rdi, %r11
movq %r8, %rbx
movq %r9, %rbp
movq %r10, %r12
leaq -832(%rsp), %rsp
leaq L__crypto_kem_enc_derand_jazz$123(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
L__crypto_kem_enc_derand_jazz$123:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r11)
vmovhpd %xmm1, (%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbp)
vmovhpd %xmm0, (%r12)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r11)
vmovhpd %xmm1, 8(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbp)
vmovhpd %xmm0, 8(%r12)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r11)
vmovhpd %xmm1, 16(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbp)
vmovhpd %xmm0, 16(%r12)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r11)
vmovhpd %xmm1, 24(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbp)
vmovhpd %xmm0, 24(%r12)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r11)
vmovhpd %xmm1, 32(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbp)
vmovhpd %xmm0, 32(%r12)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r11)
vmovhpd %xmm1, 40(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbp)
vmovhpd %xmm0, 40(%r12)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r11)
vmovhpd %xmm1, 48(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbp)
vmovhpd %xmm0, 48(%r12)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r11)
vmovhpd %xmm1, 56(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbp)
vmovhpd %xmm0, 56(%r12)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r11)
vmovhpd %xmm1, 64(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbp)
vmovhpd %xmm0, 64(%r12)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r11)
vmovhpd %xmm1, 72(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbp)
vmovhpd %xmm0, 72(%r12)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r11)
vmovhpd %xmm1, 80(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbp)
vmovhpd %xmm0, 80(%r12)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r11)
vmovhpd %xmm1, 88(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbp)
vmovhpd %xmm0, 88(%r12)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r11)
vmovhpd %xmm1, 96(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbp)
vmovhpd %xmm0, 96(%r12)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r11)
vmovhpd %xmm1, 104(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbp)
vmovhpd %xmm0, 104(%r12)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r11)
vmovhpd %xmm1, 112(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbp)
vmovhpd %xmm0, 112(%r12)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r11)
vmovhpd %xmm1, 120(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbp)
vmovhpd %xmm0, 120(%r12)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r11)
vmovhpd %xmm1, 128(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbp)
vmovhpd %xmm0, 128(%r12)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%r11)
vmovhpd %xmm1, 136(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%rbp)
vmovhpd %xmm0, 136(%r12)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%r11)
vmovhpd %xmm1, 144(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%rbp)
vmovhpd %xmm0, 144(%r12)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%r11)
vmovhpd %xmm1, 152(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%rbp)
vmovhpd %xmm0, 152(%r12)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%r11)
vmovhpd %xmm1, 160(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%rbp)
vmovhpd %xmm0, 160(%r12)
leaq 168(%rdi), %r11
leaq 168(%r8), %rbx
leaq 168(%r9), %rbp
leaq 168(%r10), %r12
leaq -832(%rsp), %rsp
leaq L__crypto_kem_enc_derand_jazz$122(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
L__crypto_kem_enc_derand_jazz$122:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r11)
vmovhpd %xmm1, (%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbp)
vmovhpd %xmm0, (%r12)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r11)
vmovhpd %xmm1, 8(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbp)
vmovhpd %xmm0, 8(%r12)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r11)
vmovhpd %xmm1, 16(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbp)
vmovhpd %xmm0, 16(%r12)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r11)
vmovhpd %xmm1, 24(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbp)
vmovhpd %xmm0, 24(%r12)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r11)
vmovhpd %xmm1, 32(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbp)
vmovhpd %xmm0, 32(%r12)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r11)
vmovhpd %xmm1, 40(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbp)
vmovhpd %xmm0, 40(%r12)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r11)
vmovhpd %xmm1, 48(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbp)
vmovhpd %xmm0, 48(%r12)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r11)
vmovhpd %xmm1, 56(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbp)
vmovhpd %xmm0, 56(%r12)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r11)
vmovhpd %xmm1, 64(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbp)
vmovhpd %xmm0, 64(%r12)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r11)
vmovhpd %xmm1, 72(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbp)
vmovhpd %xmm0, 72(%r12)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r11)
vmovhpd %xmm1, 80(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbp)
vmovhpd %xmm0, 80(%r12)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r11)
vmovhpd %xmm1, 88(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbp)
vmovhpd %xmm0, 88(%r12)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r11)
vmovhpd %xmm1, 96(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbp)
vmovhpd %xmm0, 96(%r12)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r11)
vmovhpd %xmm1, 104(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbp)
vmovhpd %xmm0, 104(%r12)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r11)
vmovhpd %xmm1, 112(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbp)
vmovhpd %xmm0, 112(%r12)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r11)
vmovhpd %xmm1, 120(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbp)
vmovhpd %xmm0, 120(%r12)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r11)
vmovhpd %xmm1, 128(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbp)
vmovhpd %xmm0, 128(%r12)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%r11)
vmovhpd %xmm1, 136(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%rbp)
vmovhpd %xmm0, 136(%r12)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%r11)
vmovhpd %xmm1, 144(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%rbp)
vmovhpd %xmm0, 144(%r12)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%r11)
vmovhpd %xmm1, 152(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%rbp)
vmovhpd %xmm0, 152(%r12)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%r11)
vmovhpd %xmm1, 160(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%rbp)
vmovhpd %xmm0, 160(%r12)
leaq 336(%rdi), %rdi
leaq 336(%r8), %r8
leaq 336(%r9), %r9
leaq 336(%r10), %r10
leaq -832(%rsp), %rsp
leaq L__crypto_kem_enc_derand_jazz$121(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
L__crypto_kem_enc_derand_jazz$121:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%rdi)
vmovhpd %xmm1, (%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%r9)
vmovhpd %xmm0, (%r10)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%rdi)
vmovhpd %xmm1, 8(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%r9)
vmovhpd %xmm0, 8(%r10)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%rdi)
vmovhpd %xmm1, 16(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%r9)
vmovhpd %xmm0, 16(%r10)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%rdi)
vmovhpd %xmm1, 24(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%r9)
vmovhpd %xmm0, 24(%r10)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%rdi)
vmovhpd %xmm1, 32(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%r9)
vmovhpd %xmm0, 32(%r10)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%rdi)
vmovhpd %xmm1, 40(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%r9)
vmovhpd %xmm0, 40(%r10)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%rdi)
vmovhpd %xmm1, 48(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%r9)
vmovhpd %xmm0, 48(%r10)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%rdi)
vmovhpd %xmm1, 56(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%r9)
vmovhpd %xmm0, 56(%r10)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%rdi)
vmovhpd %xmm1, 64(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%r9)
vmovhpd %xmm0, 64(%r10)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%rdi)
vmovhpd %xmm1, 72(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%r9)
vmovhpd %xmm0, 72(%r10)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%rdi)
vmovhpd %xmm1, 80(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%r9)
vmovhpd %xmm0, 80(%r10)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%rdi)
vmovhpd %xmm1, 88(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%r9)
vmovhpd %xmm0, 88(%r10)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%rdi)
vmovhpd %xmm1, 96(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%r9)
vmovhpd %xmm0, 96(%r10)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%rdi)
vmovhpd %xmm1, 104(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%r9)
vmovhpd %xmm0, 104(%r10)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%rdi)
vmovhpd %xmm1, 112(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%r9)
vmovhpd %xmm0, 112(%r10)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%rdi)
vmovhpd %xmm1, 120(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%r9)
vmovhpd %xmm0, 120(%r10)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%rdi)
vmovhpd %xmm1, 128(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%r9)
vmovhpd %xmm0, 128(%r10)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%rdi)
vmovhpd %xmm1, 136(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%r9)
vmovhpd %xmm0, 136(%r10)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%rdi)
vmovhpd %xmm1, 144(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%r9)
vmovhpd %xmm0, 144(%r10)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%rdi)
vmovhpd %xmm1, 152(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%r9)
vmovhpd %xmm0, 152(%r10)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%rdi)
vmovhpd %xmm1, 160(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%r9)
vmovhpd %xmm0, 160(%r10)
leaq 11424(%rsp), %rbx
leaq 384(%rsp), %rbp
leaq L__crypto_kem_enc_derand_jazz$120(%rip), %r11
jmp L_rej_uniform_avx$1
L__crypto_kem_enc_derand_jazz$120:
movq %r13, %r9
leaq 11936(%rsp), %rbx
leaq 896(%rsp), %rbp
leaq L__crypto_kem_enc_derand_jazz$119(%rip), %r11
jmp L_rej_uniform_avx$1
L__crypto_kem_enc_derand_jazz$119:
movq %r13, %rdi
leaq 12448(%rsp), %rbx
leaq 1408(%rsp), %rbp
leaq L__crypto_kem_enc_derand_jazz$118(%rip), %r11
jmp L_rej_uniform_avx$1
L__crypto_kem_enc_derand_jazz$118:
movq %r13, %r8
leaq 12960(%rsp), %rbx
leaq 1920(%rsp), %rbp
leaq L__crypto_kem_enc_derand_jazz$117(%rip), %r11
jmp L_rej_uniform_avx$1
L__crypto_kem_enc_derand_jazz$117:
cmpq $255, %r9
setbe %al
cmpq $255, %rdi
setbe %cl
orb %cl, %al
cmpq $255, %r8
setbe %cl
cmpq $255, %r13
setbe %dl
orb %dl, %cl
orb %al, %cl
jmp L__crypto_kem_enc_derand_jazz$94
L__crypto_kem_enc_derand_jazz$95:
leaq 4480(%rsp), %rax
leaq 384(%rsp), %r10
leaq 896(%rsp), %r11
leaq 1408(%rsp), %rbx
leaq 1920(%rsp), %rbp
leaq -832(%rsp), %rsp
leaq L__crypto_kem_enc_derand_jazz$116(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
L__crypto_kem_enc_derand_jazz$116:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r10)
vmovhpd %xmm1, (%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbx)
vmovhpd %xmm0, (%rbp)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r10)
vmovhpd %xmm1, 8(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbx)
vmovhpd %xmm0, 8(%rbp)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r10)
vmovhpd %xmm1, 16(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbx)
vmovhpd %xmm0, 16(%rbp)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r10)
vmovhpd %xmm1, 24(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbx)
vmovhpd %xmm0, 24(%rbp)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r10)
vmovhpd %xmm1, 32(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbx)
vmovhpd %xmm0, 32(%rbp)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r10)
vmovhpd %xmm1, 40(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbx)
vmovhpd %xmm0, 40(%rbp)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r10)
vmovhpd %xmm1, 48(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbx)
vmovhpd %xmm0, 48(%rbp)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r10)
vmovhpd %xmm1, 56(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbx)
vmovhpd %xmm0, 56(%rbp)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r10)
vmovhpd %xmm1, 64(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbx)
vmovhpd %xmm0, 64(%rbp)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r10)
vmovhpd %xmm1, 72(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbx)
vmovhpd %xmm0, 72(%rbp)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r10)
vmovhpd %xmm1, 80(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbx)
vmovhpd %xmm0, 80(%rbp)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r10)
vmovhpd %xmm1, 88(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbx)
vmovhpd %xmm0, 88(%rbp)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r10)
vmovhpd %xmm1, 96(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbx)
vmovhpd %xmm0, 96(%rbp)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r10)
vmovhpd %xmm1, 104(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbx)
vmovhpd %xmm0, 104(%rbp)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r10)
vmovhpd %xmm1, 112(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbx)
vmovhpd %xmm0, 112(%rbp)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r10)
vmovhpd %xmm1, 120(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbx)
vmovhpd %xmm0, 120(%rbp)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r10)
vmovhpd %xmm1, 128(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbx)
vmovhpd %xmm0, 128(%rbp)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%r10)
vmovhpd %xmm1, 136(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%rbx)
vmovhpd %xmm0, 136(%rbp)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%r10)
vmovhpd %xmm1, 144(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%rbx)
vmovhpd %xmm0, 144(%rbp)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%r10)
vmovhpd %xmm1, 152(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%rbx)
vmovhpd %xmm0, 152(%rbp)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%r10)
vmovhpd %xmm1, 160(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%rbx)
vmovhpd %xmm0, 160(%rbp)
leaq 11424(%rsp), %rax
leaq 384(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r9
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp L__crypto_kem_enc_derand_jazz$111
L__crypto_kem_enc_derand_jazz$112:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb L__crypto_kem_enc_derand_jazz$115
movw %si, (%rax,%r9,2)
incq %r9
L__crypto_kem_enc_derand_jazz$115:
cmpq $256, %r9
jnb L__crypto_kem_enc_derand_jazz$113
cmpw $3329, %r11w
jnb L__crypto_kem_enc_derand_jazz$113
movw %r11w, (%rax,%r9,2)
incq %r9
L__crypto_kem_enc_derand_jazz$114:
L__crypto_kem_enc_derand_jazz$113:
cmpq $255, %r9
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
L__crypto_kem_enc_derand_jazz$111:
jne L__crypto_kem_enc_derand_jazz$112
leaq 11936(%rsp), %rax
leaq 896(%rsp), %rcx
movq $0, %rdx
cmpq $255, %rdi
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp L__crypto_kem_enc_derand_jazz$106
L__crypto_kem_enc_derand_jazz$107:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb L__crypto_kem_enc_derand_jazz$110
movw %si, (%rax,%rdi,2)
incq %rdi
L__crypto_kem_enc_derand_jazz$110:
cmpq $256, %rdi
jnb L__crypto_kem_enc_derand_jazz$108
cmpw $3329, %r11w
jnb L__crypto_kem_enc_derand_jazz$108
movw %r11w, (%rax,%rdi,2)
incq %rdi
L__crypto_kem_enc_derand_jazz$109:
L__crypto_kem_enc_derand_jazz$108:
cmpq $255, %rdi
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
L__crypto_kem_enc_derand_jazz$106:
jne L__crypto_kem_enc_derand_jazz$107
leaq 12448(%rsp), %rax
leaq 1408(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r8
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp L__crypto_kem_enc_derand_jazz$101
L__crypto_kem_enc_derand_jazz$102:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb L__crypto_kem_enc_derand_jazz$105
movw %si, (%rax,%r8,2)
incq %r8
L__crypto_kem_enc_derand_jazz$105:
cmpq $256, %r8
jnb L__crypto_kem_enc_derand_jazz$103
cmpw $3329, %r11w
jnb L__crypto_kem_enc_derand_jazz$103
movw %r11w, (%rax,%r8,2)
incq %r8
L__crypto_kem_enc_derand_jazz$104:
L__crypto_kem_enc_derand_jazz$103:
cmpq $255, %r8
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
L__crypto_kem_enc_derand_jazz$101:
jne L__crypto_kem_enc_derand_jazz$102
leaq 12960(%rsp), %rax
leaq 1920(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r13
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp L__crypto_kem_enc_derand_jazz$96
L__crypto_kem_enc_derand_jazz$97:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb L__crypto_kem_enc_derand_jazz$100
movw %si, (%rax,%r13,2)
incq %r13
L__crypto_kem_enc_derand_jazz$100:
cmpq $256, %r13
jnb L__crypto_kem_enc_derand_jazz$98
cmpw $3329, %r11w
jnb L__crypto_kem_enc_derand_jazz$98
movw %r11w, (%rax,%r13,2)
incq %r13
L__crypto_kem_enc_derand_jazz$99:
L__crypto_kem_enc_derand_jazz$98:
cmpq $255, %r13
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
L__crypto_kem_enc_derand_jazz$96:
jne L__crypto_kem_enc_derand_jazz$97
cmpq $255, %r9
setbe %al
cmpq $255, %rdi
setbe %cl
orb %cl, %al
cmpq $255, %r8
setbe %cl
cmpq $255, %r13
setbe %dl
orb %dl, %cl
orb %al, %cl
L__crypto_kem_enc_derand_jazz$94:
jne L__crypto_kem_enc_derand_jazz$95
vmovdqu (%rsp), %ymm0
vmovdqu %ymm0, 384(%rsp)
vmovdqu %ymm0, 896(%rsp)
vmovdqu %ymm0, 1408(%rsp)
vmovdqu %ymm0, 1920(%rsp)
vmovdqu %ymm0, (%rsp)
movb $1, 416(%rsp)
movb $1, 417(%rsp)
movb $1, 928(%rsp)
movb $2, 929(%rsp)
movb $2, 1440(%rsp)
movb $0, 1441(%rsp)
movb $2, 1952(%rsp)
movb $1, 1953(%rsp)
leaq 4480(%rsp), %rax
leaq 384(%rsp), %rcx
leaq 896(%rsp), %rdx
leaq 1408(%rsp), %rsi
leaq 1920(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq L__crypto_kem_enc_derand_jazz$93(%rip), %r8
movq %r8, (%rsp)
jmp L_shake128_absorb4x_34$1
L__crypto_kem_enc_derand_jazz$93:
leaq 8(%rsp), %rsp
leaq 4480(%rsp), %rax
leaq 384(%rsp), %rdi
leaq 896(%rsp), %r8
leaq 1408(%rsp), %r9
leaq 1920(%rsp), %r10
movq %rdi, %r11
movq %r8, %rbx
movq %r9, %rbp
movq %r10, %r12
leaq -832(%rsp), %rsp
leaq L__crypto_kem_enc_derand_jazz$92(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
L__crypto_kem_enc_derand_jazz$92:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r11)
vmovhpd %xmm1, (%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbp)
vmovhpd %xmm0, (%r12)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r11)
vmovhpd %xmm1, 8(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbp)
vmovhpd %xmm0, 8(%r12)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r11)
vmovhpd %xmm1, 16(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbp)
vmovhpd %xmm0, 16(%r12)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r11)
vmovhpd %xmm1, 24(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbp)
vmovhpd %xmm0, 24(%r12)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r11)
vmovhpd %xmm1, 32(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbp)
vmovhpd %xmm0, 32(%r12)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r11)
vmovhpd %xmm1, 40(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbp)
vmovhpd %xmm0, 40(%r12)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r11)
vmovhpd %xmm1, 48(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbp)
vmovhpd %xmm0, 48(%r12)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r11)
vmovhpd %xmm1, 56(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbp)
vmovhpd %xmm0, 56(%r12)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r11)
vmovhpd %xmm1, 64(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbp)
vmovhpd %xmm0, 64(%r12)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r11)
vmovhpd %xmm1, 72(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbp)
vmovhpd %xmm0, 72(%r12)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r11)
vmovhpd %xmm1, 80(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbp)
vmovhpd %xmm0, 80(%r12)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r11)
vmovhpd %xmm1, 88(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbp)
vmovhpd %xmm0, 88(%r12)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r11)
vmovhpd %xmm1, 96(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbp)
vmovhpd %xmm0, 96(%r12)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r11)
vmovhpd %xmm1, 104(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbp)
vmovhpd %xmm0, 104(%r12)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r11)
vmovhpd %xmm1, 112(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbp)
vmovhpd %xmm0, 112(%r12)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r11)
vmovhpd %xmm1, 120(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbp)
vmovhpd %xmm0, 120(%r12)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r11)
vmovhpd %xmm1, 128(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbp)
vmovhpd %xmm0, 128(%r12)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%r11)
vmovhpd %xmm1, 136(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%rbp)
vmovhpd %xmm0, 136(%r12)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%r11)
vmovhpd %xmm1, 144(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%rbp)
vmovhpd %xmm0, 144(%r12)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%r11)
vmovhpd %xmm1, 152(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%rbp)
vmovhpd %xmm0, 152(%r12)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%r11)
vmovhpd %xmm1, 160(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%rbp)
vmovhpd %xmm0, 160(%r12)
leaq 168(%rdi), %r11
leaq 168(%r8), %rbx
leaq 168(%r9), %rbp
leaq 168(%r10), %r12
leaq -832(%rsp), %rsp
leaq L__crypto_kem_enc_derand_jazz$91(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
L__crypto_kem_enc_derand_jazz$91:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r11)
vmovhpd %xmm1, (%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbp)
vmovhpd %xmm0, (%r12)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r11)
vmovhpd %xmm1, 8(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbp)
vmovhpd %xmm0, 8(%r12)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r11)
vmovhpd %xmm1, 16(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbp)
vmovhpd %xmm0, 16(%r12)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r11)
vmovhpd %xmm1, 24(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbp)
vmovhpd %xmm0, 24(%r12)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r11)
vmovhpd %xmm1, 32(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbp)
vmovhpd %xmm0, 32(%r12)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r11)
vmovhpd %xmm1, 40(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbp)
vmovhpd %xmm0, 40(%r12)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r11)
vmovhpd %xmm1, 48(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbp)
vmovhpd %xmm0, 48(%r12)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r11)
vmovhpd %xmm1, 56(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbp)
vmovhpd %xmm0, 56(%r12)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r11)
vmovhpd %xmm1, 64(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbp)
vmovhpd %xmm0, 64(%r12)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r11)
vmovhpd %xmm1, 72(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbp)
vmovhpd %xmm0, 72(%r12)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r11)
vmovhpd %xmm1, 80(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbp)
vmovhpd %xmm0, 80(%r12)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r11)
vmovhpd %xmm1, 88(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbp)
vmovhpd %xmm0, 88(%r12)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r11)
vmovhpd %xmm1, 96(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbp)
vmovhpd %xmm0, 96(%r12)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r11)
vmovhpd %xmm1, 104(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbp)
vmovhpd %xmm0, 104(%r12)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r11)
vmovhpd %xmm1, 112(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbp)
vmovhpd %xmm0, 112(%r12)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r11)
vmovhpd %xmm1, 120(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbp)
vmovhpd %xmm0, 120(%r12)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r11)
vmovhpd %xmm1, 128(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbp)
vmovhpd %xmm0, 128(%r12)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%r11)
vmovhpd %xmm1, 136(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%rbp)
vmovhpd %xmm0, 136(%r12)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%r11)
vmovhpd %xmm1, 144(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%rbp)
vmovhpd %xmm0, 144(%r12)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%r11)
vmovhpd %xmm1, 152(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%rbp)
vmovhpd %xmm0, 152(%r12)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%r11)
vmovhpd %xmm1, 160(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%rbp)
vmovhpd %xmm0, 160(%r12)
leaq 336(%rdi), %rdi
leaq 336(%r8), %r8
leaq 336(%r9), %r9
leaq 336(%r10), %r10
leaq -832(%rsp), %rsp
leaq L__crypto_kem_enc_derand_jazz$90(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
L__crypto_kem_enc_derand_jazz$90:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%rdi)
vmovhpd %xmm1, (%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%r9)
vmovhpd %xmm0, (%r10)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%rdi)
vmovhpd %xmm1, 8(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%r9)
vmovhpd %xmm0, 8(%r10)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%rdi)
vmovhpd %xmm1, 16(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%r9)
vmovhpd %xmm0, 16(%r10)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%rdi)
vmovhpd %xmm1, 24(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%r9)
vmovhpd %xmm0, 24(%r10)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%rdi)
vmovhpd %xmm1, 32(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%r9)
vmovhpd %xmm0, 32(%r10)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%rdi)
vmovhpd %xmm1, 40(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%r9)
vmovhpd %xmm0, 40(%r10)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%rdi)
vmovhpd %xmm1, 48(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%r9)
vmovhpd %xmm0, 48(%r10)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%rdi)
vmovhpd %xmm1, 56(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%r9)
vmovhpd %xmm0, 56(%r10)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%rdi)
vmovhpd %xmm1, 64(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%r9)
vmovhpd %xmm0, 64(%r10)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%rdi)
vmovhpd %xmm1, 72(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%r9)
vmovhpd %xmm0, 72(%r10)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%rdi)
vmovhpd %xmm1, 80(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%r9)
vmovhpd %xmm0, 80(%r10)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%rdi)
vmovhpd %xmm1, 88(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%r9)
vmovhpd %xmm0, 88(%r10)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%rdi)
vmovhpd %xmm1, 96(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%r9)
vmovhpd %xmm0, 96(%r10)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%rdi)
vmovhpd %xmm1, 104(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%r9)
vmovhpd %xmm0, 104(%r10)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%rdi)
vmovhpd %xmm1, 112(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%r9)
vmovhpd %xmm0, 112(%r10)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%rdi)
vmovhpd %xmm1, 120(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%r9)
vmovhpd %xmm0, 120(%r10)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%rdi)
vmovhpd %xmm1, 128(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%r9)
vmovhpd %xmm0, 128(%r10)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%rdi)
vmovhpd %xmm1, 136(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%r9)
vmovhpd %xmm0, 136(%r10)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%rdi)
vmovhpd %xmm1, 144(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%r9)
vmovhpd %xmm0, 144(%r10)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%rdi)
vmovhpd %xmm1, 152(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%r9)
vmovhpd %xmm0, 152(%r10)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%rdi)
vmovhpd %xmm1, 160(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%r9)
vmovhpd %xmm0, 160(%r10)
leaq 13472(%rsp), %rbx
leaq 384(%rsp), %rbp
leaq L__crypto_kem_enc_derand_jazz$89(%rip), %r11
jmp L_rej_uniform_avx$1
L__crypto_kem_enc_derand_jazz$89:
movq %r13, %rdi
leaq 13984(%rsp), %rbx
leaq 896(%rsp), %rbp
leaq L__crypto_kem_enc_derand_jazz$88(%rip), %r11
jmp L_rej_uniform_avx$1
L__crypto_kem_enc_derand_jazz$88:
movq %r13, %r8
leaq 14496(%rsp), %rbx
leaq 1408(%rsp), %rbp
leaq L__crypto_kem_enc_derand_jazz$87(%rip), %r11
jmp L_rej_uniform_avx$1
L__crypto_kem_enc_derand_jazz$87:
movq %r13, %r9
leaq 15008(%rsp), %rbx
leaq 1920(%rsp), %rbp
leaq L__crypto_kem_enc_derand_jazz$86(%rip), %r11
jmp L_rej_uniform_avx$1
L__crypto_kem_enc_derand_jazz$86:
cmpq $255, %rdi
setbe %al
cmpq $255, %r8
setbe %cl
orb %cl, %al
cmpq $255, %r9
setbe %cl
cmpq $255, %r13
setbe %dl
orb %dl, %cl
orb %al, %cl
jmp L__crypto_kem_enc_derand_jazz$63
L__crypto_kem_enc_derand_jazz$64:
leaq 4480(%rsp), %rax
leaq 384(%rsp), %r10
leaq 896(%rsp), %r11
leaq 1408(%rsp), %rbx
leaq 1920(%rsp), %rbp
leaq -832(%rsp), %rsp
leaq L__crypto_kem_enc_derand_jazz$85(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
L__crypto_kem_enc_derand_jazz$85:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r10)
vmovhpd %xmm1, (%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbx)
vmovhpd %xmm0, (%rbp)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r10)
vmovhpd %xmm1, 8(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbx)
vmovhpd %xmm0, 8(%rbp)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r10)
vmovhpd %xmm1, 16(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbx)
vmovhpd %xmm0, 16(%rbp)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r10)
vmovhpd %xmm1, 24(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbx)
vmovhpd %xmm0, 24(%rbp)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r10)
vmovhpd %xmm1, 32(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbx)
vmovhpd %xmm0, 32(%rbp)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r10)
vmovhpd %xmm1, 40(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbx)
vmovhpd %xmm0, 40(%rbp)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r10)
vmovhpd %xmm1, 48(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbx)
vmovhpd %xmm0, 48(%rbp)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r10)
vmovhpd %xmm1, 56(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbx)
vmovhpd %xmm0, 56(%rbp)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r10)
vmovhpd %xmm1, 64(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbx)
vmovhpd %xmm0, 64(%rbp)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r10)
vmovhpd %xmm1, 72(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbx)
vmovhpd %xmm0, 72(%rbp)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r10)
vmovhpd %xmm1, 80(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbx)
vmovhpd %xmm0, 80(%rbp)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r10)
vmovhpd %xmm1, 88(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbx)
vmovhpd %xmm0, 88(%rbp)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r10)
vmovhpd %xmm1, 96(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbx)
vmovhpd %xmm0, 96(%rbp)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r10)
vmovhpd %xmm1, 104(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbx)
vmovhpd %xmm0, 104(%rbp)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r10)
vmovhpd %xmm1, 112(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbx)
vmovhpd %xmm0, 112(%rbp)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r10)
vmovhpd %xmm1, 120(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbx)
vmovhpd %xmm0, 120(%rbp)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r10)
vmovhpd %xmm1, 128(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbx)
vmovhpd %xmm0, 128(%rbp)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%r10)
vmovhpd %xmm1, 136(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%rbx)
vmovhpd %xmm0, 136(%rbp)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%r10)
vmovhpd %xmm1, 144(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%rbx)
vmovhpd %xmm0, 144(%rbp)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%r10)
vmovhpd %xmm1, 152(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%rbx)
vmovhpd %xmm0, 152(%rbp)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%r10)
vmovhpd %xmm1, 160(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%rbx)
vmovhpd %xmm0, 160(%rbp)
leaq 13472(%rsp), %rax
leaq 384(%rsp), %rcx
movq $0, %rdx
cmpq $255, %rdi
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp L__crypto_kem_enc_derand_jazz$80
L__crypto_kem_enc_derand_jazz$81:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb L__crypto_kem_enc_derand_jazz$84
movw %si, (%rax,%rdi,2)
incq %rdi
L__crypto_kem_enc_derand_jazz$84:
cmpq $256, %rdi
jnb L__crypto_kem_enc_derand_jazz$82
cmpw $3329, %r11w
jnb L__crypto_kem_enc_derand_jazz$82
movw %r11w, (%rax,%rdi,2)
incq %rdi
L__crypto_kem_enc_derand_jazz$83:
L__crypto_kem_enc_derand_jazz$82:
cmpq $255, %rdi
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
L__crypto_kem_enc_derand_jazz$80:
jne L__crypto_kem_enc_derand_jazz$81
leaq 13984(%rsp), %rax
leaq 896(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r8
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp L__crypto_kem_enc_derand_jazz$75
L__crypto_kem_enc_derand_jazz$76:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb L__crypto_kem_enc_derand_jazz$79
movw %si, (%rax,%r8,2)
incq %r8
L__crypto_kem_enc_derand_jazz$79:
cmpq $256, %r8
jnb L__crypto_kem_enc_derand_jazz$77
cmpw $3329, %r11w
jnb L__crypto_kem_enc_derand_jazz$77
movw %r11w, (%rax,%r8,2)
incq %r8
L__crypto_kem_enc_derand_jazz$78:
L__crypto_kem_enc_derand_jazz$77:
cmpq $255, %r8
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
L__crypto_kem_enc_derand_jazz$75:
jne L__crypto_kem_enc_derand_jazz$76
leaq 14496(%rsp), %rax
leaq 1408(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r9
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp L__crypto_kem_enc_derand_jazz$70
L__crypto_kem_enc_derand_jazz$71:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb L__crypto_kem_enc_derand_jazz$74
movw %si, (%rax,%r9,2)
incq %r9
L__crypto_kem_enc_derand_jazz$74:
cmpq $256, %r9
jnb L__crypto_kem_enc_derand_jazz$72
cmpw $3329, %r11w
jnb L__crypto_kem_enc_derand_jazz$72
movw %r11w, (%rax,%r9,2)
incq %r9
L__crypto_kem_enc_derand_jazz$73:
L__crypto_kem_enc_derand_jazz$72:
cmpq $255, %r9
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
L__crypto_kem_enc_derand_jazz$70:
jne L__crypto_kem_enc_derand_jazz$71
leaq 15008(%rsp), %rax
leaq 1920(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r13
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp L__crypto_kem_enc_derand_jazz$65
L__crypto_kem_enc_derand_jazz$66:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb L__crypto_kem_enc_derand_jazz$69
movw %si, (%rax,%r13,2)
incq %r13
L__crypto_kem_enc_derand_jazz$69:
cmpq $256, %r13
jnb L__crypto_kem_enc_derand_jazz$67
cmpw $3329, %r11w
jnb L__crypto_kem_enc_derand_jazz$67
movw %r11w, (%rax,%r13,2)
incq %r13
L__crypto_kem_enc_derand_jazz$68:
L__crypto_kem_enc_derand_jazz$67:
cmpq $255, %r13
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
L__crypto_kem_enc_derand_jazz$65:
jne L__crypto_kem_enc_derand_jazz$66
cmpq $255, %rdi
setbe %al
cmpq $255, %r8
setbe %cl
orb %cl, %al
cmpq $255, %r9
setbe %cl
cmpq $255, %r13
setbe %dl
orb %dl, %cl
orb %al, %cl
L__crypto_kem_enc_derand_jazz$63:
jne L__crypto_kem_enc_derand_jazz$64
vmovdqu (%rsp), %ymm0
vmovdqu %ymm0, 384(%rsp)
movb $2, 416(%rsp)
movb $2, 417(%rsp)
leaq 384(%rsp), %rax
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 160(%rsp)
vmovdqu %ymm0, 192(%rsp)
vmovdqu %ymm0, 224(%rsp)
vmovdqu %ymm0, 256(%rsp)
vmovdqu %ymm0, 288(%rsp)
vmovdqu %ymm0, 320(%rsp)
vmovdqu %ymm0, 352(%rsp)
vpbroadcastq (%rax), %ymm5
movq 8(%rax), %rcx
movq glob_data + 6208(%rip), %rdx
movq %rcx, 160(%rsp,%rdx,8)
movq 16(%rax), %rcx
movq glob_data + 6216(%rip), %rdx
movq %rcx, 160(%rsp,%rdx,8)
movq 24(%rax), %rcx
movq glob_data + 6224(%rip), %rdx
movq %rcx, 160(%rsp,%rdx,8)
movb 32(%rax), %cl
movq glob_data + 6232(%rip), %rdx
shlq $3, %rdx
movb %cl, 160(%rsp,%rdx)
movb 33(%rax), %al
incq %rdx
movb %al, 160(%rsp,%rdx)
incq %rdx
movb $31, 160(%rsp,%rdx)
movq glob_data + 6360(%rip), %rax
shlq $3, %rax
movq $167, %rcx
andq $7, %rcx
addq %rcx, %rax
movb $-128, 160(%rsp,%rax)
vmovdqu 192(%rsp), %ymm0
vmovdqu 224(%rsp), %ymm1
vmovdqu 256(%rsp), %ymm2
vmovdqu 288(%rsp), %ymm6
vmovdqu 320(%rsp), %ymm3
vmovdqu 352(%rsp), %ymm4
leaq 384(%rsp), %rax
leaq glob_data + 3328(%rip), %rcx
movq $0, %rdx
leaq glob_data + 3136(%rip), %rsi
leaq glob_data + 2944(%rip), %rdi
movq $24, %r8
L__crypto_kem_enc_derand_jazz$62:
vpshufd $78, %ymm1, %ymm8
vpxor %ymm2, %ymm3, %ymm7
vpxor %ymm4, %ymm6, %ymm9
vpxor %ymm0, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm1, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm5, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm1, %ymm1
vpxor %ymm11, %ymm5, %ymm5
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm1, %ymm7
vpsrlvq (%rdi), %ymm1, %ymm1
vpor %ymm7, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpsllvq 64(%rsi), %ymm2, %ymm7
vpsrlvq 64(%rdi), %ymm2, %ymm2
vpor %ymm7, %ymm2, %ymm2
vpxor %ymm9, %ymm6, %ymm6
vpsllvq 96(%rsi), %ymm6, %ymm7
vpsrlvq 96(%rdi), %ymm6, %ymm6
vpor %ymm7, %ymm6, %ymm10
vpxor %ymm9, %ymm3, %ymm3
vpsllvq 128(%rsi), %ymm3, %ymm6
vpsrlvq 128(%rdi), %ymm3, %ymm3
vpor %ymm6, %ymm3, %ymm3
vpxor %ymm9, %ymm4, %ymm4
vpermq $-115, %ymm1, %ymm6
vpermq $-115, %ymm2, %ymm7
vpsllvq 160(%rsi), %ymm4, %ymm1
vpsrlvq 160(%rdi), %ymm4, %ymm2
vpor %ymm1, %ymm2, %ymm8
vpxor %ymm9, %ymm0, %ymm1
vpermq $27, %ymm10, %ymm0
vpermq $114, %ymm3, %ymm9
vpsllvq 32(%rsi), %ymm1, %ymm2
vpsrlvq 32(%rdi), %ymm1, %ymm1
vpor %ymm2, %ymm1, %ymm10
vpsrldq $8, %ymm8, %ymm1
vpandn %ymm1, %ymm8, %ymm2
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm3
vpblendd $12, %ymm7, %ymm6, %ymm4
vpblendd $12, %ymm6, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm0, %ymm3, %ymm3
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm0, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm3, %ymm3
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm3, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm4
vpblendd $12, %ymm10, %ymm0, %ymm11
vpblendd $12, %ymm0, %ymm6, %ymm12
vpxor %ymm6, %ymm1, %ymm3
vpblendd $48, %ymm6, %ymm11, %ymm1
vpblendd $48, %ymm7, %ymm12, %ymm11
vpxor %ymm0, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm1, %ymm1
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm1, %ymm1
vpxor %ymm9, %ymm1, %ymm12
vpermq $30, %ymm8, %ymm1
vpblendd $48, %ymm5, %ymm1, %ymm1
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm5, %ymm11, %ymm11
vpandn %ymm1, %ymm11, %ymm11
vpblendd $12, %ymm0, %ymm7, %ymm1
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm1, %ymm1
vpblendd $48, %ymm6, %ymm13, %ymm13
vpblendd $-64, %ymm6, %ymm1, %ymm1
vpblendd $-64, %ymm0, %ymm13, %ymm13
vpandn %ymm13, %ymm1, %ymm1
vpxor %ymm10, %ymm1, %ymm1
vpermq $0, %ymm2, %ymm13
vpermq $27, %ymm3, %ymm2
vpermq $-115, %ymm4, %ymm3
vpermq $114, %ymm12, %ymm4
vpblendd $12, %ymm6, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm0, %ymm9
vpblendd $48, %ymm0, %ymm12, %ymm0
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm0, %ymm0
vpblendd $-64, %ymm6, %ymm9, %ymm6
vpandn %ymm6, %ymm0, %ymm6
vpxor %ymm13, %ymm5, %ymm5
vpxor %ymm8, %ymm11, %ymm0
vpxor %ymm7, %ymm6, %ymm6
vpxor (%rcx,%rdx), %ymm5, %ymm5
addq $32, %rdx
decq %r8
jne L__crypto_kem_enc_derand_jazz$62
vmovdqu %ymm5, 160(%rsp)
vmovdqu %ymm0, 192(%rsp)
vmovdqu %ymm1, 224(%rsp)
vmovdqu %ymm2, 256(%rsp)
vmovdqu %ymm6, 288(%rsp)
vmovdqu %ymm3, 320(%rsp)
vmovdqu %ymm4, 352(%rsp)
movq glob_data + 6200(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, (%rax)
movq glob_data + 6208(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 8(%rax)
movq glob_data + 6216(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 16(%rax)
movq glob_data + 6224(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 24(%rax)
movq glob_data + 6232(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 32(%rax)
movq glob_data + 6240(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 40(%rax)
movq glob_data + 6248(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 48(%rax)
movq glob_data + 6256(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 56(%rax)
movq glob_data + 6264(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 64(%rax)
movq glob_data + 6272(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 72(%rax)
movq glob_data + 6280(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 80(%rax)
movq glob_data + 6288(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 88(%rax)
movq glob_data + 6296(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 96(%rax)
movq glob_data + 6304(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 104(%rax)
movq glob_data + 6312(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 112(%rax)
movq glob_data + 6320(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 120(%rax)
movq glob_data + 6328(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 128(%rax)
movq glob_data + 6336(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 136(%rax)
movq glob_data + 6344(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 144(%rax)
movq glob_data + 6352(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 152(%rax)
movq glob_data + 6360(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 160(%rax)
leaq 552(%rsp), %rax
leaq glob_data + 3328(%rip), %rcx
movq $0, %rdx
leaq glob_data + 3136(%rip), %rsi
leaq glob_data + 2944(%rip), %rdi
movq $24, %r8
L__crypto_kem_enc_derand_jazz$61:
vpshufd $78, %ymm1, %ymm8
vpxor %ymm2, %ymm3, %ymm7
vpxor %ymm4, %ymm6, %ymm9
vpxor %ymm0, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm1, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm5, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm1, %ymm1
vpxor %ymm11, %ymm5, %ymm5
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm1, %ymm7
vpsrlvq (%rdi), %ymm1, %ymm1
vpor %ymm7, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpsllvq 64(%rsi), %ymm2, %ymm7
vpsrlvq 64(%rdi), %ymm2, %ymm2
vpor %ymm7, %ymm2, %ymm2
vpxor %ymm9, %ymm6, %ymm6
vpsllvq 96(%rsi), %ymm6, %ymm7
vpsrlvq 96(%rdi), %ymm6, %ymm6
vpor %ymm7, %ymm6, %ymm10
vpxor %ymm9, %ymm3, %ymm3
vpsllvq 128(%rsi), %ymm3, %ymm6
vpsrlvq 128(%rdi), %ymm3, %ymm3
vpor %ymm6, %ymm3, %ymm3
vpxor %ymm9, %ymm4, %ymm4
vpermq $-115, %ymm1, %ymm6
vpermq $-115, %ymm2, %ymm7
vpsllvq 160(%rsi), %ymm4, %ymm1
vpsrlvq 160(%rdi), %ymm4, %ymm2
vpor %ymm1, %ymm2, %ymm8
vpxor %ymm9, %ymm0, %ymm1
vpermq $27, %ymm10, %ymm0
vpermq $114, %ymm3, %ymm9
vpsllvq 32(%rsi), %ymm1, %ymm2
vpsrlvq 32(%rdi), %ymm1, %ymm1
vpor %ymm2, %ymm1, %ymm10
vpsrldq $8, %ymm8, %ymm1
vpandn %ymm1, %ymm8, %ymm2
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm3
vpblendd $12, %ymm7, %ymm6, %ymm4
vpblendd $12, %ymm6, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm0, %ymm3, %ymm3
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm0, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm3, %ymm3
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm3, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm4
vpblendd $12, %ymm10, %ymm0, %ymm11
vpblendd $12, %ymm0, %ymm6, %ymm12
vpxor %ymm6, %ymm1, %ymm3
vpblendd $48, %ymm6, %ymm11, %ymm1
vpblendd $48, %ymm7, %ymm12, %ymm11
vpxor %ymm0, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm1, %ymm1
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm1, %ymm1
vpxor %ymm9, %ymm1, %ymm12
vpermq $30, %ymm8, %ymm1
vpblendd $48, %ymm5, %ymm1, %ymm1
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm5, %ymm11, %ymm11
vpandn %ymm1, %ymm11, %ymm11
vpblendd $12, %ymm0, %ymm7, %ymm1
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm1, %ymm1
vpblendd $48, %ymm6, %ymm13, %ymm13
vpblendd $-64, %ymm6, %ymm1, %ymm1
vpblendd $-64, %ymm0, %ymm13, %ymm13
vpandn %ymm13, %ymm1, %ymm1
vpxor %ymm10, %ymm1, %ymm1
vpermq $0, %ymm2, %ymm13
vpermq $27, %ymm3, %ymm2
vpermq $-115, %ymm4, %ymm3
vpermq $114, %ymm12, %ymm4
vpblendd $12, %ymm6, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm0, %ymm9
vpblendd $48, %ymm0, %ymm12, %ymm0
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm0, %ymm0
vpblendd $-64, %ymm6, %ymm9, %ymm6
vpandn %ymm6, %ymm0, %ymm6
vpxor %ymm13, %ymm5, %ymm5
vpxor %ymm8, %ymm11, %ymm0
vpxor %ymm7, %ymm6, %ymm6
vpxor (%rcx,%rdx), %ymm5, %ymm5
addq $32, %rdx
decq %r8
jne L__crypto_kem_enc_derand_jazz$61
vmovdqu %ymm5, 160(%rsp)
vmovdqu %ymm0, 192(%rsp)
vmovdqu %ymm1, 224(%rsp)
vmovdqu %ymm2, 256(%rsp)
vmovdqu %ymm6, 288(%rsp)
vmovdqu %ymm3, 320(%rsp)
vmovdqu %ymm4, 352(%rsp)
movq glob_data + 6200(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, (%rax)
movq glob_data + 6208(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 8(%rax)
movq glob_data + 6216(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 16(%rax)
movq glob_data + 6224(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 24(%rax)
movq glob_data + 6232(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 32(%rax)
movq glob_data + 6240(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 40(%rax)
movq glob_data + 6248(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 48(%rax)
movq glob_data + 6256(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 56(%rax)
movq glob_data + 6264(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 64(%rax)
movq glob_data + 6272(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 72(%rax)
movq glob_data + 6280(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 80(%rax)
movq glob_data + 6288(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 88(%rax)
movq glob_data + 6296(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 96(%rax)
movq glob_data + 6304(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 104(%rax)
movq glob_data + 6312(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 112(%rax)
movq glob_data + 6320(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 120(%rax)
movq glob_data + 6328(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 128(%rax)
movq glob_data + 6336(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 136(%rax)
movq glob_data + 6344(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 144(%rax)
movq glob_data + 6352(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 152(%rax)
movq glob_data + 6360(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 160(%rax)
leaq 720(%rsp), %rax
leaq glob_data + 3328(%rip), %rcx
movq $0, %rdx
leaq glob_data + 3136(%rip), %rsi
leaq glob_data + 2944(%rip), %rdi
movq $24, %r8
L__crypto_kem_enc_derand_jazz$60:
vpshufd $78, %ymm1, %ymm8
vpxor %ymm2, %ymm3, %ymm7
vpxor %ymm4, %ymm6, %ymm9
vpxor %ymm0, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm1, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm5, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm1, %ymm1
vpxor %ymm11, %ymm5, %ymm5
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm1, %ymm7
vpsrlvq (%rdi), %ymm1, %ymm1
vpor %ymm7, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpsllvq 64(%rsi), %ymm2, %ymm7
vpsrlvq 64(%rdi), %ymm2, %ymm2
vpor %ymm7, %ymm2, %ymm2
vpxor %ymm9, %ymm6, %ymm6
vpsllvq 96(%rsi), %ymm6, %ymm7
vpsrlvq 96(%rdi), %ymm6, %ymm6
vpor %ymm7, %ymm6, %ymm10
vpxor %ymm9, %ymm3, %ymm3
vpsllvq 128(%rsi), %ymm3, %ymm6
vpsrlvq 128(%rdi), %ymm3, %ymm3
vpor %ymm6, %ymm3, %ymm3
vpxor %ymm9, %ymm4, %ymm4
vpermq $-115, %ymm1, %ymm6
vpermq $-115, %ymm2, %ymm7
vpsllvq 160(%rsi), %ymm4, %ymm1
vpsrlvq 160(%rdi), %ymm4, %ymm2
vpor %ymm1, %ymm2, %ymm8
vpxor %ymm9, %ymm0, %ymm1
vpermq $27, %ymm10, %ymm0
vpermq $114, %ymm3, %ymm9
vpsllvq 32(%rsi), %ymm1, %ymm2
vpsrlvq 32(%rdi), %ymm1, %ymm1
vpor %ymm2, %ymm1, %ymm10
vpsrldq $8, %ymm8, %ymm1
vpandn %ymm1, %ymm8, %ymm2
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm3
vpblendd $12, %ymm7, %ymm6, %ymm4
vpblendd $12, %ymm6, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm0, %ymm3, %ymm3
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm0, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm3, %ymm3
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm3, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm4
vpblendd $12, %ymm10, %ymm0, %ymm11
vpblendd $12, %ymm0, %ymm6, %ymm12
vpxor %ymm6, %ymm1, %ymm3
vpblendd $48, %ymm6, %ymm11, %ymm1
vpblendd $48, %ymm7, %ymm12, %ymm11
vpxor %ymm0, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm1, %ymm1
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm1, %ymm1
vpxor %ymm9, %ymm1, %ymm12
vpermq $30, %ymm8, %ymm1
vpblendd $48, %ymm5, %ymm1, %ymm1
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm5, %ymm11, %ymm11
vpandn %ymm1, %ymm11, %ymm11
vpblendd $12, %ymm0, %ymm7, %ymm1
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm1, %ymm1
vpblendd $48, %ymm6, %ymm13, %ymm13
vpblendd $-64, %ymm6, %ymm1, %ymm1
vpblendd $-64, %ymm0, %ymm13, %ymm13
vpandn %ymm13, %ymm1, %ymm1
vpxor %ymm10, %ymm1, %ymm1
vpermq $0, %ymm2, %ymm13
vpermq $27, %ymm3, %ymm2
vpermq $-115, %ymm4, %ymm3
vpermq $114, %ymm12, %ymm4
vpblendd $12, %ymm6, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm0, %ymm9
vpblendd $48, %ymm0, %ymm12, %ymm0
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm0, %ymm0
vpblendd $-64, %ymm6, %ymm9, %ymm6
vpandn %ymm6, %ymm0, %ymm6
vpxor %ymm13, %ymm5, %ymm5
vpxor %ymm8, %ymm11, %ymm0
vpxor %ymm7, %ymm6, %ymm6
vpxor (%rcx,%rdx), %ymm5, %ymm5
addq $32, %rdx
decq %r8
jne L__crypto_kem_enc_derand_jazz$60
vmovdqu %ymm5, 160(%rsp)
vmovdqu %ymm0, 192(%rsp)
vmovdqu %ymm1, 224(%rsp)
vmovdqu %ymm2, 256(%rsp)
vmovdqu %ymm6, 288(%rsp)
vmovdqu %ymm3, 320(%rsp)
vmovdqu %ymm4, 352(%rsp)
movq glob_data + 6200(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, (%rax)
movq glob_data + 6208(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 8(%rax)
movq glob_data + 6216(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 16(%rax)
movq glob_data + 6224(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 24(%rax)
movq glob_data + 6232(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 32(%rax)
movq glob_data + 6240(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 40(%rax)
movq glob_data + 6248(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 48(%rax)
movq glob_data + 6256(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 56(%rax)
movq glob_data + 6264(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 64(%rax)
movq glob_data + 6272(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 72(%rax)
movq glob_data + 6280(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 80(%rax)
movq glob_data + 6288(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 88(%rax)
movq glob_data + 6296(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 96(%rax)
movq glob_data + 6304(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 104(%rax)
movq glob_data + 6312(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 112(%rax)
movq glob_data + 6320(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 120(%rax)
movq glob_data + 6328(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 128(%rax)
movq glob_data + 6336(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 136(%rax)
movq glob_data + 6344(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 144(%rax)
movq glob_data + 6352(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 152(%rax)
movq glob_data + 6360(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 160(%rax)
vmovdqu %ymm5, 160(%rsp)
vmovdqu %ymm0, 192(%rsp)
vmovdqu %ymm1, 224(%rsp)
vmovdqu %ymm2, 256(%rsp)
vmovdqu %ymm6, 288(%rsp)
vmovdqu %ymm3, 320(%rsp)
vmovdqu %ymm4, 352(%rsp)
leaq 15520(%rsp), %rbx
leaq 384(%rsp), %rbp
leaq L__crypto_kem_enc_derand_jazz$59(%rip), %r11
jmp L_rej_uniform_avx$1
L__crypto_kem_enc_derand_jazz$59:
cmpq $255, %r13
setbe %al
vmovdqu 160(%rsp), %ymm6
vmovdqu 192(%rsp), %ymm0
vmovdqu 224(%rsp), %ymm1
vmovdqu 256(%rsp), %ymm2
vmovdqu 288(%rsp), %ymm3
vmovdqu 320(%rsp), %ymm4
vmovdqu 352(%rsp), %ymm5
jmp L__crypto_kem_enc_derand_jazz$51
L__crypto_kem_enc_derand_jazz$52:
leaq 384(%rsp), %rax
leaq glob_data + 3328(%rip), %rcx
movq $0, %rdx
leaq glob_data + 3136(%rip), %rsi
leaq glob_data + 2944(%rip), %rdi
movq $24, %r8
L__crypto_kem_enc_derand_jazz$58:
vpshufd $78, %ymm1, %ymm8
vpxor %ymm2, %ymm4, %ymm7
vpxor %ymm5, %ymm3, %ymm9
vpxor %ymm0, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm1, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm1, %ymm1
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm1, %ymm7
vpsrlvq (%rdi), %ymm1, %ymm1
vpor %ymm7, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpsllvq 64(%rsi), %ymm2, %ymm7
vpsrlvq 64(%rdi), %ymm2, %ymm2
vpor %ymm7, %ymm2, %ymm2
vpxor %ymm9, %ymm3, %ymm3
vpsllvq 96(%rsi), %ymm3, %ymm7
vpsrlvq 96(%rdi), %ymm3, %ymm3
vpor %ymm7, %ymm3, %ymm10
vpxor %ymm9, %ymm4, %ymm3
vpsllvq 128(%rsi), %ymm3, %ymm4
vpsrlvq 128(%rdi), %ymm3, %ymm3
vpor %ymm4, %ymm3, %ymm4
vpxor %ymm9, %ymm5, %ymm5
vpermq $-115, %ymm1, %ymm3
vpermq $-115, %ymm2, %ymm7
vpsllvq 160(%rsi), %ymm5, %ymm1
vpsrlvq 160(%rdi), %ymm5, %ymm2
vpor %ymm1, %ymm2, %ymm8
vpxor %ymm9, %ymm0, %ymm1
vpermq $27, %ymm10, %ymm0
vpermq $114, %ymm4, %ymm9
vpsllvq 32(%rsi), %ymm1, %ymm2
vpsrlvq 32(%rdi), %ymm1, %ymm1
vpor %ymm2, %ymm1, %ymm10
vpsrldq $8, %ymm8, %ymm1
vpandn %ymm1, %ymm8, %ymm2
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm3, %ymm5
vpblendd $12, %ymm3, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm0, %ymm4, %ymm4
vpblendd $48, %ymm10, %ymm5, %ymm5
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm0, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm9, %ymm5, %ymm5
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm4, %ymm1, %ymm1
vpandn %ymm11, %ymm5, %ymm5
vpblendd $12, %ymm10, %ymm0, %ymm11
vpblendd $12, %ymm0, %ymm3, %ymm12
vpxor %ymm3, %ymm1, %ymm4
vpblendd $48, %ymm3, %ymm11, %ymm1
vpblendd $48, %ymm7, %ymm12, %ymm11
vpxor %ymm0, %ymm5, %ymm5
vpblendd $-64, %ymm7, %ymm1, %ymm1
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm1, %ymm1
vpxor %ymm9, %ymm1, %ymm12
vpermq $30, %ymm8, %ymm1
vpblendd $48, %ymm6, %ymm1, %ymm1
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm1, %ymm11, %ymm11
vpblendd $12, %ymm0, %ymm7, %ymm1
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm13, %ymm13
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm0, %ymm13, %ymm13
vpandn %ymm13, %ymm1, %ymm1
vpxor %ymm10, %ymm1, %ymm1
vpermq $0, %ymm2, %ymm13
vpermq $27, %ymm4, %ymm2
vpermq $-115, %ymm5, %ymm4
vpermq $114, %ymm12, %ymm5
vpblendd $12, %ymm3, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm0, %ymm9
vpblendd $48, %ymm0, %ymm12, %ymm0
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm0, %ymm0
vpblendd $-64, %ymm3, %ymm9, %ymm3
vpandn %ymm3, %ymm0, %ymm3
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm0
vpxor %ymm7, %ymm3, %ymm3
vpxor (%rcx,%rdx), %ymm6, %ymm6
addq $32, %rdx
decq %r8
jne L__crypto_kem_enc_derand_jazz$58
vmovdqu %ymm6, 160(%rsp)
vmovdqu %ymm0, 192(%rsp)
vmovdqu %ymm1, 224(%rsp)
vmovdqu %ymm2, 256(%rsp)
vmovdqu %ymm3, 288(%rsp)
vmovdqu %ymm4, 320(%rsp)
vmovdqu %ymm5, 352(%rsp)
movq glob_data + 6200(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, (%rax)
movq glob_data + 6208(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 8(%rax)
movq glob_data + 6216(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 16(%rax)
movq glob_data + 6224(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 24(%rax)
movq glob_data + 6232(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 32(%rax)
movq glob_data + 6240(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 40(%rax)
movq glob_data + 6248(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 48(%rax)
movq glob_data + 6256(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 56(%rax)
movq glob_data + 6264(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 64(%rax)
movq glob_data + 6272(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 72(%rax)
movq glob_data + 6280(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 80(%rax)
movq glob_data + 6288(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 88(%rax)
movq glob_data + 6296(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 96(%rax)
movq glob_data + 6304(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 104(%rax)
movq glob_data + 6312(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 112(%rax)
movq glob_data + 6320(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 120(%rax)
movq glob_data + 6328(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 128(%rax)
movq glob_data + 6336(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 136(%rax)
movq glob_data + 6344(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 144(%rax)
movq glob_data + 6352(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 152(%rax)
movq glob_data + 6360(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 160(%rax)
leaq 15520(%rsp), %rax
leaq 384(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r13
setbe %sil
cmpq $165, %rdx
setbe %dil
testb %dil, %sil
jmp L__crypto_kem_enc_derand_jazz$53
L__crypto_kem_enc_derand_jazz$54:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw (%rcx,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb L__crypto_kem_enc_derand_jazz$57
movw %si, (%rax,%r13,2)
incq %r13
L__crypto_kem_enc_derand_jazz$57:
cmpq $256, %r13
jnb L__crypto_kem_enc_derand_jazz$55
cmpw $3329, %r8w
jnb L__crypto_kem_enc_derand_jazz$55
movw %r8w, (%rax,%r13,2)
incq %r13
L__crypto_kem_enc_derand_jazz$56:
L__crypto_kem_enc_derand_jazz$55:
cmpq $255, %r13
setbe %sil
cmpq $165, %rdx
setbe %dil
testb %dil, %sil
L__crypto_kem_enc_derand_jazz$53:
jne L__crypto_kem_enc_derand_jazz$54
cmpq $255, %r13
setbe %al
L__crypto_kem_enc_derand_jazz$51:
cmpb $0, %al
jne L__crypto_kem_enc_derand_jazz$52
leaq 11424(%rsp), %rax
leaq L__crypto_kem_enc_derand_jazz$50(%rip), %rcx
jmp L_nttunpack$1
L__crypto_kem_enc_derand_jazz$50:
leaq 11936(%rsp), %rax
leaq L__crypto_kem_enc_derand_jazz$49(%rip), %rcx
jmp L_nttunpack$1
L__crypto_kem_enc_derand_jazz$49:
leaq 12448(%rsp), %rax
leaq L__crypto_kem_enc_derand_jazz$48(%rip), %rcx
jmp L_nttunpack$1
L__crypto_kem_enc_derand_jazz$48:
leaq 12960(%rsp), %rax
leaq L__crypto_kem_enc_derand_jazz$47(%rip), %rcx
jmp L_nttunpack$1
L__crypto_kem_enc_derand_jazz$47:
leaq 13472(%rsp), %rax
leaq L__crypto_kem_enc_derand_jazz$46(%rip), %rcx
jmp L_nttunpack$1
L__crypto_kem_enc_derand_jazz$46:
leaq 13984(%rsp), %rax
leaq L__crypto_kem_enc_derand_jazz$45(%rip), %rcx
jmp L_nttunpack$1
L__crypto_kem_enc_derand_jazz$45:
leaq 14496(%rsp), %rax
leaq L__crypto_kem_enc_derand_jazz$44(%rip), %rcx
jmp L_nttunpack$1
L__crypto_kem_enc_derand_jazz$44:
leaq 15008(%rsp), %rax
leaq L__crypto_kem_enc_derand_jazz$43(%rip), %rcx
jmp L_nttunpack$1
L__crypto_kem_enc_derand_jazz$43:
leaq 15520(%rsp), %rax
leaq L__crypto_kem_enc_derand_jazz$42(%rip), %rcx
jmp L_nttunpack$1
L__crypto_kem_enc_derand_jazz$42:
movq 16032(%rsp), %r10
movb $0, %cl
leaq 6816(%rsp), %rax
leaq 7328(%rsp), %rdi
leaq 7840(%rsp), %r8
leaq 8352(%rsp), %r9
leaq -1472(%rsp), %rsp
leaq L__crypto_kem_enc_derand_jazz$41(%rip), %rdx
movq %rdx, 1464(%rsp)
jmp L_poly_getnoise_eta1_4x$1
L__crypto_kem_enc_derand_jazz$41:
leaq 1472(%rsp), %rsp
movb $4, %cl
leaq 8864(%rsp), %rax
leaq 9376(%rsp), %rdi
leaq 2944(%rsp), %r8
leaq 9888(%rsp), %r9
leaq -1472(%rsp), %rsp
leaq L__crypto_kem_enc_derand_jazz$40(%rip), %rdx
movq %rdx, 1464(%rsp)
jmp L_poly_getnoise_eta1_4x$1
L__crypto_kem_enc_derand_jazz$40:
leaq 1472(%rsp), %rsp
leaq 6816(%rsp), %rcx
leaq L__crypto_kem_enc_derand_jazz$39(%rip), %rdi
jmp L_poly_ntt$1
L__crypto_kem_enc_derand_jazz$39:
leaq 7328(%rsp), %rcx
leaq L__crypto_kem_enc_derand_jazz$38(%rip), %rdi
jmp L_poly_ntt$1
L__crypto_kem_enc_derand_jazz$38:
leaq 7840(%rsp), %rcx
leaq L__crypto_kem_enc_derand_jazz$37(%rip), %rdi
jmp L_poly_ntt$1
L__crypto_kem_enc_derand_jazz$37:
leaq 9888(%rsp), %rcx
leaq 11424(%rsp), %rsi
leaq 6816(%rsp), %rdi
leaq L__crypto_kem_enc_derand_jazz$36(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_enc_derand_jazz$36:
leaq 3456(%rsp), %rcx
leaq 11936(%rsp), %rsi
leaq 7328(%rsp), %rdi
leaq L__crypto_kem_enc_derand_jazz$35(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_enc_derand_jazz$35:
leaq 9888(%rsp), %rcx
leaq 3456(%rsp), %rsi
leaq L__crypto_kem_enc_derand_jazz$34(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_enc_derand_jazz$34:
leaq 3456(%rsp), %rcx
leaq 12448(%rsp), %rsi
leaq 7840(%rsp), %rdi
leaq L__crypto_kem_enc_derand_jazz$33(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_enc_derand_jazz$33:
leaq 9888(%rsp), %rcx
leaq 3456(%rsp), %rsi
leaq L__crypto_kem_enc_derand_jazz$32(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_enc_derand_jazz$32:
leaq 10400(%rsp), %rcx
leaq 12960(%rsp), %rsi
leaq 6816(%rsp), %rdi
leaq L__crypto_kem_enc_derand_jazz$31(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_enc_derand_jazz$31:
leaq 3456(%rsp), %rcx
leaq 13472(%rsp), %rsi
leaq 7328(%rsp), %rdi
leaq L__crypto_kem_enc_derand_jazz$30(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_enc_derand_jazz$30:
leaq 10400(%rsp), %rcx
leaq 3456(%rsp), %rsi
leaq L__crypto_kem_enc_derand_jazz$29(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_enc_derand_jazz$29:
leaq 3456(%rsp), %rcx
leaq 13984(%rsp), %rsi
leaq 7840(%rsp), %rdi
leaq L__crypto_kem_enc_derand_jazz$28(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_enc_derand_jazz$28:
leaq 10400(%rsp), %rcx
leaq 3456(%rsp), %rsi
leaq L__crypto_kem_enc_derand_jazz$27(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_enc_derand_jazz$27:
leaq 10912(%rsp), %rcx
leaq 14496(%rsp), %rsi
leaq 6816(%rsp), %rdi
leaq L__crypto_kem_enc_derand_jazz$26(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_enc_derand_jazz$26:
leaq 3456(%rsp), %rcx
leaq 15008(%rsp), %rsi
leaq 7328(%rsp), %rdi
leaq L__crypto_kem_enc_derand_jazz$25(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_enc_derand_jazz$25:
leaq 10912(%rsp), %rcx
leaq 3456(%rsp), %rsi
leaq L__crypto_kem_enc_derand_jazz$24(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_enc_derand_jazz$24:
leaq 3456(%rsp), %rcx
leaq 15520(%rsp), %rsi
leaq 7840(%rsp), %rdi
leaq L__crypto_kem_enc_derand_jazz$23(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_enc_derand_jazz$23:
leaq 10912(%rsp), %rcx
leaq 3456(%rsp), %rsi
leaq L__crypto_kem_enc_derand_jazz$22(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_enc_derand_jazz$22:
leaq 3456(%rsp), %rcx
leaq 5280(%rsp), %rsi
leaq 6816(%rsp), %rdi
leaq L__crypto_kem_enc_derand_jazz$21(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_enc_derand_jazz$21:
leaq 3968(%rsp), %rcx
leaq 5792(%rsp), %rsi
leaq 7328(%rsp), %rdi
leaq L__crypto_kem_enc_derand_jazz$20(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_enc_derand_jazz$20:
leaq 3456(%rsp), %rcx
leaq 3968(%rsp), %rsi
leaq L__crypto_kem_enc_derand_jazz$19(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_enc_derand_jazz$19:
leaq 3968(%rsp), %rcx
leaq 6304(%rsp), %rsi
leaq 7840(%rsp), %rdi
leaq L__crypto_kem_enc_derand_jazz$18(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_enc_derand_jazz$18:
leaq 3456(%rsp), %rcx
leaq 3968(%rsp), %rsi
leaq L__crypto_kem_enc_derand_jazz$17(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_enc_derand_jazz$17:
leaq 9888(%rsp), %rcx
leaq L__crypto_kem_enc_derand_jazz$16(%rip), %rdi
jmp L_poly_invntt$1
L__crypto_kem_enc_derand_jazz$16:
leaq 10400(%rsp), %rcx
leaq L__crypto_kem_enc_derand_jazz$15(%rip), %rdi
jmp L_poly_invntt$1
L__crypto_kem_enc_derand_jazz$15:
leaq 10912(%rsp), %rcx
leaq L__crypto_kem_enc_derand_jazz$14(%rip), %rdi
jmp L_poly_invntt$1
L__crypto_kem_enc_derand_jazz$14:
leaq 3456(%rsp), %rcx
leaq L__crypto_kem_enc_derand_jazz$13(%rip), %rdi
jmp L_poly_invntt$1
L__crypto_kem_enc_derand_jazz$13:
leaq 9888(%rsp), %rcx
leaq 8352(%rsp), %rsi
leaq L__crypto_kem_enc_derand_jazz$12(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_enc_derand_jazz$12:
leaq 10400(%rsp), %rcx
leaq 8864(%rsp), %rsi
leaq L__crypto_kem_enc_derand_jazz$11(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_enc_derand_jazz$11:
leaq 10912(%rsp), %rcx
leaq 9376(%rsp), %rsi
leaq L__crypto_kem_enc_derand_jazz$10(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_enc_derand_jazz$10:
leaq 3456(%rsp), %rcx
leaq 2944(%rsp), %rsi
leaq L__crypto_kem_enc_derand_jazz$9(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_enc_derand_jazz$9:
leaq 3456(%rsp), %rcx
leaq 2432(%rsp), %rsi
leaq L__crypto_kem_enc_derand_jazz$8(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_enc_derand_jazz$8:
leaq 9888(%rsp), %rax
vmovdqu glob_data + 448(%rip), %ymm0
vmovdqu glob_data + 384(%rip), %ymm1
vmovdqu (%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, (%rax)
vmovdqu 32(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 32(%rax)
vmovdqu 64(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 64(%rax)
vmovdqu 96(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 96(%rax)
vmovdqu 128(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 128(%rax)
vmovdqu 160(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 160(%rax)
vmovdqu 192(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 192(%rax)
vmovdqu 224(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 224(%rax)
vmovdqu 256(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 256(%rax)
vmovdqu 288(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 288(%rax)
vmovdqu 320(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 320(%rax)
vmovdqu 352(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 352(%rax)
vmovdqu 384(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 384(%rax)
vmovdqu 416(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 416(%rax)
vmovdqu 448(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 448(%rax)
vmovdqu 480(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm1
vpsraw $10, %ymm1, %ymm1
vpmullw %ymm0, %ymm1, %ymm0
vpsubw %ymm0, %ymm2, %ymm0
vmovdqu %ymm0, 480(%rax)
leaq 10400(%rsp), %rax
vmovdqu glob_data + 448(%rip), %ymm0
vmovdqu glob_data + 384(%rip), %ymm1
vmovdqu (%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, (%rax)
vmovdqu 32(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 32(%rax)
vmovdqu 64(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 64(%rax)
vmovdqu 96(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 96(%rax)
vmovdqu 128(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 128(%rax)
vmovdqu 160(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 160(%rax)
vmovdqu 192(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 192(%rax)
vmovdqu 224(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 224(%rax)
vmovdqu 256(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 256(%rax)
vmovdqu 288(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 288(%rax)
vmovdqu 320(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 320(%rax)
vmovdqu 352(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 352(%rax)
vmovdqu 384(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 384(%rax)
vmovdqu 416(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 416(%rax)
vmovdqu 448(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 448(%rax)
vmovdqu 480(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm1
vpsraw $10, %ymm1, %ymm1
vpmullw %ymm0, %ymm1, %ymm0
vpsubw %ymm0, %ymm2, %ymm0
vmovdqu %ymm0, 480(%rax)
leaq 10912(%rsp), %rax
vmovdqu glob_data + 448(%rip), %ymm0
vmovdqu glob_data + 384(%rip), %ymm1
vmovdqu (%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, (%rax)
vmovdqu 32(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 32(%rax)
vmovdqu 64(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 64(%rax)
vmovdqu 96(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 96(%rax)
vmovdqu 128(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 128(%rax)
vmovdqu 160(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 160(%rax)
vmovdqu 192(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 192(%rax)
vmovdqu 224(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 224(%rax)
vmovdqu 256(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 256(%rax)
vmovdqu 288(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 288(%rax)
vmovdqu 320(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 320(%rax)
vmovdqu 352(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 352(%rax)
vmovdqu 384(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 384(%rax)
vmovdqu 416(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 416(%rax)
vmovdqu 448(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 448(%rax)
vmovdqu 480(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm1
vpsraw $10, %ymm1, %ymm1
vpmullw %ymm0, %ymm1, %ymm0
vpsubw %ymm0, %ymm2, %ymm0
vmovdqu %ymm0, 480(%rax)
leaq 3456(%rsp), %rax
vmovdqu glob_data + 448(%rip), %ymm0
vmovdqu glob_data + 384(%rip), %ymm1
vmovdqu (%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, (%rax)
vmovdqu 32(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 32(%rax)
vmovdqu 64(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 64(%rax)
vmovdqu 96(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 96(%rax)
vmovdqu 128(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 128(%rax)
vmovdqu 160(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 160(%rax)
vmovdqu 192(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 192(%rax)
vmovdqu 224(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 224(%rax)
vmovdqu 256(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 256(%rax)
vmovdqu 288(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 288(%rax)
vmovdqu 320(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 320(%rax)
vmovdqu 352(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 352(%rax)
vmovdqu 384(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 384(%rax)
vmovdqu 416(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 416(%rax)
vmovdqu 448(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 448(%rax)
vmovdqu 480(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm1
vpsraw $10, %ymm1, %ymm1
vpmullw %ymm0, %ymm1, %ymm0
vpsubw %ymm0, %ymm2, %ymm0
vmovdqu %ymm0, 480(%rax)
movq 16040(%rsp), %rax
leaq 9888(%rsp), %rcx
leaq L__crypto_kem_enc_derand_jazz$7(%rip), %r8
jmp L_poly_csubq$1
L__crypto_kem_enc_derand_jazz$7:
leaq 10400(%rsp), %rcx
leaq L__crypto_kem_enc_derand_jazz$6(%rip), %r8
jmp L_poly_csubq$1
L__crypto_kem_enc_derand_jazz$6:
leaq 10912(%rsp), %rcx
leaq L__crypto_kem_enc_derand_jazz$5(%rip), %r8
jmp L_poly_csubq$1
L__crypto_kem_enc_derand_jazz$5:
leaq glob_data + 384(%rip), %rcx
vmovdqu (%rcx), %ymm0
vpsllw $3, %ymm0, %ymm1
vpbroadcastw glob_data + 6422(%rip), %ymm2
vpbroadcastw glob_data + 6420(%rip), %ymm3
vpbroadcastw glob_data + 6418(%rip), %ymm4
vpbroadcastq glob_data + 6184(%rip), %ymm5
vpbroadcastq glob_data + 6176(%rip), %ymm6
vmovdqu glob_data + 32(%rip), %ymm7
vmovdqu 9888(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, (%rax)
vpextrd $0, %xmm8, 16(%rax)
vmovdqu 9920(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 20(%rax)
vpextrd $0, %xmm8, 36(%rax)
vmovdqu 9952(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 40(%rax)
vpextrd $0, %xmm8, 56(%rax)
vmovdqu 9984(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 60(%rax)
vpextrd $0, %xmm8, 76(%rax)
vmovdqu 10016(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 80(%rax)
vpextrd $0, %xmm8, 96(%rax)
vmovdqu 10048(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 100(%rax)
vpextrd $0, %xmm8, 116(%rax)
vmovdqu 10080(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 120(%rax)
vpextrd $0, %xmm8, 136(%rax)
vmovdqu 10112(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 140(%rax)
vpextrd $0, %xmm8, 156(%rax)
vmovdqu 10144(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 160(%rax)
vpextrd $0, %xmm8, 176(%rax)
vmovdqu 10176(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 180(%rax)
vpextrd $0, %xmm8, 196(%rax)
vmovdqu 10208(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 200(%rax)
vpextrd $0, %xmm8, 216(%rax)
vmovdqu 10240(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 220(%rax)
vpextrd $0, %xmm8, 236(%rax)
vmovdqu 10272(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 240(%rax)
vpextrd $0, %xmm8, 256(%rax)
vmovdqu 10304(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 260(%rax)
vpextrd $0, %xmm8, 276(%rax)
vmovdqu 10336(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 280(%rax)
vpextrd $0, %xmm8, 296(%rax)
vmovdqu 10368(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 300(%rax)
vpextrd $0, %xmm8, 316(%rax)
vmovdqu 10400(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 320(%rax)
vpextrd $0, %xmm8, 336(%rax)
vmovdqu 10432(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 340(%rax)
vpextrd $0, %xmm8, 356(%rax)
vmovdqu 10464(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 360(%rax)
vpextrd $0, %xmm8, 376(%rax)
vmovdqu 10496(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 380(%rax)
vpextrd $0, %xmm8, 396(%rax)
vmovdqu 10528(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 400(%rax)
vpextrd $0, %xmm8, 416(%rax)
vmovdqu 10560(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 420(%rax)
vpextrd $0, %xmm8, 436(%rax)
vmovdqu 10592(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 440(%rax)
vpextrd $0, %xmm8, 456(%rax)
vmovdqu 10624(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 460(%rax)
vpextrd $0, %xmm8, 476(%rax)
vmovdqu 10656(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 480(%rax)
vpextrd $0, %xmm8, 496(%rax)
vmovdqu 10688(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 500(%rax)
vpextrd $0, %xmm8, 516(%rax)
vmovdqu 10720(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 520(%rax)
vpextrd $0, %xmm8, 536(%rax)
vmovdqu 10752(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 540(%rax)
vpextrd $0, %xmm8, 556(%rax)
vmovdqu 10784(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 560(%rax)
vpextrd $0, %xmm8, 576(%rax)
vmovdqu 10816(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 580(%rax)
vpextrd $0, %xmm8, 596(%rax)
vmovdqu 10848(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 600(%rax)
vpextrd $0, %xmm8, 616(%rax)
vmovdqu 10880(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 620(%rax)
vpextrd $0, %xmm8, 636(%rax)
vmovdqu 10912(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 640(%rax)
vpextrd $0, %xmm8, 656(%rax)
vmovdqu 10944(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 660(%rax)
vpextrd $0, %xmm8, 676(%rax)
vmovdqu 10976(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 680(%rax)
vpextrd $0, %xmm8, 696(%rax)
vmovdqu 11008(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 700(%rax)
vpextrd $0, %xmm8, 716(%rax)
vmovdqu 11040(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 720(%rax)
vpextrd $0, %xmm8, 736(%rax)
vmovdqu 11072(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 740(%rax)
vpextrd $0, %xmm8, 756(%rax)
vmovdqu 11104(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 760(%rax)
vpextrd $0, %xmm8, 776(%rax)
vmovdqu 11136(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 780(%rax)
vpextrd $0, %xmm8, 796(%rax)
vmovdqu 11168(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 800(%rax)
vpextrd $0, %xmm8, 816(%rax)
vmovdqu 11200(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 820(%rax)
vpextrd $0, %xmm8, 836(%rax)
vmovdqu 11232(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 840(%rax)
vpextrd $0, %xmm8, 856(%rax)
vmovdqu 11264(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 860(%rax)
vpextrd $0, %xmm8, 876(%rax)
vmovdqu 11296(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 880(%rax)
vpextrd $0, %xmm8, 896(%rax)
vmovdqu 11328(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 900(%rax)
vpextrd $0, %xmm8, 916(%rax)
vmovdqu 11360(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 920(%rax)
vpextrd $0, %xmm8, 936(%rax)
vmovdqu 11392(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm1
vpaddw %ymm2, %ymm8, %ymm2
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm0
vpsubw %ymm2, %ymm1, %ymm2
vpandn %ymm2, %ymm1, %ymm1
vpsrlw $15, %ymm1, %ymm1
vpsubw %ymm1, %ymm0, %ymm0
vpmulhrsw %ymm3, %ymm0, %ymm0
vpand %ymm4, %ymm0, %ymm0
vpmaddwd %ymm5, %ymm0, %ymm0
vpsllvd %ymm6, %ymm0, %ymm0
vpsrlq $12, %ymm0, %ymm0
vpshufb %ymm7, %ymm0, %ymm0
vmovdqu %xmm0, %xmm1
vextracti128 $1, %ymm0, %xmm0
vpblendw $-32, %xmm0, %xmm1, %xmm1
vmovdqu %xmm1, 940(%rax)
vpextrd $0, %xmm0, 956(%rax)
addq $960, %rax
leaq 3456(%rsp), %rcx
leaq L__crypto_kem_enc_derand_jazz$4(%rip), %rsi
jmp L_poly_compress$1
L__crypto_kem_enc_derand_jazz$4:
movq 16040(%rsp), %r8
movq $1088, %rdi
leaq 128(%rsp), %rax
leaq -256(%rsp), %rsp
leaq L__crypto_kem_enc_derand_jazz$3(%rip), %rcx
movq %rcx, 224(%rsp)
jmp L_sha3_256$1
L__crypto_kem_enc_derand_jazz$3:
leaq 256(%rsp), %rsp
movq 16048(%rsp), %rdx
movq $32, %rcx
leaq 96(%rsp), %rax
leaq -256(%rsp), %rsp
leaq L__crypto_kem_enc_derand_jazz$2(%rip), %rsi
movq %rsi, 224(%rsp)
jmp L_shake256_64$1
L__crypto_kem_enc_derand_jazz$2:
leaq 256(%rsp), %rsp
jmp *16056(%rsp)
L__crypto_kem_keypair_derand_jazz$1:
movq %rax, 12896(%rsp)
movq %rbp, 12904(%rsp)
movq %rbx, 12912(%rsp)
movq %rax, %rcx
movq %rbp, 12920(%rsp)
movq %rbx, 12928(%rsp)
leaq 12936(%rsp), %rax
leaq -256(%rsp), %rsp
leaq L__crypto_kem_keypair_derand_jazz$121(%rip), %rdx
movq %rdx, 224(%rsp)
jmp L_sha3_512_32$1
L__crypto_kem_keypair_derand_jazz$121:
leaq 256(%rsp), %rsp
movq 12936(%rsp), %rax
movq %rax, (%rsp)
movq 12968(%rsp), %rax
movq %rax, 32(%rsp)
movq 12944(%rsp), %rax
movq %rax, 8(%rsp)
movq 12976(%rsp), %rax
movq %rax, 40(%rsp)
movq 12952(%rsp), %rax
movq %rax, 16(%rsp)
movq 12984(%rsp), %rax
movq %rax, 48(%rsp)
movq 12960(%rsp), %rax
movq %rax, 24(%rsp)
movq 12992(%rsp), %rax
movq %rax, 56(%rsp)
vmovdqu (%rsp), %ymm0
vmovdqu %ymm0, 320(%rsp)
vmovdqu %ymm0, 832(%rsp)
vmovdqu %ymm0, 1344(%rsp)
vmovdqu %ymm0, 1856(%rsp)
vmovdqu %ymm0, 64(%rsp)
movb $0, 352(%rsp)
movb $0, 353(%rsp)
movb $1, 864(%rsp)
movb $0, 865(%rsp)
movb $2, 1376(%rsp)
movb $0, 1377(%rsp)
movb $0, 1888(%rsp)
movb $1, 1889(%rsp)
leaq 2880(%rsp), %rax
leaq 320(%rsp), %rcx
leaq 832(%rsp), %rdx
leaq 1344(%rsp), %rsi
leaq 1856(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq L__crypto_kem_keypair_derand_jazz$120(%rip), %r8
movq %r8, (%rsp)
jmp L_shake128_absorb4x_34$1
L__crypto_kem_keypair_derand_jazz$120:
leaq 8(%rsp), %rsp
leaq 2880(%rsp), %rax
leaq 320(%rsp), %rdi
leaq 832(%rsp), %r8
leaq 1344(%rsp), %r9
leaq 1856(%rsp), %r10
movq %rdi, %r11
movq %r8, %rbx
movq %r9, %rbp
movq %r10, %r12
leaq -832(%rsp), %rsp
leaq L__crypto_kem_keypair_derand_jazz$119(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
L__crypto_kem_keypair_derand_jazz$119:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r11)
vmovhpd %xmm1, (%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbp)
vmovhpd %xmm0, (%r12)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r11)
vmovhpd %xmm1, 8(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbp)
vmovhpd %xmm0, 8(%r12)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r11)
vmovhpd %xmm1, 16(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbp)
vmovhpd %xmm0, 16(%r12)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r11)
vmovhpd %xmm1, 24(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbp)
vmovhpd %xmm0, 24(%r12)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r11)
vmovhpd %xmm1, 32(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbp)
vmovhpd %xmm0, 32(%r12)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r11)
vmovhpd %xmm1, 40(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbp)
vmovhpd %xmm0, 40(%r12)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r11)
vmovhpd %xmm1, 48(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbp)
vmovhpd %xmm0, 48(%r12)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r11)
vmovhpd %xmm1, 56(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbp)
vmovhpd %xmm0, 56(%r12)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r11)
vmovhpd %xmm1, 64(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbp)
vmovhpd %xmm0, 64(%r12)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r11)
vmovhpd %xmm1, 72(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbp)
vmovhpd %xmm0, 72(%r12)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r11)
vmovhpd %xmm1, 80(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbp)
vmovhpd %xmm0, 80(%r12)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r11)
vmovhpd %xmm1, 88(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbp)
vmovhpd %xmm0, 88(%r12)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r11)
vmovhpd %xmm1, 96(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbp)
vmovhpd %xmm0, 96(%r12)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r11)
vmovhpd %xmm1, 104(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbp)
vmovhpd %xmm0, 104(%r12)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r11)
vmovhpd %xmm1, 112(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbp)
vmovhpd %xmm0, 112(%r12)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r11)
vmovhpd %xmm1, 120(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbp)
vmovhpd %xmm0, 120(%r12)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r11)
vmovhpd %xmm1, 128(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbp)
vmovhpd %xmm0, 128(%r12)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%r11)
vmovhpd %xmm1, 136(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%rbp)
vmovhpd %xmm0, 136(%r12)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%r11)
vmovhpd %xmm1, 144(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%rbp)
vmovhpd %xmm0, 144(%r12)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%r11)
vmovhpd %xmm1, 152(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%rbp)
vmovhpd %xmm0, 152(%r12)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%r11)
vmovhpd %xmm1, 160(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%rbp)
vmovhpd %xmm0, 160(%r12)
leaq 168(%rdi), %r11
leaq 168(%r8), %rbx
leaq 168(%r9), %rbp
leaq 168(%r10), %r12
leaq -832(%rsp), %rsp
leaq L__crypto_kem_keypair_derand_jazz$118(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
L__crypto_kem_keypair_derand_jazz$118:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r11)
vmovhpd %xmm1, (%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbp)
vmovhpd %xmm0, (%r12)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r11)
vmovhpd %xmm1, 8(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbp)
vmovhpd %xmm0, 8(%r12)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r11)
vmovhpd %xmm1, 16(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbp)
vmovhpd %xmm0, 16(%r12)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r11)
vmovhpd %xmm1, 24(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbp)
vmovhpd %xmm0, 24(%r12)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r11)
vmovhpd %xmm1, 32(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbp)
vmovhpd %xmm0, 32(%r12)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r11)
vmovhpd %xmm1, 40(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbp)
vmovhpd %xmm0, 40(%r12)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r11)
vmovhpd %xmm1, 48(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbp)
vmovhpd %xmm0, 48(%r12)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r11)
vmovhpd %xmm1, 56(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbp)
vmovhpd %xmm0, 56(%r12)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r11)
vmovhpd %xmm1, 64(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbp)
vmovhpd %xmm0, 64(%r12)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r11)
vmovhpd %xmm1, 72(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbp)
vmovhpd %xmm0, 72(%r12)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r11)
vmovhpd %xmm1, 80(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbp)
vmovhpd %xmm0, 80(%r12)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r11)
vmovhpd %xmm1, 88(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbp)
vmovhpd %xmm0, 88(%r12)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r11)
vmovhpd %xmm1, 96(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbp)
vmovhpd %xmm0, 96(%r12)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r11)
vmovhpd %xmm1, 104(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbp)
vmovhpd %xmm0, 104(%r12)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r11)
vmovhpd %xmm1, 112(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbp)
vmovhpd %xmm0, 112(%r12)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r11)
vmovhpd %xmm1, 120(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbp)
vmovhpd %xmm0, 120(%r12)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r11)
vmovhpd %xmm1, 128(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbp)
vmovhpd %xmm0, 128(%r12)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%r11)
vmovhpd %xmm1, 136(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%rbp)
vmovhpd %xmm0, 136(%r12)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%r11)
vmovhpd %xmm1, 144(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%rbp)
vmovhpd %xmm0, 144(%r12)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%r11)
vmovhpd %xmm1, 152(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%rbp)
vmovhpd %xmm0, 152(%r12)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%r11)
vmovhpd %xmm1, 160(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%rbp)
vmovhpd %xmm0, 160(%r12)
leaq 336(%rdi), %rdi
leaq 336(%r8), %r8
leaq 336(%r9), %r9
leaq 336(%r10), %r10
leaq -832(%rsp), %rsp
leaq L__crypto_kem_keypair_derand_jazz$117(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
L__crypto_kem_keypair_derand_jazz$117:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%rdi)
vmovhpd %xmm1, (%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%r9)
vmovhpd %xmm0, (%r10)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%rdi)
vmovhpd %xmm1, 8(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%r9)
vmovhpd %xmm0, 8(%r10)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%rdi)
vmovhpd %xmm1, 16(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%r9)
vmovhpd %xmm0, 16(%r10)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%rdi)
vmovhpd %xmm1, 24(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%r9)
vmovhpd %xmm0, 24(%r10)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%rdi)
vmovhpd %xmm1, 32(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%r9)
vmovhpd %xmm0, 32(%r10)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%rdi)
vmovhpd %xmm1, 40(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%r9)
vmovhpd %xmm0, 40(%r10)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%rdi)
vmovhpd %xmm1, 48(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%r9)
vmovhpd %xmm0, 48(%r10)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%rdi)
vmovhpd %xmm1, 56(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%r9)
vmovhpd %xmm0, 56(%r10)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%rdi)
vmovhpd %xmm1, 64(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%r9)
vmovhpd %xmm0, 64(%r10)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%rdi)
vmovhpd %xmm1, 72(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%r9)
vmovhpd %xmm0, 72(%r10)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%rdi)
vmovhpd %xmm1, 80(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%r9)
vmovhpd %xmm0, 80(%r10)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%rdi)
vmovhpd %xmm1, 88(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%r9)
vmovhpd %xmm0, 88(%r10)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%rdi)
vmovhpd %xmm1, 96(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%r9)
vmovhpd %xmm0, 96(%r10)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%rdi)
vmovhpd %xmm1, 104(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%r9)
vmovhpd %xmm0, 104(%r10)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%rdi)
vmovhpd %xmm1, 112(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%r9)
vmovhpd %xmm0, 112(%r10)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%rdi)
vmovhpd %xmm1, 120(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%r9)
vmovhpd %xmm0, 120(%r10)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%rdi)
vmovhpd %xmm1, 128(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%r9)
vmovhpd %xmm0, 128(%r10)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%rdi)
vmovhpd %xmm1, 136(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%r9)
vmovhpd %xmm0, 136(%r10)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%rdi)
vmovhpd %xmm1, 144(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%r9)
vmovhpd %xmm0, 144(%r10)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%rdi)
vmovhpd %xmm1, 152(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%r9)
vmovhpd %xmm0, 152(%r10)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%rdi)
vmovhpd %xmm1, 160(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%r9)
vmovhpd %xmm0, 160(%r10)
leaq 8288(%rsp), %rbx
leaq 320(%rsp), %rbp
leaq L__crypto_kem_keypair_derand_jazz$116(%rip), %r11
jmp L_rej_uniform_avx$1
L__crypto_kem_keypair_derand_jazz$116:
movq %r13, %rdi
leaq 8800(%rsp), %rbx
leaq 832(%rsp), %rbp
leaq L__crypto_kem_keypair_derand_jazz$115(%rip), %r11
jmp L_rej_uniform_avx$1
L__crypto_kem_keypair_derand_jazz$115:
movq %r13, %r9
leaq 9312(%rsp), %rbx
leaq 1344(%rsp), %rbp
leaq L__crypto_kem_keypair_derand_jazz$114(%rip), %r11
jmp L_rej_uniform_avx$1
L__crypto_kem_keypair_derand_jazz$114:
movq %r13, %r8
leaq 9824(%rsp), %rbx
leaq 1856(%rsp), %rbp
leaq L__crypto_kem_keypair_derand_jazz$113(%rip), %r11
jmp L_rej_uniform_avx$1
L__crypto_kem_keypair_derand_jazz$113:
cmpq $255, %rdi
setbe %al
cmpq $255, %r9
setbe %cl
orb %cl, %al
cmpq $255, %r8
setbe %cl
cmpq $255, %r13
setbe %dl
orb %dl, %cl
orb %al, %cl
jmp L__crypto_kem_keypair_derand_jazz$90
L__crypto_kem_keypair_derand_jazz$91:
leaq 2880(%rsp), %rax
leaq 320(%rsp), %r10
leaq 832(%rsp), %r11
leaq 1344(%rsp), %rbx
leaq 1856(%rsp), %rbp
leaq -832(%rsp), %rsp
leaq L__crypto_kem_keypair_derand_jazz$112(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
L__crypto_kem_keypair_derand_jazz$112:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r10)
vmovhpd %xmm1, (%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbx)
vmovhpd %xmm0, (%rbp)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r10)
vmovhpd %xmm1, 8(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbx)
vmovhpd %xmm0, 8(%rbp)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r10)
vmovhpd %xmm1, 16(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbx)
vmovhpd %xmm0, 16(%rbp)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r10)
vmovhpd %xmm1, 24(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbx)
vmovhpd %xmm0, 24(%rbp)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r10)
vmovhpd %xmm1, 32(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbx)
vmovhpd %xmm0, 32(%rbp)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r10)
vmovhpd %xmm1, 40(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbx)
vmovhpd %xmm0, 40(%rbp)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r10)
vmovhpd %xmm1, 48(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbx)
vmovhpd %xmm0, 48(%rbp)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r10)
vmovhpd %xmm1, 56(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbx)
vmovhpd %xmm0, 56(%rbp)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r10)
vmovhpd %xmm1, 64(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbx)
vmovhpd %xmm0, 64(%rbp)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r10)
vmovhpd %xmm1, 72(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbx)
vmovhpd %xmm0, 72(%rbp)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r10)
vmovhpd %xmm1, 80(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbx)
vmovhpd %xmm0, 80(%rbp)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r10)
vmovhpd %xmm1, 88(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbx)
vmovhpd %xmm0, 88(%rbp)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r10)
vmovhpd %xmm1, 96(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbx)
vmovhpd %xmm0, 96(%rbp)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r10)
vmovhpd %xmm1, 104(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbx)
vmovhpd %xmm0, 104(%rbp)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r10)
vmovhpd %xmm1, 112(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbx)
vmovhpd %xmm0, 112(%rbp)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r10)
vmovhpd %xmm1, 120(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbx)
vmovhpd %xmm0, 120(%rbp)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r10)
vmovhpd %xmm1, 128(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbx)
vmovhpd %xmm0, 128(%rbp)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%r10)
vmovhpd %xmm1, 136(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%rbx)
vmovhpd %xmm0, 136(%rbp)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%r10)
vmovhpd %xmm1, 144(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%rbx)
vmovhpd %xmm0, 144(%rbp)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%r10)
vmovhpd %xmm1, 152(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%rbx)
vmovhpd %xmm0, 152(%rbp)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%r10)
vmovhpd %xmm1, 160(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%rbx)
vmovhpd %xmm0, 160(%rbp)
leaq 8288(%rsp), %rax
leaq 320(%rsp), %rcx
movq $0, %rdx
cmpq $255, %rdi
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp L__crypto_kem_keypair_derand_jazz$107
L__crypto_kem_keypair_derand_jazz$108:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb L__crypto_kem_keypair_derand_jazz$111
movw %si, (%rax,%rdi,2)
incq %rdi
L__crypto_kem_keypair_derand_jazz$111:
cmpq $256, %rdi
jnb L__crypto_kem_keypair_derand_jazz$109
cmpw $3329, %r11w
jnb L__crypto_kem_keypair_derand_jazz$109
movw %r11w, (%rax,%rdi,2)
incq %rdi
L__crypto_kem_keypair_derand_jazz$110:
L__crypto_kem_keypair_derand_jazz$109:
cmpq $255, %rdi
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
L__crypto_kem_keypair_derand_jazz$107:
jne L__crypto_kem_keypair_derand_jazz$108
leaq 8800(%rsp), %rax
leaq 832(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r9
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp L__crypto_kem_keypair_derand_jazz$102
L__crypto_kem_keypair_derand_jazz$103:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb L__crypto_kem_keypair_derand_jazz$106
movw %si, (%rax,%r9,2)
incq %r9
L__crypto_kem_keypair_derand_jazz$106:
cmpq $256, %r9
jnb L__crypto_kem_keypair_derand_jazz$104
cmpw $3329, %r11w
jnb L__crypto_kem_keypair_derand_jazz$104
movw %r11w, (%rax,%r9,2)
incq %r9
L__crypto_kem_keypair_derand_jazz$105:
L__crypto_kem_keypair_derand_jazz$104:
cmpq $255, %r9
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
L__crypto_kem_keypair_derand_jazz$102:
jne L__crypto_kem_keypair_derand_jazz$103
leaq 9312(%rsp), %rax
leaq 1344(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r8
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp L__crypto_kem_keypair_derand_jazz$97
L__crypto_kem_keypair_derand_jazz$98:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb L__crypto_kem_keypair_derand_jazz$101
movw %si, (%rax,%r8,2)
incq %r8
L__crypto_kem_keypair_derand_jazz$101:
cmpq $256, %r8
jnb L__crypto_kem_keypair_derand_jazz$99
cmpw $3329, %r11w
jnb L__crypto_kem_keypair_derand_jazz$99
movw %r11w, (%rax,%r8,2)
incq %r8
L__crypto_kem_keypair_derand_jazz$100:
L__crypto_kem_keypair_derand_jazz$99:
cmpq $255, %r8
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
L__crypto_kem_keypair_derand_jazz$97:
jne L__crypto_kem_keypair_derand_jazz$98
leaq 9824(%rsp), %rax
leaq 1856(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r13
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp L__crypto_kem_keypair_derand_jazz$92
L__crypto_kem_keypair_derand_jazz$93:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb L__crypto_kem_keypair_derand_jazz$96
movw %si, (%rax,%r13,2)
incq %r13
L__crypto_kem_keypair_derand_jazz$96:
cmpq $256, %r13
jnb L__crypto_kem_keypair_derand_jazz$94
cmpw $3329, %r11w
jnb L__crypto_kem_keypair_derand_jazz$94
movw %r11w, (%rax,%r13,2)
incq %r13
L__crypto_kem_keypair_derand_jazz$95:
L__crypto_kem_keypair_derand_jazz$94:
cmpq $255, %r13
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
L__crypto_kem_keypair_derand_jazz$92:
jne L__crypto_kem_keypair_derand_jazz$93
cmpq $255, %rdi
setbe %al
cmpq $255, %r9
setbe %cl
orb %cl, %al
cmpq $255, %r8
setbe %cl
cmpq $255, %r13
setbe %dl
orb %dl, %cl
orb %al, %cl
L__crypto_kem_keypair_derand_jazz$90:
jne L__crypto_kem_keypair_derand_jazz$91
vmovdqu 64(%rsp), %ymm0
vmovdqu %ymm0, 320(%rsp)
vmovdqu %ymm0, 832(%rsp)
vmovdqu %ymm0, 1344(%rsp)
vmovdqu %ymm0, 1856(%rsp)
vmovdqu %ymm0, 64(%rsp)
movb $1, 352(%rsp)
movb $1, 353(%rsp)
movb $2, 864(%rsp)
movb $1, 865(%rsp)
movb $0, 1376(%rsp)
movb $2, 1377(%rsp)
movb $1, 1888(%rsp)
movb $2, 1889(%rsp)
leaq 2880(%rsp), %rax
leaq 320(%rsp), %rcx
leaq 832(%rsp), %rdx
leaq 1344(%rsp), %rsi
leaq 1856(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq L__crypto_kem_keypair_derand_jazz$89(%rip), %r8
movq %r8, (%rsp)
jmp L_shake128_absorb4x_34$1
L__crypto_kem_keypair_derand_jazz$89:
leaq 8(%rsp), %rsp
leaq 2880(%rsp), %rax
leaq 320(%rsp), %rdi
leaq 832(%rsp), %r8
leaq 1344(%rsp), %r9
leaq 1856(%rsp), %r10
movq %rdi, %r11
movq %r8, %rbx
movq %r9, %rbp
movq %r10, %r12
leaq -832(%rsp), %rsp
leaq L__crypto_kem_keypair_derand_jazz$88(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
L__crypto_kem_keypair_derand_jazz$88:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r11)
vmovhpd %xmm1, (%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbp)
vmovhpd %xmm0, (%r12)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r11)
vmovhpd %xmm1, 8(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbp)
vmovhpd %xmm0, 8(%r12)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r11)
vmovhpd %xmm1, 16(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbp)
vmovhpd %xmm0, 16(%r12)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r11)
vmovhpd %xmm1, 24(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbp)
vmovhpd %xmm0, 24(%r12)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r11)
vmovhpd %xmm1, 32(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbp)
vmovhpd %xmm0, 32(%r12)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r11)
vmovhpd %xmm1, 40(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbp)
vmovhpd %xmm0, 40(%r12)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r11)
vmovhpd %xmm1, 48(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbp)
vmovhpd %xmm0, 48(%r12)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r11)
vmovhpd %xmm1, 56(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbp)
vmovhpd %xmm0, 56(%r12)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r11)
vmovhpd %xmm1, 64(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbp)
vmovhpd %xmm0, 64(%r12)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r11)
vmovhpd %xmm1, 72(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbp)
vmovhpd %xmm0, 72(%r12)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r11)
vmovhpd %xmm1, 80(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbp)
vmovhpd %xmm0, 80(%r12)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r11)
vmovhpd %xmm1, 88(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbp)
vmovhpd %xmm0, 88(%r12)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r11)
vmovhpd %xmm1, 96(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbp)
vmovhpd %xmm0, 96(%r12)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r11)
vmovhpd %xmm1, 104(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbp)
vmovhpd %xmm0, 104(%r12)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r11)
vmovhpd %xmm1, 112(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbp)
vmovhpd %xmm0, 112(%r12)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r11)
vmovhpd %xmm1, 120(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbp)
vmovhpd %xmm0, 120(%r12)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r11)
vmovhpd %xmm1, 128(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbp)
vmovhpd %xmm0, 128(%r12)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%r11)
vmovhpd %xmm1, 136(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%rbp)
vmovhpd %xmm0, 136(%r12)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%r11)
vmovhpd %xmm1, 144(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%rbp)
vmovhpd %xmm0, 144(%r12)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%r11)
vmovhpd %xmm1, 152(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%rbp)
vmovhpd %xmm0, 152(%r12)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%r11)
vmovhpd %xmm1, 160(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%rbp)
vmovhpd %xmm0, 160(%r12)
leaq 168(%rdi), %r11
leaq 168(%r8), %rbx
leaq 168(%r9), %rbp
leaq 168(%r10), %r12
leaq -832(%rsp), %rsp
leaq L__crypto_kem_keypair_derand_jazz$87(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
L__crypto_kem_keypair_derand_jazz$87:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r11)
vmovhpd %xmm1, (%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbp)
vmovhpd %xmm0, (%r12)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r11)
vmovhpd %xmm1, 8(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbp)
vmovhpd %xmm0, 8(%r12)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r11)
vmovhpd %xmm1, 16(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbp)
vmovhpd %xmm0, 16(%r12)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r11)
vmovhpd %xmm1, 24(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbp)
vmovhpd %xmm0, 24(%r12)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r11)
vmovhpd %xmm1, 32(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbp)
vmovhpd %xmm0, 32(%r12)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r11)
vmovhpd %xmm1, 40(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbp)
vmovhpd %xmm0, 40(%r12)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r11)
vmovhpd %xmm1, 48(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbp)
vmovhpd %xmm0, 48(%r12)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r11)
vmovhpd %xmm1, 56(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbp)
vmovhpd %xmm0, 56(%r12)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r11)
vmovhpd %xmm1, 64(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbp)
vmovhpd %xmm0, 64(%r12)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r11)
vmovhpd %xmm1, 72(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbp)
vmovhpd %xmm0, 72(%r12)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r11)
vmovhpd %xmm1, 80(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbp)
vmovhpd %xmm0, 80(%r12)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r11)
vmovhpd %xmm1, 88(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbp)
vmovhpd %xmm0, 88(%r12)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r11)
vmovhpd %xmm1, 96(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbp)
vmovhpd %xmm0, 96(%r12)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r11)
vmovhpd %xmm1, 104(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbp)
vmovhpd %xmm0, 104(%r12)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r11)
vmovhpd %xmm1, 112(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbp)
vmovhpd %xmm0, 112(%r12)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r11)
vmovhpd %xmm1, 120(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbp)
vmovhpd %xmm0, 120(%r12)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r11)
vmovhpd %xmm1, 128(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbp)
vmovhpd %xmm0, 128(%r12)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%r11)
vmovhpd %xmm1, 136(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%rbp)
vmovhpd %xmm0, 136(%r12)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%r11)
vmovhpd %xmm1, 144(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%rbp)
vmovhpd %xmm0, 144(%r12)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%r11)
vmovhpd %xmm1, 152(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%rbp)
vmovhpd %xmm0, 152(%r12)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%r11)
vmovhpd %xmm1, 160(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%rbp)
vmovhpd %xmm0, 160(%r12)
leaq 336(%rdi), %rdi
leaq 336(%r8), %r8
leaq 336(%r9), %r9
leaq 336(%r10), %r10
leaq -832(%rsp), %rsp
leaq L__crypto_kem_keypair_derand_jazz$86(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
L__crypto_kem_keypair_derand_jazz$86:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%rdi)
vmovhpd %xmm1, (%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%r9)
vmovhpd %xmm0, (%r10)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%rdi)
vmovhpd %xmm1, 8(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%r9)
vmovhpd %xmm0, 8(%r10)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%rdi)
vmovhpd %xmm1, 16(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%r9)
vmovhpd %xmm0, 16(%r10)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%rdi)
vmovhpd %xmm1, 24(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%r9)
vmovhpd %xmm0, 24(%r10)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%rdi)
vmovhpd %xmm1, 32(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%r9)
vmovhpd %xmm0, 32(%r10)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%rdi)
vmovhpd %xmm1, 40(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%r9)
vmovhpd %xmm0, 40(%r10)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%rdi)
vmovhpd %xmm1, 48(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%r9)
vmovhpd %xmm0, 48(%r10)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%rdi)
vmovhpd %xmm1, 56(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%r9)
vmovhpd %xmm0, 56(%r10)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%rdi)
vmovhpd %xmm1, 64(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%r9)
vmovhpd %xmm0, 64(%r10)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%rdi)
vmovhpd %xmm1, 72(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%r9)
vmovhpd %xmm0, 72(%r10)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%rdi)
vmovhpd %xmm1, 80(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%r9)
vmovhpd %xmm0, 80(%r10)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%rdi)
vmovhpd %xmm1, 88(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%r9)
vmovhpd %xmm0, 88(%r10)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%rdi)
vmovhpd %xmm1, 96(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%r9)
vmovhpd %xmm0, 96(%r10)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%rdi)
vmovhpd %xmm1, 104(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%r9)
vmovhpd %xmm0, 104(%r10)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%rdi)
vmovhpd %xmm1, 112(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%r9)
vmovhpd %xmm0, 112(%r10)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%rdi)
vmovhpd %xmm1, 120(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%r9)
vmovhpd %xmm0, 120(%r10)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%rdi)
vmovhpd %xmm1, 128(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%r9)
vmovhpd %xmm0, 128(%r10)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%rdi)
vmovhpd %xmm1, 136(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%r9)
vmovhpd %xmm0, 136(%r10)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%rdi)
vmovhpd %xmm1, 144(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%r9)
vmovhpd %xmm0, 144(%r10)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%rdi)
vmovhpd %xmm1, 152(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%r9)
vmovhpd %xmm0, 152(%r10)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%rdi)
vmovhpd %xmm1, 160(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%r9)
vmovhpd %xmm0, 160(%r10)
leaq 10336(%rsp), %rbx
leaq 320(%rsp), %rbp
leaq L__crypto_kem_keypair_derand_jazz$85(%rip), %r11
jmp L_rej_uniform_avx$1
L__crypto_kem_keypair_derand_jazz$85:
movq %r13, %r9
leaq 10848(%rsp), %rbx
leaq 832(%rsp), %rbp
leaq L__crypto_kem_keypair_derand_jazz$84(%rip), %r11
jmp L_rej_uniform_avx$1
L__crypto_kem_keypair_derand_jazz$84:
movq %r13, %rdi
leaq 11360(%rsp), %rbx
leaq 1344(%rsp), %rbp
leaq L__crypto_kem_keypair_derand_jazz$83(%rip), %r11
jmp L_rej_uniform_avx$1
L__crypto_kem_keypair_derand_jazz$83:
movq %r13, %r8
leaq 11872(%rsp), %rbx
leaq 1856(%rsp), %rbp
leaq L__crypto_kem_keypair_derand_jazz$82(%rip), %r11
jmp L_rej_uniform_avx$1
L__crypto_kem_keypair_derand_jazz$82:
cmpq $255, %r9
setbe %al
cmpq $255, %rdi
setbe %cl
orb %cl, %al
cmpq $255, %r8
setbe %cl
cmpq $255, %r13
setbe %dl
orb %dl, %cl
orb %al, %cl
jmp L__crypto_kem_keypair_derand_jazz$59
L__crypto_kem_keypair_derand_jazz$60:
leaq 2880(%rsp), %rax
leaq 320(%rsp), %r10
leaq 832(%rsp), %r11
leaq 1344(%rsp), %rbx
leaq 1856(%rsp), %rbp
leaq -832(%rsp), %rsp
leaq L__crypto_kem_keypair_derand_jazz$81(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
L__crypto_kem_keypair_derand_jazz$81:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r10)
vmovhpd %xmm1, (%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbx)
vmovhpd %xmm0, (%rbp)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r10)
vmovhpd %xmm1, 8(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbx)
vmovhpd %xmm0, 8(%rbp)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r10)
vmovhpd %xmm1, 16(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbx)
vmovhpd %xmm0, 16(%rbp)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r10)
vmovhpd %xmm1, 24(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbx)
vmovhpd %xmm0, 24(%rbp)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r10)
vmovhpd %xmm1, 32(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbx)
vmovhpd %xmm0, 32(%rbp)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r10)
vmovhpd %xmm1, 40(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbx)
vmovhpd %xmm0, 40(%rbp)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r10)
vmovhpd %xmm1, 48(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbx)
vmovhpd %xmm0, 48(%rbp)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r10)
vmovhpd %xmm1, 56(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbx)
vmovhpd %xmm0, 56(%rbp)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r10)
vmovhpd %xmm1, 64(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbx)
vmovhpd %xmm0, 64(%rbp)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r10)
vmovhpd %xmm1, 72(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbx)
vmovhpd %xmm0, 72(%rbp)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r10)
vmovhpd %xmm1, 80(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbx)
vmovhpd %xmm0, 80(%rbp)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r10)
vmovhpd %xmm1, 88(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbx)
vmovhpd %xmm0, 88(%rbp)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r10)
vmovhpd %xmm1, 96(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbx)
vmovhpd %xmm0, 96(%rbp)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r10)
vmovhpd %xmm1, 104(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbx)
vmovhpd %xmm0, 104(%rbp)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r10)
vmovhpd %xmm1, 112(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbx)
vmovhpd %xmm0, 112(%rbp)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r10)
vmovhpd %xmm1, 120(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbx)
vmovhpd %xmm0, 120(%rbp)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r10)
vmovhpd %xmm1, 128(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbx)
vmovhpd %xmm0, 128(%rbp)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%r10)
vmovhpd %xmm1, 136(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%rbx)
vmovhpd %xmm0, 136(%rbp)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%r10)
vmovhpd %xmm1, 144(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%rbx)
vmovhpd %xmm0, 144(%rbp)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%r10)
vmovhpd %xmm1, 152(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%rbx)
vmovhpd %xmm0, 152(%rbp)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%r10)
vmovhpd %xmm1, 160(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%rbx)
vmovhpd %xmm0, 160(%rbp)
leaq 10336(%rsp), %rax
leaq 320(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r9
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp L__crypto_kem_keypair_derand_jazz$76
L__crypto_kem_keypair_derand_jazz$77:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb L__crypto_kem_keypair_derand_jazz$80
movw %si, (%rax,%r9,2)
incq %r9
L__crypto_kem_keypair_derand_jazz$80:
cmpq $256, %r9
jnb L__crypto_kem_keypair_derand_jazz$78
cmpw $3329, %r11w
jnb L__crypto_kem_keypair_derand_jazz$78
movw %r11w, (%rax,%r9,2)
incq %r9
L__crypto_kem_keypair_derand_jazz$79:
L__crypto_kem_keypair_derand_jazz$78:
cmpq $255, %r9
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
L__crypto_kem_keypair_derand_jazz$76:
jne L__crypto_kem_keypair_derand_jazz$77
leaq 10848(%rsp), %rax
leaq 832(%rsp), %rcx
movq $0, %rdx
cmpq $255, %rdi
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp L__crypto_kem_keypair_derand_jazz$71
L__crypto_kem_keypair_derand_jazz$72:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb L__crypto_kem_keypair_derand_jazz$75
movw %si, (%rax,%rdi,2)
incq %rdi
L__crypto_kem_keypair_derand_jazz$75:
cmpq $256, %rdi
jnb L__crypto_kem_keypair_derand_jazz$73
cmpw $3329, %r11w
jnb L__crypto_kem_keypair_derand_jazz$73
movw %r11w, (%rax,%rdi,2)
incq %rdi
L__crypto_kem_keypair_derand_jazz$74:
L__crypto_kem_keypair_derand_jazz$73:
cmpq $255, %rdi
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
L__crypto_kem_keypair_derand_jazz$71:
jne L__crypto_kem_keypair_derand_jazz$72
leaq 11360(%rsp), %rax
leaq 1344(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r8
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp L__crypto_kem_keypair_derand_jazz$66
L__crypto_kem_keypair_derand_jazz$67:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb L__crypto_kem_keypair_derand_jazz$70
movw %si, (%rax,%r8,2)
incq %r8
L__crypto_kem_keypair_derand_jazz$70:
cmpq $256, %r8
jnb L__crypto_kem_keypair_derand_jazz$68
cmpw $3329, %r11w
jnb L__crypto_kem_keypair_derand_jazz$68
movw %r11w, (%rax,%r8,2)
incq %r8
L__crypto_kem_keypair_derand_jazz$69:
L__crypto_kem_keypair_derand_jazz$68:
cmpq $255, %r8
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
L__crypto_kem_keypair_derand_jazz$66:
jne L__crypto_kem_keypair_derand_jazz$67
leaq 11872(%rsp), %rax
leaq 1856(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r13
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp L__crypto_kem_keypair_derand_jazz$61
L__crypto_kem_keypair_derand_jazz$62:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb L__crypto_kem_keypair_derand_jazz$65
movw %si, (%rax,%r13,2)
incq %r13
L__crypto_kem_keypair_derand_jazz$65:
cmpq $256, %r13
jnb L__crypto_kem_keypair_derand_jazz$63
cmpw $3329, %r11w
jnb L__crypto_kem_keypair_derand_jazz$63
movw %r11w, (%rax,%r13,2)
incq %r13
L__crypto_kem_keypair_derand_jazz$64:
L__crypto_kem_keypair_derand_jazz$63:
cmpq $255, %r13
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
L__crypto_kem_keypair_derand_jazz$61:
jne L__crypto_kem_keypair_derand_jazz$62
cmpq $255, %r9
setbe %al
cmpq $255, %rdi
setbe %cl
orb %cl, %al
cmpq $255, %r8
setbe %cl
cmpq $255, %r13
setbe %dl
orb %dl, %cl
orb %al, %cl
L__crypto_kem_keypair_derand_jazz$59:
jne L__crypto_kem_keypair_derand_jazz$60
vmovdqu 64(%rsp), %ymm0
vmovdqu %ymm0, 320(%rsp)
movb $2, 352(%rsp)
movb $2, 353(%rsp)
leaq 320(%rsp), %rax
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 96(%rsp)
vmovdqu %ymm0, 128(%rsp)
vmovdqu %ymm0, 160(%rsp)
vmovdqu %ymm0, 192(%rsp)
vmovdqu %ymm0, 224(%rsp)
vmovdqu %ymm0, 256(%rsp)
vmovdqu %ymm0, 288(%rsp)
vpbroadcastq (%rax), %ymm5
movq 8(%rax), %rcx
movq glob_data + 6208(%rip), %rdx
movq %rcx, 96(%rsp,%rdx,8)
movq 16(%rax), %rcx
movq glob_data + 6216(%rip), %rdx
movq %rcx, 96(%rsp,%rdx,8)
movq 24(%rax), %rcx
movq glob_data + 6224(%rip), %rdx
movq %rcx, 96(%rsp,%rdx,8)
movb 32(%rax), %cl
movq glob_data + 6232(%rip), %rdx
shlq $3, %rdx
movb %cl, 96(%rsp,%rdx)
movb 33(%rax), %al
incq %rdx
movb %al, 96(%rsp,%rdx)
incq %rdx
movb $31, 96(%rsp,%rdx)
movq glob_data + 6360(%rip), %rax
shlq $3, %rax
movq $167, %rcx
andq $7, %rcx
addq %rcx, %rax
movb $-128, 96(%rsp,%rax)
vmovdqu 128(%rsp), %ymm0
vmovdqu 160(%rsp), %ymm1
vmovdqu 192(%rsp), %ymm2
vmovdqu 224(%rsp), %ymm6
vmovdqu 256(%rsp), %ymm3
vmovdqu 288(%rsp), %ymm4
leaq 320(%rsp), %rax
leaq glob_data + 3328(%rip), %rcx
movq $0, %rdx
leaq glob_data + 3136(%rip), %rsi
leaq glob_data + 2944(%rip), %rdi
movq $24, %r8
L__crypto_kem_keypair_derand_jazz$58:
vpshufd $78, %ymm1, %ymm8
vpxor %ymm2, %ymm3, %ymm7
vpxor %ymm4, %ymm6, %ymm9
vpxor %ymm0, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm1, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm5, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm1, %ymm1
vpxor %ymm11, %ymm5, %ymm5
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm1, %ymm7
vpsrlvq (%rdi), %ymm1, %ymm1
vpor %ymm7, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpsllvq 64(%rsi), %ymm2, %ymm7
vpsrlvq 64(%rdi), %ymm2, %ymm2
vpor %ymm7, %ymm2, %ymm2
vpxor %ymm9, %ymm6, %ymm6
vpsllvq 96(%rsi), %ymm6, %ymm7
vpsrlvq 96(%rdi), %ymm6, %ymm6
vpor %ymm7, %ymm6, %ymm10
vpxor %ymm9, %ymm3, %ymm3
vpsllvq 128(%rsi), %ymm3, %ymm6
vpsrlvq 128(%rdi), %ymm3, %ymm3
vpor %ymm6, %ymm3, %ymm3
vpxor %ymm9, %ymm4, %ymm4
vpermq $-115, %ymm1, %ymm6
vpermq $-115, %ymm2, %ymm7
vpsllvq 160(%rsi), %ymm4, %ymm1
vpsrlvq 160(%rdi), %ymm4, %ymm2
vpor %ymm1, %ymm2, %ymm8
vpxor %ymm9, %ymm0, %ymm1
vpermq $27, %ymm10, %ymm0
vpermq $114, %ymm3, %ymm9
vpsllvq 32(%rsi), %ymm1, %ymm2
vpsrlvq 32(%rdi), %ymm1, %ymm1
vpor %ymm2, %ymm1, %ymm10
vpsrldq $8, %ymm8, %ymm1
vpandn %ymm1, %ymm8, %ymm2
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm3
vpblendd $12, %ymm7, %ymm6, %ymm4
vpblendd $12, %ymm6, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm0, %ymm3, %ymm3
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm0, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm3, %ymm3
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm3, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm4
vpblendd $12, %ymm10, %ymm0, %ymm11
vpblendd $12, %ymm0, %ymm6, %ymm12
vpxor %ymm6, %ymm1, %ymm3
vpblendd $48, %ymm6, %ymm11, %ymm1
vpblendd $48, %ymm7, %ymm12, %ymm11
vpxor %ymm0, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm1, %ymm1
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm1, %ymm1
vpxor %ymm9, %ymm1, %ymm12
vpermq $30, %ymm8, %ymm1
vpblendd $48, %ymm5, %ymm1, %ymm1
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm5, %ymm11, %ymm11
vpandn %ymm1, %ymm11, %ymm11
vpblendd $12, %ymm0, %ymm7, %ymm1
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm1, %ymm1
vpblendd $48, %ymm6, %ymm13, %ymm13
vpblendd $-64, %ymm6, %ymm1, %ymm1
vpblendd $-64, %ymm0, %ymm13, %ymm13
vpandn %ymm13, %ymm1, %ymm1
vpxor %ymm10, %ymm1, %ymm1
vpermq $0, %ymm2, %ymm13
vpermq $27, %ymm3, %ymm2
vpermq $-115, %ymm4, %ymm3
vpermq $114, %ymm12, %ymm4
vpblendd $12, %ymm6, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm0, %ymm9
vpblendd $48, %ymm0, %ymm12, %ymm0
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm0, %ymm0
vpblendd $-64, %ymm6, %ymm9, %ymm6
vpandn %ymm6, %ymm0, %ymm6
vpxor %ymm13, %ymm5, %ymm5
vpxor %ymm8, %ymm11, %ymm0
vpxor %ymm7, %ymm6, %ymm6
vpxor (%rcx,%rdx), %ymm5, %ymm5
addq $32, %rdx
decq %r8
jne L__crypto_kem_keypair_derand_jazz$58
vmovdqu %ymm5, 96(%rsp)
vmovdqu %ymm0, 128(%rsp)
vmovdqu %ymm1, 160(%rsp)
vmovdqu %ymm2, 192(%rsp)
vmovdqu %ymm6, 224(%rsp)
vmovdqu %ymm3, 256(%rsp)
vmovdqu %ymm4, 288(%rsp)
movq glob_data + 6200(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, (%rax)
movq glob_data + 6208(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 8(%rax)
movq glob_data + 6216(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 16(%rax)
movq glob_data + 6224(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 24(%rax)
movq glob_data + 6232(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 32(%rax)
movq glob_data + 6240(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 40(%rax)
movq glob_data + 6248(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 48(%rax)
movq glob_data + 6256(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 56(%rax)
movq glob_data + 6264(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 64(%rax)
movq glob_data + 6272(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 72(%rax)
movq glob_data + 6280(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 80(%rax)
movq glob_data + 6288(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 88(%rax)
movq glob_data + 6296(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 96(%rax)
movq glob_data + 6304(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 104(%rax)
movq glob_data + 6312(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 112(%rax)
movq glob_data + 6320(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 120(%rax)
movq glob_data + 6328(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 128(%rax)
movq glob_data + 6336(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 136(%rax)
movq glob_data + 6344(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 144(%rax)
movq glob_data + 6352(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 152(%rax)
movq glob_data + 6360(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 160(%rax)
leaq 488(%rsp), %rax
leaq glob_data + 3328(%rip), %rcx
movq $0, %rdx
leaq glob_data + 3136(%rip), %rsi
leaq glob_data + 2944(%rip), %rdi
movq $24, %r8
L__crypto_kem_keypair_derand_jazz$57:
vpshufd $78, %ymm1, %ymm8
vpxor %ymm2, %ymm3, %ymm7
vpxor %ymm4, %ymm6, %ymm9
vpxor %ymm0, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm1, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm5, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm1, %ymm1
vpxor %ymm11, %ymm5, %ymm5
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm1, %ymm7
vpsrlvq (%rdi), %ymm1, %ymm1
vpor %ymm7, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpsllvq 64(%rsi), %ymm2, %ymm7
vpsrlvq 64(%rdi), %ymm2, %ymm2
vpor %ymm7, %ymm2, %ymm2
vpxor %ymm9, %ymm6, %ymm6
vpsllvq 96(%rsi), %ymm6, %ymm7
vpsrlvq 96(%rdi), %ymm6, %ymm6
vpor %ymm7, %ymm6, %ymm10
vpxor %ymm9, %ymm3, %ymm3
vpsllvq 128(%rsi), %ymm3, %ymm6
vpsrlvq 128(%rdi), %ymm3, %ymm3
vpor %ymm6, %ymm3, %ymm3
vpxor %ymm9, %ymm4, %ymm4
vpermq $-115, %ymm1, %ymm6
vpermq $-115, %ymm2, %ymm7
vpsllvq 160(%rsi), %ymm4, %ymm1
vpsrlvq 160(%rdi), %ymm4, %ymm2
vpor %ymm1, %ymm2, %ymm8
vpxor %ymm9, %ymm0, %ymm1
vpermq $27, %ymm10, %ymm0
vpermq $114, %ymm3, %ymm9
vpsllvq 32(%rsi), %ymm1, %ymm2
vpsrlvq 32(%rdi), %ymm1, %ymm1
vpor %ymm2, %ymm1, %ymm10
vpsrldq $8, %ymm8, %ymm1
vpandn %ymm1, %ymm8, %ymm2
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm3
vpblendd $12, %ymm7, %ymm6, %ymm4
vpblendd $12, %ymm6, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm0, %ymm3, %ymm3
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm0, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm3, %ymm3
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm3, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm4
vpblendd $12, %ymm10, %ymm0, %ymm11
vpblendd $12, %ymm0, %ymm6, %ymm12
vpxor %ymm6, %ymm1, %ymm3
vpblendd $48, %ymm6, %ymm11, %ymm1
vpblendd $48, %ymm7, %ymm12, %ymm11
vpxor %ymm0, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm1, %ymm1
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm1, %ymm1
vpxor %ymm9, %ymm1, %ymm12
vpermq $30, %ymm8, %ymm1
vpblendd $48, %ymm5, %ymm1, %ymm1
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm5, %ymm11, %ymm11
vpandn %ymm1, %ymm11, %ymm11
vpblendd $12, %ymm0, %ymm7, %ymm1
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm1, %ymm1
vpblendd $48, %ymm6, %ymm13, %ymm13
vpblendd $-64, %ymm6, %ymm1, %ymm1
vpblendd $-64, %ymm0, %ymm13, %ymm13
vpandn %ymm13, %ymm1, %ymm1
vpxor %ymm10, %ymm1, %ymm1
vpermq $0, %ymm2, %ymm13
vpermq $27, %ymm3, %ymm2
vpermq $-115, %ymm4, %ymm3
vpermq $114, %ymm12, %ymm4
vpblendd $12, %ymm6, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm0, %ymm9
vpblendd $48, %ymm0, %ymm12, %ymm0
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm0, %ymm0
vpblendd $-64, %ymm6, %ymm9, %ymm6
vpandn %ymm6, %ymm0, %ymm6
vpxor %ymm13, %ymm5, %ymm5
vpxor %ymm8, %ymm11, %ymm0
vpxor %ymm7, %ymm6, %ymm6
vpxor (%rcx,%rdx), %ymm5, %ymm5
addq $32, %rdx
decq %r8
jne L__crypto_kem_keypair_derand_jazz$57
vmovdqu %ymm5, 96(%rsp)
vmovdqu %ymm0, 128(%rsp)
vmovdqu %ymm1, 160(%rsp)
vmovdqu %ymm2, 192(%rsp)
vmovdqu %ymm6, 224(%rsp)
vmovdqu %ymm3, 256(%rsp)
vmovdqu %ymm4, 288(%rsp)
movq glob_data + 6200(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, (%rax)
movq glob_data + 6208(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 8(%rax)
movq glob_data + 6216(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 16(%rax)
movq glob_data + 6224(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 24(%rax)
movq glob_data + 6232(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 32(%rax)
movq glob_data + 6240(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 40(%rax)
movq glob_data + 6248(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 48(%rax)
movq glob_data + 6256(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 56(%rax)
movq glob_data + 6264(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 64(%rax)
movq glob_data + 6272(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 72(%rax)
movq glob_data + 6280(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 80(%rax)
movq glob_data + 6288(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 88(%rax)
movq glob_data + 6296(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 96(%rax)
movq glob_data + 6304(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 104(%rax)
movq glob_data + 6312(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 112(%rax)
movq glob_data + 6320(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 120(%rax)
movq glob_data + 6328(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 128(%rax)
movq glob_data + 6336(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 136(%rax)
movq glob_data + 6344(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 144(%rax)
movq glob_data + 6352(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 152(%rax)
movq glob_data + 6360(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 160(%rax)
leaq 656(%rsp), %rax
leaq glob_data + 3328(%rip), %rcx
movq $0, %rdx
leaq glob_data + 3136(%rip), %rsi
leaq glob_data + 2944(%rip), %rdi
movq $24, %r8
L__crypto_kem_keypair_derand_jazz$56:
vpshufd $78, %ymm1, %ymm8
vpxor %ymm2, %ymm3, %ymm7
vpxor %ymm4, %ymm6, %ymm9
vpxor %ymm0, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm1, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm5, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm1, %ymm1
vpxor %ymm11, %ymm5, %ymm5
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm1, %ymm7
vpsrlvq (%rdi), %ymm1, %ymm1
vpor %ymm7, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpsllvq 64(%rsi), %ymm2, %ymm7
vpsrlvq 64(%rdi), %ymm2, %ymm2
vpor %ymm7, %ymm2, %ymm2
vpxor %ymm9, %ymm6, %ymm6
vpsllvq 96(%rsi), %ymm6, %ymm7
vpsrlvq 96(%rdi), %ymm6, %ymm6
vpor %ymm7, %ymm6, %ymm10
vpxor %ymm9, %ymm3, %ymm3
vpsllvq 128(%rsi), %ymm3, %ymm6
vpsrlvq 128(%rdi), %ymm3, %ymm3
vpor %ymm6, %ymm3, %ymm3
vpxor %ymm9, %ymm4, %ymm4
vpermq $-115, %ymm1, %ymm6
vpermq $-115, %ymm2, %ymm7
vpsllvq 160(%rsi), %ymm4, %ymm1
vpsrlvq 160(%rdi), %ymm4, %ymm2
vpor %ymm1, %ymm2, %ymm8
vpxor %ymm9, %ymm0, %ymm1
vpermq $27, %ymm10, %ymm0
vpermq $114, %ymm3, %ymm9
vpsllvq 32(%rsi), %ymm1, %ymm2
vpsrlvq 32(%rdi), %ymm1, %ymm1
vpor %ymm2, %ymm1, %ymm10
vpsrldq $8, %ymm8, %ymm1
vpandn %ymm1, %ymm8, %ymm2
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm3
vpblendd $12, %ymm7, %ymm6, %ymm4
vpblendd $12, %ymm6, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm0, %ymm3, %ymm3
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm0, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm3, %ymm3
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm3, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm4
vpblendd $12, %ymm10, %ymm0, %ymm11
vpblendd $12, %ymm0, %ymm6, %ymm12
vpxor %ymm6, %ymm1, %ymm3
vpblendd $48, %ymm6, %ymm11, %ymm1
vpblendd $48, %ymm7, %ymm12, %ymm11
vpxor %ymm0, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm1, %ymm1
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm1, %ymm1
vpxor %ymm9, %ymm1, %ymm12
vpermq $30, %ymm8, %ymm1
vpblendd $48, %ymm5, %ymm1, %ymm1
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm5, %ymm11, %ymm11
vpandn %ymm1, %ymm11, %ymm11
vpblendd $12, %ymm0, %ymm7, %ymm1
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm1, %ymm1
vpblendd $48, %ymm6, %ymm13, %ymm13
vpblendd $-64, %ymm6, %ymm1, %ymm1
vpblendd $-64, %ymm0, %ymm13, %ymm13
vpandn %ymm13, %ymm1, %ymm1
vpxor %ymm10, %ymm1, %ymm1
vpermq $0, %ymm2, %ymm13
vpermq $27, %ymm3, %ymm2
vpermq $-115, %ymm4, %ymm3
vpermq $114, %ymm12, %ymm4
vpblendd $12, %ymm6, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm0, %ymm9
vpblendd $48, %ymm0, %ymm12, %ymm0
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm0, %ymm0
vpblendd $-64, %ymm6, %ymm9, %ymm6
vpandn %ymm6, %ymm0, %ymm6
vpxor %ymm13, %ymm5, %ymm5
vpxor %ymm8, %ymm11, %ymm0
vpxor %ymm7, %ymm6, %ymm6
vpxor (%rcx,%rdx), %ymm5, %ymm5
addq $32, %rdx
decq %r8
jne L__crypto_kem_keypair_derand_jazz$56
vmovdqu %ymm5, 96(%rsp)
vmovdqu %ymm0, 128(%rsp)
vmovdqu %ymm1, 160(%rsp)
vmovdqu %ymm2, 192(%rsp)
vmovdqu %ymm6, 224(%rsp)
vmovdqu %ymm3, 256(%rsp)
vmovdqu %ymm4, 288(%rsp)
movq glob_data + 6200(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, (%rax)
movq glob_data + 6208(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 8(%rax)
movq glob_data + 6216(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 16(%rax)
movq glob_data + 6224(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 24(%rax)
movq glob_data + 6232(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 32(%rax)
movq glob_data + 6240(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 40(%rax)
movq glob_data + 6248(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 48(%rax)
movq glob_data + 6256(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 56(%rax)
movq glob_data + 6264(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 64(%rax)
movq glob_data + 6272(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 72(%rax)
movq glob_data + 6280(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 80(%rax)
movq glob_data + 6288(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 88(%rax)
movq glob_data + 6296(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 96(%rax)
movq glob_data + 6304(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 104(%rax)
movq glob_data + 6312(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 112(%rax)
movq glob_data + 6320(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 120(%rax)
movq glob_data + 6328(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 128(%rax)
movq glob_data + 6336(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 136(%rax)
movq glob_data + 6344(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 144(%rax)
movq glob_data + 6352(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 152(%rax)
movq glob_data + 6360(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 160(%rax)
vmovdqu %ymm5, 96(%rsp)
vmovdqu %ymm0, 128(%rsp)
vmovdqu %ymm1, 160(%rsp)
vmovdqu %ymm2, 192(%rsp)
vmovdqu %ymm6, 224(%rsp)
vmovdqu %ymm3, 256(%rsp)
vmovdqu %ymm4, 288(%rsp)
leaq 12384(%rsp), %rbx
leaq 320(%rsp), %rbp
leaq L__crypto_kem_keypair_derand_jazz$55(%rip), %r11
jmp L_rej_uniform_avx$1
L__crypto_kem_keypair_derand_jazz$55:
cmpq $255, %r13
setbe %al
vmovdqu 96(%rsp), %ymm6
vmovdqu 128(%rsp), %ymm0
vmovdqu 160(%rsp), %ymm1
vmovdqu 192(%rsp), %ymm2
vmovdqu 224(%rsp), %ymm3
vmovdqu 256(%rsp), %ymm4
vmovdqu 288(%rsp), %ymm5
jmp L__crypto_kem_keypair_derand_jazz$47
L__crypto_kem_keypair_derand_jazz$48:
leaq 320(%rsp), %rax
leaq glob_data + 3328(%rip), %rcx
movq $0, %rdx
leaq glob_data + 3136(%rip), %rsi
leaq glob_data + 2944(%rip), %rdi
movq $24, %r8
L__crypto_kem_keypair_derand_jazz$54:
vpshufd $78, %ymm1, %ymm8
vpxor %ymm2, %ymm4, %ymm7
vpxor %ymm5, %ymm3, %ymm9
vpxor %ymm0, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm1, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm1, %ymm1
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm1, %ymm7
vpsrlvq (%rdi), %ymm1, %ymm1
vpor %ymm7, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpsllvq 64(%rsi), %ymm2, %ymm7
vpsrlvq 64(%rdi), %ymm2, %ymm2
vpor %ymm7, %ymm2, %ymm2
vpxor %ymm9, %ymm3, %ymm3
vpsllvq 96(%rsi), %ymm3, %ymm7
vpsrlvq 96(%rdi), %ymm3, %ymm3
vpor %ymm7, %ymm3, %ymm10
vpxor %ymm9, %ymm4, %ymm3
vpsllvq 128(%rsi), %ymm3, %ymm4
vpsrlvq 128(%rdi), %ymm3, %ymm3
vpor %ymm4, %ymm3, %ymm4
vpxor %ymm9, %ymm5, %ymm5
vpermq $-115, %ymm1, %ymm3
vpermq $-115, %ymm2, %ymm7
vpsllvq 160(%rsi), %ymm5, %ymm1
vpsrlvq 160(%rdi), %ymm5, %ymm2
vpor %ymm1, %ymm2, %ymm8
vpxor %ymm9, %ymm0, %ymm1
vpermq $27, %ymm10, %ymm0
vpermq $114, %ymm4, %ymm9
vpsllvq 32(%rsi), %ymm1, %ymm2
vpsrlvq 32(%rdi), %ymm1, %ymm1
vpor %ymm2, %ymm1, %ymm10
vpsrldq $8, %ymm8, %ymm1
vpandn %ymm1, %ymm8, %ymm2
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm3, %ymm5
vpblendd $12, %ymm3, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm0, %ymm4, %ymm4
vpblendd $48, %ymm10, %ymm5, %ymm5
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm0, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm9, %ymm5, %ymm5
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm4, %ymm1, %ymm1
vpandn %ymm11, %ymm5, %ymm5
vpblendd $12, %ymm10, %ymm0, %ymm11
vpblendd $12, %ymm0, %ymm3, %ymm12
vpxor %ymm3, %ymm1, %ymm4
vpblendd $48, %ymm3, %ymm11, %ymm1
vpblendd $48, %ymm7, %ymm12, %ymm11
vpxor %ymm0, %ymm5, %ymm5
vpblendd $-64, %ymm7, %ymm1, %ymm1
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm1, %ymm1
vpxor %ymm9, %ymm1, %ymm12
vpermq $30, %ymm8, %ymm1
vpblendd $48, %ymm6, %ymm1, %ymm1
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm1, %ymm11, %ymm11
vpblendd $12, %ymm0, %ymm7, %ymm1
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm13, %ymm13
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm0, %ymm13, %ymm13
vpandn %ymm13, %ymm1, %ymm1
vpxor %ymm10, %ymm1, %ymm1
vpermq $0, %ymm2, %ymm13
vpermq $27, %ymm4, %ymm2
vpermq $-115, %ymm5, %ymm4
vpermq $114, %ymm12, %ymm5
vpblendd $12, %ymm3, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm0, %ymm9
vpblendd $48, %ymm0, %ymm12, %ymm0
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm0, %ymm0
vpblendd $-64, %ymm3, %ymm9, %ymm3
vpandn %ymm3, %ymm0, %ymm3
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm0
vpxor %ymm7, %ymm3, %ymm3
vpxor (%rcx,%rdx), %ymm6, %ymm6
addq $32, %rdx
decq %r8
jne L__crypto_kem_keypair_derand_jazz$54
vmovdqu %ymm6, 96(%rsp)
vmovdqu %ymm0, 128(%rsp)
vmovdqu %ymm1, 160(%rsp)
vmovdqu %ymm2, 192(%rsp)
vmovdqu %ymm3, 224(%rsp)
vmovdqu %ymm4, 256(%rsp)
vmovdqu %ymm5, 288(%rsp)
movq glob_data + 6200(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, (%rax)
movq glob_data + 6208(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 8(%rax)
movq glob_data + 6216(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 16(%rax)
movq glob_data + 6224(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 24(%rax)
movq glob_data + 6232(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 32(%rax)
movq glob_data + 6240(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 40(%rax)
movq glob_data + 6248(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 48(%rax)
movq glob_data + 6256(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 56(%rax)
movq glob_data + 6264(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 64(%rax)
movq glob_data + 6272(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 72(%rax)
movq glob_data + 6280(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 80(%rax)
movq glob_data + 6288(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 88(%rax)
movq glob_data + 6296(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 96(%rax)
movq glob_data + 6304(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 104(%rax)
movq glob_data + 6312(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 112(%rax)
movq glob_data + 6320(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 120(%rax)
movq glob_data + 6328(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 128(%rax)
movq glob_data + 6336(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 136(%rax)
movq glob_data + 6344(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 144(%rax)
movq glob_data + 6352(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 152(%rax)
movq glob_data + 6360(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 160(%rax)
leaq 12384(%rsp), %rax
leaq 320(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r13
setbe %sil
cmpq $165, %rdx
setbe %dil
testb %dil, %sil
jmp L__crypto_kem_keypair_derand_jazz$49
L__crypto_kem_keypair_derand_jazz$50:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw (%rcx,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb L__crypto_kem_keypair_derand_jazz$53
movw %si, (%rax,%r13,2)
incq %r13
L__crypto_kem_keypair_derand_jazz$53:
cmpq $256, %r13
jnb L__crypto_kem_keypair_derand_jazz$51
cmpw $3329, %r8w
jnb L__crypto_kem_keypair_derand_jazz$51
movw %r8w, (%rax,%r13,2)
incq %r13
L__crypto_kem_keypair_derand_jazz$52:
L__crypto_kem_keypair_derand_jazz$51:
cmpq $255, %r13
setbe %sil
cmpq $165, %rdx
setbe %dil
testb %dil, %sil
L__crypto_kem_keypair_derand_jazz$49:
jne L__crypto_kem_keypair_derand_jazz$50
cmpq $255, %r13
setbe %al
L__crypto_kem_keypair_derand_jazz$47:
cmpb $0, %al
jne L__crypto_kem_keypair_derand_jazz$48
leaq 8288(%rsp), %rax
leaq L__crypto_kem_keypair_derand_jazz$46(%rip), %rcx
jmp L_nttunpack$1
L__crypto_kem_keypair_derand_jazz$46:
leaq 8800(%rsp), %rax
leaq L__crypto_kem_keypair_derand_jazz$45(%rip), %rcx
jmp L_nttunpack$1
L__crypto_kem_keypair_derand_jazz$45:
leaq 9312(%rsp), %rax
leaq L__crypto_kem_keypair_derand_jazz$44(%rip), %rcx
jmp L_nttunpack$1
L__crypto_kem_keypair_derand_jazz$44:
leaq 9824(%rsp), %rax
leaq L__crypto_kem_keypair_derand_jazz$43(%rip), %rcx
jmp L_nttunpack$1
L__crypto_kem_keypair_derand_jazz$43:
leaq 10336(%rsp), %rax
leaq L__crypto_kem_keypair_derand_jazz$42(%rip), %rcx
jmp L_nttunpack$1
L__crypto_kem_keypair_derand_jazz$42:
leaq 10848(%rsp), %rax
leaq L__crypto_kem_keypair_derand_jazz$41(%rip), %rcx
jmp L_nttunpack$1
L__crypto_kem_keypair_derand_jazz$41:
leaq 11360(%rsp), %rax
leaq L__crypto_kem_keypair_derand_jazz$40(%rip), %rcx
jmp L_nttunpack$1
L__crypto_kem_keypair_derand_jazz$40:
leaq 11872(%rsp), %rax
leaq L__crypto_kem_keypair_derand_jazz$39(%rip), %rcx
jmp L_nttunpack$1
L__crypto_kem_keypair_derand_jazz$39:
leaq 12384(%rsp), %rax
leaq L__crypto_kem_keypair_derand_jazz$38(%rip), %rcx
jmp L_nttunpack$1
L__crypto_kem_keypair_derand_jazz$38:
movb $0, %cl
leaq 3680(%rsp), %rax
leaq 4192(%rsp), %rdi
leaq 4704(%rsp), %r8
leaq 5216(%rsp), %r9
leaq 32(%rsp), %r10
leaq -1472(%rsp), %rsp
leaq L__crypto_kem_keypair_derand_jazz$37(%rip), %rdx
movq %rdx, 1464(%rsp)
jmp L_poly_getnoise_eta1_4x$1
L__crypto_kem_keypair_derand_jazz$37:
leaq 1472(%rsp), %rsp
movb $4, %cl
leaq 5728(%rsp), %rax
leaq 6240(%rsp), %rdi
leaq 6752(%rsp), %r8
leaq 7264(%rsp), %r9
leaq 32(%rsp), %r10
leaq -1472(%rsp), %rsp
leaq L__crypto_kem_keypair_derand_jazz$36(%rip), %rdx
movq %rdx, 1464(%rsp)
jmp L_poly_getnoise_eta1_4x$1
L__crypto_kem_keypair_derand_jazz$36:
leaq 1472(%rsp), %rsp
leaq 3680(%rsp), %rcx
leaq L__crypto_kem_keypair_derand_jazz$35(%rip), %rdi
jmp L_poly_ntt$1
L__crypto_kem_keypair_derand_jazz$35:
leaq 4192(%rsp), %rcx
leaq L__crypto_kem_keypair_derand_jazz$34(%rip), %rdi
jmp L_poly_ntt$1
L__crypto_kem_keypair_derand_jazz$34:
leaq 4704(%rsp), %rcx
leaq L__crypto_kem_keypair_derand_jazz$33(%rip), %rdi
jmp L_poly_ntt$1
L__crypto_kem_keypair_derand_jazz$33:
leaq 5216(%rsp), %rcx
leaq L__crypto_kem_keypair_derand_jazz$32(%rip), %rdi
jmp L_poly_ntt$1
L__crypto_kem_keypair_derand_jazz$32:
leaq 5728(%rsp), %rcx
leaq L__crypto_kem_keypair_derand_jazz$31(%rip), %rdi
jmp L_poly_ntt$1
L__crypto_kem_keypair_derand_jazz$31:
leaq 6240(%rsp), %rcx
leaq L__crypto_kem_keypair_derand_jazz$30(%rip), %rdi
jmp L_poly_ntt$1
L__crypto_kem_keypair_derand_jazz$30:
leaq 6752(%rsp), %rcx
leaq 8288(%rsp), %rsi
leaq 3680(%rsp), %rdi
leaq L__crypto_kem_keypair_derand_jazz$29(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_keypair_derand_jazz$29:
leaq 2368(%rsp), %rcx
leaq 8800(%rsp), %rsi
leaq 4192(%rsp), %rdi
leaq L__crypto_kem_keypair_derand_jazz$28(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_keypair_derand_jazz$28:
leaq 6752(%rsp), %rcx
leaq 2368(%rsp), %rsi
leaq L__crypto_kem_keypair_derand_jazz$27(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_keypair_derand_jazz$27:
leaq 2368(%rsp), %rcx
leaq 9312(%rsp), %rsi
leaq 4704(%rsp), %rdi
leaq L__crypto_kem_keypair_derand_jazz$26(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_keypair_derand_jazz$26:
leaq 6752(%rsp), %rcx
leaq 2368(%rsp), %rsi
leaq L__crypto_kem_keypair_derand_jazz$25(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_keypair_derand_jazz$25:
leaq 6752(%rsp), %rax
leaq L__crypto_kem_keypair_derand_jazz$24(%rip), %rdx
jmp L_poly_frommont$1
L__crypto_kem_keypair_derand_jazz$24:
leaq 7264(%rsp), %rcx
leaq 9824(%rsp), %rsi
leaq 3680(%rsp), %rdi
leaq L__crypto_kem_keypair_derand_jazz$23(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_keypair_derand_jazz$23:
leaq 2368(%rsp), %rcx
leaq 10336(%rsp), %rsi
leaq 4192(%rsp), %rdi
leaq L__crypto_kem_keypair_derand_jazz$22(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_keypair_derand_jazz$22:
leaq 7264(%rsp), %rcx
leaq 2368(%rsp), %rsi
leaq L__crypto_kem_keypair_derand_jazz$21(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_keypair_derand_jazz$21:
leaq 2368(%rsp), %rcx
leaq 10848(%rsp), %rsi
leaq 4704(%rsp), %rdi
leaq L__crypto_kem_keypair_derand_jazz$20(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_keypair_derand_jazz$20:
leaq 7264(%rsp), %rcx
leaq 2368(%rsp), %rsi
leaq L__crypto_kem_keypair_derand_jazz$19(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_keypair_derand_jazz$19:
leaq 7264(%rsp), %rax
leaq L__crypto_kem_keypair_derand_jazz$18(%rip), %rdx
jmp L_poly_frommont$1
L__crypto_kem_keypair_derand_jazz$18:
leaq 7776(%rsp), %rcx
leaq 11360(%rsp), %rsi
leaq 3680(%rsp), %rdi
leaq L__crypto_kem_keypair_derand_jazz$17(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_keypair_derand_jazz$17:
leaq 2368(%rsp), %rcx
leaq 11872(%rsp), %rsi
leaq 4192(%rsp), %rdi
leaq L__crypto_kem_keypair_derand_jazz$16(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_keypair_derand_jazz$16:
leaq 7776(%rsp), %rcx
leaq 2368(%rsp), %rsi
leaq L__crypto_kem_keypair_derand_jazz$15(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_keypair_derand_jazz$15:
leaq 2368(%rsp), %rcx
leaq 12384(%rsp), %rsi
leaq 4704(%rsp), %rdi
leaq L__crypto_kem_keypair_derand_jazz$14(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_keypair_derand_jazz$14:
leaq 7776(%rsp), %rcx
leaq 2368(%rsp), %rsi
leaq L__crypto_kem_keypair_derand_jazz$13(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_keypair_derand_jazz$13:
leaq 7776(%rsp), %rax
leaq L__crypto_kem_keypair_derand_jazz$12(%rip), %rdx
jmp L_poly_frommont$1
L__crypto_kem_keypair_derand_jazz$12:
leaq 6752(%rsp), %rcx
leaq 5216(%rsp), %rsi
leaq L__crypto_kem_keypair_derand_jazz$11(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_keypair_derand_jazz$11:
leaq 7264(%rsp), %rcx
leaq 5728(%rsp), %rsi
leaq L__crypto_kem_keypair_derand_jazz$10(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_keypair_derand_jazz$10:
leaq 7776(%rsp), %rcx
leaq 6240(%rsp), %rsi
leaq L__crypto_kem_keypair_derand_jazz$9(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_keypair_derand_jazz$9:
leaq 6752(%rsp), %rax
vmovdqu glob_data + 448(%rip), %ymm0
vmovdqu glob_data + 384(%rip), %ymm1
vmovdqu (%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, (%rax)
vmovdqu 32(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 32(%rax)
vmovdqu 64(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 64(%rax)
vmovdqu 96(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 96(%rax)
vmovdqu 128(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 128(%rax)
vmovdqu 160(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 160(%rax)
vmovdqu 192(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 192(%rax)
vmovdqu 224(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 224(%rax)
vmovdqu 256(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 256(%rax)
vmovdqu 288(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 288(%rax)
vmovdqu 320(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 320(%rax)
vmovdqu 352(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 352(%rax)
vmovdqu 384(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 384(%rax)
vmovdqu 416(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 416(%rax)
vmovdqu 448(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 448(%rax)
vmovdqu 480(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm1
vpsraw $10, %ymm1, %ymm1
vpmullw %ymm0, %ymm1, %ymm0
vpsubw %ymm0, %ymm2, %ymm0
vmovdqu %ymm0, 480(%rax)
leaq 7264(%rsp), %rax
vmovdqu glob_data + 448(%rip), %ymm0
vmovdqu glob_data + 384(%rip), %ymm1
vmovdqu (%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, (%rax)
vmovdqu 32(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 32(%rax)
vmovdqu 64(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 64(%rax)
vmovdqu 96(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 96(%rax)
vmovdqu 128(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 128(%rax)
vmovdqu 160(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 160(%rax)
vmovdqu 192(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 192(%rax)
vmovdqu 224(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 224(%rax)
vmovdqu 256(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 256(%rax)
vmovdqu 288(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 288(%rax)
vmovdqu 320(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 320(%rax)
vmovdqu 352(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 352(%rax)
vmovdqu 384(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 384(%rax)
vmovdqu 416(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 416(%rax)
vmovdqu 448(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 448(%rax)
vmovdqu 480(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm1
vpsraw $10, %ymm1, %ymm1
vpmullw %ymm0, %ymm1, %ymm0
vpsubw %ymm0, %ymm2, %ymm0
vmovdqu %ymm0, 480(%rax)
leaq 7776(%rsp), %rax
vmovdqu glob_data + 448(%rip), %ymm0
vmovdqu glob_data + 384(%rip), %ymm1
vmovdqu (%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, (%rax)
vmovdqu 32(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 32(%rax)
vmovdqu 64(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 64(%rax)
vmovdqu 96(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 96(%rax)
vmovdqu 128(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 128(%rax)
vmovdqu 160(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 160(%rax)
vmovdqu 192(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 192(%rax)
vmovdqu 224(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 224(%rax)
vmovdqu 256(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 256(%rax)
vmovdqu 288(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 288(%rax)
vmovdqu 320(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 320(%rax)
vmovdqu 352(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 352(%rax)
vmovdqu 384(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 384(%rax)
vmovdqu 416(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 416(%rax)
vmovdqu 448(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 448(%rax)
vmovdqu 480(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm1
vpsraw $10, %ymm1, %ymm1
vpmullw %ymm0, %ymm1, %ymm0
vpsubw %ymm0, %ymm2, %ymm0
vmovdqu %ymm0, 480(%rax)
movq 12920(%rsp), %rax
movq 12928(%rsp), %rcx
leaq 3680(%rsp), %rdx
leaq L__crypto_kem_keypair_derand_jazz$8(%rip), %rdi
jmp L_poly_tobytes$1
L__crypto_kem_keypair_derand_jazz$8:
addq $384, %rcx
leaq 4192(%rsp), %rdx
leaq L__crypto_kem_keypair_derand_jazz$7(%rip), %rdi
jmp L_poly_tobytes$1
L__crypto_kem_keypair_derand_jazz$7:
addq $384, %rcx
leaq 4704(%rsp), %rdx
leaq L__crypto_kem_keypair_derand_jazz$6(%rip), %rdi
jmp L_poly_tobytes$1
L__crypto_kem_keypair_derand_jazz$6:
movq %rax, %rcx
leaq 6752(%rsp), %rdx
leaq L__crypto_kem_keypair_derand_jazz$5(%rip), %rdi
jmp L_poly_tobytes$1
L__crypto_kem_keypair_derand_jazz$5:
addq $384, %rcx
leaq 7264(%rsp), %rdx
leaq L__crypto_kem_keypair_derand_jazz$4(%rip), %rdi
jmp L_poly_tobytes$1
L__crypto_kem_keypair_derand_jazz$4:
addq $384, %rcx
leaq 7776(%rsp), %rdx
leaq L__crypto_kem_keypair_derand_jazz$3(%rip), %rdi
jmp L_poly_tobytes$1
L__crypto_kem_keypair_derand_jazz$3:
addq $1152, %rax
movq (%rsp), %rcx
movq %rcx, (%rax)
addq $8, %rax
movq 8(%rsp), %rcx
movq %rcx, (%rax)
addq $8, %rax
movq 16(%rsp), %rcx
movq %rcx, (%rax)
addq $8, %rax
movq 24(%rsp), %rcx
movq %rcx, (%rax)
movq 12912(%rsp), %rax
addq $1152, %rax
movq 12904(%rsp), %rcx
movq (%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 8(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 16(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 24(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 32(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 40(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 48(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 56(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 64(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 72(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 80(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 88(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 96(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 104(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 112(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 120(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 128(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 136(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 144(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 152(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 160(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 168(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 176(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 184(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 192(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 200(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 208(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 216(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 224(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 232(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 240(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 248(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 256(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 264(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 272(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 280(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 288(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 296(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 304(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 312(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 320(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 328(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 336(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 344(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 352(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 360(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 368(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 376(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 384(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 392(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 400(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 408(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 416(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 424(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 432(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 440(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 448(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 456(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 464(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 472(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 480(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 488(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 496(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 504(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 512(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 520(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 528(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 536(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 544(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 552(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 560(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 568(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 576(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 584(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 592(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 600(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 608(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 616(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 624(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 632(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 640(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 648(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 656(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 664(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 672(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 680(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 688(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 696(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 704(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 712(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 720(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 728(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 736(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 744(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 752(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 760(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 768(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 776(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 784(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 792(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 800(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 808(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 816(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 824(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 832(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 840(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 848(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 856(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 864(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 872(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 880(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 888(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 896(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 904(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 912(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 920(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 928(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 936(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 944(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 952(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 960(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 968(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 976(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 984(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 992(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1000(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1008(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1016(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1024(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1032(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1040(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1048(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1056(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1064(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1072(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1080(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1088(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1096(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1104(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1112(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1120(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1128(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1136(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1144(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1152(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1160(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1168(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1176(%rcx), %rcx
movq %rcx, (%rax)
addq $8, %rax
movq %rax, 12912(%rsp)
movq 12904(%rsp), %r8
movq $1184, %rdi
movq %rsp, %rax
leaq -256(%rsp), %rsp
leaq L__crypto_kem_keypair_derand_jazz$2(%rip), %rcx
movq %rcx, 224(%rsp)
jmp L_sha3_256$1
L__crypto_kem_keypair_derand_jazz$2:
leaq 256(%rsp), %rsp
movq 12912(%rsp), %rax
movq 12896(%rsp), %rcx
movq %rsp, %rdx
movb (%rdx), %sil
movb %sil, (%rax)
movb 1(%rdx), %sil
movb %sil, 1(%rax)
movb 2(%rdx), %sil
movb %sil, 2(%rax)
movb 3(%rdx), %sil
movb %sil, 3(%rax)
movb 4(%rdx), %sil
movb %sil, 4(%rax)
movb 5(%rdx), %sil
movb %sil, 5(%rax)
movb 6(%rdx), %sil
movb %sil, 6(%rax)
movb 7(%rdx), %sil
movb %sil, 7(%rax)
movb 8(%rdx), %sil
movb %sil, 8(%rax)
movb 9(%rdx), %sil
movb %sil, 9(%rax)
movb 10(%rdx), %sil
movb %sil, 10(%rax)
movb 11(%rdx), %sil
movb %sil, 11(%rax)
movb 12(%rdx), %sil
movb %sil, 12(%rax)
movb 13(%rdx), %sil
movb %sil, 13(%rax)
movb 14(%rdx), %sil
movb %sil, 14(%rax)
movb 15(%rdx), %sil
movb %sil, 15(%rax)
movb 16(%rdx), %sil
movb %sil, 16(%rax)
movb 17(%rdx), %sil
movb %sil, 17(%rax)
movb 18(%rdx), %sil
movb %sil, 18(%rax)
movb 19(%rdx), %sil
movb %sil, 19(%rax)
movb 20(%rdx), %sil
movb %sil, 20(%rax)
movb 21(%rdx), %sil
movb %sil, 21(%rax)
movb 22(%rdx), %sil
movb %sil, 22(%rax)
movb 23(%rdx), %sil
movb %sil, 23(%rax)
movb 24(%rdx), %sil
movb %sil, 24(%rax)
movb 25(%rdx), %sil
movb %sil, 25(%rax)
movb 26(%rdx), %sil
movb %sil, 26(%rax)
movb 27(%rdx), %sil
movb %sil, 27(%rax)
movb 28(%rdx), %sil
movb %sil, 28(%rax)
movb 29(%rdx), %sil
movb %sil, 29(%rax)
movb 30(%rdx), %sil
movb %sil, 30(%rax)
movb 31(%rdx), %dl
movb %dl, 31(%rax)
addq $32, %rax
leaq 32(%rcx), %rcx
movb (%rcx), %dl
movb %dl, (%rax)
movb 1(%rcx), %dl
movb %dl, 1(%rax)
movb 2(%rcx), %dl
movb %dl, 2(%rax)
movb 3(%rcx), %dl
movb %dl, 3(%rax)
movb 4(%rcx), %dl
movb %dl, 4(%rax)
movb 5(%rcx), %dl
movb %dl, 5(%rax)
movb 6(%rcx), %dl
movb %dl, 6(%rax)
movb 7(%rcx), %dl
movb %dl, 7(%rax)
movb 8(%rcx), %dl
movb %dl, 8(%rax)
movb 9(%rcx), %dl
movb %dl, 9(%rax)
movb 10(%rcx), %dl
movb %dl, 10(%rax)
movb 11(%rcx), %dl
movb %dl, 11(%rax)
movb 12(%rcx), %dl
movb %dl, 12(%rax)
movb 13(%rcx), %dl
movb %dl, 13(%rax)
movb 14(%rcx), %dl
movb %dl, 14(%rax)
movb 15(%rcx), %dl
movb %dl, 15(%rax)
movb 16(%rcx), %dl
movb %dl, 16(%rax)
movb 17(%rcx), %dl
movb %dl, 17(%rax)
movb 18(%rcx), %dl
movb %dl, 18(%rax)
movb 19(%rcx), %dl
movb %dl, 19(%rax)
movb 20(%rcx), %dl
movb %dl, 20(%rax)
movb 21(%rcx), %dl
movb %dl, 21(%rax)
movb 22(%rcx), %dl
movb %dl, 22(%rax)
movb 23(%rcx), %dl
movb %dl, 23(%rax)
movb 24(%rcx), %dl
movb %dl, 24(%rax)
movb 25(%rcx), %dl
movb %dl, 25(%rax)
movb 26(%rcx), %dl
movb %dl, 26(%rax)
movb 27(%rcx), %dl
movb %dl, 27(%rax)
movb 28(%rcx), %dl
movb %dl, 28(%rax)
movb 29(%rcx), %dl
movb %dl, 29(%rax)
movb 30(%rcx), %dl
movb %dl, 30(%rax)
movb 31(%rcx), %cl
movb %cl, 31(%rax)
jmp *13000(%rsp)
L_rej_uniform_avx$1:
leaq glob_data + 4128(%rip), %r10
vmovdqu glob_data + 448(%rip), %ymm0
movq $0, %r13
movq $0, %r12
vpbroadcastb glob_data + 6430(%rip), %ymm1
vpbroadcastw glob_data + 6416(%rip), %ymm2
vmovdqu glob_data + 0(%rip), %ymm3
cmpq $224, %r13
setbe %al
cmpq $448, %r12
setbe %cl
testb %cl, %al
jmp L_rej_uniform_avx$9
L_rej_uniform_avx$10:
vpermq $-108, (%rbp,%r12), %ymm4
vpermq $-108, 24(%rbp,%r12), %ymm5
vpshufb %ymm3, %ymm4, %ymm4
vpshufb %ymm3, %ymm5, %ymm5
vpsrlw $4, %ymm4, %ymm6
vpsrlw $4, %ymm5, %ymm7
vpblendw $-86, %ymm6, %ymm4, %ymm4
vpblendw $-86, %ymm7, %ymm5, %ymm5
vpand %ymm2, %ymm4, %ymm4
vpand %ymm2, %ymm5, %ymm5
vpcmpgtw %ymm4, %ymm0, %ymm6
vpcmpgtw %ymm5, %ymm0, %ymm7
vpacksswb %ymm7, %ymm6, %ymm6
vpmovmskb %ymm6, %rax
movq %rax, %rcx
andq $255, %rcx
vmovq (%r10,%rcx,8), %xmm6
movq %rax, %rdx
shrq $16, %rdx
andq $255, %rdx
vmovq (%r10,%rdx,8), %xmm7
movq %rax, %rsi
shrq $8, %rsi
andq $255, %rsi
vmovq (%r10,%rsi,8), %xmm8
shrq $24, %rax
andq $255, %rax
vmovq (%r10,%rax,8), %xmm9
vinserti128 $1, %xmm7, %ymm6, %ymm6
popcnt %rcx, %rcx
popcnt %rdx, %rdx
addq %r13, %rcx
vinserti128 $1, %xmm9, %ymm8, %ymm7
addq %rcx, %rdx
popcnt %rsi, %rsi
addq %rdx, %rsi
popcnt %rax, %rax
addq %rsi, %rax
vpaddb %ymm1, %ymm6, %ymm8
vpunpcklbw %ymm8, %ymm6, %ymm6
vpaddb %ymm1, %ymm7, %ymm8
vpunpcklbw %ymm8, %ymm7, %ymm7
vpshufb %ymm6, %ymm4, %ymm4
vpshufb %ymm7, %ymm5, %ymm5
vmovdqu %xmm4, (%rbx,%r13,2)
vextracti128 $1, %ymm4, (%rbx,%rcx,2)
vmovdqu %xmm5, (%rbx,%rdx,2)
vextracti128 $1, %ymm5, (%rbx,%rsi,2)
movq %rax, %r13
cmpq $224, %r13
setbe %al
addq $48, %r12
cmpq $448, %r12
setbe %cl
testb %cl, %al
L_rej_uniform_avx$9:
jne L_rej_uniform_avx$10
cmpq $248, %r13
setbe %al
cmpq $488, %r12
setbe %cl
testb %cl, %al
movq $21845, %rax
jmp L_rej_uniform_avx$7
L_rej_uniform_avx$8:
vmovdqu (%rbp,%r12), %xmm4
vpshufb %xmm3, %xmm4, %xmm4
vpsrlw $4, %xmm4, %xmm5
vpblendw $-86, %xmm5, %xmm4, %xmm4
vpand %xmm2, %xmm4, %xmm4
vpcmpgtw %xmm4, %xmm0, %xmm5
vpmovmskb %xmm5, %rcx
pext %rax, %rcx, %rcx
vmovq (%r10,%rcx,8), %xmm5
popcnt %rcx, %rcx
vpaddb %xmm1, %xmm5, %xmm6
vpunpcklbw %xmm6, %xmm5, %xmm5
vpshufb %xmm5, %xmm4, %xmm4
vmovdqu %xmm4, (%rbx,%r13,2)
addq %rcx, %r13
addq $12, %r12
cmpq $248, %r13
setbe %cl
cmpq $488, %r12
setbe %dl
testb %dl, %cl
L_rej_uniform_avx$7:
jne L_rej_uniform_avx$8
cmpq $255, %r13
setbe %al
cmpq $501, %r12
setbe %cl
testb %cl, %al
jmp L_rej_uniform_avx$2
L_rej_uniform_avx$3:
movzbw (%rbp,%r12), %ax
incq %r12
movzbw (%rbp,%r12), %dx
incq %r12
movw %dx, %cx
shlw $8, %dx
orw %dx, %ax
andw $4095, %ax
shrw $4, %cx
movzbw (%rbp,%r12), %dx
incq %r12
shlw $4, %dx
orw %dx, %cx
cmpw $3329, %ax
jnb L_rej_uniform_avx$6
movw %ax, (%rbx,%r13,2)
incq %r13
L_rej_uniform_avx$6:
cmpw $3329, %cx
jnb L_rej_uniform_avx$4
cmpq $256, %r13
jnb L_rej_uniform_avx$4
movw %cx, (%rbx,%r13,2)
incq %r13
L_rej_uniform_avx$5:
L_rej_uniform_avx$4:
cmpq $255, %r13
setbe %al
cmpq $501, %r12
setbe %cl
testb %cl, %al
L_rej_uniform_avx$2:
jne L_rej_uniform_avx$3
jmp *%r11
L_poly_tomsg_1$1:
leaq L_poly_tomsg_1$2(%rip), %r8
jmp L_poly_csubq$1
L_poly_tomsg_1$2:
leaq glob_data + 224(%rip), %rsi
vmovdqu (%rsi), %ymm0
leaq glob_data + 192(%rip), %rsi
vmovdqu (%rsi), %ymm1
vmovdqu (%rcx), %ymm2
vmovdqu 32(%rcx), %ymm3
vpsubw %ymm2, %ymm0, %ymm2
vpsubw %ymm3, %ymm0, %ymm3
vpsraw $15, %ymm2, %ymm4
vpsraw $15, %ymm3, %ymm5
vpxor %ymm4, %ymm2, %ymm2
vpxor %ymm5, %ymm3, %ymm3
vpsubw %ymm1, %ymm2, %ymm2
vpsubw %ymm1, %ymm3, %ymm3
vpacksswb %ymm3, %ymm2, %ymm2
vpermq $-40, %ymm2, %ymm2
vpmovmskb %ymm2, %esi
movl %esi, (%rax)
vmovdqu 64(%rcx), %ymm2
vmovdqu 96(%rcx), %ymm3
vpsubw %ymm2, %ymm0, %ymm2
vpsubw %ymm3, %ymm0, %ymm3
vpsraw $15, %ymm2, %ymm4
vpsraw $15, %ymm3, %ymm5
vpxor %ymm4, %ymm2, %ymm2
vpxor %ymm5, %ymm3, %ymm3
vpsubw %ymm1, %ymm2, %ymm2
vpsubw %ymm1, %ymm3, %ymm3
vpacksswb %ymm3, %ymm2, %ymm2
vpermq $-40, %ymm2, %ymm2
vpmovmskb %ymm2, %esi
movl %esi, 4(%rax)
vmovdqu 128(%rcx), %ymm2
vmovdqu 160(%rcx), %ymm3
vpsubw %ymm2, %ymm0, %ymm2
vpsubw %ymm3, %ymm0, %ymm3
vpsraw $15, %ymm2, %ymm4
vpsraw $15, %ymm3, %ymm5
vpxor %ymm4, %ymm2, %ymm2
vpxor %ymm5, %ymm3, %ymm3
vpsubw %ymm1, %ymm2, %ymm2
vpsubw %ymm1, %ymm3, %ymm3
vpacksswb %ymm3, %ymm2, %ymm2
vpermq $-40, %ymm2, %ymm2
vpmovmskb %ymm2, %esi
movl %esi, 8(%rax)
vmovdqu 192(%rcx), %ymm2
vmovdqu 224(%rcx), %ymm3
vpsubw %ymm2, %ymm0, %ymm2
vpsubw %ymm3, %ymm0, %ymm3
vpsraw $15, %ymm2, %ymm4
vpsraw $15, %ymm3, %ymm5
vpxor %ymm4, %ymm2, %ymm2
vpxor %ymm5, %ymm3, %ymm3
vpsubw %ymm1, %ymm2, %ymm2
vpsubw %ymm1, %ymm3, %ymm3
vpacksswb %ymm3, %ymm2, %ymm2
vpermq $-40, %ymm2, %ymm2
vpmovmskb %ymm2, %esi
movl %esi, 12(%rax)
vmovdqu 256(%rcx), %ymm2
vmovdqu 288(%rcx), %ymm3
vpsubw %ymm2, %ymm0, %ymm2
vpsubw %ymm3, %ymm0, %ymm3
vpsraw $15, %ymm2, %ymm4
vpsraw $15, %ymm3, %ymm5
vpxor %ymm4, %ymm2, %ymm2
vpxor %ymm5, %ymm3, %ymm3
vpsubw %ymm1, %ymm2, %ymm2
vpsubw %ymm1, %ymm3, %ymm3
vpacksswb %ymm3, %ymm2, %ymm2
vpermq $-40, %ymm2, %ymm2
vpmovmskb %ymm2, %esi
movl %esi, 16(%rax)
vmovdqu 320(%rcx), %ymm2
vmovdqu 352(%rcx), %ymm3
vpsubw %ymm2, %ymm0, %ymm2
vpsubw %ymm3, %ymm0, %ymm3
vpsraw $15, %ymm2, %ymm4
vpsraw $15, %ymm3, %ymm5
vpxor %ymm4, %ymm2, %ymm2
vpxor %ymm5, %ymm3, %ymm3
vpsubw %ymm1, %ymm2, %ymm2
vpsubw %ymm1, %ymm3, %ymm3
vpacksswb %ymm3, %ymm2, %ymm2
vpermq $-40, %ymm2, %ymm2
vpmovmskb %ymm2, %esi
movl %esi, 20(%rax)
vmovdqu 384(%rcx), %ymm2
vmovdqu 416(%rcx), %ymm3
vpsubw %ymm2, %ymm0, %ymm2
vpsubw %ymm3, %ymm0, %ymm3
vpsraw $15, %ymm2, %ymm4
vpsraw $15, %ymm3, %ymm5
vpxor %ymm4, %ymm2, %ymm2
vpxor %ymm5, %ymm3, %ymm3
vpsubw %ymm1, %ymm2, %ymm2
vpsubw %ymm1, %ymm3, %ymm3
vpacksswb %ymm3, %ymm2, %ymm2
vpermq $-40, %ymm2, %ymm2
vpmovmskb %ymm2, %esi
movl %esi, 24(%rax)
vmovdqu 448(%rcx), %ymm2
vmovdqu 480(%rcx), %ymm3
vpsubw %ymm2, %ymm0, %ymm2
vpsubw %ymm3, %ymm0, %ymm0
vpsraw $15, %ymm2, %ymm3
vpsraw $15, %ymm0, %ymm4
vpxor %ymm3, %ymm2, %ymm2
vpxor %ymm4, %ymm0, %ymm0
vpsubw %ymm1, %ymm2, %ymm2
vpsubw %ymm1, %ymm0, %ymm0
vpacksswb %ymm0, %ymm2, %ymm0
vpermq $-40, %ymm0, %ymm0
vpmovmskb %ymm0, %ecx
movl %ecx, 28(%rax)
jmp *%rdi
L_poly_tomsg$1:
leaq L_poly_tomsg$2(%rip), %r8
jmp L_poly_csubq$1
L_poly_tomsg$2:
leaq glob_data + 224(%rip), %rax
vmovdqu (%rax), %ymm0
leaq glob_data + 192(%rip), %rax
vmovdqu (%rax), %ymm1
vmovdqu (%rcx), %ymm2
vmovdqu 32(%rcx), %ymm3
vpsubw %ymm2, %ymm0, %ymm2
vpsubw %ymm3, %ymm0, %ymm3
vpsraw $15, %ymm2, %ymm4
vpsraw $15, %ymm3, %ymm5
vpxor %ymm4, %ymm2, %ymm2
vpxor %ymm5, %ymm3, %ymm3
vpsubw %ymm1, %ymm2, %ymm2
vpsubw %ymm1, %ymm3, %ymm3
vpacksswb %ymm3, %ymm2, %ymm2
vpermq $-40, %ymm2, %ymm2
vpmovmskb %ymm2, %eax
movl %eax, (%rdx)
vmovdqu 64(%rcx), %ymm2
vmovdqu 96(%rcx), %ymm3
vpsubw %ymm2, %ymm0, %ymm2
vpsubw %ymm3, %ymm0, %ymm3
vpsraw $15, %ymm2, %ymm4
vpsraw $15, %ymm3, %ymm5
vpxor %ymm4, %ymm2, %ymm2
vpxor %ymm5, %ymm3, %ymm3
vpsubw %ymm1, %ymm2, %ymm2
vpsubw %ymm1, %ymm3, %ymm3
vpacksswb %ymm3, %ymm2, %ymm2
vpermq $-40, %ymm2, %ymm2
vpmovmskb %ymm2, %eax
movl %eax, 4(%rdx)
vmovdqu 128(%rcx), %ymm2
vmovdqu 160(%rcx), %ymm3
vpsubw %ymm2, %ymm0, %ymm2
vpsubw %ymm3, %ymm0, %ymm3
vpsraw $15, %ymm2, %ymm4
vpsraw $15, %ymm3, %ymm5
vpxor %ymm4, %ymm2, %ymm2
vpxor %ymm5, %ymm3, %ymm3
vpsubw %ymm1, %ymm2, %ymm2
vpsubw %ymm1, %ymm3, %ymm3
vpacksswb %ymm3, %ymm2, %ymm2
vpermq $-40, %ymm2, %ymm2
vpmovmskb %ymm2, %eax
movl %eax, 8(%rdx)
vmovdqu 192(%rcx), %ymm2
vmovdqu 224(%rcx), %ymm3
vpsubw %ymm2, %ymm0, %ymm2
vpsubw %ymm3, %ymm0, %ymm3
vpsraw $15, %ymm2, %ymm4
vpsraw $15, %ymm3, %ymm5
vpxor %ymm4, %ymm2, %ymm2
vpxor %ymm5, %ymm3, %ymm3
vpsubw %ymm1, %ymm2, %ymm2
vpsubw %ymm1, %ymm3, %ymm3
vpacksswb %ymm3, %ymm2, %ymm2
vpermq $-40, %ymm2, %ymm2
vpmovmskb %ymm2, %eax
movl %eax, 12(%rdx)
vmovdqu 256(%rcx), %ymm2
vmovdqu 288(%rcx), %ymm3
vpsubw %ymm2, %ymm0, %ymm2
vpsubw %ymm3, %ymm0, %ymm3
vpsraw $15, %ymm2, %ymm4
vpsraw $15, %ymm3, %ymm5
vpxor %ymm4, %ymm2, %ymm2
vpxor %ymm5, %ymm3, %ymm3
vpsubw %ymm1, %ymm2, %ymm2
vpsubw %ymm1, %ymm3, %ymm3
vpacksswb %ymm3, %ymm2, %ymm2
vpermq $-40, %ymm2, %ymm2
vpmovmskb %ymm2, %eax
movl %eax, 16(%rdx)
vmovdqu 320(%rcx), %ymm2
vmovdqu 352(%rcx), %ymm3
vpsubw %ymm2, %ymm0, %ymm2
vpsubw %ymm3, %ymm0, %ymm3
vpsraw $15, %ymm2, %ymm4
vpsraw $15, %ymm3, %ymm5
vpxor %ymm4, %ymm2, %ymm2
vpxor %ymm5, %ymm3, %ymm3
vpsubw %ymm1, %ymm2, %ymm2
vpsubw %ymm1, %ymm3, %ymm3
vpacksswb %ymm3, %ymm2, %ymm2
vpermq $-40, %ymm2, %ymm2
vpmovmskb %ymm2, %eax
movl %eax, 20(%rdx)
vmovdqu 384(%rcx), %ymm2
vmovdqu 416(%rcx), %ymm3
vpsubw %ymm2, %ymm0, %ymm2
vpsubw %ymm3, %ymm0, %ymm3
vpsraw $15, %ymm2, %ymm4
vpsraw $15, %ymm3, %ymm5
vpxor %ymm4, %ymm2, %ymm2
vpxor %ymm5, %ymm3, %ymm3
vpsubw %ymm1, %ymm2, %ymm2
vpsubw %ymm1, %ymm3, %ymm3
vpacksswb %ymm3, %ymm2, %ymm2
vpermq $-40, %ymm2, %ymm2
vpmovmskb %ymm2, %eax
movl %eax, 24(%rdx)
vmovdqu 448(%rcx), %ymm2
vmovdqu 480(%rcx), %ymm3
vpsubw %ymm2, %ymm0, %ymm2
vpsubw %ymm3, %ymm0, %ymm0
vpsraw $15, %ymm2, %ymm3
vpsraw $15, %ymm0, %ymm4
vpxor %ymm3, %ymm2, %ymm2
vpxor %ymm4, %ymm0, %ymm0
vpsubw %ymm1, %ymm2, %ymm2
vpsubw %ymm1, %ymm0, %ymm0
vpacksswb %ymm0, %ymm2, %ymm0
vpermq $-40, %ymm0, %ymm0
vpmovmskb %ymm0, %eax
movl %eax, 28(%rdx)
jmp *%rsi
L_poly_tobytes$1:
leaq glob_data + 448(%rip), %rsi
vmovdqu (%rsi), %ymm0
vmovdqu (%rdx), %ymm7
vmovdqu 32(%rdx), %ymm8
vmovdqu 64(%rdx), %ymm1
vmovdqu 96(%rdx), %ymm2
vmovdqu 128(%rdx), %ymm3
vmovdqu 160(%rdx), %ymm4
vmovdqu 192(%rdx), %ymm5
vmovdqu 224(%rdx), %ymm6
vpsubw %ymm0, %ymm7, %ymm7
vpsraw $15, %ymm7, %ymm9
vpand %ymm0, %ymm9, %ymm9
vpaddw %ymm7, %ymm9, %ymm7
vpsubw %ymm0, %ymm8, %ymm8
vpsraw $15, %ymm8, %ymm9
vpand %ymm0, %ymm9, %ymm9
vpaddw %ymm8, %ymm9, %ymm8
vpsubw %ymm0, %ymm1, %ymm1
vpsraw $15, %ymm1, %ymm9
vpand %ymm0, %ymm9, %ymm9
vpaddw %ymm1, %ymm9, %ymm1
vpsubw %ymm0, %ymm2, %ymm2
vpsraw $15, %ymm2, %ymm9
vpand %ymm0, %ymm9, %ymm9
vpaddw %ymm2, %ymm9, %ymm2
vpsubw %ymm0, %ymm3, %ymm3
vpsraw $15, %ymm3, %ymm9
vpand %ymm0, %ymm9, %ymm9
vpaddw %ymm3, %ymm9, %ymm3
vpsubw %ymm0, %ymm4, %ymm4
vpsraw $15, %ymm4, %ymm9
vpand %ymm0, %ymm9, %ymm9
vpaddw %ymm4, %ymm9, %ymm4
vpsubw %ymm0, %ymm5, %ymm5
vpsraw $15, %ymm5, %ymm9
vpand %ymm0, %ymm9, %ymm9
vpaddw %ymm5, %ymm9, %ymm5
vpsubw %ymm0, %ymm6, %ymm6
vpsraw $15, %ymm6, %ymm9
vpand %ymm0, %ymm9, %ymm9
vpaddw %ymm6, %ymm9, %ymm6
vpsllw $12, %ymm8, %ymm9
vpor %ymm7, %ymm9, %ymm7
vpsrlw $4, %ymm8, %ymm8
vpsllw $8, %ymm1, %ymm9
vpor %ymm9, %ymm8, %ymm8
vpsrlw $8, %ymm1, %ymm1
vpsllw $4, %ymm2, %ymm2
vpor %ymm2, %ymm1, %ymm1
vpsllw $12, %ymm4, %ymm2
vpor %ymm3, %ymm2, %ymm2
vpsrlw $4, %ymm4, %ymm3
vpsllw $8, %ymm5, %ymm4
vpor %ymm4, %ymm3, %ymm3
vpsrlw $8, %ymm5, %ymm4
vpsllw $4, %ymm6, %ymm5
vpor %ymm5, %ymm4, %ymm4
vpslld $16, %ymm8, %ymm5
vpblendw $-86, %ymm5, %ymm7, %ymm5
vpsrld $16, %ymm7, %ymm6
vpblendw $-86, %ymm8, %ymm6, %ymm6
vpslld $16, %ymm2, %ymm7
vpblendw $-86, %ymm7, %ymm1, %ymm7
vpsrld $16, %ymm1, %ymm1
vpblendw $-86, %ymm2, %ymm1, %ymm1
vpslld $16, %ymm4, %ymm2
vpblendw $-86, %ymm2, %ymm3, %ymm8
vpsrld $16, %ymm3, %ymm2
vpblendw $-86, %ymm4, %ymm2, %ymm2
vmovsldup %ymm7, %ymm3
vpblendd $-86, %ymm3, %ymm5, %ymm3
vpsrlq $32, %ymm5, %ymm4
vpblendd $-86, %ymm7, %ymm4, %ymm4
vmovsldup %ymm6, %ymm5
vpblendd $-86, %ymm5, %ymm8, %ymm5
vpsrlq $32, %ymm8, %ymm7
vpblendd $-86, %ymm6, %ymm7, %ymm6
vmovsldup %ymm2, %ymm7
vpblendd $-86, %ymm7, %ymm1, %ymm7
vpsrlq $32, %ymm1, %ymm1
vpblendd $-86, %ymm2, %ymm1, %ymm1
vpunpcklqdq %ymm5, %ymm3, %ymm2
vpunpckhqdq %ymm5, %ymm3, %ymm3
vpunpcklqdq %ymm4, %ymm7, %ymm5
vpunpckhqdq %ymm4, %ymm7, %ymm4
vpunpcklqdq %ymm1, %ymm6, %ymm7
vpunpckhqdq %ymm1, %ymm6, %ymm1
vperm2i128 $32, %ymm5, %ymm2, %ymm6
vperm2i128 $49, %ymm5, %ymm2, %ymm2
vperm2i128 $32, %ymm3, %ymm7, %ymm5
vperm2i128 $49, %ymm3, %ymm7, %ymm3
vperm2i128 $32, %ymm1, %ymm4, %ymm7
vperm2i128 $49, %ymm1, %ymm4, %ymm1
vmovdqu %ymm6, (%rcx)
vmovdqu %ymm5, 32(%rcx)
vmovdqu %ymm7, 64(%rcx)
vmovdqu %ymm2, 96(%rcx)
vmovdqu %ymm3, 128(%rcx)
vmovdqu %ymm1, 160(%rcx)
vmovdqu 256(%rdx), %ymm7
vmovdqu 288(%rdx), %ymm8
vmovdqu 320(%rdx), %ymm1
vmovdqu 352(%rdx), %ymm2
vmovdqu 384(%rdx), %ymm3
vmovdqu 416(%rdx), %ymm4
vmovdqu 448(%rdx), %ymm5
vmovdqu 480(%rdx), %ymm6
vpsubw %ymm0, %ymm7, %ymm7
vpsraw $15, %ymm7, %ymm9
vpand %ymm0, %ymm9, %ymm9
vpaddw %ymm7, %ymm9, %ymm7
vpsubw %ymm0, %ymm8, %ymm8
vpsraw $15, %ymm8, %ymm9
vpand %ymm0, %ymm9, %ymm9
vpaddw %ymm8, %ymm9, %ymm8
vpsubw %ymm0, %ymm1, %ymm1
vpsraw $15, %ymm1, %ymm9
vpand %ymm0, %ymm9, %ymm9
vpaddw %ymm1, %ymm9, %ymm1
vpsubw %ymm0, %ymm2, %ymm2
vpsraw $15, %ymm2, %ymm9
vpand %ymm0, %ymm9, %ymm9
vpaddw %ymm2, %ymm9, %ymm2
vpsubw %ymm0, %ymm3, %ymm3
vpsraw $15, %ymm3, %ymm9
vpand %ymm0, %ymm9, %ymm9
vpaddw %ymm3, %ymm9, %ymm3
vpsubw %ymm0, %ymm4, %ymm4
vpsraw $15, %ymm4, %ymm9
vpand %ymm0, %ymm9, %ymm9
vpaddw %ymm4, %ymm9, %ymm4
vpsubw %ymm0, %ymm5, %ymm5
vpsraw $15, %ymm5, %ymm9
vpand %ymm0, %ymm9, %ymm9
vpaddw %ymm5, %ymm9, %ymm5
vpsubw %ymm0, %ymm6, %ymm6
vpsraw $15, %ymm6, %ymm9
vpand %ymm0, %ymm9, %ymm0
vpaddw %ymm6, %ymm0, %ymm0
vpsllw $12, %ymm8, %ymm6
vpor %ymm7, %ymm6, %ymm6
vpsrlw $4, %ymm8, %ymm7
vpsllw $8, %ymm1, %ymm8
vpor %ymm8, %ymm7, %ymm7
vpsrlw $8, %ymm1, %ymm1
vpsllw $4, %ymm2, %ymm2
vpor %ymm2, %ymm1, %ymm1
vpsllw $12, %ymm4, %ymm2
vpor %ymm3, %ymm2, %ymm2
vpsrlw $4, %ymm4, %ymm3
vpsllw $8, %ymm5, %ymm4
vpor %ymm4, %ymm3, %ymm3
vpsrlw $8, %ymm5, %ymm4
vpsllw $4, %ymm0, %ymm0
vpor %ymm0, %ymm4, %ymm0
vpslld $16, %ymm7, %ymm4
vpblendw $-86, %ymm4, %ymm6, %ymm4
vpsrld $16, %ymm6, %ymm5
vpblendw $-86, %ymm7, %ymm5, %ymm5
vpslld $16, %ymm2, %ymm6
vpblendw $-86, %ymm6, %ymm1, %ymm6
vpsrld $16, %ymm1, %ymm1
vpblendw $-86, %ymm2, %ymm1, %ymm1
vpslld $16, %ymm0, %ymm2
vpblendw $-86, %ymm2, %ymm3, %ymm7
vpsrld $16, %ymm3, %ymm2
vpblendw $-86, %ymm0, %ymm2, %ymm0
vmovsldup %ymm6, %ymm2
vpblendd $-86, %ymm2, %ymm4, %ymm2
vpsrlq $32, %ymm4, %ymm3
vpblendd $-86, %ymm6, %ymm3, %ymm3
vmovsldup %ymm5, %ymm4
vpblendd $-86, %ymm4, %ymm7, %ymm4
vpsrlq $32, %ymm7, %ymm6
vpblendd $-86, %ymm5, %ymm6, %ymm5
vmovsldup %ymm0, %ymm6
vpblendd $-86, %ymm6, %ymm1, %ymm6
vpsrlq $32, %ymm1, %ymm1
vpblendd $-86, %ymm0, %ymm1, %ymm0
vpunpcklqdq %ymm4, %ymm2, %ymm1
vpunpckhqdq %ymm4, %ymm2, %ymm2
vpunpcklqdq %ymm3, %ymm6, %ymm4
vpunpckhqdq %ymm3, %ymm6, %ymm3
vpunpcklqdq %ymm0, %ymm5, %ymm6
vpunpckhqdq %ymm0, %ymm5, %ymm0
vperm2i128 $32, %ymm4, %ymm1, %ymm5
vperm2i128 $49, %ymm4, %ymm1, %ymm1
vperm2i128 $32, %ymm2, %ymm6, %ymm4
vperm2i128 $49, %ymm2, %ymm6, %ymm2
vperm2i128 $32, %ymm0, %ymm3, %ymm6
vperm2i128 $49, %ymm0, %ymm3, %ymm0
vmovdqu %ymm5, 192(%rcx)
vmovdqu %ymm4, 224(%rcx)
vmovdqu %ymm6, 256(%rcx)
vmovdqu %ymm1, 288(%rcx)
vmovdqu %ymm2, 320(%rcx)
vmovdqu %ymm0, 352(%rcx)
jmp *%rdi
L_poly_sub$1:
vmovdqu (%rsi), %ymm0
vmovdqu (%rdi), %ymm1
vpsubw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, (%rcx)
vmovdqu 32(%rsi), %ymm0
vmovdqu 32(%rdi), %ymm1
vpsubw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 32(%rcx)
vmovdqu 64(%rsi), %ymm0
vmovdqu 64(%rdi), %ymm1
vpsubw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 64(%rcx)
vmovdqu 96(%rsi), %ymm0
vmovdqu 96(%rdi), %ymm1
vpsubw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 96(%rcx)
vmovdqu 128(%rsi), %ymm0
vmovdqu 128(%rdi), %ymm1
vpsubw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 128(%rcx)
vmovdqu 160(%rsi), %ymm0
vmovdqu 160(%rdi), %ymm1
vpsubw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 160(%rcx)
vmovdqu 192(%rsi), %ymm0
vmovdqu 192(%rdi), %ymm1
vpsubw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 192(%rcx)
vmovdqu 224(%rsi), %ymm0
vmovdqu 224(%rdi), %ymm1
vpsubw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 224(%rcx)
vmovdqu 256(%rsi), %ymm0
vmovdqu 256(%rdi), %ymm1
vpsubw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 256(%rcx)
vmovdqu 288(%rsi), %ymm0
vmovdqu 288(%rdi), %ymm1
vpsubw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 288(%rcx)
vmovdqu 320(%rsi), %ymm0
vmovdqu 320(%rdi), %ymm1
vpsubw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 320(%rcx)
vmovdqu 352(%rsi), %ymm0
vmovdqu 352(%rdi), %ymm1
vpsubw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 352(%rcx)
vmovdqu 384(%rsi), %ymm0
vmovdqu 384(%rdi), %ymm1
vpsubw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 384(%rcx)
vmovdqu 416(%rsi), %ymm0
vmovdqu 416(%rdi), %ymm1
vpsubw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 416(%rcx)
vmovdqu 448(%rsi), %ymm0
vmovdqu 448(%rdi), %ymm1
vpsubw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 448(%rcx)
vmovdqu 480(%rsi), %ymm0
vmovdqu 480(%rdi), %ymm1
vpsubw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 480(%rcx)
jmp *%r8
L_poly_ntt$1:
leaq glob_data + 1280(%rip), %rsi
vmovdqu glob_data + 448(%rip), %ymm0
vpbroadcastd (%rsi), %ymm1
vpbroadcastd 4(%rsi), %ymm2
vmovdqu (%rcx), %ymm3
vmovdqu 32(%rcx), %ymm14
vmovdqu 64(%rcx), %ymm4
vmovdqu 96(%rcx), %ymm5
vmovdqu 256(%rcx), %ymm6
vmovdqu 288(%rcx), %ymm7
vmovdqu 320(%rcx), %ymm12
vmovdqu 352(%rcx), %ymm8
vpmullw %ymm6, %ymm1, %ymm9
vpmulhw %ymm6, %ymm2, %ymm6
vpmullw %ymm7, %ymm1, %ymm10
vpmulhw %ymm7, %ymm2, %ymm15
vpmullw %ymm12, %ymm1, %ymm11
vpmulhw %ymm12, %ymm2, %ymm7
vpmullw %ymm8, %ymm1, %ymm12
vpmulhw %ymm8, %ymm2, %ymm8
vpmulhw %ymm0, %ymm9, %ymm9
vpmulhw %ymm0, %ymm10, %ymm10
vpmulhw %ymm0, %ymm11, %ymm11
vpmulhw %ymm0, %ymm12, %ymm12
vpsubw %ymm15, %ymm14, %ymm13
vpaddw %ymm14, %ymm15, %ymm14
vpsubw %ymm6, %ymm3, %ymm15
vpaddw %ymm3, %ymm6, %ymm3
vpsubw %ymm8, %ymm5, %ymm6
vpaddw %ymm5, %ymm8, %ymm5
vpsubw %ymm7, %ymm4, %ymm8
vpaddw %ymm4, %ymm7, %ymm4
vpaddw %ymm15, %ymm9, %ymm7
vpsubw %ymm9, %ymm3, %ymm3
vpaddw %ymm13, %ymm10, %ymm9
vpsubw %ymm10, %ymm14, %ymm10
vpaddw %ymm8, %ymm11, %ymm8
vpsubw %ymm11, %ymm4, %ymm4
vpaddw %ymm6, %ymm12, %ymm6
vpsubw %ymm12, %ymm5, %ymm5
vmovdqu %ymm3, (%rcx)
vmovdqu %ymm10, 32(%rcx)
vmovdqu %ymm4, 64(%rcx)
vmovdqu %ymm5, 96(%rcx)
vmovdqu %ymm7, 256(%rcx)
vmovdqu %ymm9, 288(%rcx)
vmovdqu %ymm8, 320(%rcx)
vmovdqu %ymm6, 352(%rcx)
vmovdqu 128(%rcx), %ymm3
vmovdqu 160(%rcx), %ymm12
vmovdqu 192(%rcx), %ymm4
vmovdqu 224(%rcx), %ymm5
vmovdqu 384(%rcx), %ymm6
vmovdqu 416(%rcx), %ymm7
vmovdqu 448(%rcx), %ymm10
vmovdqu 480(%rcx), %ymm11
vpmullw %ymm6, %ymm1, %ymm14
vpmulhw %ymm6, %ymm2, %ymm6
vpmullw %ymm7, %ymm1, %ymm8
vpmulhw %ymm7, %ymm2, %ymm13
vpmullw %ymm10, %ymm1, %ymm9
vpmulhw %ymm10, %ymm2, %ymm7
vpmullw %ymm11, %ymm1, %ymm10
vpmulhw %ymm11, %ymm2, %ymm1
vpmulhw %ymm0, %ymm14, %ymm2
vpmulhw %ymm0, %ymm8, %ymm8
vpmulhw %ymm0, %ymm9, %ymm9
vpmulhw %ymm0, %ymm10, %ymm10
vpsubw %ymm13, %ymm12, %ymm11
vpaddw %ymm12, %ymm13, %ymm12
vpsubw %ymm6, %ymm3, %ymm13
vpaddw %ymm3, %ymm6, %ymm3
vpsubw %ymm1, %ymm5, %ymm6
vpaddw %ymm5, %ymm1, %ymm1
vpsubw %ymm7, %ymm4, %ymm5
vpaddw %ymm4, %ymm7, %ymm4
vpaddw %ymm13, %ymm2, %ymm7
vpsubw %ymm2, %ymm3, %ymm2
vpaddw %ymm11, %ymm8, %ymm3
vpsubw %ymm8, %ymm12, %ymm8
vpaddw %ymm5, %ymm9, %ymm5
vpsubw %ymm9, %ymm4, %ymm9
vpaddw %ymm6, %ymm10, %ymm4
vpsubw %ymm10, %ymm1, %ymm14
vmovdqu %ymm7, 384(%rcx)
vmovdqu %ymm3, 416(%rcx)
vmovdqu %ymm5, 448(%rcx)
vmovdqu %ymm4, 480(%rcx)
vpbroadcastd 8(%rsi), %ymm1
vpbroadcastd 12(%rsi), %ymm4
vmovdqu %ymm8, %ymm10
vmovdqu %ymm9, %ymm3
vmovdqu (%rcx), %ymm6
vmovdqu 32(%rcx), %ymm5
vmovdqu 64(%rcx), %ymm9
vmovdqu 96(%rcx), %ymm7
vpmullw %ymm2, %ymm1, %ymm11
vpmulhw %ymm2, %ymm4, %ymm8
vpmullw %ymm10, %ymm1, %ymm13
vpmulhw %ymm10, %ymm4, %ymm12
vpmullw %ymm3, %ymm1, %ymm2
vpmulhw %ymm3, %ymm4, %ymm10
vpmullw %ymm14, %ymm1, %ymm3
vpmulhw %ymm14, %ymm4, %ymm14
vpmulhw %ymm0, %ymm11, %ymm11
vpmulhw %ymm0, %ymm13, %ymm1
vpmulhw %ymm0, %ymm2, %ymm2
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm12, %ymm5, %ymm4
vpaddw %ymm5, %ymm12, %ymm5
vpsubw %ymm8, %ymm6, %ymm12
vpaddw %ymm6, %ymm8, %ymm13
vpsubw %ymm14, %ymm7, %ymm6
vpaddw %ymm7, %ymm14, %ymm7
vpsubw %ymm10, %ymm9, %ymm8
vpaddw %ymm9, %ymm10, %ymm9
vpaddw %ymm12, %ymm11, %ymm10
vpsubw %ymm11, %ymm13, %ymm12
vpaddw %ymm4, %ymm1, %ymm4
vpsubw %ymm1, %ymm5, %ymm5
vpaddw %ymm8, %ymm2, %ymm8
vpsubw %ymm2, %ymm9, %ymm2
vpaddw %ymm6, %ymm3, %ymm13
vpsubw %ymm3, %ymm7, %ymm7
vmovdqu 16(%rsi), %ymm3
vmovdqu 48(%rsi), %ymm6
vperm2i128 $32, %ymm10, %ymm12, %ymm11
vperm2i128 $49, %ymm10, %ymm12, %ymm9
vperm2i128 $32, %ymm4, %ymm5, %ymm1
vperm2i128 $49, %ymm4, %ymm5, %ymm12
vperm2i128 $32, %ymm8, %ymm2, %ymm5
vperm2i128 $49, %ymm8, %ymm2, %ymm8
vperm2i128 $32, %ymm13, %ymm7, %ymm2
vperm2i128 $49, %ymm13, %ymm7, %ymm13
vpmullw %ymm5, %ymm3, %ymm4
vpmulhw %ymm5, %ymm6, %ymm10
vpmullw %ymm8, %ymm3, %ymm14
vpmulhw %ymm8, %ymm6, %ymm8
vpmullw %ymm2, %ymm3, %ymm5
vpmulhw %ymm2, %ymm6, %ymm2
vpmullw %ymm13, %ymm3, %ymm7
vpmulhw %ymm13, %ymm6, %ymm13
vpmulhw %ymm0, %ymm4, %ymm3
vpmulhw %ymm0, %ymm14, %ymm4
vpmulhw %ymm0, %ymm5, %ymm5
vpmulhw %ymm0, %ymm7, %ymm6
vpsubw %ymm8, %ymm9, %ymm7
vpaddw %ymm9, %ymm8, %ymm8
vpsubw %ymm10, %ymm11, %ymm9
vpaddw %ymm11, %ymm10, %ymm10
vpsubw %ymm13, %ymm12, %ymm11
vpaddw %ymm12, %ymm13, %ymm12
vpsubw %ymm2, %ymm1, %ymm13
vpaddw %ymm1, %ymm2, %ymm1
vpaddw %ymm9, %ymm3, %ymm2
vpsubw %ymm3, %ymm10, %ymm9
vpaddw %ymm7, %ymm4, %ymm3
vpsubw %ymm4, %ymm8, %ymm4
vpaddw %ymm13, %ymm5, %ymm7
vpsubw %ymm5, %ymm1, %ymm13
vpaddw %ymm11, %ymm6, %ymm11
vpsubw %ymm6, %ymm12, %ymm14
vmovdqu 80(%rsi), %ymm1
vmovdqu 112(%rsi), %ymm10
vpunpcklqdq %ymm2, %ymm9, %ymm5
vpunpckhqdq %ymm2, %ymm9, %ymm12
vpunpcklqdq %ymm3, %ymm4, %ymm8
vpunpckhqdq %ymm3, %ymm4, %ymm6
vpunpcklqdq %ymm7, %ymm13, %ymm2
vpunpckhqdq %ymm7, %ymm13, %ymm4
vpunpcklqdq %ymm11, %ymm14, %ymm3
vpunpckhqdq %ymm11, %ymm14, %ymm7
vpmullw %ymm2, %ymm1, %ymm11
vpmulhw %ymm2, %ymm10, %ymm13
vpmullw %ymm4, %ymm1, %ymm14
vpmulhw %ymm4, %ymm10, %ymm4
vpmullw %ymm3, %ymm1, %ymm2
vpmulhw %ymm3, %ymm10, %ymm9
vpmullw %ymm7, %ymm1, %ymm3
vpmulhw %ymm7, %ymm10, %ymm7
vpmulhw %ymm0, %ymm11, %ymm10
vpmulhw %ymm0, %ymm14, %ymm1
vpmulhw %ymm0, %ymm2, %ymm2
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm4, %ymm12, %ymm11
vpaddw %ymm12, %ymm4, %ymm4
vpsubw %ymm13, %ymm5, %ymm12
vpaddw %ymm5, %ymm13, %ymm13
vpsubw %ymm7, %ymm6, %ymm5
vpaddw %ymm6, %ymm7, %ymm6
vpsubw %ymm9, %ymm8, %ymm7
vpaddw %ymm8, %ymm9, %ymm8
vpaddw %ymm12, %ymm10, %ymm9
vpsubw %ymm10, %ymm13, %ymm12
vpaddw %ymm11, %ymm1, %ymm10
vpsubw %ymm1, %ymm4, %ymm4
vpaddw %ymm7, %ymm2, %ymm7
vpsubw %ymm2, %ymm8, %ymm2
vpaddw %ymm5, %ymm3, %ymm13
vpsubw %ymm3, %ymm6, %ymm6
vmovdqu 144(%rsi), %ymm3
vmovdqu 176(%rsi), %ymm5
vmovsldup %ymm9, %ymm1
vpblendd $-86, %ymm1, %ymm12, %ymm11
vpsrlq $32, %ymm12, %ymm1
vpblendd $-86, %ymm9, %ymm1, %ymm8
vmovsldup %ymm10, %ymm1
vpblendd $-86, %ymm1, %ymm4, %ymm1
vpsrlq $32, %ymm4, %ymm4
vpblendd $-86, %ymm10, %ymm4, %ymm12
vmovsldup %ymm7, %ymm4
vpblendd $-86, %ymm4, %ymm2, %ymm9
vpsrlq $32, %ymm2, %ymm2
vpblendd $-86, %ymm7, %ymm2, %ymm7
vmovsldup %ymm13, %ymm2
vpblendd $-86, %ymm2, %ymm6, %ymm2
vpsrlq $32, %ymm6, %ymm4
vpblendd $-86, %ymm13, %ymm4, %ymm13
vpmullw %ymm9, %ymm3, %ymm4
vpmulhw %ymm9, %ymm5, %ymm10
vpmullw %ymm7, %ymm3, %ymm14
vpmulhw %ymm7, %ymm5, %ymm9
vpmullw %ymm2, %ymm3, %ymm6
vpmulhw %ymm2, %ymm5, %ymm2
vpmullw %ymm13, %ymm3, %ymm7
vpmulhw %ymm13, %ymm5, %ymm13
vpmulhw %ymm0, %ymm4, %ymm3
vpmulhw %ymm0, %ymm14, %ymm4
vpmulhw %ymm0, %ymm6, %ymm5
vpmulhw %ymm0, %ymm7, %ymm6
vpsubw %ymm9, %ymm8, %ymm7
vpaddw %ymm8, %ymm9, %ymm8
vpsubw %ymm10, %ymm11, %ymm9
vpaddw %ymm11, %ymm10, %ymm10
vpsubw %ymm13, %ymm12, %ymm11
vpaddw %ymm12, %ymm13, %ymm12
vpsubw %ymm2, %ymm1, %ymm13
vpaddw %ymm1, %ymm2, %ymm1
vpaddw %ymm9, %ymm3, %ymm2
vpsubw %ymm3, %ymm10, %ymm9
vpaddw %ymm7, %ymm4, %ymm3
vpsubw %ymm4, %ymm8, %ymm4
vpaddw %ymm13, %ymm5, %ymm7
vpsubw %ymm5, %ymm1, %ymm13
vpaddw %ymm11, %ymm6, %ymm11
vpsubw %ymm6, %ymm12, %ymm14
vmovdqu 208(%rsi), %ymm5
vmovdqu 240(%rsi), %ymm6
vpslld $16, %ymm2, %ymm1
vpblendw $-86, %ymm1, %ymm9, %ymm10
vpsrld $16, %ymm9, %ymm1
vpblendw $-86, %ymm2, %ymm1, %ymm8
vpslld $16, %ymm3, %ymm1
vpblendw $-86, %ymm1, %ymm4, %ymm1
vpsrld $16, %ymm4, %ymm2
vpblendw $-86, %ymm3, %ymm2, %ymm12
vpslld $16, %ymm7, %ymm2
vpblendw $-86, %ymm2, %ymm13, %ymm4
vpsrld $16, %ymm13, %ymm2
vpblendw $-86, %ymm7, %ymm2, %ymm7
vpslld $16, %ymm11, %ymm2
vpblendw $-86, %ymm2, %ymm14, %ymm2
vpsrld $16, %ymm14, %ymm3
vpblendw $-86, %ymm11, %ymm3, %ymm13
vpmullw %ymm4, %ymm5, %ymm3
vpmulhw %ymm4, %ymm6, %ymm11
vpmullw %ymm7, %ymm5, %ymm4
vpmulhw %ymm7, %ymm6, %ymm9
vpmullw %ymm2, %ymm5, %ymm7
vpmulhw %ymm2, %ymm6, %ymm2
vpmullw %ymm13, %ymm5, %ymm14
vpmulhw %ymm13, %ymm6, %ymm13
vpmulhw %ymm0, %ymm3, %ymm3
vpmulhw %ymm0, %ymm4, %ymm4
vpmulhw %ymm0, %ymm7, %ymm5
vpmulhw %ymm0, %ymm14, %ymm6
vpsubw %ymm9, %ymm8, %ymm7
vpaddw %ymm8, %ymm9, %ymm8
vpsubw %ymm11, %ymm10, %ymm9
vpaddw %ymm10, %ymm11, %ymm10
vpsubw %ymm13, %ymm12, %ymm11
vpaddw %ymm12, %ymm13, %ymm12
vpsubw %ymm2, %ymm1, %ymm13
vpaddw %ymm1, %ymm2, %ymm1
vpaddw %ymm9, %ymm3, %ymm2
vpsubw %ymm3, %ymm10, %ymm3
vpaddw %ymm7, %ymm4, %ymm7
vpsubw %ymm4, %ymm8, %ymm4
vpaddw %ymm13, %ymm5, %ymm8
vpsubw %ymm5, %ymm1, %ymm1
vpaddw %ymm11, %ymm6, %ymm5
vpsubw %ymm6, %ymm12, %ymm10
vmovdqu 272(%rsi), %ymm9
vmovdqu 304(%rsi), %ymm13
vmovdqu 336(%rsi), %ymm11
vmovdqu 368(%rsi), %ymm6
vpmullw %ymm1, %ymm9, %ymm14
vpmulhw %ymm1, %ymm13, %ymm12
vpmullw %ymm10, %ymm9, %ymm9
vpmulhw %ymm10, %ymm13, %ymm13
vpmullw %ymm8, %ymm11, %ymm10
vpmulhw %ymm8, %ymm6, %ymm1
vpmullw %ymm5, %ymm11, %ymm11
vpmulhw %ymm5, %ymm6, %ymm5
vpmulhw %ymm0, %ymm14, %ymm6
vpmulhw %ymm0, %ymm9, %ymm8
vpmulhw %ymm0, %ymm10, %ymm9
vpmulhw %ymm0, %ymm11, %ymm10
vpsubw %ymm13, %ymm4, %ymm11
vpaddw %ymm4, %ymm13, %ymm4
vpsubw %ymm12, %ymm3, %ymm13
vpaddw %ymm3, %ymm12, %ymm3
vpsubw %ymm5, %ymm7, %ymm12
vpaddw %ymm7, %ymm5, %ymm5
vpsubw %ymm1, %ymm2, %ymm7
vpaddw %ymm2, %ymm1, %ymm1
vpaddw %ymm13, %ymm6, %ymm2
vpsubw %ymm6, %ymm3, %ymm3
vpaddw %ymm11, %ymm8, %ymm6
vpsubw %ymm8, %ymm4, %ymm4
vpaddw %ymm7, %ymm9, %ymm7
vpsubw %ymm9, %ymm1, %ymm8
vpaddw %ymm12, %ymm10, %ymm1
vpsubw %ymm10, %ymm5, %ymm5
vmovdqu glob_data + 384(%rip), %ymm9
vpmulhw %ymm9, %ymm3, %ymm10
vpsraw $10, %ymm10, %ymm10
vpmullw %ymm0, %ymm10, %ymm10
vpsubw %ymm10, %ymm3, %ymm3
vpmulhw %ymm9, %ymm4, %ymm10
vpsraw $10, %ymm10, %ymm10
vpmullw %ymm0, %ymm10, %ymm10
vpsubw %ymm10, %ymm4, %ymm4
vpmulhw %ymm9, %ymm8, %ymm10
vpsraw $10, %ymm10, %ymm10
vpmullw %ymm0, %ymm10, %ymm10
vpsubw %ymm10, %ymm8, %ymm8
vpmulhw %ymm9, %ymm5, %ymm10
vpsraw $10, %ymm10, %ymm10
vpmullw %ymm0, %ymm10, %ymm10
vpsubw %ymm10, %ymm5, %ymm5
vpmulhw %ymm9, %ymm2, %ymm10
vpsraw $10, %ymm10, %ymm10
vpmullw %ymm0, %ymm10, %ymm10
vpsubw %ymm10, %ymm2, %ymm2
vpmulhw %ymm9, %ymm6, %ymm10
vpsraw $10, %ymm10, %ymm10
vpmullw %ymm0, %ymm10, %ymm10
vpsubw %ymm10, %ymm6, %ymm6
vpmulhw %ymm9, %ymm7, %ymm10
vpsraw $10, %ymm10, %ymm10
vpmullw %ymm0, %ymm10, %ymm10
vpsubw %ymm10, %ymm7, %ymm7
vpmulhw %ymm9, %ymm1, %ymm9
vpsraw $10, %ymm9, %ymm9
vpmullw %ymm0, %ymm9, %ymm9
vpsubw %ymm9, %ymm1, %ymm1
vmovdqu %ymm3, (%rcx)
vmovdqu %ymm4, 32(%rcx)
vmovdqu %ymm2, 64(%rcx)
vmovdqu %ymm6, 96(%rcx)
vmovdqu %ymm8, 128(%rcx)
vmovdqu %ymm5, 160(%rcx)
vmovdqu %ymm7, 192(%rcx)
vmovdqu %ymm1, 224(%rcx)
vpbroadcastd 400(%rsi), %ymm5
vpbroadcastd 404(%rsi), %ymm8
vmovdqu 384(%rcx), %ymm1
vmovdqu 416(%rcx), %ymm2
vmovdqu 448(%rcx), %ymm10
vmovdqu 480(%rcx), %ymm9
vmovdqu 256(%rcx), %ymm3
vmovdqu 288(%rcx), %ymm7
vmovdqu 320(%rcx), %ymm6
vmovdqu 352(%rcx), %ymm4
vpmullw %ymm1, %ymm5, %ymm14
vpmulhw %ymm1, %ymm8, %ymm12
vpmullw %ymm2, %ymm5, %ymm1
vpmulhw %ymm2, %ymm8, %ymm11
vpmullw %ymm10, %ymm5, %ymm2
vpmulhw %ymm10, %ymm8, %ymm13
vpmullw %ymm9, %ymm5, %ymm10
vpmulhw %ymm9, %ymm8, %ymm5
vpmulhw %ymm0, %ymm14, %ymm8
vpmulhw %ymm0, %ymm1, %ymm9
vpmulhw %ymm0, %ymm2, %ymm1
vpmulhw %ymm0, %ymm10, %ymm2
vpsubw %ymm11, %ymm7, %ymm10
vpaddw %ymm7, %ymm11, %ymm11
vpsubw %ymm12, %ymm3, %ymm7
vpaddw %ymm3, %ymm12, %ymm12
vpsubw %ymm5, %ymm4, %ymm3
vpaddw %ymm4, %ymm5, %ymm4
vpsubw %ymm13, %ymm6, %ymm5
vpaddw %ymm6, %ymm13, %ymm6
vpaddw %ymm7, %ymm8, %ymm7
vpsubw %ymm8, %ymm12, %ymm12
vpaddw %ymm10, %ymm9, %ymm8
vpsubw %ymm9, %ymm11, %ymm9
vpaddw %ymm5, %ymm1, %ymm5
vpsubw %ymm1, %ymm6, %ymm6
vpaddw %ymm3, %ymm2, %ymm13
vpsubw %ymm2, %ymm4, %ymm2
vmovdqu 408(%rsi), %ymm3
vmovdqu 440(%rsi), %ymm4
vperm2i128 $32, %ymm7, %ymm12, %ymm10
vperm2i128 $49, %ymm7, %ymm12, %ymm11
vperm2i128 $32, %ymm8, %ymm9, %ymm1
vperm2i128 $49, %ymm8, %ymm9, %ymm12
vperm2i128 $32, %ymm5, %ymm6, %ymm8
vperm2i128 $49, %ymm5, %ymm6, %ymm5
vperm2i128 $32, %ymm13, %ymm2, %ymm6
vperm2i128 $49, %ymm13, %ymm2, %ymm13
vpmullw %ymm8, %ymm3, %ymm7
vpmulhw %ymm8, %ymm4, %ymm14
vpmullw %ymm5, %ymm3, %ymm9
vpmulhw %ymm5, %ymm4, %ymm8
vpmullw %ymm6, %ymm3, %ymm5
vpmulhw %ymm6, %ymm4, %ymm2
vpmullw %ymm13, %ymm3, %ymm6
vpmulhw %ymm13, %ymm4, %ymm13
vpmulhw %ymm0, %ymm7, %ymm3
vpmulhw %ymm0, %ymm9, %ymm4
vpmulhw %ymm0, %ymm5, %ymm5
vpmulhw %ymm0, %ymm6, %ymm6
vpsubw %ymm8, %ymm11, %ymm7
vpaddw %ymm11, %ymm8, %ymm8
vpsubw %ymm14, %ymm10, %ymm9
vpaddw %ymm10, %ymm14, %ymm10
vpsubw %ymm13, %ymm12, %ymm11
vpaddw %ymm12, %ymm13, %ymm12
vpsubw %ymm2, %ymm1, %ymm13
vpaddw %ymm1, %ymm2, %ymm1
vpaddw %ymm9, %ymm3, %ymm2
vpsubw %ymm3, %ymm10, %ymm9
vpaddw %ymm7, %ymm4, %ymm3
vpsubw %ymm4, %ymm8, %ymm4
vpaddw %ymm13, %ymm5, %ymm7
vpsubw %ymm5, %ymm1, %ymm13
vpaddw %ymm11, %ymm6, %ymm11
vpsubw %ymm6, %ymm12, %ymm14
vmovdqu 472(%rsi), %ymm1
vmovdqu 504(%rsi), %ymm10
vpunpcklqdq %ymm2, %ymm9, %ymm5
vpunpckhqdq %ymm2, %ymm9, %ymm12
vpunpcklqdq %ymm3, %ymm4, %ymm8
vpunpckhqdq %ymm3, %ymm4, %ymm6
vpunpcklqdq %ymm7, %ymm13, %ymm2
vpunpckhqdq %ymm7, %ymm13, %ymm4
vpunpcklqdq %ymm11, %ymm14, %ymm3
vpunpckhqdq %ymm11, %ymm14, %ymm7
vpmullw %ymm2, %ymm1, %ymm11
vpmulhw %ymm2, %ymm10, %ymm13
vpmullw %ymm4, %ymm1, %ymm14
vpmulhw %ymm4, %ymm10, %ymm4
vpmullw %ymm3, %ymm1, %ymm2
vpmulhw %ymm3, %ymm10, %ymm9
vpmullw %ymm7, %ymm1, %ymm3
vpmulhw %ymm7, %ymm10, %ymm7
vpmulhw %ymm0, %ymm11, %ymm10
vpmulhw %ymm0, %ymm14, %ymm1
vpmulhw %ymm0, %ymm2, %ymm2
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm4, %ymm12, %ymm11
vpaddw %ymm12, %ymm4, %ymm4
vpsubw %ymm13, %ymm5, %ymm12
vpaddw %ymm5, %ymm13, %ymm13
vpsubw %ymm7, %ymm6, %ymm5
vpaddw %ymm6, %ymm7, %ymm6
vpsubw %ymm9, %ymm8, %ymm7
vpaddw %ymm8, %ymm9, %ymm8
vpaddw %ymm12, %ymm10, %ymm9
vpsubw %ymm10, %ymm13, %ymm12
vpaddw %ymm11, %ymm1, %ymm10
vpsubw %ymm1, %ymm4, %ymm4
vpaddw %ymm7, %ymm2, %ymm7
vpsubw %ymm2, %ymm8, %ymm2
vpaddw %ymm5, %ymm3, %ymm13
vpsubw %ymm3, %ymm6, %ymm6
vmovdqu 536(%rsi), %ymm3
vmovdqu 568(%rsi), %ymm5
vmovsldup %ymm9, %ymm1
vpblendd $-86, %ymm1, %ymm12, %ymm11
vpsrlq $32, %ymm12, %ymm1
vpblendd $-86, %ymm9, %ymm1, %ymm8
vmovsldup %ymm10, %ymm1
vpblendd $-86, %ymm1, %ymm4, %ymm1
vpsrlq $32, %ymm4, %ymm4
vpblendd $-86, %ymm10, %ymm4, %ymm12
vmovsldup %ymm7, %ymm4
vpblendd $-86, %ymm4, %ymm2, %ymm9
vpsrlq $32, %ymm2, %ymm2
vpblendd $-86, %ymm7, %ymm2, %ymm7
vmovsldup %ymm13, %ymm2
vpblendd $-86, %ymm2, %ymm6, %ymm2
vpsrlq $32, %ymm6, %ymm4
vpblendd $-86, %ymm13, %ymm4, %ymm13
vpmullw %ymm9, %ymm3, %ymm4
vpmulhw %ymm9, %ymm5, %ymm10
vpmullw %ymm7, %ymm3, %ymm14
vpmulhw %ymm7, %ymm5, %ymm9
vpmullw %ymm2, %ymm3, %ymm6
vpmulhw %ymm2, %ymm5, %ymm2
vpmullw %ymm13, %ymm3, %ymm7
vpmulhw %ymm13, %ymm5, %ymm13
vpmulhw %ymm0, %ymm4, %ymm3
vpmulhw %ymm0, %ymm14, %ymm4
vpmulhw %ymm0, %ymm6, %ymm5
vpmulhw %ymm0, %ymm7, %ymm6
vpsubw %ymm9, %ymm8, %ymm7
vpaddw %ymm8, %ymm9, %ymm8
vpsubw %ymm10, %ymm11, %ymm9
vpaddw %ymm11, %ymm10, %ymm10
vpsubw %ymm13, %ymm12, %ymm11
vpaddw %ymm12, %ymm13, %ymm12
vpsubw %ymm2, %ymm1, %ymm13
vpaddw %ymm1, %ymm2, %ymm1
vpaddw %ymm9, %ymm3, %ymm2
vpsubw %ymm3, %ymm10, %ymm9
vpaddw %ymm7, %ymm4, %ymm3
vpsubw %ymm4, %ymm8, %ymm4
vpaddw %ymm13, %ymm5, %ymm7
vpsubw %ymm5, %ymm1, %ymm13
vpaddw %ymm11, %ymm6, %ymm11
vpsubw %ymm6, %ymm12, %ymm14
vmovdqu 600(%rsi), %ymm5
vmovdqu 632(%rsi), %ymm6
vpslld $16, %ymm2, %ymm1
vpblendw $-86, %ymm1, %ymm9, %ymm10
vpsrld $16, %ymm9, %ymm1
vpblendw $-86, %ymm2, %ymm1, %ymm8
vpslld $16, %ymm3, %ymm1
vpblendw $-86, %ymm1, %ymm4, %ymm1
vpsrld $16, %ymm4, %ymm2
vpblendw $-86, %ymm3, %ymm2, %ymm12
vpslld $16, %ymm7, %ymm2
vpblendw $-86, %ymm2, %ymm13, %ymm4
vpsrld $16, %ymm13, %ymm2
vpblendw $-86, %ymm7, %ymm2, %ymm7
vpslld $16, %ymm11, %ymm2
vpblendw $-86, %ymm2, %ymm14, %ymm2
vpsrld $16, %ymm14, %ymm3
vpblendw $-86, %ymm11, %ymm3, %ymm13
vpmullw %ymm4, %ymm5, %ymm3
vpmulhw %ymm4, %ymm6, %ymm11
vpmullw %ymm7, %ymm5, %ymm4
vpmulhw %ymm7, %ymm6, %ymm9
vpmullw %ymm2, %ymm5, %ymm7
vpmulhw %ymm2, %ymm6, %ymm2
vpmullw %ymm13, %ymm5, %ymm14
vpmulhw %ymm13, %ymm6, %ymm13
vpmulhw %ymm0, %ymm3, %ymm3
vpmulhw %ymm0, %ymm4, %ymm4
vpmulhw %ymm0, %ymm7, %ymm5
vpmulhw %ymm0, %ymm14, %ymm6
vpsubw %ymm9, %ymm8, %ymm7
vpaddw %ymm8, %ymm9, %ymm8
vpsubw %ymm11, %ymm10, %ymm9
vpaddw %ymm10, %ymm11, %ymm10
vpsubw %ymm13, %ymm12, %ymm11
vpaddw %ymm12, %ymm13, %ymm12
vpsubw %ymm2, %ymm1, %ymm13
vpaddw %ymm1, %ymm2, %ymm1
vpaddw %ymm9, %ymm3, %ymm2
vpsubw %ymm3, %ymm10, %ymm3
vpaddw %ymm7, %ymm4, %ymm7
vpsubw %ymm4, %ymm8, %ymm4
vpaddw %ymm13, %ymm5, %ymm8
vpsubw %ymm5, %ymm1, %ymm1
vpaddw %ymm11, %ymm6, %ymm5
vpsubw %ymm6, %ymm12, %ymm10
vmovdqu 664(%rsi), %ymm9
vmovdqu 696(%rsi), %ymm13
vmovdqu 728(%rsi), %ymm11
vmovdqu 760(%rsi), %ymm6
vpmullw %ymm1, %ymm9, %ymm14
vpmulhw %ymm1, %ymm13, %ymm12
vpmullw %ymm10, %ymm9, %ymm9
vpmulhw %ymm10, %ymm13, %ymm13
vpmullw %ymm8, %ymm11, %ymm10
vpmulhw %ymm8, %ymm6, %ymm1
vpmullw %ymm5, %ymm11, %ymm11
vpmulhw %ymm5, %ymm6, %ymm5
vpmulhw %ymm0, %ymm14, %ymm6
vpmulhw %ymm0, %ymm9, %ymm8
vpmulhw %ymm0, %ymm10, %ymm9
vpmulhw %ymm0, %ymm11, %ymm10
vpsubw %ymm13, %ymm4, %ymm11
vpaddw %ymm4, %ymm13, %ymm4
vpsubw %ymm12, %ymm3, %ymm13
vpaddw %ymm3, %ymm12, %ymm3
vpsubw %ymm5, %ymm7, %ymm12
vpaddw %ymm7, %ymm5, %ymm5
vpsubw %ymm1, %ymm2, %ymm7
vpaddw %ymm2, %ymm1, %ymm1
vpaddw %ymm13, %ymm6, %ymm2
vpsubw %ymm6, %ymm3, %ymm3
vpaddw %ymm11, %ymm8, %ymm6
vpsubw %ymm8, %ymm4, %ymm4
vpaddw %ymm7, %ymm9, %ymm7
vpsubw %ymm9, %ymm1, %ymm8
vpaddw %ymm12, %ymm10, %ymm1
vpsubw %ymm10, %ymm5, %ymm5
vmovdqu glob_data + 384(%rip), %ymm9
vpmulhw %ymm9, %ymm3, %ymm10
vpsraw $10, %ymm10, %ymm10
vpmullw %ymm0, %ymm10, %ymm10
vpsubw %ymm10, %ymm3, %ymm3
vpmulhw %ymm9, %ymm4, %ymm10
vpsraw $10, %ymm10, %ymm10
vpmullw %ymm0, %ymm10, %ymm10
vpsubw %ymm10, %ymm4, %ymm4
vpmulhw %ymm9, %ymm8, %ymm10
vpsraw $10, %ymm10, %ymm10
vpmullw %ymm0, %ymm10, %ymm10
vpsubw %ymm10, %ymm8, %ymm8
vpmulhw %ymm9, %ymm5, %ymm10
vpsraw $10, %ymm10, %ymm10
vpmullw %ymm0, %ymm10, %ymm10
vpsubw %ymm10, %ymm5, %ymm5
vpmulhw %ymm9, %ymm2, %ymm10
vpsraw $10, %ymm10, %ymm10
vpmullw %ymm0, %ymm10, %ymm10
vpsubw %ymm10, %ymm2, %ymm2
vpmulhw %ymm9, %ymm6, %ymm10
vpsraw $10, %ymm10, %ymm10
vpmullw %ymm0, %ymm10, %ymm10
vpsubw %ymm10, %ymm6, %ymm6
vpmulhw %ymm9, %ymm7, %ymm10
vpsraw $10, %ymm10, %ymm10
vpmullw %ymm0, %ymm10, %ymm10
vpsubw %ymm10, %ymm7, %ymm7
vpmulhw %ymm9, %ymm1, %ymm9
vpsraw $10, %ymm9, %ymm9
vpmullw %ymm0, %ymm9, %ymm0
vpsubw %ymm0, %ymm1, %ymm0
vmovdqu %ymm3, 256(%rcx)
vmovdqu %ymm4, 288(%rcx)
vmovdqu %ymm2, 320(%rcx)
vmovdqu %ymm6, 352(%rcx)
vmovdqu %ymm8, 384(%rcx)
vmovdqu %ymm5, 416(%rcx)
vmovdqu %ymm7, 448(%rcx)
vmovdqu %ymm0, 480(%rcx)
jmp *%rdi
L_poly_invntt$1:
leaq glob_data + 480(%rip), %rsi
vmovdqu glob_data + 448(%rip), %ymm0
vmovdqu (%rsi), %ymm12
vmovdqu 64(%rsi), %ymm1
vmovdqu 32(%rsi), %ymm2
vmovdqu 96(%rsi), %ymm5
vmovdqu (%rcx), %ymm3
vmovdqu 32(%rcx), %ymm4
vmovdqu 64(%rcx), %ymm15
vmovdqu 96(%rcx), %ymm11
vmovdqu 128(%rcx), %ymm7
vmovdqu 160(%rcx), %ymm8
vmovdqu 192(%rcx), %ymm13
vmovdqu 224(%rcx), %ymm14
vpsubw %ymm15, %ymm3, %ymm6
vpsubw %ymm11, %ymm4, %ymm9
vpsubw %ymm13, %ymm7, %ymm10
vpaddw %ymm3, %ymm15, %ymm3
vpaddw %ymm4, %ymm11, %ymm4
vpmullw %ymm6, %ymm12, %ymm11
vpaddw %ymm7, %ymm13, %ymm7
vpmullw %ymm9, %ymm12, %ymm12
vpsubw %ymm14, %ymm8, %ymm13
vpaddw %ymm8, %ymm14, %ymm8
vpmullw %ymm10, %ymm1, %ymm14
vpmullw %ymm13, %ymm1, %ymm1
vpmulhw %ymm6, %ymm2, %ymm6
vpmulhw %ymm9, %ymm2, %ymm2
vpmulhw %ymm10, %ymm5, %ymm9
vpmulhw %ymm13, %ymm5, %ymm5
vpmulhw %ymm11, %ymm0, %ymm10
vpmulhw %ymm12, %ymm0, %ymm11
vpmulhw %ymm14, %ymm0, %ymm12
vpmulhw %ymm1, %ymm0, %ymm1
vpsubw %ymm10, %ymm6, %ymm6
vpsubw %ymm11, %ymm2, %ymm11
vpsubw %ymm12, %ymm9, %ymm9
vpsubw %ymm1, %ymm5, %ymm13
vmovdqu glob_data + 384(%rip), %ymm1
vmovdqu 128(%rsi), %ymm2
vmovdqu 160(%rsi), %ymm5
vpmulhw %ymm1, %ymm3, %ymm10
vpsraw $10, %ymm10, %ymm10
vpmullw %ymm0, %ymm10, %ymm10
vpsubw %ymm10, %ymm3, %ymm10
vpmulhw %ymm1, %ymm4, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm4, %ymm12
vpmulhw %ymm1, %ymm7, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm7, %ymm7
vpmulhw %ymm1, %ymm8, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm8, %ymm8
vpsubw %ymm7, %ymm10, %ymm15
vpsubw %ymm8, %ymm12, %ymm3
vpsubw %ymm9, %ymm6, %ymm4
vpaddw %ymm10, %ymm7, %ymm7
vpaddw %ymm12, %ymm8, %ymm8
vpmullw %ymm15, %ymm2, %ymm10
vpaddw %ymm6, %ymm9, %ymm9
vpmullw %ymm3, %ymm2, %ymm6
vpsubw %ymm13, %ymm11, %ymm12
vpaddw %ymm11, %ymm13, %ymm11
vpmullw %ymm4, %ymm2, %ymm13
vpmullw %ymm12, %ymm2, %ymm14
vpmulhw %ymm15, %ymm5, %ymm2
vpmulhw %ymm3, %ymm5, %ymm3
vpmulhw %ymm4, %ymm5, %ymm4
vpmulhw %ymm12, %ymm5, %ymm5
vpmulhw %ymm10, %ymm0, %ymm10
vpmulhw %ymm6, %ymm0, %ymm12
vpmulhw %ymm13, %ymm0, %ymm13
vpmulhw %ymm14, %ymm0, %ymm6
vpsubw %ymm10, %ymm2, %ymm2
vpsubw %ymm12, %ymm3, %ymm3
vpsubw %ymm13, %ymm4, %ymm4
vpsubw %ymm6, %ymm5, %ymm5
vpslld $16, %ymm8, %ymm6
vpblendw $-86, %ymm6, %ymm7, %ymm6
vpsrld $16, %ymm7, %ymm7
vpblendw $-86, %ymm8, %ymm7, %ymm7
vpslld $16, %ymm11, %ymm8
vpblendw $-86, %ymm8, %ymm9, %ymm10
vpsrld $16, %ymm9, %ymm8
vpblendw $-86, %ymm11, %ymm8, %ymm11
vpslld $16, %ymm3, %ymm8
vpblendw $-86, %ymm8, %ymm2, %ymm8
vpsrld $16, %ymm2, %ymm2
vpblendw $-86, %ymm3, %ymm2, %ymm9
vpslld $16, %ymm5, %ymm2
vpblendw $-86, %ymm2, %ymm4, %ymm12
vpsrld $16, %ymm4, %ymm2
vpblendw $-86, %ymm5, %ymm2, %ymm13
vmovdqu 192(%rsi), %ymm2
vmovdqu 224(%rsi), %ymm5
vpsubw %ymm7, %ymm6, %ymm15
vpsubw %ymm11, %ymm10, %ymm3
vpsubw %ymm9, %ymm8, %ymm4
vpaddw %ymm6, %ymm7, %ymm6
vpaddw %ymm10, %ymm11, %ymm7
vpmullw %ymm15, %ymm2, %ymm10
vpaddw %ymm8, %ymm9, %ymm8
vpmullw %ymm3, %ymm2, %ymm9
vpsubw %ymm13, %ymm12, %ymm11
vpaddw %ymm12, %ymm13, %ymm12
vpmullw %ymm4, %ymm2, %ymm13
vpmullw %ymm11, %ymm2, %ymm14
vpmulhw %ymm15, %ymm5, %ymm2
vpmulhw %ymm3, %ymm5, %ymm3
vpmulhw %ymm4, %ymm5, %ymm4
vpmulhw %ymm11, %ymm5, %ymm5
vpmulhw %ymm10, %ymm0, %ymm10
vpmulhw %ymm9, %ymm0, %ymm11
vpmulhw %ymm13, %ymm0, %ymm13
vpmulhw %ymm14, %ymm0, %ymm9
vpsubw %ymm10, %ymm2, %ymm2
vpsubw %ymm11, %ymm3, %ymm3
vpsubw %ymm13, %ymm4, %ymm4
vpsubw %ymm9, %ymm5, %ymm5
vpmulhw %ymm1, %ymm6, %ymm9
vpsraw $10, %ymm9, %ymm9
vpmullw %ymm0, %ymm9, %ymm9
vpsubw %ymm9, %ymm6, %ymm6
vmovsldup %ymm7, %ymm9
vpblendd $-86, %ymm9, %ymm6, %ymm9
vpsrlq $32, %ymm6, %ymm6
vpblendd $-86, %ymm7, %ymm6, %ymm10
vmovsldup %ymm12, %ymm6
vpblendd $-86, %ymm6, %ymm8, %ymm11
vpsrlq $32, %ymm8, %ymm6
vpblendd $-86, %ymm12, %ymm6, %ymm14
vmovsldup %ymm3, %ymm6
vpblendd $-86, %ymm6, %ymm2, %ymm12
vpsrlq $32, %ymm2, %ymm2
vpblendd $-86, %ymm3, %ymm2, %ymm13
vmovsldup %ymm5, %ymm2
vpblendd $-86, %ymm2, %ymm4, %ymm2
vpsrlq $32, %ymm4, %ymm3
vpblendd $-86, %ymm5, %ymm3, %ymm3
vmovdqu 256(%rsi), %ymm4
vmovdqu 288(%rsi), %ymm5
vpsubw %ymm10, %ymm9, %ymm6
vpsubw %ymm14, %ymm11, %ymm7
vpsubw %ymm13, %ymm12, %ymm8
vpaddw %ymm9, %ymm10, %ymm9
vpaddw %ymm11, %ymm14, %ymm10
vpmullw %ymm6, %ymm4, %ymm11
vpaddw %ymm12, %ymm13, %ymm12
vpmullw %ymm7, %ymm4, %ymm13
vpsubw %ymm3, %ymm2, %ymm14
vpaddw %ymm2, %ymm3, %ymm2
vpmullw %ymm8, %ymm4, %ymm3
vpmullw %ymm14, %ymm4, %ymm4
vpmulhw %ymm6, %ymm5, %ymm6
vpmulhw %ymm7, %ymm5, %ymm7
vpmulhw %ymm8, %ymm5, %ymm8
vpmulhw %ymm14, %ymm5, %ymm5
vpmulhw %ymm11, %ymm0, %ymm11
vpmulhw %ymm13, %ymm0, %ymm13
vpmulhw %ymm3, %ymm0, %ymm3
vpmulhw %ymm4, %ymm0, %ymm4
vpsubw %ymm11, %ymm6, %ymm6
vpsubw %ymm13, %ymm7, %ymm7
vpsubw %ymm3, %ymm8, %ymm3
vpsubw %ymm4, %ymm5, %ymm4
vpmulhw %ymm1, %ymm9, %ymm5
vpsraw $10, %ymm5, %ymm5
vpmullw %ymm0, %ymm5, %ymm5
vpsubw %ymm5, %ymm9, %ymm8
vpunpcklqdq %ymm10, %ymm8, %ymm5
vpunpckhqdq %ymm10, %ymm8, %ymm8
vpunpcklqdq %ymm2, %ymm12, %ymm9
vpunpckhqdq %ymm2, %ymm12, %ymm2
vpunpcklqdq %ymm7, %ymm6, %ymm10
vpunpckhqdq %ymm7, %ymm6, %ymm6
vpunpcklqdq %ymm4, %ymm3, %ymm7
vpunpckhqdq %ymm4, %ymm3, %ymm3
vmovdqu 320(%rsi), %ymm4
vmovdqu 352(%rsi), %ymm11
vpsubw %ymm8, %ymm5, %ymm12
vpsubw %ymm2, %ymm9, %ymm13
vpsubw %ymm6, %ymm10, %ymm14
vpaddw %ymm5, %ymm8, %ymm5
vpaddw %ymm9, %ymm2, %ymm2
vpmullw %ymm12, %ymm4, %ymm8
vpaddw %ymm10, %ymm6, %ymm6
vpmullw %ymm13, %ymm4, %ymm9
vpsubw %ymm3, %ymm7, %ymm10
vpaddw %ymm7, %ymm3, %ymm3
vpmullw %ymm14, %ymm4, %ymm7
vpmullw %ymm10, %ymm4, %ymm4
vpmulhw %ymm12, %ymm11, %ymm12
vpmulhw %ymm13, %ymm11, %ymm13
vpmulhw %ymm14, %ymm11, %ymm14
vpmulhw %ymm10, %ymm11, %ymm10
vpmulhw %ymm8, %ymm0, %ymm8
vpmulhw %ymm9, %ymm0, %ymm9
vpmulhw %ymm7, %ymm0, %ymm7
vpmulhw %ymm4, %ymm0, %ymm4
vpsubw %ymm8, %ymm12, %ymm8
vpsubw %ymm9, %ymm13, %ymm9
vpsubw %ymm7, %ymm14, %ymm7
vpsubw %ymm4, %ymm10, %ymm4
vpmulhw %ymm1, %ymm5, %ymm10
vpsraw $10, %ymm10, %ymm10
vpmullw %ymm0, %ymm10, %ymm10
vpsubw %ymm10, %ymm5, %ymm10
vperm2i128 $32, %ymm2, %ymm10, %ymm5
vperm2i128 $49, %ymm2, %ymm10, %ymm2
vperm2i128 $32, %ymm3, %ymm6, %ymm10
vperm2i128 $49, %ymm3, %ymm6, %ymm3
vperm2i128 $32, %ymm9, %ymm8, %ymm6
vperm2i128 $49, %ymm9, %ymm8, %ymm8
vperm2i128 $32, %ymm4, %ymm7, %ymm9
vperm2i128 $49, %ymm4, %ymm7, %ymm4
vpbroadcastd 384(%rsi), %ymm7
vpbroadcastd 388(%rsi), %ymm11
vpsubw %ymm2, %ymm5, %ymm12
vpsubw %ymm3, %ymm10, %ymm13
vpsubw %ymm8, %ymm6, %ymm14
vpaddw %ymm5, %ymm2, %ymm2
vpaddw %ymm10, %ymm3, %ymm3
vpmullw %ymm12, %ymm7, %ymm5
vpaddw %ymm6, %ymm8, %ymm6
vpmullw %ymm13, %ymm7, %ymm8
vpsubw %ymm4, %ymm9, %ymm10
vpaddw %ymm9, %ymm4, %ymm4
vpmullw %ymm14, %ymm7, %ymm9
vpmullw %ymm10, %ymm7, %ymm7
vpmulhw %ymm12, %ymm11, %ymm12
vpmulhw %ymm13, %ymm11, %ymm13
vpmulhw %ymm14, %ymm11, %ymm14
vpmulhw %ymm10, %ymm11, %ymm10
vpmulhw %ymm5, %ymm0, %ymm5
vpmulhw %ymm8, %ymm0, %ymm8
vpmulhw %ymm9, %ymm0, %ymm9
vpmulhw %ymm7, %ymm0, %ymm7
vpsubw %ymm5, %ymm12, %ymm5
vpsubw %ymm8, %ymm13, %ymm8
vpsubw %ymm9, %ymm14, %ymm9
vpsubw %ymm7, %ymm10, %ymm7
vpmulhw %ymm1, %ymm2, %ymm1
vpsraw $10, %ymm1, %ymm1
vpmullw %ymm0, %ymm1, %ymm1
vpsubw %ymm1, %ymm2, %ymm1
vmovdqu %ymm1, (%rcx)
vmovdqu %ymm3, 32(%rcx)
vmovdqu %ymm6, 64(%rcx)
vmovdqu %ymm4, 96(%rcx)
vmovdqu %ymm5, 128(%rcx)
vmovdqu %ymm8, 160(%rcx)
vmovdqu %ymm9, 192(%rcx)
vmovdqu %ymm7, 224(%rcx)
vmovdqu 392(%rsi), %ymm12
vmovdqu 456(%rsi), %ymm1
vmovdqu 424(%rsi), %ymm2
vmovdqu 488(%rsi), %ymm5
vmovdqu 256(%rcx), %ymm3
vmovdqu 288(%rcx), %ymm4
vmovdqu 320(%rcx), %ymm15
vmovdqu 352(%rcx), %ymm11
vmovdqu 384(%rcx), %ymm7
vmovdqu 416(%rcx), %ymm8
vmovdqu 448(%rcx), %ymm13
vmovdqu 480(%rcx), %ymm14
vpsubw %ymm15, %ymm3, %ymm6
vpsubw %ymm11, %ymm4, %ymm9
vpsubw %ymm13, %ymm7, %ymm10
vpaddw %ymm3, %ymm15, %ymm3
vpaddw %ymm4, %ymm11, %ymm4
vpmullw %ymm6, %ymm12, %ymm11
vpaddw %ymm7, %ymm13, %ymm7
vpmullw %ymm9, %ymm12, %ymm12
vpsubw %ymm14, %ymm8, %ymm13
vpaddw %ymm8, %ymm14, %ymm8
vpmullw %ymm10, %ymm1, %ymm14
vpmullw %ymm13, %ymm1, %ymm1
vpmulhw %ymm6, %ymm2, %ymm6
vpmulhw %ymm9, %ymm2, %ymm2
vpmulhw %ymm10, %ymm5, %ymm9
vpmulhw %ymm13, %ymm5, %ymm5
vpmulhw %ymm11, %ymm0, %ymm10
vpmulhw %ymm12, %ymm0, %ymm11
vpmulhw %ymm14, %ymm0, %ymm12
vpmulhw %ymm1, %ymm0, %ymm1
vpsubw %ymm10, %ymm6, %ymm6
vpsubw %ymm11, %ymm2, %ymm11
vpsubw %ymm12, %ymm9, %ymm9
vpsubw %ymm1, %ymm5, %ymm13
vmovdqu glob_data + 384(%rip), %ymm1
vmovdqu 520(%rsi), %ymm2
vmovdqu 552(%rsi), %ymm5
vpmulhw %ymm1, %ymm3, %ymm10
vpsraw $10, %ymm10, %ymm10
vpmullw %ymm0, %ymm10, %ymm10
vpsubw %ymm10, %ymm3, %ymm10
vpmulhw %ymm1, %ymm4, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm4, %ymm12
vpmulhw %ymm1, %ymm7, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm7, %ymm7
vpmulhw %ymm1, %ymm8, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm8, %ymm8
vpsubw %ymm7, %ymm10, %ymm15
vpsubw %ymm8, %ymm12, %ymm3
vpsubw %ymm9, %ymm6, %ymm4
vpaddw %ymm10, %ymm7, %ymm7
vpaddw %ymm12, %ymm8, %ymm8
vpmullw %ymm15, %ymm2, %ymm10
vpaddw %ymm6, %ymm9, %ymm9
vpmullw %ymm3, %ymm2, %ymm6
vpsubw %ymm13, %ymm11, %ymm12
vpaddw %ymm11, %ymm13, %ymm11
vpmullw %ymm4, %ymm2, %ymm13
vpmullw %ymm12, %ymm2, %ymm14
vpmulhw %ymm15, %ymm5, %ymm2
vpmulhw %ymm3, %ymm5, %ymm3
vpmulhw %ymm4, %ymm5, %ymm4
vpmulhw %ymm12, %ymm5, %ymm5
vpmulhw %ymm10, %ymm0, %ymm10
vpmulhw %ymm6, %ymm0, %ymm12
vpmulhw %ymm13, %ymm0, %ymm13
vpmulhw %ymm14, %ymm0, %ymm6
vpsubw %ymm10, %ymm2, %ymm2
vpsubw %ymm12, %ymm3, %ymm3
vpsubw %ymm13, %ymm4, %ymm4
vpsubw %ymm6, %ymm5, %ymm5
vpslld $16, %ymm8, %ymm6
vpblendw $-86, %ymm6, %ymm7, %ymm6
vpsrld $16, %ymm7, %ymm7
vpblendw $-86, %ymm8, %ymm7, %ymm7
vpslld $16, %ymm11, %ymm8
vpblendw $-86, %ymm8, %ymm9, %ymm10
vpsrld $16, %ymm9, %ymm8
vpblendw $-86, %ymm11, %ymm8, %ymm11
vpslld $16, %ymm3, %ymm8
vpblendw $-86, %ymm8, %ymm2, %ymm8
vpsrld $16, %ymm2, %ymm2
vpblendw $-86, %ymm3, %ymm2, %ymm9
vpslld $16, %ymm5, %ymm2
vpblendw $-86, %ymm2, %ymm4, %ymm12
vpsrld $16, %ymm4, %ymm2
vpblendw $-86, %ymm5, %ymm2, %ymm13
vmovdqu 584(%rsi), %ymm2
vmovdqu 616(%rsi), %ymm5
vpsubw %ymm7, %ymm6, %ymm15
vpsubw %ymm11, %ymm10, %ymm3
vpsubw %ymm9, %ymm8, %ymm4
vpaddw %ymm6, %ymm7, %ymm6
vpaddw %ymm10, %ymm11, %ymm7
vpmullw %ymm15, %ymm2, %ymm10
vpaddw %ymm8, %ymm9, %ymm8
vpmullw %ymm3, %ymm2, %ymm9
vpsubw %ymm13, %ymm12, %ymm11
vpaddw %ymm12, %ymm13, %ymm12
vpmullw %ymm4, %ymm2, %ymm13
vpmullw %ymm11, %ymm2, %ymm14
vpmulhw %ymm15, %ymm5, %ymm2
vpmulhw %ymm3, %ymm5, %ymm3
vpmulhw %ymm4, %ymm5, %ymm4
vpmulhw %ymm11, %ymm5, %ymm5
vpmulhw %ymm10, %ymm0, %ymm10
vpmulhw %ymm9, %ymm0, %ymm11
vpmulhw %ymm13, %ymm0, %ymm13
vpmulhw %ymm14, %ymm0, %ymm9
vpsubw %ymm10, %ymm2, %ymm2
vpsubw %ymm11, %ymm3, %ymm3
vpsubw %ymm13, %ymm4, %ymm4
vpsubw %ymm9, %ymm5, %ymm5
vpmulhw %ymm1, %ymm6, %ymm9
vpsraw $10, %ymm9, %ymm9
vpmullw %ymm0, %ymm9, %ymm9
vpsubw %ymm9, %ymm6, %ymm6
vmovsldup %ymm7, %ymm9
vpblendd $-86, %ymm9, %ymm6, %ymm9
vpsrlq $32, %ymm6, %ymm6
vpblendd $-86, %ymm7, %ymm6, %ymm10
vmovsldup %ymm12, %ymm6
vpblendd $-86, %ymm6, %ymm8, %ymm11
vpsrlq $32, %ymm8, %ymm6
vpblendd $-86, %ymm12, %ymm6, %ymm14
vmovsldup %ymm3, %ymm6
vpblendd $-86, %ymm6, %ymm2, %ymm12
vpsrlq $32, %ymm2, %ymm2
vpblendd $-86, %ymm3, %ymm2, %ymm13
vmovsldup %ymm5, %ymm2
vpblendd $-86, %ymm2, %ymm4, %ymm2
vpsrlq $32, %ymm4, %ymm3
vpblendd $-86, %ymm5, %ymm3, %ymm3
vmovdqu 648(%rsi), %ymm4
vmovdqu 680(%rsi), %ymm5
vpsubw %ymm10, %ymm9, %ymm6
vpsubw %ymm14, %ymm11, %ymm7
vpsubw %ymm13, %ymm12, %ymm8
vpaddw %ymm9, %ymm10, %ymm9
vpaddw %ymm11, %ymm14, %ymm10
vpmullw %ymm6, %ymm4, %ymm11
vpaddw %ymm12, %ymm13, %ymm12
vpmullw %ymm7, %ymm4, %ymm13
vpsubw %ymm3, %ymm2, %ymm14
vpaddw %ymm2, %ymm3, %ymm2
vpmullw %ymm8, %ymm4, %ymm3
vpmullw %ymm14, %ymm4, %ymm4
vpmulhw %ymm6, %ymm5, %ymm6
vpmulhw %ymm7, %ymm5, %ymm7
vpmulhw %ymm8, %ymm5, %ymm8
vpmulhw %ymm14, %ymm5, %ymm5
vpmulhw %ymm11, %ymm0, %ymm11
vpmulhw %ymm13, %ymm0, %ymm13
vpmulhw %ymm3, %ymm0, %ymm3
vpmulhw %ymm4, %ymm0, %ymm4
vpsubw %ymm11, %ymm6, %ymm6
vpsubw %ymm13, %ymm7, %ymm7
vpsubw %ymm3, %ymm8, %ymm3
vpsubw %ymm4, %ymm5, %ymm4
vpmulhw %ymm1, %ymm9, %ymm5
vpsraw $10, %ymm5, %ymm5
vpmullw %ymm0, %ymm5, %ymm5
vpsubw %ymm5, %ymm9, %ymm8
vpunpcklqdq %ymm10, %ymm8, %ymm5
vpunpckhqdq %ymm10, %ymm8, %ymm8
vpunpcklqdq %ymm2, %ymm12, %ymm9
vpunpckhqdq %ymm2, %ymm12, %ymm2
vpunpcklqdq %ymm7, %ymm6, %ymm10
vpunpckhqdq %ymm7, %ymm6, %ymm6
vpunpcklqdq %ymm4, %ymm3, %ymm7
vpunpckhqdq %ymm4, %ymm3, %ymm3
vmovdqu 712(%rsi), %ymm4
vmovdqu 744(%rsi), %ymm11
vpsubw %ymm8, %ymm5, %ymm12
vpsubw %ymm2, %ymm9, %ymm13
vpsubw %ymm6, %ymm10, %ymm14
vpaddw %ymm5, %ymm8, %ymm5
vpaddw %ymm9, %ymm2, %ymm2
vpmullw %ymm12, %ymm4, %ymm8
vpaddw %ymm10, %ymm6, %ymm6
vpmullw %ymm13, %ymm4, %ymm9
vpsubw %ymm3, %ymm7, %ymm10
vpaddw %ymm7, %ymm3, %ymm3
vpmullw %ymm14, %ymm4, %ymm7
vpmullw %ymm10, %ymm4, %ymm4
vpmulhw %ymm12, %ymm11, %ymm12
vpmulhw %ymm13, %ymm11, %ymm13
vpmulhw %ymm14, %ymm11, %ymm14
vpmulhw %ymm10, %ymm11, %ymm10
vpmulhw %ymm8, %ymm0, %ymm8
vpmulhw %ymm9, %ymm0, %ymm9
vpmulhw %ymm7, %ymm0, %ymm7
vpmulhw %ymm4, %ymm0, %ymm4
vpsubw %ymm8, %ymm12, %ymm8
vpsubw %ymm9, %ymm13, %ymm9
vpsubw %ymm7, %ymm14, %ymm7
vpsubw %ymm4, %ymm10, %ymm4
vpmulhw %ymm1, %ymm5, %ymm10
vpsraw $10, %ymm10, %ymm10
vpmullw %ymm0, %ymm10, %ymm10
vpsubw %ymm10, %ymm5, %ymm10
vperm2i128 $32, %ymm2, %ymm10, %ymm5
vperm2i128 $49, %ymm2, %ymm10, %ymm2
vperm2i128 $32, %ymm3, %ymm6, %ymm10
vperm2i128 $49, %ymm3, %ymm6, %ymm3
vperm2i128 $32, %ymm9, %ymm8, %ymm6
vperm2i128 $49, %ymm9, %ymm8, %ymm8
vperm2i128 $32, %ymm4, %ymm7, %ymm9
vperm2i128 $49, %ymm4, %ymm7, %ymm4
vpbroadcastd 776(%rsi), %ymm7
vpbroadcastd 780(%rsi), %ymm11
vpsubw %ymm2, %ymm5, %ymm12
vpsubw %ymm3, %ymm10, %ymm13
vpsubw %ymm8, %ymm6, %ymm14
vpaddw %ymm5, %ymm2, %ymm2
vpaddw %ymm10, %ymm3, %ymm3
vpmullw %ymm12, %ymm7, %ymm5
vpaddw %ymm6, %ymm8, %ymm6
vpmullw %ymm13, %ymm7, %ymm8
vpsubw %ymm4, %ymm9, %ymm10
vpaddw %ymm9, %ymm4, %ymm4
vpmullw %ymm14, %ymm7, %ymm9
vpmullw %ymm10, %ymm7, %ymm7
vpmulhw %ymm12, %ymm11, %ymm12
vpmulhw %ymm13, %ymm11, %ymm13
vpmulhw %ymm14, %ymm11, %ymm14
vpmulhw %ymm10, %ymm11, %ymm10
vpmulhw %ymm5, %ymm0, %ymm5
vpmulhw %ymm8, %ymm0, %ymm8
vpmulhw %ymm9, %ymm0, %ymm9
vpmulhw %ymm7, %ymm0, %ymm7
vpsubw %ymm5, %ymm12, %ymm5
vpsubw %ymm8, %ymm13, %ymm8
vpsubw %ymm9, %ymm14, %ymm9
vpsubw %ymm7, %ymm10, %ymm7
vpmulhw %ymm1, %ymm2, %ymm1
vpsraw $10, %ymm1, %ymm1
vpmullw %ymm0, %ymm1, %ymm1
vpsubw %ymm1, %ymm2, %ymm10
vmovdqu %ymm5, 384(%rcx)
vmovdqu %ymm8, 416(%rcx)
vmovdqu %ymm9, 448(%rcx)
vmovdqu %ymm7, 480(%rcx)
vpbroadcastd 784(%rsi), %ymm1
vpbroadcastd 788(%rsi), %ymm2
vmovdqu %ymm4, %ymm7
vmovdqu %ymm3, %ymm4
vmovdqu %ymm10, %ymm3
vmovdqu (%rcx), %ymm9
vmovdqu 32(%rcx), %ymm13
vmovdqu 64(%rcx), %ymm5
vmovdqu 96(%rcx), %ymm8
vpsubw %ymm3, %ymm9, %ymm10
vpsubw %ymm4, %ymm13, %ymm11
vpsubw %ymm6, %ymm5, %ymm12
vpaddw %ymm9, %ymm3, %ymm3
vpaddw %ymm13, %ymm4, %ymm4
vpmullw %ymm10, %ymm1, %ymm13
vpaddw %ymm5, %ymm6, %ymm5
vpmullw %ymm11, %ymm1, %ymm6
vpsubw %ymm7, %ymm8, %ymm14
vpaddw %ymm8, %ymm7, %ymm7
vpmullw %ymm12, %ymm1, %ymm8
vpmullw %ymm14, %ymm1, %ymm9
vpmulhw %ymm10, %ymm2, %ymm10
vpmulhw %ymm11, %ymm2, %ymm11
vpmulhw %ymm12, %ymm2, %ymm12
vpmulhw %ymm14, %ymm2, %ymm14
vpmulhw %ymm13, %ymm0, %ymm13
vpmulhw %ymm6, %ymm0, %ymm6
vpmulhw %ymm8, %ymm0, %ymm8
vpmulhw %ymm9, %ymm0, %ymm9
vpsubw %ymm13, %ymm10, %ymm10
vpsubw %ymm6, %ymm11, %ymm6
vpsubw %ymm8, %ymm12, %ymm11
vpsubw %ymm9, %ymm14, %ymm12
vmovdqu glob_data + 320(%rip), %ymm8
vmovdqu glob_data + 352(%rip), %ymm9
vmovdqu %ymm10, 256(%rcx)
vmovdqu %ymm6, 288(%rcx)
vmovdqu %ymm11, 320(%rcx)
vmovdqu %ymm12, 352(%rcx)
vpmullw %ymm3, %ymm8, %ymm6
vpmulhw %ymm3, %ymm9, %ymm3
vpmulhw %ymm0, %ymm6, %ymm6
vpsubw %ymm6, %ymm3, %ymm3
vpmullw %ymm4, %ymm8, %ymm6
vpmulhw %ymm4, %ymm9, %ymm4
vpmulhw %ymm0, %ymm6, %ymm6
vpsubw %ymm6, %ymm4, %ymm4
vpmullw %ymm5, %ymm8, %ymm6
vpmulhw %ymm5, %ymm9, %ymm5
vpmulhw %ymm0, %ymm6, %ymm6
vpsubw %ymm6, %ymm5, %ymm5
vpmullw %ymm7, %ymm8, %ymm6
vpmulhw %ymm7, %ymm9, %ymm7
vpmulhw %ymm0, %ymm6, %ymm6
vpsubw %ymm6, %ymm7, %ymm6
vmovdqu %ymm3, (%rcx)
vmovdqu %ymm4, 32(%rcx)
vmovdqu %ymm5, 64(%rcx)
vmovdqu %ymm6, 96(%rcx)
vmovdqu 384(%rcx), %ymm4
vmovdqu 416(%rcx), %ymm5
vmovdqu 448(%rcx), %ymm7
vmovdqu 480(%rcx), %ymm10
vmovdqu 128(%rcx), %ymm6
vmovdqu 160(%rcx), %ymm9
vmovdqu 192(%rcx), %ymm8
vmovdqu 224(%rcx), %ymm11
vpsubw %ymm4, %ymm6, %ymm12
vpsubw %ymm5, %ymm9, %ymm13
vpsubw %ymm7, %ymm8, %ymm3
vpaddw %ymm6, %ymm4, %ymm4
vpaddw %ymm9, %ymm5, %ymm5
vpmullw %ymm12, %ymm1, %ymm6
vpaddw %ymm8, %ymm7, %ymm7
vpmullw %ymm13, %ymm1, %ymm8
vpsubw %ymm10, %ymm11, %ymm9
vpaddw %ymm11, %ymm10, %ymm10
vpmullw %ymm3, %ymm1, %ymm11
vpmullw %ymm9, %ymm1, %ymm1
vpmulhw %ymm12, %ymm2, %ymm12
vpmulhw %ymm13, %ymm2, %ymm13
vpmulhw %ymm3, %ymm2, %ymm3
vpmulhw %ymm9, %ymm2, %ymm2
vpmulhw %ymm6, %ymm0, %ymm6
vpmulhw %ymm8, %ymm0, %ymm8
vpmulhw %ymm11, %ymm0, %ymm9
vpmulhw %ymm1, %ymm0, %ymm11
vpsubw %ymm6, %ymm12, %ymm1
vpsubw %ymm8, %ymm13, %ymm6
vpsubw %ymm9, %ymm3, %ymm8
vpsubw %ymm11, %ymm2, %ymm9
vmovdqu glob_data + 320(%rip), %ymm2
vmovdqu glob_data + 352(%rip), %ymm3
vmovdqu %ymm1, 384(%rcx)
vmovdqu %ymm6, 416(%rcx)
vmovdqu %ymm8, 448(%rcx)
vmovdqu %ymm9, 480(%rcx)
vpmullw %ymm4, %ymm2, %ymm1
vpmulhw %ymm4, %ymm3, %ymm4
vpmulhw %ymm0, %ymm1, %ymm1
vpsubw %ymm1, %ymm4, %ymm1
vpmullw %ymm5, %ymm2, %ymm4
vpmulhw %ymm5, %ymm3, %ymm5
vpmulhw %ymm0, %ymm4, %ymm4
vpsubw %ymm4, %ymm5, %ymm4
vpmullw %ymm7, %ymm2, %ymm5
vpmulhw %ymm7, %ymm3, %ymm6
vpmulhw %ymm0, %ymm5, %ymm5
vpsubw %ymm5, %ymm6, %ymm5
vpmullw %ymm10, %ymm2, %ymm2
vpmulhw %ymm10, %ymm3, %ymm3
vpmulhw %ymm0, %ymm2, %ymm0
vpsubw %ymm0, %ymm3, %ymm0
vmovdqu %ymm1, 128(%rcx)
vmovdqu %ymm4, 160(%rcx)
vmovdqu %ymm5, 192(%rcx)
vmovdqu %ymm0, 224(%rcx)
jmp *%rdi
L_poly_getnoise_eta1122_4x$1:
movq %rax, 1440(%rsp)
vmovdqu (%rcx), %ymm0
vmovdqu %ymm0, (%rsp)
vmovdqu %ymm0, 160(%rsp)
vmovdqu %ymm0, 320(%rsp)
vmovdqu %ymm0, 480(%rsp)
movb %dl, 32(%rsp)
incb %dl
movb %dl, 192(%rsp)
incb %dl
movb %dl, 352(%rsp)
incb %dl
movb %dl, 512(%rsp)
leaq 640(%rsp), %rax
movq %rsp, %rcx
leaq 160(%rsp), %rdx
leaq 320(%rsp), %rsi
leaq 480(%rsp), %r11
leaq -8(%rsp), %rsp
leaq L_poly_getnoise_eta1122_4x$3(%rip), %r10
movq %r10, (%rsp)
jmp L_shake256_absorb4x_33$1
L_poly_getnoise_eta1122_4x$3:
leaq 8(%rsp), %rsp
leaq 640(%rsp), %rax
movq %rsp, %rcx
leaq 160(%rsp), %rdx
leaq 320(%rsp), %rsi
leaq 480(%rsp), %r10
movq %rcx, %r11
movq %rdx, %rbx
movq %rsi, %rbp
leaq -832(%rsp), %rsp
leaq L_poly_getnoise_eta1122_4x$2(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
L_poly_getnoise_eta1122_4x$2:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r11)
vmovhpd %xmm1, (%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbp)
vmovhpd %xmm0, (%r10)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r11)
vmovhpd %xmm1, 8(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbp)
vmovhpd %xmm0, 8(%r10)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r11)
vmovhpd %xmm1, 16(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbp)
vmovhpd %xmm0, 16(%r10)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r11)
vmovhpd %xmm1, 24(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbp)
vmovhpd %xmm0, 24(%r10)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r11)
vmovhpd %xmm1, 32(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbp)
vmovhpd %xmm0, 32(%r10)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r11)
vmovhpd %xmm1, 40(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbp)
vmovhpd %xmm0, 40(%r10)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r11)
vmovhpd %xmm1, 48(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbp)
vmovhpd %xmm0, 48(%r10)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r11)
vmovhpd %xmm1, 56(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbp)
vmovhpd %xmm0, 56(%r10)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r11)
vmovhpd %xmm1, 64(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbp)
vmovhpd %xmm0, 64(%r10)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r11)
vmovhpd %xmm1, 72(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbp)
vmovhpd %xmm0, 72(%r10)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r11)
vmovhpd %xmm1, 80(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbp)
vmovhpd %xmm0, 80(%r10)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r11)
vmovhpd %xmm1, 88(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbp)
vmovhpd %xmm0, 88(%r10)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r11)
vmovhpd %xmm1, 96(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbp)
vmovhpd %xmm0, 96(%r10)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r11)
vmovhpd %xmm1, 104(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbp)
vmovhpd %xmm0, 104(%r10)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r11)
vmovhpd %xmm1, 112(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbp)
vmovhpd %xmm0, 112(%r10)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r11)
vmovhpd %xmm1, 120(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbp)
vmovhpd %xmm0, 120(%r10)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r11)
vmovhpd %xmm1, 128(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbp)
vmovhpd %xmm0, 128(%r10)
movq 1440(%rsp), %rax
movq %rsp, %rcx
movl $1431655765, 1448(%rsp)
movl $858993459, 1452(%rsp)
movl $50529027, 1456(%rsp)
movl $252645135, 1460(%rsp)
vpbroadcastd 1448(%rsp), %ymm0
vpbroadcastd 1452(%rsp), %ymm1
vpbroadcastd 1456(%rsp), %ymm2
vpbroadcastd 1460(%rsp), %ymm3
vmovdqu (%rcx), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, (%rax)
vmovdqu %ymm7, 32(%rax)
vmovdqu %ymm6, 64(%rax)
vmovdqu %ymm4, 96(%rax)
vmovdqu 32(%rcx), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, 128(%rax)
vmovdqu %ymm7, 160(%rax)
vmovdqu %ymm6, 192(%rax)
vmovdqu %ymm4, 224(%rax)
vmovdqu 64(%rcx), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, 256(%rax)
vmovdqu %ymm7, 288(%rax)
vmovdqu %ymm6, 320(%rax)
vmovdqu %ymm4, 352(%rax)
vmovdqu 96(%rcx), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm0
vpaddb %ymm0, %ymm4, %ymm0
vpsrlw $2, %ymm0, %ymm4
vpand %ymm0, %ymm1, %ymm0
vpand %ymm4, %ymm1, %ymm4
vpaddb %ymm1, %ymm0, %ymm0
vpsubb %ymm4, %ymm0, %ymm0
vpsrlw $4, %ymm0, %ymm1
vpand %ymm0, %ymm3, %ymm0
vpand %ymm1, %ymm3, %ymm1
vpsubb %ymm2, %ymm0, %ymm0
vpsubb %ymm2, %ymm1, %ymm1
vpunpcklbw %ymm1, %ymm0, %ymm2
vpunpckhbw %ymm1, %ymm0, %ymm0
vmovdqu %xmm2, %xmm1
vpmovsxbw %xmm1, %ymm1
vextracti128 $1, %ymm2, %xmm2
vpmovsxbw %xmm2, %ymm2
vmovdqu %xmm0, %xmm3
vpmovsxbw %xmm3, %ymm3
vextracti128 $1, %ymm0, %xmm0
vpmovsxbw %xmm0, %ymm0
vmovdqu %ymm1, 384(%rax)
vmovdqu %ymm3, 416(%rax)
vmovdqu %ymm2, 448(%rax)
vmovdqu %ymm0, 480(%rax)
leaq 160(%rsp), %rax
movl $1431655765, 1460(%rsp)
movl $858993459, 1456(%rsp)
movl $50529027, 1452(%rsp)
movl $252645135, 1448(%rsp)
vpbroadcastd 1460(%rsp), %ymm0
vpbroadcastd 1456(%rsp), %ymm1
vpbroadcastd 1452(%rsp), %ymm2
vpbroadcastd 1448(%rsp), %ymm3
vmovdqu (%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, (%rdi)
vmovdqu %ymm7, 32(%rdi)
vmovdqu %ymm6, 64(%rdi)
vmovdqu %ymm4, 96(%rdi)
vmovdqu 32(%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, 128(%rdi)
vmovdqu %ymm7, 160(%rdi)
vmovdqu %ymm6, 192(%rdi)
vmovdqu %ymm4, 224(%rdi)
vmovdqu 64(%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, 256(%rdi)
vmovdqu %ymm7, 288(%rdi)
vmovdqu %ymm6, 320(%rdi)
vmovdqu %ymm4, 352(%rdi)
vmovdqu 96(%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm0
vpaddb %ymm0, %ymm4, %ymm0
vpsrlw $2, %ymm0, %ymm4
vpand %ymm0, %ymm1, %ymm0
vpand %ymm4, %ymm1, %ymm4
vpaddb %ymm1, %ymm0, %ymm0
vpsubb %ymm4, %ymm0, %ymm0
vpsrlw $4, %ymm0, %ymm1
vpand %ymm0, %ymm3, %ymm0
vpand %ymm1, %ymm3, %ymm1
vpsubb %ymm2, %ymm0, %ymm0
vpsubb %ymm2, %ymm1, %ymm1
vpunpcklbw %ymm1, %ymm0, %ymm2
vpunpckhbw %ymm1, %ymm0, %ymm0
vmovdqu %xmm2, %xmm1
vpmovsxbw %xmm1, %ymm1
vextracti128 $1, %ymm2, %xmm2
vpmovsxbw %xmm2, %ymm2
vmovdqu %xmm0, %xmm3
vpmovsxbw %xmm3, %ymm3
vextracti128 $1, %ymm0, %xmm0
vpmovsxbw %xmm0, %ymm0
vmovdqu %ymm1, 384(%rdi)
vmovdqu %ymm3, 416(%rdi)
vmovdqu %ymm2, 448(%rdi)
vmovdqu %ymm0, 480(%rdi)
leaq 320(%rsp), %rax
movl $1431655765, 1448(%rsp)
movl $858993459, 1452(%rsp)
movl $50529027, 1456(%rsp)
movl $252645135, 1460(%rsp)
vpbroadcastd 1448(%rsp), %ymm0
vpbroadcastd 1452(%rsp), %ymm1
vpbroadcastd 1456(%rsp), %ymm2
vpbroadcastd 1460(%rsp), %ymm3
vmovdqu (%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, (%r8)
vmovdqu %ymm7, 32(%r8)
vmovdqu %ymm6, 64(%r8)
vmovdqu %ymm4, 96(%r8)
vmovdqu 32(%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, 128(%r8)
vmovdqu %ymm7, 160(%r8)
vmovdqu %ymm6, 192(%r8)
vmovdqu %ymm4, 224(%r8)
vmovdqu 64(%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, 256(%r8)
vmovdqu %ymm7, 288(%r8)
vmovdqu %ymm6, 320(%r8)
vmovdqu %ymm4, 352(%r8)
vmovdqu 96(%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm0
vpaddb %ymm0, %ymm4, %ymm0
vpsrlw $2, %ymm0, %ymm4
vpand %ymm0, %ymm1, %ymm0
vpand %ymm4, %ymm1, %ymm4
vpaddb %ymm1, %ymm0, %ymm0
vpsubb %ymm4, %ymm0, %ymm0
vpsrlw $4, %ymm0, %ymm1
vpand %ymm0, %ymm3, %ymm0
vpand %ymm1, %ymm3, %ymm1
vpsubb %ymm2, %ymm0, %ymm0
vpsubb %ymm2, %ymm1, %ymm1
vpunpcklbw %ymm1, %ymm0, %ymm2
vpunpckhbw %ymm1, %ymm0, %ymm0
vmovdqu %xmm2, %xmm1
vpmovsxbw %xmm1, %ymm1
vextracti128 $1, %ymm2, %xmm2
vpmovsxbw %xmm2, %ymm2
vmovdqu %xmm0, %xmm3
vpmovsxbw %xmm3, %ymm3
vextracti128 $1, %ymm0, %xmm0
vpmovsxbw %xmm0, %ymm0
vmovdqu %ymm1, 384(%r8)
vmovdqu %ymm3, 416(%r8)
vmovdqu %ymm2, 448(%r8)
vmovdqu %ymm0, 480(%r8)
leaq 480(%rsp), %rax
movl $1431655765, 1460(%rsp)
movl $858993459, 1456(%rsp)
movl $50529027, 1452(%rsp)
movl $252645135, 1448(%rsp)
vpbroadcastd 1460(%rsp), %ymm0
vpbroadcastd 1456(%rsp), %ymm1
vpbroadcastd 1452(%rsp), %ymm2
vpbroadcastd 1448(%rsp), %ymm3
vmovdqu (%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, (%r9)
vmovdqu %ymm7, 32(%r9)
vmovdqu %ymm6, 64(%r9)
vmovdqu %ymm4, 96(%r9)
vmovdqu 32(%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, 128(%r9)
vmovdqu %ymm7, 160(%r9)
vmovdqu %ymm6, 192(%r9)
vmovdqu %ymm4, 224(%r9)
vmovdqu 64(%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, 256(%r9)
vmovdqu %ymm7, 288(%r9)
vmovdqu %ymm6, 320(%r9)
vmovdqu %ymm4, 352(%r9)
vmovdqu 96(%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm0
vpaddb %ymm0, %ymm4, %ymm0
vpsrlw $2, %ymm0, %ymm4
vpand %ymm0, %ymm1, %ymm0
vpand %ymm4, %ymm1, %ymm4
vpaddb %ymm1, %ymm0, %ymm0
vpsubb %ymm4, %ymm0, %ymm0
vpsrlw $4, %ymm0, %ymm1
vpand %ymm0, %ymm3, %ymm0
vpand %ymm1, %ymm3, %ymm1
vpsubb %ymm2, %ymm0, %ymm0
vpsubb %ymm2, %ymm1, %ymm1
vpunpcklbw %ymm1, %ymm0, %ymm2
vpunpckhbw %ymm1, %ymm0, %ymm0
vmovdqu %xmm2, %xmm1
vpmovsxbw %xmm1, %ymm1
vextracti128 $1, %ymm2, %xmm2
vpmovsxbw %xmm2, %ymm2
vmovdqu %xmm0, %xmm3
vpmovsxbw %xmm3, %ymm3
vextracti128 $1, %ymm0, %xmm0
vpmovsxbw %xmm0, %ymm0
vmovdqu %ymm1, 384(%r9)
vmovdqu %ymm3, 416(%r9)
vmovdqu %ymm2, 448(%r9)
vmovdqu %ymm0, 480(%r9)
jmp *1464(%rsp)
L_poly_getnoise_eta1_4x$1:
movq %rax, 1440(%rsp)
vmovdqu (%r10), %ymm0
vmovdqu %ymm0, (%rsp)
vmovdqu %ymm0, 160(%rsp)
vmovdqu %ymm0, 320(%rsp)
vmovdqu %ymm0, 480(%rsp)
movb %cl, 32(%rsp)
incb %cl
movb %cl, 192(%rsp)
incb %cl
movb %cl, 352(%rsp)
incb %cl
movb %cl, 512(%rsp)
leaq 640(%rsp), %rax
movq %rsp, %rcx
leaq 160(%rsp), %rdx
leaq 320(%rsp), %rsi
leaq 480(%rsp), %r11
leaq -8(%rsp), %rsp
leaq L_poly_getnoise_eta1_4x$3(%rip), %rbx
movq %rbx, (%rsp)
jmp L_shake256_absorb4x_33$1
L_poly_getnoise_eta1_4x$3:
leaq 8(%rsp), %rsp
leaq 640(%rsp), %rax
movq %rsp, %r11
leaq 160(%rsp), %rcx
leaq 320(%rsp), %rdx
leaq 480(%rsp), %rsi
movq %rcx, %rbx
movq %rdx, %rbp
movq %rsi, %r12
leaq -832(%rsp), %rsp
leaq L_poly_getnoise_eta1_4x$2(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
L_poly_getnoise_eta1_4x$2:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r11)
vmovhpd %xmm1, (%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbp)
vmovhpd %xmm0, (%r12)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r11)
vmovhpd %xmm1, 8(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbp)
vmovhpd %xmm0, 8(%r12)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r11)
vmovhpd %xmm1, 16(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbp)
vmovhpd %xmm0, 16(%r12)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r11)
vmovhpd %xmm1, 24(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbp)
vmovhpd %xmm0, 24(%r12)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r11)
vmovhpd %xmm1, 32(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbp)
vmovhpd %xmm0, 32(%r12)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r11)
vmovhpd %xmm1, 40(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbp)
vmovhpd %xmm0, 40(%r12)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r11)
vmovhpd %xmm1, 48(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbp)
vmovhpd %xmm0, 48(%r12)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r11)
vmovhpd %xmm1, 56(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbp)
vmovhpd %xmm0, 56(%r12)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r11)
vmovhpd %xmm1, 64(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbp)
vmovhpd %xmm0, 64(%r12)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r11)
vmovhpd %xmm1, 72(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbp)
vmovhpd %xmm0, 72(%r12)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r11)
vmovhpd %xmm1, 80(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbp)
vmovhpd %xmm0, 80(%r12)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r11)
vmovhpd %xmm1, 88(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbp)
vmovhpd %xmm0, 88(%r12)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r11)
vmovhpd %xmm1, 96(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbp)
vmovhpd %xmm0, 96(%r12)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r11)
vmovhpd %xmm1, 104(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbp)
vmovhpd %xmm0, 104(%r12)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r11)
vmovhpd %xmm1, 112(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbp)
vmovhpd %xmm0, 112(%r12)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r11)
vmovhpd %xmm1, 120(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbp)
vmovhpd %xmm0, 120(%r12)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r11)
vmovhpd %xmm1, 128(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbp)
vmovhpd %xmm0, 128(%r12)
movq 1440(%rsp), %rax
movq %rsp, %rcx
movl $1431655765, 1448(%rsp)
movl $858993459, 1452(%rsp)
movl $50529027, 1456(%rsp)
movl $252645135, 1460(%rsp)
vpbroadcastd 1448(%rsp), %ymm0
vpbroadcastd 1452(%rsp), %ymm1
vpbroadcastd 1456(%rsp), %ymm2
vpbroadcastd 1460(%rsp), %ymm3
vmovdqu (%rcx), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, (%rax)
vmovdqu %ymm7, 32(%rax)
vmovdqu %ymm6, 64(%rax)
vmovdqu %ymm4, 96(%rax)
vmovdqu 32(%rcx), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, 128(%rax)
vmovdqu %ymm7, 160(%rax)
vmovdqu %ymm6, 192(%rax)
vmovdqu %ymm4, 224(%rax)
vmovdqu 64(%rcx), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, 256(%rax)
vmovdqu %ymm7, 288(%rax)
vmovdqu %ymm6, 320(%rax)
vmovdqu %ymm4, 352(%rax)
vmovdqu 96(%rcx), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm0
vpaddb %ymm0, %ymm4, %ymm0
vpsrlw $2, %ymm0, %ymm4
vpand %ymm0, %ymm1, %ymm0
vpand %ymm4, %ymm1, %ymm4
vpaddb %ymm1, %ymm0, %ymm0
vpsubb %ymm4, %ymm0, %ymm0
vpsrlw $4, %ymm0, %ymm1
vpand %ymm0, %ymm3, %ymm0
vpand %ymm1, %ymm3, %ymm1
vpsubb %ymm2, %ymm0, %ymm0
vpsubb %ymm2, %ymm1, %ymm1
vpunpcklbw %ymm1, %ymm0, %ymm2
vpunpckhbw %ymm1, %ymm0, %ymm0
vmovdqu %xmm2, %xmm1
vpmovsxbw %xmm1, %ymm1
vextracti128 $1, %ymm2, %xmm2
vpmovsxbw %xmm2, %ymm2
vmovdqu %xmm0, %xmm3
vpmovsxbw %xmm3, %ymm3
vextracti128 $1, %ymm0, %xmm0
vpmovsxbw %xmm0, %ymm0
vmovdqu %ymm1, 384(%rax)
vmovdqu %ymm3, 416(%rax)
vmovdqu %ymm2, 448(%rax)
vmovdqu %ymm0, 480(%rax)
leaq 160(%rsp), %rax
movl $1431655765, 1460(%rsp)
movl $858993459, 1456(%rsp)
movl $50529027, 1452(%rsp)
movl $252645135, 1448(%rsp)
vpbroadcastd 1460(%rsp), %ymm0
vpbroadcastd 1456(%rsp), %ymm1
vpbroadcastd 1452(%rsp), %ymm2
vpbroadcastd 1448(%rsp), %ymm3
vmovdqu (%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, (%rdi)
vmovdqu %ymm7, 32(%rdi)
vmovdqu %ymm6, 64(%rdi)
vmovdqu %ymm4, 96(%rdi)
vmovdqu 32(%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, 128(%rdi)
vmovdqu %ymm7, 160(%rdi)
vmovdqu %ymm6, 192(%rdi)
vmovdqu %ymm4, 224(%rdi)
vmovdqu 64(%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, 256(%rdi)
vmovdqu %ymm7, 288(%rdi)
vmovdqu %ymm6, 320(%rdi)
vmovdqu %ymm4, 352(%rdi)
vmovdqu 96(%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm0
vpaddb %ymm0, %ymm4, %ymm0
vpsrlw $2, %ymm0, %ymm4
vpand %ymm0, %ymm1, %ymm0
vpand %ymm4, %ymm1, %ymm4
vpaddb %ymm1, %ymm0, %ymm0
vpsubb %ymm4, %ymm0, %ymm0
vpsrlw $4, %ymm0, %ymm1
vpand %ymm0, %ymm3, %ymm0
vpand %ymm1, %ymm3, %ymm1
vpsubb %ymm2, %ymm0, %ymm0
vpsubb %ymm2, %ymm1, %ymm1
vpunpcklbw %ymm1, %ymm0, %ymm2
vpunpckhbw %ymm1, %ymm0, %ymm0
vmovdqu %xmm2, %xmm1
vpmovsxbw %xmm1, %ymm1
vextracti128 $1, %ymm2, %xmm2
vpmovsxbw %xmm2, %ymm2
vmovdqu %xmm0, %xmm3
vpmovsxbw %xmm3, %ymm3
vextracti128 $1, %ymm0, %xmm0
vpmovsxbw %xmm0, %ymm0
vmovdqu %ymm1, 384(%rdi)
vmovdqu %ymm3, 416(%rdi)
vmovdqu %ymm2, 448(%rdi)
vmovdqu %ymm0, 480(%rdi)
leaq 320(%rsp), %rax
movl $1431655765, 1448(%rsp)
movl $858993459, 1452(%rsp)
movl $50529027, 1456(%rsp)
movl $252645135, 1460(%rsp)
vpbroadcastd 1448(%rsp), %ymm0
vpbroadcastd 1452(%rsp), %ymm1
vpbroadcastd 1456(%rsp), %ymm2
vpbroadcastd 1460(%rsp), %ymm3
vmovdqu (%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, (%r8)
vmovdqu %ymm7, 32(%r8)
vmovdqu %ymm6, 64(%r8)
vmovdqu %ymm4, 96(%r8)
vmovdqu 32(%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, 128(%r8)
vmovdqu %ymm7, 160(%r8)
vmovdqu %ymm6, 192(%r8)
vmovdqu %ymm4, 224(%r8)
vmovdqu 64(%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, 256(%r8)
vmovdqu %ymm7, 288(%r8)
vmovdqu %ymm6, 320(%r8)
vmovdqu %ymm4, 352(%r8)
vmovdqu 96(%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm0
vpaddb %ymm0, %ymm4, %ymm0
vpsrlw $2, %ymm0, %ymm4
vpand %ymm0, %ymm1, %ymm0
vpand %ymm4, %ymm1, %ymm4
vpaddb %ymm1, %ymm0, %ymm0
vpsubb %ymm4, %ymm0, %ymm0
vpsrlw $4, %ymm0, %ymm1
vpand %ymm0, %ymm3, %ymm0
vpand %ymm1, %ymm3, %ymm1
vpsubb %ymm2, %ymm0, %ymm0
vpsubb %ymm2, %ymm1, %ymm1
vpunpcklbw %ymm1, %ymm0, %ymm2
vpunpckhbw %ymm1, %ymm0, %ymm0
vmovdqu %xmm2, %xmm1
vpmovsxbw %xmm1, %ymm1
vextracti128 $1, %ymm2, %xmm2
vpmovsxbw %xmm2, %ymm2
vmovdqu %xmm0, %xmm3
vpmovsxbw %xmm3, %ymm3
vextracti128 $1, %ymm0, %xmm0
vpmovsxbw %xmm0, %ymm0
vmovdqu %ymm1, 384(%r8)
vmovdqu %ymm3, 416(%r8)
vmovdqu %ymm2, 448(%r8)
vmovdqu %ymm0, 480(%r8)
leaq 480(%rsp), %rax
movl $1431655765, 1460(%rsp)
movl $858993459, 1456(%rsp)
movl $50529027, 1452(%rsp)
movl $252645135, 1448(%rsp)
vpbroadcastd 1460(%rsp), %ymm0
vpbroadcastd 1456(%rsp), %ymm1
vpbroadcastd 1452(%rsp), %ymm2
vpbroadcastd 1448(%rsp), %ymm3
vmovdqu (%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, (%r9)
vmovdqu %ymm7, 32(%r9)
vmovdqu %ymm6, 64(%r9)
vmovdqu %ymm4, 96(%r9)
vmovdqu 32(%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, 128(%r9)
vmovdqu %ymm7, 160(%r9)
vmovdqu %ymm6, 192(%r9)
vmovdqu %ymm4, 224(%r9)
vmovdqu 64(%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, 256(%r9)
vmovdqu %ymm7, 288(%r9)
vmovdqu %ymm6, 320(%r9)
vmovdqu %ymm4, 352(%r9)
vmovdqu 96(%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm0
vpaddb %ymm0, %ymm4, %ymm0
vpsrlw $2, %ymm0, %ymm4
vpand %ymm0, %ymm1, %ymm0
vpand %ymm4, %ymm1, %ymm4
vpaddb %ymm1, %ymm0, %ymm0
vpsubb %ymm4, %ymm0, %ymm0
vpsrlw $4, %ymm0, %ymm1
vpand %ymm0, %ymm3, %ymm0
vpand %ymm1, %ymm3, %ymm1
vpsubb %ymm2, %ymm0, %ymm0
vpsubb %ymm2, %ymm1, %ymm1
vpunpcklbw %ymm1, %ymm0, %ymm2
vpunpckhbw %ymm1, %ymm0, %ymm0
vmovdqu %xmm2, %xmm1
vpmovsxbw %xmm1, %ymm1
vextracti128 $1, %ymm2, %xmm2
vpmovsxbw %xmm2, %ymm2
vmovdqu %xmm0, %xmm3
vpmovsxbw %xmm3, %ymm3
vextracti128 $1, %ymm0, %xmm0
vpmovsxbw %xmm0, %ymm0
vmovdqu %ymm1, 384(%r9)
vmovdqu %ymm3, 416(%r9)
vmovdqu %ymm2, 448(%r9)
vmovdqu %ymm0, 480(%r9)
jmp *1464(%rsp)
L_poly_getnoise$1:
movl $1431655765, 172(%rsp)
movl $858993459, 176(%rsp)
movl $50529027, 180(%rsp)
movl $252645135, 184(%rsp)
movq %rax, 128(%rsp)
movq (%rcx), %rax
movq %rax, 136(%rsp)
movq 8(%rcx), %rax
movq %rax, 144(%rsp)
movq 16(%rcx), %rax
movq %rax, 152(%rsp)
movq 24(%rcx), %rax
movq %rax, 160(%rsp)
movb %dl, 168(%rsp)
movq %rsp, %rax
leaq 136(%rsp), %rcx
leaq -256(%rsp), %rsp
leaq L_poly_getnoise$2(%rip), %rdx
movq %rdx, 224(%rsp)
jmp L_shake256_128_33$1
L_poly_getnoise$2:
leaq 256(%rsp), %rsp
vpbroadcastd 172(%rsp), %ymm0
vpbroadcastd 176(%rsp), %ymm1
vpbroadcastd 180(%rsp), %ymm2
vpbroadcastd 184(%rsp), %ymm3
movq 128(%rsp), %rax
vmovdqu (%rsp), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, (%rax)
vmovdqu %ymm7, 32(%rax)
vmovdqu %ymm6, 64(%rax)
vmovdqu %ymm4, 96(%rax)
vmovdqu 32(%rsp), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, 128(%rax)
vmovdqu %ymm7, 160(%rax)
vmovdqu %ymm6, 192(%rax)
vmovdqu %ymm4, 224(%rax)
vmovdqu 64(%rsp), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, 256(%rax)
vmovdqu %ymm7, 288(%rax)
vmovdqu %ymm6, 320(%rax)
vmovdqu %ymm4, 352(%rax)
vmovdqu 96(%rsp), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm0
vpaddb %ymm0, %ymm4, %ymm0
vpsrlw $2, %ymm0, %ymm4
vpand %ymm0, %ymm1, %ymm0
vpand %ymm4, %ymm1, %ymm4
vpaddb %ymm1, %ymm0, %ymm0
vpsubb %ymm4, %ymm0, %ymm0
vpsrlw $4, %ymm0, %ymm1
vpand %ymm0, %ymm3, %ymm0
vpand %ymm1, %ymm3, %ymm1
vpsubb %ymm2, %ymm0, %ymm0
vpsubb %ymm2, %ymm1, %ymm1
vpunpcklbw %ymm1, %ymm0, %ymm2
vpunpckhbw %ymm1, %ymm0, %ymm0
vmovdqu %xmm2, %xmm1
vpmovsxbw %xmm1, %ymm1
vextracti128 $1, %ymm2, %xmm2
vpmovsxbw %xmm2, %ymm2
vmovdqu %xmm0, %xmm3
vpmovsxbw %xmm3, %ymm3
vextracti128 $1, %ymm0, %xmm0
vpmovsxbw %xmm0, %ymm0
vmovdqu %ymm1, 384(%rax)
vmovdqu %ymm3, 416(%rax)
vmovdqu %ymm2, 448(%rax)
vmovdqu %ymm0, 480(%rax)
jmp *192(%rsp)
L_poly_frommsg_1$1:
leaq glob_data + 256(%rip), %rdi
vmovdqu (%rdi), %ymm0
vbroadcasti128 glob_data + 4112(%rip), %ymm1
vbroadcasti128 glob_data + 4096(%rip), %ymm2
vmovdqu (%rax), %ymm3
vpshufd $0, %ymm3, %ymm4
vpsllvd %ymm1, %ymm4, %ymm4
vpshufb %ymm2, %ymm4, %ymm4
vpsllw $12, %ymm4, %ymm5
vpsllw $8, %ymm4, %ymm6
vpsllw $4, %ymm4, %ymm7
vpsraw $15, %ymm5, %ymm5
vpsraw $15, %ymm6, %ymm6
vpsraw $15, %ymm7, %ymm7
vpsraw $15, %ymm4, %ymm4
vpand %ymm0, %ymm5, %ymm5
vpand %ymm0, %ymm6, %ymm6
vpand %ymm0, %ymm7, %ymm7
vpand %ymm0, %ymm4, %ymm4
vpunpcklqdq %ymm6, %ymm5, %ymm8
vpunpckhqdq %ymm6, %ymm5, %ymm5
vpunpcklqdq %ymm4, %ymm7, %ymm6
vpunpckhqdq %ymm4, %ymm7, %ymm4
vperm2i128 $32, %ymm6, %ymm8, %ymm7
vperm2i128 $49, %ymm6, %ymm8, %ymm6
vperm2i128 $32, %ymm4, %ymm5, %ymm8
vperm2i128 $49, %ymm4, %ymm5, %ymm4
vmovdqu %ymm7, (%rcx)
vmovdqu %ymm8, 32(%rcx)
vmovdqu %ymm6, 256(%rcx)
vmovdqu %ymm4, 288(%rcx)
vpshufd $85, %ymm3, %ymm4
vpsllvd %ymm1, %ymm4, %ymm4
vpshufb %ymm2, %ymm4, %ymm4
vpsllw $12, %ymm4, %ymm5
vpsllw $8, %ymm4, %ymm6
vpsllw $4, %ymm4, %ymm7
vpsraw $15, %ymm5, %ymm5
vpsraw $15, %ymm6, %ymm6
vpsraw $15, %ymm7, %ymm7
vpsraw $15, %ymm4, %ymm4
vpand %ymm0, %ymm5, %ymm5
vpand %ymm0, %ymm6, %ymm6
vpand %ymm0, %ymm7, %ymm7
vpand %ymm0, %ymm4, %ymm4
vpunpcklqdq %ymm6, %ymm5, %ymm8
vpunpckhqdq %ymm6, %ymm5, %ymm5
vpunpcklqdq %ymm4, %ymm7, %ymm6
vpunpckhqdq %ymm4, %ymm7, %ymm4
vperm2i128 $32, %ymm6, %ymm8, %ymm7
vperm2i128 $49, %ymm6, %ymm8, %ymm6
vperm2i128 $32, %ymm4, %ymm5, %ymm8
vperm2i128 $49, %ymm4, %ymm5, %ymm4
vmovdqu %ymm7, 64(%rcx)
vmovdqu %ymm8, 96(%rcx)
vmovdqu %ymm6, 320(%rcx)
vmovdqu %ymm4, 352(%rcx)
vpshufd $-86, %ymm3, %ymm4
vpsllvd %ymm1, %ymm4, %ymm4
vpshufb %ymm2, %ymm4, %ymm4
vpsllw $12, %ymm4, %ymm5
vpsllw $8, %ymm4, %ymm6
vpsllw $4, %ymm4, %ymm7
vpsraw $15, %ymm5, %ymm5
vpsraw $15, %ymm6, %ymm6
vpsraw $15, %ymm7, %ymm7
vpsraw $15, %ymm4, %ymm4
vpand %ymm0, %ymm5, %ymm5
vpand %ymm0, %ymm6, %ymm6
vpand %ymm0, %ymm7, %ymm7
vpand %ymm0, %ymm4, %ymm4
vpunpcklqdq %ymm6, %ymm5, %ymm8
vpunpckhqdq %ymm6, %ymm5, %ymm5
vpunpcklqdq %ymm4, %ymm7, %ymm6
vpunpckhqdq %ymm4, %ymm7, %ymm4
vperm2i128 $32, %ymm6, %ymm8, %ymm7
vperm2i128 $49, %ymm6, %ymm8, %ymm6
vperm2i128 $32, %ymm4, %ymm5, %ymm8
vperm2i128 $49, %ymm4, %ymm5, %ymm4
vmovdqu %ymm7, 128(%rcx)
vmovdqu %ymm8, 160(%rcx)
vmovdqu %ymm6, 384(%rcx)
vmovdqu %ymm4, 416(%rcx)
vpshufd $-1, %ymm3, %ymm3
vpsllvd %ymm1, %ymm3, %ymm1
vpshufb %ymm2, %ymm1, %ymm1
vpsllw $12, %ymm1, %ymm2
vpsllw $8, %ymm1, %ymm3
vpsllw $4, %ymm1, %ymm4
vpsraw $15, %ymm2, %ymm2
vpsraw $15, %ymm3, %ymm3
vpsraw $15, %ymm4, %ymm4
vpsraw $15, %ymm1, %ymm1
vpand %ymm0, %ymm2, %ymm2
vpand %ymm0, %ymm3, %ymm3
vpand %ymm0, %ymm4, %ymm4
vpand %ymm0, %ymm1, %ymm0
vpunpcklqdq %ymm3, %ymm2, %ymm1
vpunpckhqdq %ymm3, %ymm2, %ymm2
vpunpcklqdq %ymm0, %ymm4, %ymm3
vpunpckhqdq %ymm0, %ymm4, %ymm0
vperm2i128 $32, %ymm3, %ymm1, %ymm4
vperm2i128 $49, %ymm3, %ymm1, %ymm1
vperm2i128 $32, %ymm0, %ymm2, %ymm3
vperm2i128 $49, %ymm0, %ymm2, %ymm0
vmovdqu %ymm4, 192(%rcx)
vmovdqu %ymm3, 224(%rcx)
vmovdqu %ymm1, 448(%rcx)
vmovdqu %ymm0, 480(%rcx)
jmp *%r8
L_poly_frommsg$1:
leaq glob_data + 256(%rip), %rax
vmovdqu (%rax), %ymm0
vbroadcasti128 glob_data + 4112(%rip), %ymm1
vbroadcasti128 glob_data + 4096(%rip), %ymm2
vmovdqu (%rcx), %ymm3
vpshufd $0, %ymm3, %ymm4
vpsllvd %ymm1, %ymm4, %ymm4
vpshufb %ymm2, %ymm4, %ymm4
vpsllw $12, %ymm4, %ymm5
vpsllw $8, %ymm4, %ymm6
vpsllw $4, %ymm4, %ymm7
vpsraw $15, %ymm5, %ymm5
vpsraw $15, %ymm6, %ymm6
vpsraw $15, %ymm7, %ymm7
vpsraw $15, %ymm4, %ymm4
vpand %ymm0, %ymm5, %ymm5
vpand %ymm0, %ymm6, %ymm6
vpand %ymm0, %ymm7, %ymm7
vpand %ymm0, %ymm4, %ymm4
vpunpcklqdq %ymm6, %ymm5, %ymm8
vpunpckhqdq %ymm6, %ymm5, %ymm5
vpunpcklqdq %ymm4, %ymm7, %ymm6
vpunpckhqdq %ymm4, %ymm7, %ymm4
vperm2i128 $32, %ymm6, %ymm8, %ymm7
vperm2i128 $49, %ymm6, %ymm8, %ymm6
vperm2i128 $32, %ymm4, %ymm5, %ymm8
vperm2i128 $49, %ymm4, %ymm5, %ymm4
vmovdqu %ymm7, (%rdx)
vmovdqu %ymm8, 32(%rdx)
vmovdqu %ymm6, 256(%rdx)
vmovdqu %ymm4, 288(%rdx)
vpshufd $85, %ymm3, %ymm4
vpsllvd %ymm1, %ymm4, %ymm4
vpshufb %ymm2, %ymm4, %ymm4
vpsllw $12, %ymm4, %ymm5
vpsllw $8, %ymm4, %ymm6
vpsllw $4, %ymm4, %ymm7
vpsraw $15, %ymm5, %ymm5
vpsraw $15, %ymm6, %ymm6
vpsraw $15, %ymm7, %ymm7
vpsraw $15, %ymm4, %ymm4
vpand %ymm0, %ymm5, %ymm5
vpand %ymm0, %ymm6, %ymm6
vpand %ymm0, %ymm7, %ymm7
vpand %ymm0, %ymm4, %ymm4
vpunpcklqdq %ymm6, %ymm5, %ymm8
vpunpckhqdq %ymm6, %ymm5, %ymm5
vpunpcklqdq %ymm4, %ymm7, %ymm6
vpunpckhqdq %ymm4, %ymm7, %ymm4
vperm2i128 $32, %ymm6, %ymm8, %ymm7
vperm2i128 $49, %ymm6, %ymm8, %ymm6
vperm2i128 $32, %ymm4, %ymm5, %ymm8
vperm2i128 $49, %ymm4, %ymm5, %ymm4
vmovdqu %ymm7, 64(%rdx)
vmovdqu %ymm8, 96(%rdx)
vmovdqu %ymm6, 320(%rdx)
vmovdqu %ymm4, 352(%rdx)
vpshufd $-86, %ymm3, %ymm4
vpsllvd %ymm1, %ymm4, %ymm4
vpshufb %ymm2, %ymm4, %ymm4
vpsllw $12, %ymm4, %ymm5
vpsllw $8, %ymm4, %ymm6
vpsllw $4, %ymm4, %ymm7
vpsraw $15, %ymm5, %ymm5
vpsraw $15, %ymm6, %ymm6
vpsraw $15, %ymm7, %ymm7
vpsraw $15, %ymm4, %ymm4
vpand %ymm0, %ymm5, %ymm5
vpand %ymm0, %ymm6, %ymm6
vpand %ymm0, %ymm7, %ymm7
vpand %ymm0, %ymm4, %ymm4
vpunpcklqdq %ymm6, %ymm5, %ymm8
vpunpckhqdq %ymm6, %ymm5, %ymm5
vpunpcklqdq %ymm4, %ymm7, %ymm6
vpunpckhqdq %ymm4, %ymm7, %ymm4
vperm2i128 $32, %ymm6, %ymm8, %ymm7
vperm2i128 $49, %ymm6, %ymm8, %ymm6
vperm2i128 $32, %ymm4, %ymm5, %ymm8
vperm2i128 $49, %ymm4, %ymm5, %ymm4
vmovdqu %ymm7, 128(%rdx)
vmovdqu %ymm8, 160(%rdx)
vmovdqu %ymm6, 384(%rdx)
vmovdqu %ymm4, 416(%rdx)
vpshufd $-1, %ymm3, %ymm3
vpsllvd %ymm1, %ymm3, %ymm1
vpshufb %ymm2, %ymm1, %ymm1
vpsllw $12, %ymm1, %ymm2
vpsllw $8, %ymm1, %ymm3
vpsllw $4, %ymm1, %ymm4
vpsraw $15, %ymm2, %ymm2
vpsraw $15, %ymm3, %ymm3
vpsraw $15, %ymm4, %ymm4
vpsraw $15, %ymm1, %ymm1
vpand %ymm0, %ymm2, %ymm2
vpand %ymm0, %ymm3, %ymm3
vpand %ymm0, %ymm4, %ymm4
vpand %ymm0, %ymm1, %ymm0
vpunpcklqdq %ymm3, %ymm2, %ymm1
vpunpckhqdq %ymm3, %ymm2, %ymm2
vpunpcklqdq %ymm0, %ymm4, %ymm3
vpunpckhqdq %ymm0, %ymm4, %ymm0
vperm2i128 $32, %ymm3, %ymm1, %ymm4
vperm2i128 $49, %ymm3, %ymm1, %ymm1
vperm2i128 $32, %ymm0, %ymm2, %ymm3
vperm2i128 $49, %ymm0, %ymm2, %ymm0
vmovdqu %ymm4, 192(%rdx)
vmovdqu %ymm3, 224(%rdx)
vmovdqu %ymm1, 448(%rdx)
vmovdqu %ymm0, 480(%rdx)
jmp *%rsi
L_poly_frommont$1:
leaq glob_data + 448(%rip), %rcx
vmovdqu (%rcx), %ymm0
leaq glob_data + 416(%rip), %rcx
vmovdqu (%rcx), %ymm1
leaq glob_data + 160(%rip), %rcx
vmovdqu (%rcx), %ymm2
vmovdqu (%rax), %ymm3
vpmulhw %ymm2, %ymm3, %ymm4
vpmullw %ymm2, %ymm3, %ymm3
vpmullw %ymm1, %ymm3, %ymm3
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm4, %ymm3
vmovdqu %ymm3, (%rax)
vmovdqu 32(%rax), %ymm3
vpmulhw %ymm2, %ymm3, %ymm4
vpmullw %ymm2, %ymm3, %ymm3
vpmullw %ymm1, %ymm3, %ymm3
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm4, %ymm3
vmovdqu %ymm3, 32(%rax)
vmovdqu 64(%rax), %ymm3
vpmulhw %ymm2, %ymm3, %ymm4
vpmullw %ymm2, %ymm3, %ymm3
vpmullw %ymm1, %ymm3, %ymm3
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm4, %ymm3
vmovdqu %ymm3, 64(%rax)
vmovdqu 96(%rax), %ymm3
vpmulhw %ymm2, %ymm3, %ymm4
vpmullw %ymm2, %ymm3, %ymm3
vpmullw %ymm1, %ymm3, %ymm3
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm4, %ymm3
vmovdqu %ymm3, 96(%rax)
vmovdqu 128(%rax), %ymm3
vpmulhw %ymm2, %ymm3, %ymm4
vpmullw %ymm2, %ymm3, %ymm3
vpmullw %ymm1, %ymm3, %ymm3
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm4, %ymm3
vmovdqu %ymm3, 128(%rax)
vmovdqu 160(%rax), %ymm3
vpmulhw %ymm2, %ymm3, %ymm4
vpmullw %ymm2, %ymm3, %ymm3
vpmullw %ymm1, %ymm3, %ymm3
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm4, %ymm3
vmovdqu %ymm3, 160(%rax)
vmovdqu 192(%rax), %ymm3
vpmulhw %ymm2, %ymm3, %ymm4
vpmullw %ymm2, %ymm3, %ymm3
vpmullw %ymm1, %ymm3, %ymm3
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm4, %ymm3
vmovdqu %ymm3, 192(%rax)
vmovdqu 224(%rax), %ymm3
vpmulhw %ymm2, %ymm3, %ymm4
vpmullw %ymm2, %ymm3, %ymm3
vpmullw %ymm1, %ymm3, %ymm3
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm4, %ymm3
vmovdqu %ymm3, 224(%rax)
vmovdqu 256(%rax), %ymm3
vpmulhw %ymm2, %ymm3, %ymm4
vpmullw %ymm2, %ymm3, %ymm3
vpmullw %ymm1, %ymm3, %ymm3
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm4, %ymm3
vmovdqu %ymm3, 256(%rax)
vmovdqu 288(%rax), %ymm3
vpmulhw %ymm2, %ymm3, %ymm4
vpmullw %ymm2, %ymm3, %ymm3
vpmullw %ymm1, %ymm3, %ymm3
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm4, %ymm3
vmovdqu %ymm3, 288(%rax)
vmovdqu 320(%rax), %ymm3
vpmulhw %ymm2, %ymm3, %ymm4
vpmullw %ymm2, %ymm3, %ymm3
vpmullw %ymm1, %ymm3, %ymm3
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm4, %ymm3
vmovdqu %ymm3, 320(%rax)
vmovdqu 352(%rax), %ymm3
vpmulhw %ymm2, %ymm3, %ymm4
vpmullw %ymm2, %ymm3, %ymm3
vpmullw %ymm1, %ymm3, %ymm3
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm4, %ymm3
vmovdqu %ymm3, 352(%rax)
vmovdqu 384(%rax), %ymm3
vpmulhw %ymm2, %ymm3, %ymm4
vpmullw %ymm2, %ymm3, %ymm3
vpmullw %ymm1, %ymm3, %ymm3
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm4, %ymm3
vmovdqu %ymm3, 384(%rax)
vmovdqu 416(%rax), %ymm3
vpmulhw %ymm2, %ymm3, %ymm4
vpmullw %ymm2, %ymm3, %ymm3
vpmullw %ymm1, %ymm3, %ymm3
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm4, %ymm3
vmovdqu %ymm3, 416(%rax)
vmovdqu 448(%rax), %ymm3
vpmulhw %ymm2, %ymm3, %ymm4
vpmullw %ymm2, %ymm3, %ymm3
vpmullw %ymm1, %ymm3, %ymm3
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm4, %ymm3
vmovdqu %ymm3, 448(%rax)
vmovdqu 480(%rax), %ymm3
vpmulhw %ymm2, %ymm3, %ymm4
vpmullw %ymm2, %ymm3, %ymm2
vpmullw %ymm1, %ymm2, %ymm1
vpmulhw %ymm0, %ymm1, %ymm0
vpsubw %ymm0, %ymm4, %ymm0
vmovdqu %ymm0, 480(%rax)
jmp *%rdx
L_poly_frombytes$1:
leaq glob_data + 288(%rip), %r9
vmovdqu (%r9), %ymm0
vmovdqu (%rdi), %ymm1
vmovdqu 32(%rdi), %ymm2
vmovdqu 64(%rdi), %ymm3
vmovdqu 96(%rdi), %ymm4
vmovdqu 128(%rdi), %ymm5
vmovdqu 160(%rdi), %ymm6
vperm2i128 $32, %ymm4, %ymm1, %ymm7
vperm2i128 $49, %ymm4, %ymm1, %ymm4
vperm2i128 $32, %ymm5, %ymm2, %ymm8
vperm2i128 $49, %ymm5, %ymm2, %ymm1
vperm2i128 $32, %ymm6, %ymm3, %ymm5
vperm2i128 $49, %ymm6, %ymm3, %ymm3
vpunpcklqdq %ymm1, %ymm7, %ymm6
vpunpckhqdq %ymm1, %ymm7, %ymm1
vpunpcklqdq %ymm5, %ymm4, %ymm2
vpunpckhqdq %ymm5, %ymm4, %ymm5
vpunpcklqdq %ymm3, %ymm8, %ymm7
vpunpckhqdq %ymm3, %ymm8, %ymm3
vmovsldup %ymm5, %ymm4
vpblendd $-86, %ymm4, %ymm6, %ymm4
vpsrlq $32, %ymm6, %ymm6
vpblendd $-86, %ymm5, %ymm6, %ymm5
vmovsldup %ymm7, %ymm6
vpblendd $-86, %ymm6, %ymm1, %ymm6
vpsrlq $32, %ymm1, %ymm1
vpblendd $-86, %ymm7, %ymm1, %ymm7
vmovsldup %ymm3, %ymm1
vpblendd $-86, %ymm1, %ymm2, %ymm1
vpsrlq $32, %ymm2, %ymm2
vpblendd $-86, %ymm3, %ymm2, %ymm2
vpslld $16, %ymm7, %ymm3
vpblendw $-86, %ymm3, %ymm4, %ymm3
vpsrld $16, %ymm4, %ymm4
vpblendw $-86, %ymm7, %ymm4, %ymm4
vpslld $16, %ymm1, %ymm7
vpblendw $-86, %ymm7, %ymm5, %ymm7
vpsrld $16, %ymm5, %ymm5
vpblendw $-86, %ymm1, %ymm5, %ymm1
vpslld $16, %ymm2, %ymm5
vpblendw $-86, %ymm5, %ymm6, %ymm5
vpsrld $16, %ymm6, %ymm6
vpblendw $-86, %ymm2, %ymm6, %ymm2
vpsrlw $12, %ymm3, %ymm6
vpsllw $4, %ymm4, %ymm8
vpor %ymm8, %ymm6, %ymm6
vpand %ymm3, %ymm0, %ymm3
vpand %ymm6, %ymm0, %ymm6
vpsrlw $8, %ymm4, %ymm4
vpsllw $8, %ymm7, %ymm8
vpor %ymm8, %ymm4, %ymm4
vpand %ymm4, %ymm0, %ymm4
vpsrlw $4, %ymm7, %ymm7
vpand %ymm7, %ymm0, %ymm7
vpsrlw $12, %ymm1, %ymm8
vpsllw $4, %ymm5, %ymm9
vpor %ymm9, %ymm8, %ymm8
vpand %ymm1, %ymm0, %ymm1
vpand %ymm8, %ymm0, %ymm8
vpsrlw $8, %ymm5, %ymm5
vpsllw $8, %ymm2, %ymm9
vpor %ymm9, %ymm5, %ymm5
vpand %ymm5, %ymm0, %ymm5
vpsrlw $4, %ymm2, %ymm2
vpand %ymm2, %ymm0, %ymm2
vmovdqu %ymm3, (%r8)
vmovdqu %ymm6, 32(%r8)
vmovdqu %ymm4, 64(%r8)
vmovdqu %ymm7, 96(%r8)
vmovdqu %ymm1, 128(%r8)
vmovdqu %ymm8, 160(%r8)
vmovdqu %ymm5, 192(%r8)
vmovdqu %ymm2, 224(%r8)
vmovdqu 192(%rdi), %ymm1
vmovdqu 224(%rdi), %ymm2
vmovdqu 256(%rdi), %ymm3
vmovdqu 288(%rdi), %ymm4
vmovdqu 320(%rdi), %ymm5
vmovdqu 352(%rdi), %ymm6
vperm2i128 $32, %ymm4, %ymm1, %ymm7
vperm2i128 $49, %ymm4, %ymm1, %ymm4
vperm2i128 $32, %ymm5, %ymm2, %ymm8
vperm2i128 $49, %ymm5, %ymm2, %ymm1
vperm2i128 $32, %ymm6, %ymm3, %ymm5
vperm2i128 $49, %ymm6, %ymm3, %ymm3
vpunpcklqdq %ymm1, %ymm7, %ymm6
vpunpckhqdq %ymm1, %ymm7, %ymm1
vpunpcklqdq %ymm5, %ymm4, %ymm2
vpunpckhqdq %ymm5, %ymm4, %ymm5
vpunpcklqdq %ymm3, %ymm8, %ymm7
vpunpckhqdq %ymm3, %ymm8, %ymm3
vmovsldup %ymm5, %ymm4
vpblendd $-86, %ymm4, %ymm6, %ymm4
vpsrlq $32, %ymm6, %ymm6
vpblendd $-86, %ymm5, %ymm6, %ymm5
vmovsldup %ymm7, %ymm6
vpblendd $-86, %ymm6, %ymm1, %ymm6
vpsrlq $32, %ymm1, %ymm1
vpblendd $-86, %ymm7, %ymm1, %ymm7
vmovsldup %ymm3, %ymm1
vpblendd $-86, %ymm1, %ymm2, %ymm1
vpsrlq $32, %ymm2, %ymm2
vpblendd $-86, %ymm3, %ymm2, %ymm2
vpslld $16, %ymm7, %ymm3
vpblendw $-86, %ymm3, %ymm4, %ymm3
vpsrld $16, %ymm4, %ymm4
vpblendw $-86, %ymm7, %ymm4, %ymm4
vpslld $16, %ymm1, %ymm7
vpblendw $-86, %ymm7, %ymm5, %ymm7
vpsrld $16, %ymm5, %ymm5
vpblendw $-86, %ymm1, %ymm5, %ymm1
vpslld $16, %ymm2, %ymm5
vpblendw $-86, %ymm5, %ymm6, %ymm5
vpsrld $16, %ymm6, %ymm6
vpblendw $-86, %ymm2, %ymm6, %ymm2
vpsrlw $12, %ymm3, %ymm6
vpsllw $4, %ymm4, %ymm8
vpor %ymm8, %ymm6, %ymm6
vpand %ymm3, %ymm0, %ymm3
vpand %ymm6, %ymm0, %ymm6
vpsrlw $8, %ymm4, %ymm4
vpsllw $8, %ymm7, %ymm8
vpor %ymm8, %ymm4, %ymm4
vpand %ymm4, %ymm0, %ymm4
vpsrlw $4, %ymm7, %ymm7
vpand %ymm7, %ymm0, %ymm7
vpsrlw $12, %ymm1, %ymm8
vpsllw $4, %ymm5, %ymm9
vpor %ymm9, %ymm8, %ymm8
vpand %ymm1, %ymm0, %ymm1
vpand %ymm8, %ymm0, %ymm8
vpsrlw $8, %ymm5, %ymm5
vpsllw $8, %ymm2, %ymm9
vpor %ymm9, %ymm5, %ymm5
vpand %ymm5, %ymm0, %ymm5
vpsrlw $4, %ymm2, %ymm2
vpand %ymm2, %ymm0, %ymm0
vmovdqu %ymm3, 256(%r8)
vmovdqu %ymm6, 288(%r8)
vmovdqu %ymm4, 320(%r8)
vmovdqu %ymm7, 352(%r8)
vmovdqu %ymm1, 384(%r8)
vmovdqu %ymm8, 416(%r8)
vmovdqu %ymm5, 448(%r8)
vmovdqu %ymm0, 480(%r8)
jmp *%r10
L_poly_decompress$1:
leaq glob_data + 448(%rip), %rdi
vmovdqu (%rdi), %ymm0
leaq glob_data + 96(%rip), %rdi
vmovdqu (%rdi), %ymm1
vpbroadcastd glob_data + 6412(%rip), %ymm2
vpbroadcastd glob_data + 6408(%rip), %ymm3
vpxor %ymm4, %ymm4, %ymm4
movq (%rsi), %xmm4
vmovdqu %xmm4, (%rsp)
vbroadcasti128 (%rsp), %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpand %ymm2, %ymm4, %ymm4
vpmullw %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, (%rcx)
movq 8(%rsi), %xmm4
vmovdqu %xmm4, (%rsp)
vbroadcasti128 (%rsp), %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpand %ymm2, %ymm4, %ymm4
vpmullw %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 32(%rcx)
movq 16(%rsi), %xmm4
vmovdqu %xmm4, (%rsp)
vbroadcasti128 (%rsp), %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpand %ymm2, %ymm4, %ymm4
vpmullw %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 64(%rcx)
movq 24(%rsi), %xmm4
vmovdqu %xmm4, (%rsp)
vbroadcasti128 (%rsp), %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpand %ymm2, %ymm4, %ymm4
vpmullw %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 96(%rcx)
movq 32(%rsi), %xmm4
vmovdqu %xmm4, (%rsp)
vbroadcasti128 (%rsp), %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpand %ymm2, %ymm4, %ymm4
vpmullw %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 128(%rcx)
movq 40(%rsi), %xmm4
vmovdqu %xmm4, (%rsp)
vbroadcasti128 (%rsp), %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpand %ymm2, %ymm4, %ymm4
vpmullw %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 160(%rcx)
movq 48(%rsi), %xmm4
vmovdqu %xmm4, (%rsp)
vbroadcasti128 (%rsp), %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpand %ymm2, %ymm4, %ymm4
vpmullw %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 192(%rcx)
movq 56(%rsi), %xmm4
vmovdqu %xmm4, (%rsp)
vbroadcasti128 (%rsp), %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpand %ymm2, %ymm4, %ymm4
vpmullw %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 224(%rcx)
movq 64(%rsi), %xmm4
vmovdqu %xmm4, (%rsp)
vbroadcasti128 (%rsp), %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpand %ymm2, %ymm4, %ymm4
vpmullw %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 256(%rcx)
movq 72(%rsi), %xmm4
vmovdqu %xmm4, (%rsp)
vbroadcasti128 (%rsp), %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpand %ymm2, %ymm4, %ymm4
vpmullw %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 288(%rcx)
movq 80(%rsi), %xmm4
vmovdqu %xmm4, (%rsp)
vbroadcasti128 (%rsp), %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpand %ymm2, %ymm4, %ymm4
vpmullw %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 320(%rcx)
movq 88(%rsi), %xmm4
vmovdqu %xmm4, (%rsp)
vbroadcasti128 (%rsp), %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpand %ymm2, %ymm4, %ymm4
vpmullw %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 352(%rcx)
movq 96(%rsi), %xmm4
vmovdqu %xmm4, (%rsp)
vbroadcasti128 (%rsp), %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpand %ymm2, %ymm4, %ymm4
vpmullw %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 384(%rcx)
movq 104(%rsi), %xmm4
vmovdqu %xmm4, (%rsp)
vbroadcasti128 (%rsp), %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpand %ymm2, %ymm4, %ymm4
vpmullw %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 416(%rcx)
movq 112(%rsi), %xmm4
vmovdqu %xmm4, (%rsp)
vbroadcasti128 (%rsp), %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpand %ymm2, %ymm4, %ymm4
vpmullw %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 448(%rcx)
movq 120(%rsi), %xmm4
vmovdqu %xmm4, (%rsp)
vbroadcasti128 (%rsp), %ymm4
vpshufb %ymm1, %ymm4, %ymm1
vpand %ymm2, %ymm1, %ymm1
vpmullw %ymm3, %ymm1, %ymm1
vpmulhrsw %ymm0, %ymm1, %ymm0
vmovdqu %ymm0, 480(%rcx)
jmp *%r8
L_poly_compress_1$1:
leaq L_poly_compress_1$2(%rip), %r8
jmp L_poly_csubq$1
L_poly_compress_1$2:
leaq glob_data + 384(%rip), %rdx
vmovdqu (%rdx), %ymm0
vpbroadcastw glob_data + 6428(%rip), %ymm1
vpbroadcastw glob_data + 6426(%rip), %ymm2
vpbroadcastw glob_data + 6424(%rip), %ymm3
vmovdqu glob_data + 128(%rip), %ymm4
vmovdqu (%rcx), %ymm5
vmovdqu 32(%rcx), %ymm6
vmovdqu 64(%rcx), %ymm7
vmovdqu 96(%rcx), %ymm8
vpmulhw %ymm0, %ymm5, %ymm5
vpmulhw %ymm0, %ymm6, %ymm6
vpmulhw %ymm0, %ymm7, %ymm7
vpmulhw %ymm0, %ymm8, %ymm8
vpmulhrsw %ymm1, %ymm5, %ymm5
vpmulhrsw %ymm1, %ymm6, %ymm6
vpmulhrsw %ymm1, %ymm7, %ymm7
vpmulhrsw %ymm1, %ymm8, %ymm8
vpand %ymm2, %ymm5, %ymm5
vpand %ymm2, %ymm6, %ymm6
vpand %ymm2, %ymm7, %ymm7
vpand %ymm2, %ymm8, %ymm8
vpackuswb %ymm6, %ymm5, %ymm5
vpackuswb %ymm8, %ymm7, %ymm6
vpmaddubsw %ymm3, %ymm5, %ymm5
vpmaddubsw %ymm3, %ymm6, %ymm6
vpackuswb %ymm6, %ymm5, %ymm5
vpermd %ymm5, %ymm4, %ymm5
vmovdqu %ymm5, (%rax)
vmovdqu 128(%rcx), %ymm5
vmovdqu 160(%rcx), %ymm6
vmovdqu 192(%rcx), %ymm7
vmovdqu 224(%rcx), %ymm8
vpmulhw %ymm0, %ymm5, %ymm5
vpmulhw %ymm0, %ymm6, %ymm6
vpmulhw %ymm0, %ymm7, %ymm7
vpmulhw %ymm0, %ymm8, %ymm8
vpmulhrsw %ymm1, %ymm5, %ymm5
vpmulhrsw %ymm1, %ymm6, %ymm6
vpmulhrsw %ymm1, %ymm7, %ymm7
vpmulhrsw %ymm1, %ymm8, %ymm8
vpand %ymm2, %ymm5, %ymm5
vpand %ymm2, %ymm6, %ymm6
vpand %ymm2, %ymm7, %ymm7
vpand %ymm2, %ymm8, %ymm8
vpackuswb %ymm6, %ymm5, %ymm5
vpackuswb %ymm8, %ymm7, %ymm6
vpmaddubsw %ymm3, %ymm5, %ymm5
vpmaddubsw %ymm3, %ymm6, %ymm6
vpackuswb %ymm6, %ymm5, %ymm5
vpermd %ymm5, %ymm4, %ymm5
vmovdqu %ymm5, 32(%rax)
vmovdqu 256(%rcx), %ymm5
vmovdqu 288(%rcx), %ymm6
vmovdqu 320(%rcx), %ymm7
vmovdqu 352(%rcx), %ymm8
vpmulhw %ymm0, %ymm5, %ymm5
vpmulhw %ymm0, %ymm6, %ymm6
vpmulhw %ymm0, %ymm7, %ymm7
vpmulhw %ymm0, %ymm8, %ymm8
vpmulhrsw %ymm1, %ymm5, %ymm5
vpmulhrsw %ymm1, %ymm6, %ymm6
vpmulhrsw %ymm1, %ymm7, %ymm7
vpmulhrsw %ymm1, %ymm8, %ymm8
vpand %ymm2, %ymm5, %ymm5
vpand %ymm2, %ymm6, %ymm6
vpand %ymm2, %ymm7, %ymm7
vpand %ymm2, %ymm8, %ymm8
vpackuswb %ymm6, %ymm5, %ymm5
vpackuswb %ymm8, %ymm7, %ymm6
vpmaddubsw %ymm3, %ymm5, %ymm5
vpmaddubsw %ymm3, %ymm6, %ymm6
vpackuswb %ymm6, %ymm5, %ymm5
vpermd %ymm5, %ymm4, %ymm5
vmovdqu %ymm5, 64(%rax)
vmovdqu 384(%rcx), %ymm5
vmovdqu 416(%rcx), %ymm6
vmovdqu 448(%rcx), %ymm7
vmovdqu 480(%rcx), %ymm8
vpmulhw %ymm0, %ymm5, %ymm5
vpmulhw %ymm0, %ymm6, %ymm6
vpmulhw %ymm0, %ymm7, %ymm7
vpmulhw %ymm0, %ymm8, %ymm0
vpmulhrsw %ymm1, %ymm5, %ymm5
vpmulhrsw %ymm1, %ymm6, %ymm6
vpmulhrsw %ymm1, %ymm7, %ymm7
vpmulhrsw %ymm1, %ymm0, %ymm0
vpand %ymm2, %ymm5, %ymm1
vpand %ymm2, %ymm6, %ymm5
vpand %ymm2, %ymm7, %ymm6
vpand %ymm2, %ymm0, %ymm0
vpackuswb %ymm5, %ymm1, %ymm1
vpackuswb %ymm0, %ymm6, %ymm0
vpmaddubsw %ymm3, %ymm1, %ymm1
vpmaddubsw %ymm3, %ymm0, %ymm0
vpackuswb %ymm0, %ymm1, %ymm0
vpermd %ymm0, %ymm4, %ymm0
vmovdqu %ymm0, 96(%rax)
jmp *%rsi
L_poly_compress$1:
leaq L_poly_compress$2(%rip), %r8
jmp L_poly_csubq$1
L_poly_compress$2:
leaq glob_data + 384(%rip), %rdx
vmovdqu (%rdx), %ymm0
vpbroadcastw glob_data + 6428(%rip), %ymm1
vpbroadcastw glob_data + 6426(%rip), %ymm2
vpbroadcastw glob_data + 6424(%rip), %ymm3
vmovdqu glob_data + 128(%rip), %ymm4
vmovdqu (%rcx), %ymm5
vmovdqu 32(%rcx), %ymm6
vmovdqu 64(%rcx), %ymm7
vmovdqu 96(%rcx), %ymm8
vpmulhw %ymm0, %ymm5, %ymm5
vpmulhw %ymm0, %ymm6, %ymm6
vpmulhw %ymm0, %ymm7, %ymm7
vpmulhw %ymm0, %ymm8, %ymm8
vpmulhrsw %ymm1, %ymm5, %ymm5
vpmulhrsw %ymm1, %ymm6, %ymm6
vpmulhrsw %ymm1, %ymm7, %ymm7
vpmulhrsw %ymm1, %ymm8, %ymm8
vpand %ymm2, %ymm5, %ymm5
vpand %ymm2, %ymm6, %ymm6
vpand %ymm2, %ymm7, %ymm7
vpand %ymm2, %ymm8, %ymm8
vpackuswb %ymm6, %ymm5, %ymm5
vpackuswb %ymm8, %ymm7, %ymm6
vpmaddubsw %ymm3, %ymm5, %ymm5
vpmaddubsw %ymm3, %ymm6, %ymm6
vpackuswb %ymm6, %ymm5, %ymm5
vpermd %ymm5, %ymm4, %ymm5
vmovdqu %ymm5, (%rax)
vmovdqu 128(%rcx), %ymm5
vmovdqu 160(%rcx), %ymm6
vmovdqu 192(%rcx), %ymm7
vmovdqu 224(%rcx), %ymm8
vpmulhw %ymm0, %ymm5, %ymm5
vpmulhw %ymm0, %ymm6, %ymm6
vpmulhw %ymm0, %ymm7, %ymm7
vpmulhw %ymm0, %ymm8, %ymm8
vpmulhrsw %ymm1, %ymm5, %ymm5
vpmulhrsw %ymm1, %ymm6, %ymm6
vpmulhrsw %ymm1, %ymm7, %ymm7
vpmulhrsw %ymm1, %ymm8, %ymm8
vpand %ymm2, %ymm5, %ymm5
vpand %ymm2, %ymm6, %ymm6
vpand %ymm2, %ymm7, %ymm7
vpand %ymm2, %ymm8, %ymm8
vpackuswb %ymm6, %ymm5, %ymm5
vpackuswb %ymm8, %ymm7, %ymm6
vpmaddubsw %ymm3, %ymm5, %ymm5
vpmaddubsw %ymm3, %ymm6, %ymm6
vpackuswb %ymm6, %ymm5, %ymm5
vpermd %ymm5, %ymm4, %ymm5
vmovdqu %ymm5, 32(%rax)
vmovdqu 256(%rcx), %ymm5
vmovdqu 288(%rcx), %ymm6
vmovdqu 320(%rcx), %ymm7
vmovdqu 352(%rcx), %ymm8
vpmulhw %ymm0, %ymm5, %ymm5
vpmulhw %ymm0, %ymm6, %ymm6
vpmulhw %ymm0, %ymm7, %ymm7
vpmulhw %ymm0, %ymm8, %ymm8
vpmulhrsw %ymm1, %ymm5, %ymm5
vpmulhrsw %ymm1, %ymm6, %ymm6
vpmulhrsw %ymm1, %ymm7, %ymm7
vpmulhrsw %ymm1, %ymm8, %ymm8
vpand %ymm2, %ymm5, %ymm5
vpand %ymm2, %ymm6, %ymm6
vpand %ymm2, %ymm7, %ymm7
vpand %ymm2, %ymm8, %ymm8
vpackuswb %ymm6, %ymm5, %ymm5
vpackuswb %ymm8, %ymm7, %ymm6
vpmaddubsw %ymm3, %ymm5, %ymm5
vpmaddubsw %ymm3, %ymm6, %ymm6
vpackuswb %ymm6, %ymm5, %ymm5
vpermd %ymm5, %ymm4, %ymm5
vmovdqu %ymm5, 64(%rax)
vmovdqu 384(%rcx), %ymm5
vmovdqu 416(%rcx), %ymm6
vmovdqu 448(%rcx), %ymm7
vmovdqu 480(%rcx), %ymm8
vpmulhw %ymm0, %ymm5, %ymm5
vpmulhw %ymm0, %ymm6, %ymm6
vpmulhw %ymm0, %ymm7, %ymm7
vpmulhw %ymm0, %ymm8, %ymm0
vpmulhrsw %ymm1, %ymm5, %ymm5
vpmulhrsw %ymm1, %ymm6, %ymm6
vpmulhrsw %ymm1, %ymm7, %ymm7
vpmulhrsw %ymm1, %ymm0, %ymm0
vpand %ymm2, %ymm5, %ymm1
vpand %ymm2, %ymm6, %ymm5
vpand %ymm2, %ymm7, %ymm6
vpand %ymm2, %ymm0, %ymm0
vpackuswb %ymm5, %ymm1, %ymm1
vpackuswb %ymm0, %ymm6, %ymm0
vpmaddubsw %ymm3, %ymm1, %ymm1
vpmaddubsw %ymm3, %ymm0, %ymm0
vpackuswb %ymm0, %ymm1, %ymm0
vpermd %ymm0, %ymm4, %ymm0
vmovdqu %ymm0, 96(%rax)
jmp *%rsi
L_poly_basemul$1:
vmovdqu glob_data + 448(%rip), %ymm0
vmovdqu glob_data + 416(%rip), %ymm1
vmovdqu glob_data + 1552(%rip), %ymm2
vmovdqu glob_data + 1584(%rip), %ymm3
vmovdqu (%rsi), %ymm4
vmovdqu 32(%rsi), %ymm5
vmovdqu (%rdi), %ymm6
vmovdqu 32(%rdi), %ymm7
vpmullw %ymm5, %ymm2, %ymm8
vpmulhw %ymm5, %ymm3, %ymm9
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm8, %ymm9, %ymm8
vpmullw %ymm6, %ymm4, %ymm10
vpmulhw %ymm6, %ymm4, %ymm11
vpunpcklwd %ymm11, %ymm10, %ymm9
vpunpckhwd %ymm11, %ymm10, %ymm10
vpmullw %ymm7, %ymm4, %ymm12
vpmulhw %ymm7, %ymm4, %ymm4
vpunpcklwd %ymm4, %ymm12, %ymm11
vpunpckhwd %ymm4, %ymm12, %ymm4
vpmullw %ymm6, %ymm5, %ymm12
vpmulhw %ymm6, %ymm5, %ymm6
vpunpcklwd %ymm6, %ymm12, %ymm5
vpunpckhwd %ymm6, %ymm12, %ymm6
vpmullw %ymm7, %ymm8, %ymm12
vpmulhw %ymm7, %ymm8, %ymm7
vpunpcklwd %ymm7, %ymm12, %ymm8
vpunpckhwd %ymm7, %ymm12, %ymm12
vpaddd %ymm8, %ymm9, %ymm7
vpaddd %ymm12, %ymm10, %ymm8
vpaddd %ymm11, %ymm5, %ymm5
vpaddd %ymm4, %ymm6, %ymm4
vpxor %ymm9, %ymm9, %ymm9
vpblendw $-86, %ymm9, %ymm7, %ymm6
vpblendw $-86, %ymm9, %ymm8, %ymm10
vpackusdw %ymm10, %ymm6, %ymm6
vpsrld $16, %ymm7, %ymm7
vpsrld $16, %ymm8, %ymm8
vpackusdw %ymm8, %ymm7, %ymm7
vpblendw $-86, %ymm9, %ymm5, %ymm8
vpblendw $-86, %ymm9, %ymm4, %ymm9
vpackusdw %ymm9, %ymm8, %ymm8
vpsrld $16, %ymm5, %ymm5
vpsrld $16, %ymm4, %ymm4
vpackusdw %ymm4, %ymm5, %ymm4
vpmullw %ymm1, %ymm6, %ymm5
vpmulhw %ymm0, %ymm5, %ymm5
vpsubw %ymm5, %ymm7, %ymm5
vpmullw %ymm1, %ymm8, %ymm6
vpmulhw %ymm0, %ymm6, %ymm6
vpsubw %ymm6, %ymm4, %ymm4
vmovdqu %ymm5, (%rcx)
vmovdqu %ymm4, 32(%rcx)
vmovdqu 64(%rsi), %ymm4
vmovdqu 96(%rsi), %ymm5
vmovdqu 64(%rdi), %ymm6
vmovdqu 96(%rdi), %ymm7
vpmullw %ymm5, %ymm2, %ymm2
vpmulhw %ymm5, %ymm3, %ymm3
vpmulhw %ymm0, %ymm2, %ymm2
vpsubw %ymm2, %ymm3, %ymm2
vpmullw %ymm6, %ymm4, %ymm8
vpmulhw %ymm6, %ymm4, %ymm9
vpunpcklwd %ymm9, %ymm8, %ymm3
vpunpckhwd %ymm9, %ymm8, %ymm8
vpmullw %ymm7, %ymm4, %ymm9
vpmulhw %ymm7, %ymm4, %ymm10
vpunpcklwd %ymm10, %ymm9, %ymm4
vpunpckhwd %ymm10, %ymm9, %ymm9
vpmullw %ymm6, %ymm5, %ymm10
vpmulhw %ymm6, %ymm5, %ymm6
vpunpcklwd %ymm6, %ymm10, %ymm5
vpunpckhwd %ymm6, %ymm10, %ymm6
vpmullw %ymm7, %ymm2, %ymm10
vpmulhw %ymm7, %ymm2, %ymm2
vpunpcklwd %ymm2, %ymm10, %ymm7
vpunpckhwd %ymm2, %ymm10, %ymm2
vpsubd %ymm7, %ymm3, %ymm7
vpsubd %ymm2, %ymm8, %ymm8
vpaddd %ymm4, %ymm5, %ymm2
vpaddd %ymm9, %ymm6, %ymm3
vpxor %ymm5, %ymm5, %ymm5
vpblendw $-86, %ymm5, %ymm7, %ymm4
vpblendw $-86, %ymm5, %ymm8, %ymm6
vpackusdw %ymm6, %ymm4, %ymm4
vpsrld $16, %ymm7, %ymm6
vpsrld $16, %ymm8, %ymm7
vpackusdw %ymm7, %ymm6, %ymm6
vpblendw $-86, %ymm5, %ymm2, %ymm7
vpblendw $-86, %ymm5, %ymm3, %ymm5
vpackusdw %ymm5, %ymm7, %ymm5
vpsrld $16, %ymm2, %ymm2
vpsrld $16, %ymm3, %ymm3
vpackusdw %ymm3, %ymm2, %ymm2
vpmullw %ymm1, %ymm4, %ymm3
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm6, %ymm3
vpmullw %ymm1, %ymm5, %ymm4
vpmulhw %ymm0, %ymm4, %ymm4
vpsubw %ymm4, %ymm2, %ymm2
vmovdqu %ymm3, 64(%rcx)
vmovdqu %ymm2, 96(%rcx)
vmovdqu glob_data + 1616(%rip), %ymm2
vmovdqu glob_data + 1648(%rip), %ymm3
vmovdqu 128(%rsi), %ymm4
vmovdqu 160(%rsi), %ymm5
vmovdqu 128(%rdi), %ymm6
vmovdqu 160(%rdi), %ymm7
vpmullw %ymm5, %ymm2, %ymm8
vpmulhw %ymm5, %ymm3, %ymm9
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm8, %ymm9, %ymm8
vpmullw %ymm6, %ymm4, %ymm10
vpmulhw %ymm6, %ymm4, %ymm11
vpunpcklwd %ymm11, %ymm10, %ymm9
vpunpckhwd %ymm11, %ymm10, %ymm10
vpmullw %ymm7, %ymm4, %ymm12
vpmulhw %ymm7, %ymm4, %ymm4
vpunpcklwd %ymm4, %ymm12, %ymm11
vpunpckhwd %ymm4, %ymm12, %ymm4
vpmullw %ymm6, %ymm5, %ymm12
vpmulhw %ymm6, %ymm5, %ymm6
vpunpcklwd %ymm6, %ymm12, %ymm5
vpunpckhwd %ymm6, %ymm12, %ymm6
vpmullw %ymm7, %ymm8, %ymm12
vpmulhw %ymm7, %ymm8, %ymm7
vpunpcklwd %ymm7, %ymm12, %ymm8
vpunpckhwd %ymm7, %ymm12, %ymm12
vpaddd %ymm8, %ymm9, %ymm7
vpaddd %ymm12, %ymm10, %ymm8
vpaddd %ymm11, %ymm5, %ymm5
vpaddd %ymm4, %ymm6, %ymm4
vpxor %ymm9, %ymm9, %ymm9
vpblendw $-86, %ymm9, %ymm7, %ymm6
vpblendw $-86, %ymm9, %ymm8, %ymm10
vpackusdw %ymm10, %ymm6, %ymm6
vpsrld $16, %ymm7, %ymm7
vpsrld $16, %ymm8, %ymm8
vpackusdw %ymm8, %ymm7, %ymm7
vpblendw $-86, %ymm9, %ymm5, %ymm8
vpblendw $-86, %ymm9, %ymm4, %ymm9
vpackusdw %ymm9, %ymm8, %ymm8
vpsrld $16, %ymm5, %ymm5
vpsrld $16, %ymm4, %ymm4
vpackusdw %ymm4, %ymm5, %ymm4
vpmullw %ymm1, %ymm6, %ymm5
vpmulhw %ymm0, %ymm5, %ymm5
vpsubw %ymm5, %ymm7, %ymm5
vpmullw %ymm1, %ymm8, %ymm6
vpmulhw %ymm0, %ymm6, %ymm6
vpsubw %ymm6, %ymm4, %ymm4
vmovdqu %ymm5, 128(%rcx)
vmovdqu %ymm4, 160(%rcx)
vmovdqu 192(%rsi), %ymm4
vmovdqu 224(%rsi), %ymm5
vmovdqu 192(%rdi), %ymm6
vmovdqu 224(%rdi), %ymm7
vpmullw %ymm5, %ymm2, %ymm2
vpmulhw %ymm5, %ymm3, %ymm3
vpmulhw %ymm0, %ymm2, %ymm2
vpsubw %ymm2, %ymm3, %ymm2
vpmullw %ymm6, %ymm4, %ymm8
vpmulhw %ymm6, %ymm4, %ymm9
vpunpcklwd %ymm9, %ymm8, %ymm3
vpunpckhwd %ymm9, %ymm8, %ymm8
vpmullw %ymm7, %ymm4, %ymm9
vpmulhw %ymm7, %ymm4, %ymm10
vpunpcklwd %ymm10, %ymm9, %ymm4
vpunpckhwd %ymm10, %ymm9, %ymm9
vpmullw %ymm6, %ymm5, %ymm10
vpmulhw %ymm6, %ymm5, %ymm6
vpunpcklwd %ymm6, %ymm10, %ymm5
vpunpckhwd %ymm6, %ymm10, %ymm6
vpmullw %ymm7, %ymm2, %ymm10
vpmulhw %ymm7, %ymm2, %ymm2
vpunpcklwd %ymm2, %ymm10, %ymm7
vpunpckhwd %ymm2, %ymm10, %ymm2
vpsubd %ymm7, %ymm3, %ymm7
vpsubd %ymm2, %ymm8, %ymm8
vpaddd %ymm4, %ymm5, %ymm2
vpaddd %ymm9, %ymm6, %ymm3
vpxor %ymm5, %ymm5, %ymm5
vpblendw $-86, %ymm5, %ymm7, %ymm4
vpblendw $-86, %ymm5, %ymm8, %ymm6
vpackusdw %ymm6, %ymm4, %ymm4
vpsrld $16, %ymm7, %ymm6
vpsrld $16, %ymm8, %ymm7
vpackusdw %ymm7, %ymm6, %ymm6
vpblendw $-86, %ymm5, %ymm2, %ymm7
vpblendw $-86, %ymm5, %ymm3, %ymm5
vpackusdw %ymm5, %ymm7, %ymm5
vpsrld $16, %ymm2, %ymm2
vpsrld $16, %ymm3, %ymm3
vpackusdw %ymm3, %ymm2, %ymm2
vpmullw %ymm1, %ymm4, %ymm3
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm6, %ymm3
vpmullw %ymm1, %ymm5, %ymm4
vpmulhw %ymm0, %ymm4, %ymm4
vpsubw %ymm4, %ymm2, %ymm2
vmovdqu %ymm3, 192(%rcx)
vmovdqu %ymm2, 224(%rcx)
vmovdqu glob_data + 1944(%rip), %ymm2
vmovdqu glob_data + 1976(%rip), %ymm3
vmovdqu 256(%rsi), %ymm4
vmovdqu 288(%rsi), %ymm5
vmovdqu 256(%rdi), %ymm6
vmovdqu 288(%rdi), %ymm7
vpmullw %ymm5, %ymm2, %ymm8
vpmulhw %ymm5, %ymm3, %ymm9
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm8, %ymm9, %ymm8
vpmullw %ymm6, %ymm4, %ymm10
vpmulhw %ymm6, %ymm4, %ymm11
vpunpcklwd %ymm11, %ymm10, %ymm9
vpunpckhwd %ymm11, %ymm10, %ymm10
vpmullw %ymm7, %ymm4, %ymm12
vpmulhw %ymm7, %ymm4, %ymm4
vpunpcklwd %ymm4, %ymm12, %ymm11
vpunpckhwd %ymm4, %ymm12, %ymm4
vpmullw %ymm6, %ymm5, %ymm12
vpmulhw %ymm6, %ymm5, %ymm6
vpunpcklwd %ymm6, %ymm12, %ymm5
vpunpckhwd %ymm6, %ymm12, %ymm6
vpmullw %ymm7, %ymm8, %ymm12
vpmulhw %ymm7, %ymm8, %ymm7
vpunpcklwd %ymm7, %ymm12, %ymm8
vpunpckhwd %ymm7, %ymm12, %ymm12
vpaddd %ymm8, %ymm9, %ymm7
vpaddd %ymm12, %ymm10, %ymm8
vpaddd %ymm11, %ymm5, %ymm5
vpaddd %ymm4, %ymm6, %ymm4
vpxor %ymm9, %ymm9, %ymm9
vpblendw $-86, %ymm9, %ymm7, %ymm6
vpblendw $-86, %ymm9, %ymm8, %ymm10
vpackusdw %ymm10, %ymm6, %ymm6
vpsrld $16, %ymm7, %ymm7
vpsrld $16, %ymm8, %ymm8
vpackusdw %ymm8, %ymm7, %ymm7
vpblendw $-86, %ymm9, %ymm5, %ymm8
vpblendw $-86, %ymm9, %ymm4, %ymm9
vpackusdw %ymm9, %ymm8, %ymm8
vpsrld $16, %ymm5, %ymm5
vpsrld $16, %ymm4, %ymm4
vpackusdw %ymm4, %ymm5, %ymm4
vpmullw %ymm1, %ymm6, %ymm5
vpmulhw %ymm0, %ymm5, %ymm5
vpsubw %ymm5, %ymm7, %ymm5
vpmullw %ymm1, %ymm8, %ymm6
vpmulhw %ymm0, %ymm6, %ymm6
vpsubw %ymm6, %ymm4, %ymm4
vmovdqu %ymm5, 256(%rcx)
vmovdqu %ymm4, 288(%rcx)
vmovdqu 320(%rsi), %ymm4
vmovdqu 352(%rsi), %ymm5
vmovdqu 320(%rdi), %ymm6
vmovdqu 352(%rdi), %ymm7
vpmullw %ymm5, %ymm2, %ymm2
vpmulhw %ymm5, %ymm3, %ymm3
vpmulhw %ymm0, %ymm2, %ymm2
vpsubw %ymm2, %ymm3, %ymm2
vpmullw %ymm6, %ymm4, %ymm8
vpmulhw %ymm6, %ymm4, %ymm9
vpunpcklwd %ymm9, %ymm8, %ymm3
vpunpckhwd %ymm9, %ymm8, %ymm8
vpmullw %ymm7, %ymm4, %ymm9
vpmulhw %ymm7, %ymm4, %ymm10
vpunpcklwd %ymm10, %ymm9, %ymm4
vpunpckhwd %ymm10, %ymm9, %ymm9
vpmullw %ymm6, %ymm5, %ymm10
vpmulhw %ymm6, %ymm5, %ymm6
vpunpcklwd %ymm6, %ymm10, %ymm5
vpunpckhwd %ymm6, %ymm10, %ymm6
vpmullw %ymm7, %ymm2, %ymm10
vpmulhw %ymm7, %ymm2, %ymm2
vpunpcklwd %ymm2, %ymm10, %ymm7
vpunpckhwd %ymm2, %ymm10, %ymm2
vpsubd %ymm7, %ymm3, %ymm7
vpsubd %ymm2, %ymm8, %ymm8
vpaddd %ymm4, %ymm5, %ymm2
vpaddd %ymm9, %ymm6, %ymm3
vpxor %ymm5, %ymm5, %ymm5
vpblendw $-86, %ymm5, %ymm7, %ymm4
vpblendw $-86, %ymm5, %ymm8, %ymm6
vpackusdw %ymm6, %ymm4, %ymm4
vpsrld $16, %ymm7, %ymm6
vpsrld $16, %ymm8, %ymm7
vpackusdw %ymm7, %ymm6, %ymm6
vpblendw $-86, %ymm5, %ymm2, %ymm7
vpblendw $-86, %ymm5, %ymm3, %ymm5
vpackusdw %ymm5, %ymm7, %ymm5
vpsrld $16, %ymm2, %ymm2
vpsrld $16, %ymm3, %ymm3
vpackusdw %ymm3, %ymm2, %ymm2
vpmullw %ymm1, %ymm4, %ymm3
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm6, %ymm3
vpmullw %ymm1, %ymm5, %ymm4
vpmulhw %ymm0, %ymm4, %ymm4
vpsubw %ymm4, %ymm2, %ymm2
vmovdqu %ymm3, 320(%rcx)
vmovdqu %ymm2, 352(%rcx)
vmovdqu glob_data + 2008(%rip), %ymm2
vmovdqu glob_data + 2040(%rip), %ymm3
vmovdqu 384(%rsi), %ymm4
vmovdqu 416(%rsi), %ymm5
vmovdqu 384(%rdi), %ymm6
vmovdqu 416(%rdi), %ymm7
vpmullw %ymm5, %ymm2, %ymm8
vpmulhw %ymm5, %ymm3, %ymm9
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm8, %ymm9, %ymm8
vpmullw %ymm6, %ymm4, %ymm10
vpmulhw %ymm6, %ymm4, %ymm11
vpunpcklwd %ymm11, %ymm10, %ymm9
vpunpckhwd %ymm11, %ymm10, %ymm10
vpmullw %ymm7, %ymm4, %ymm12
vpmulhw %ymm7, %ymm4, %ymm4
vpunpcklwd %ymm4, %ymm12, %ymm11
vpunpckhwd %ymm4, %ymm12, %ymm4
vpmullw %ymm6, %ymm5, %ymm12
vpmulhw %ymm6, %ymm5, %ymm6
vpunpcklwd %ymm6, %ymm12, %ymm5
vpunpckhwd %ymm6, %ymm12, %ymm6
vpmullw %ymm7, %ymm8, %ymm12
vpmulhw %ymm7, %ymm8, %ymm7
vpunpcklwd %ymm7, %ymm12, %ymm8
vpunpckhwd %ymm7, %ymm12, %ymm12
vpaddd %ymm8, %ymm9, %ymm7
vpaddd %ymm12, %ymm10, %ymm8
vpaddd %ymm11, %ymm5, %ymm5
vpaddd %ymm4, %ymm6, %ymm4
vpxor %ymm9, %ymm9, %ymm9
vpblendw $-86, %ymm9, %ymm7, %ymm6
vpblendw $-86, %ymm9, %ymm8, %ymm10
vpackusdw %ymm10, %ymm6, %ymm6
vpsrld $16, %ymm7, %ymm7
vpsrld $16, %ymm8, %ymm8
vpackusdw %ymm8, %ymm7, %ymm7
vpblendw $-86, %ymm9, %ymm5, %ymm8
vpblendw $-86, %ymm9, %ymm4, %ymm9
vpackusdw %ymm9, %ymm8, %ymm8
vpsrld $16, %ymm5, %ymm5
vpsrld $16, %ymm4, %ymm4
vpackusdw %ymm4, %ymm5, %ymm4
vpmullw %ymm1, %ymm6, %ymm5
vpmulhw %ymm0, %ymm5, %ymm5
vpsubw %ymm5, %ymm7, %ymm5
vpmullw %ymm1, %ymm8, %ymm6
vpmulhw %ymm0, %ymm6, %ymm6
vpsubw %ymm6, %ymm4, %ymm4
vmovdqu %ymm5, 384(%rcx)
vmovdqu %ymm4, 416(%rcx)
vmovdqu 448(%rsi), %ymm4
vmovdqu 480(%rsi), %ymm5
vmovdqu 448(%rdi), %ymm6
vmovdqu 480(%rdi), %ymm7
vpmullw %ymm5, %ymm2, %ymm2
vpmulhw %ymm5, %ymm3, %ymm3
vpmulhw %ymm0, %ymm2, %ymm2
vpsubw %ymm2, %ymm3, %ymm2
vpmullw %ymm6, %ymm4, %ymm8
vpmulhw %ymm6, %ymm4, %ymm9
vpunpcklwd %ymm9, %ymm8, %ymm3
vpunpckhwd %ymm9, %ymm8, %ymm8
vpmullw %ymm7, %ymm4, %ymm9
vpmulhw %ymm7, %ymm4, %ymm10
vpunpcklwd %ymm10, %ymm9, %ymm4
vpunpckhwd %ymm10, %ymm9, %ymm9
vpmullw %ymm6, %ymm5, %ymm10
vpmulhw %ymm6, %ymm5, %ymm6
vpunpcklwd %ymm6, %ymm10, %ymm5
vpunpckhwd %ymm6, %ymm10, %ymm6
vpmullw %ymm7, %ymm2, %ymm10
vpmulhw %ymm7, %ymm2, %ymm2
vpunpcklwd %ymm2, %ymm10, %ymm7
vpunpckhwd %ymm2, %ymm10, %ymm2
vpsubd %ymm7, %ymm3, %ymm7
vpsubd %ymm2, %ymm8, %ymm8
vpaddd %ymm4, %ymm5, %ymm2
vpaddd %ymm9, %ymm6, %ymm3
vpxor %ymm5, %ymm5, %ymm5
vpblendw $-86, %ymm5, %ymm7, %ymm4
vpblendw $-86, %ymm5, %ymm8, %ymm6
vpackusdw %ymm6, %ymm4, %ymm4
vpsrld $16, %ymm7, %ymm6
vpsrld $16, %ymm8, %ymm7
vpackusdw %ymm7, %ymm6, %ymm6
vpblendw $-86, %ymm5, %ymm2, %ymm7
vpblendw $-86, %ymm5, %ymm3, %ymm5
vpackusdw %ymm5, %ymm7, %ymm5
vpsrld $16, %ymm2, %ymm2
vpsrld $16, %ymm3, %ymm3
vpackusdw %ymm3, %ymm2, %ymm2
vpmullw %ymm1, %ymm4, %ymm3
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm6, %ymm3
vpmullw %ymm1, %ymm5, %ymm1
vpmulhw %ymm0, %ymm1, %ymm0
vpsubw %ymm0, %ymm2, %ymm0
vmovdqu %ymm3, 448(%rcx)
vmovdqu %ymm0, 480(%rcx)
jmp *%r8
L_poly_csubq$1:
vmovdqu glob_data + 448(%rip), %ymm0
vmovdqu (%rcx), %ymm1
vpsubw %ymm0, %ymm1, %ymm1
vpsraw $15, %ymm1, %ymm2
vpand %ymm0, %ymm2, %ymm2
vpaddw %ymm1, %ymm2, %ymm1
vmovdqu %ymm1, (%rcx)
vmovdqu 32(%rcx), %ymm1
vpsubw %ymm0, %ymm1, %ymm1
vpsraw $15, %ymm1, %ymm2
vpand %ymm0, %ymm2, %ymm2
vpaddw %ymm1, %ymm2, %ymm1
vmovdqu %ymm1, 32(%rcx)
vmovdqu 64(%rcx), %ymm1
vpsubw %ymm0, %ymm1, %ymm1
vpsraw $15, %ymm1, %ymm2
vpand %ymm0, %ymm2, %ymm2
vpaddw %ymm1, %ymm2, %ymm1
vmovdqu %ymm1, 64(%rcx)
vmovdqu 96(%rcx), %ymm1
vpsubw %ymm0, %ymm1, %ymm1
vpsraw $15, %ymm1, %ymm2
vpand %ymm0, %ymm2, %ymm2
vpaddw %ymm1, %ymm2, %ymm1
vmovdqu %ymm1, 96(%rcx)
vmovdqu 128(%rcx), %ymm1
vpsubw %ymm0, %ymm1, %ymm1
vpsraw $15, %ymm1, %ymm2
vpand %ymm0, %ymm2, %ymm2
vpaddw %ymm1, %ymm2, %ymm1
vmovdqu %ymm1, 128(%rcx)
vmovdqu 160(%rcx), %ymm1
vpsubw %ymm0, %ymm1, %ymm1
vpsraw $15, %ymm1, %ymm2
vpand %ymm0, %ymm2, %ymm2
vpaddw %ymm1, %ymm2, %ymm1
vmovdqu %ymm1, 160(%rcx)
vmovdqu 192(%rcx), %ymm1
vpsubw %ymm0, %ymm1, %ymm1
vpsraw $15, %ymm1, %ymm2
vpand %ymm0, %ymm2, %ymm2
vpaddw %ymm1, %ymm2, %ymm1
vmovdqu %ymm1, 192(%rcx)
vmovdqu 224(%rcx), %ymm1
vpsubw %ymm0, %ymm1, %ymm1
vpsraw $15, %ymm1, %ymm2
vpand %ymm0, %ymm2, %ymm2
vpaddw %ymm1, %ymm2, %ymm1
vmovdqu %ymm1, 224(%rcx)
vmovdqu 256(%rcx), %ymm1
vpsubw %ymm0, %ymm1, %ymm1
vpsraw $15, %ymm1, %ymm2
vpand %ymm0, %ymm2, %ymm2
vpaddw %ymm1, %ymm2, %ymm1
vmovdqu %ymm1, 256(%rcx)
vmovdqu 288(%rcx), %ymm1
vpsubw %ymm0, %ymm1, %ymm1
vpsraw $15, %ymm1, %ymm2
vpand %ymm0, %ymm2, %ymm2
vpaddw %ymm1, %ymm2, %ymm1
vmovdqu %ymm1, 288(%rcx)
vmovdqu 320(%rcx), %ymm1
vpsubw %ymm0, %ymm1, %ymm1
vpsraw $15, %ymm1, %ymm2
vpand %ymm0, %ymm2, %ymm2
vpaddw %ymm1, %ymm2, %ymm1
vmovdqu %ymm1, 320(%rcx)
vmovdqu 352(%rcx), %ymm1
vpsubw %ymm0, %ymm1, %ymm1
vpsraw $15, %ymm1, %ymm2
vpand %ymm0, %ymm2, %ymm2
vpaddw %ymm1, %ymm2, %ymm1
vmovdqu %ymm1, 352(%rcx)
vmovdqu 384(%rcx), %ymm1
vpsubw %ymm0, %ymm1, %ymm1
vpsraw $15, %ymm1, %ymm2
vpand %ymm0, %ymm2, %ymm2
vpaddw %ymm1, %ymm2, %ymm1
vmovdqu %ymm1, 384(%rcx)
vmovdqu 416(%rcx), %ymm1
vpsubw %ymm0, %ymm1, %ymm1
vpsraw $15, %ymm1, %ymm2
vpand %ymm0, %ymm2, %ymm2
vpaddw %ymm1, %ymm2, %ymm1
vmovdqu %ymm1, 416(%rcx)
vmovdqu 448(%rcx), %ymm1
vpsubw %ymm0, %ymm1, %ymm1
vpsraw $15, %ymm1, %ymm2
vpand %ymm0, %ymm2, %ymm2
vpaddw %ymm1, %ymm2, %ymm1
vmovdqu %ymm1, 448(%rcx)
vmovdqu 480(%rcx), %ymm1
vpsubw %ymm0, %ymm1, %ymm1
vpsraw $15, %ymm1, %ymm2
vpand %ymm0, %ymm2, %ymm0
vpaddw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 480(%rcx)
jmp *%r8
L_poly_add2$1:
vmovdqu (%rcx), %ymm0
vmovdqu (%rsi), %ymm1
vpaddw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, (%rcx)
vmovdqu 32(%rcx), %ymm0
vmovdqu 32(%rsi), %ymm1
vpaddw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 32(%rcx)
vmovdqu 64(%rcx), %ymm0
vmovdqu 64(%rsi), %ymm1
vpaddw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 64(%rcx)
vmovdqu 96(%rcx), %ymm0
vmovdqu 96(%rsi), %ymm1
vpaddw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 96(%rcx)
vmovdqu 128(%rcx), %ymm0
vmovdqu 128(%rsi), %ymm1
vpaddw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 128(%rcx)
vmovdqu 160(%rcx), %ymm0
vmovdqu 160(%rsi), %ymm1
vpaddw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 160(%rcx)
vmovdqu 192(%rcx), %ymm0
vmovdqu 192(%rsi), %ymm1
vpaddw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 192(%rcx)
vmovdqu 224(%rcx), %ymm0
vmovdqu 224(%rsi), %ymm1
vpaddw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 224(%rcx)
vmovdqu 256(%rcx), %ymm0
vmovdqu 256(%rsi), %ymm1
vpaddw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 256(%rcx)
vmovdqu 288(%rcx), %ymm0
vmovdqu 288(%rsi), %ymm1
vpaddw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 288(%rcx)
vmovdqu 320(%rcx), %ymm0
vmovdqu 320(%rsi), %ymm1
vpaddw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 320(%rcx)
vmovdqu 352(%rcx), %ymm0
vmovdqu 352(%rsi), %ymm1
vpaddw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 352(%rcx)
vmovdqu 384(%rcx), %ymm0
vmovdqu 384(%rsi), %ymm1
vpaddw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 384(%rcx)
vmovdqu 416(%rcx), %ymm0
vmovdqu 416(%rsi), %ymm1
vpaddw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 416(%rcx)
vmovdqu 448(%rcx), %ymm0
vmovdqu 448(%rsi), %ymm1
vpaddw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 448(%rcx)
vmovdqu 480(%rcx), %ymm0
vmovdqu 480(%rsi), %ymm1
vpaddw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 480(%rcx)
jmp *%rdi
L_nttunpack$1:
vmovdqu (%rax), %ymm1
vmovdqu 32(%rax), %ymm3
vmovdqu 64(%rax), %ymm4
vmovdqu 96(%rax), %ymm5
vmovdqu 128(%rax), %ymm2
vmovdqu 160(%rax), %ymm6
vmovdqu 192(%rax), %ymm7
vmovdqu 224(%rax), %ymm8
vperm2i128 $32, %ymm2, %ymm1, %ymm0
vperm2i128 $49, %ymm2, %ymm1, %ymm1
vperm2i128 $32, %ymm6, %ymm3, %ymm2
vperm2i128 $49, %ymm6, %ymm3, %ymm3
vperm2i128 $32, %ymm7, %ymm4, %ymm6
vperm2i128 $49, %ymm7, %ymm4, %ymm7
vperm2i128 $32, %ymm8, %ymm5, %ymm9
vperm2i128 $49, %ymm8, %ymm5, %ymm10
vpunpcklqdq %ymm6, %ymm0, %ymm4
vpunpckhqdq %ymm6, %ymm0, %ymm5
vpunpcklqdq %ymm7, %ymm1, %ymm6
vpunpckhqdq %ymm7, %ymm1, %ymm7
vpunpcklqdq %ymm9, %ymm2, %ymm0
vpunpckhqdq %ymm9, %ymm2, %ymm2
vpunpcklqdq %ymm10, %ymm3, %ymm8
vpunpckhqdq %ymm10, %ymm3, %ymm3
vmovsldup %ymm0, %ymm1
vpblendd $-86, %ymm1, %ymm4, %ymm9
vpsrlq $32, %ymm4, %ymm1
vpblendd $-86, %ymm0, %ymm1, %ymm0
vmovsldup %ymm2, %ymm1
vpblendd $-86, %ymm1, %ymm5, %ymm1
vpsrlq $32, %ymm5, %ymm4
vpblendd $-86, %ymm2, %ymm4, %ymm2
vmovsldup %ymm8, %ymm4
vpblendd $-86, %ymm4, %ymm6, %ymm4
vpsrlq $32, %ymm6, %ymm5
vpblendd $-86, %ymm8, %ymm5, %ymm5
vmovsldup %ymm3, %ymm6
vpblendd $-86, %ymm6, %ymm7, %ymm6
vpsrlq $32, %ymm7, %ymm7
vpblendd $-86, %ymm3, %ymm7, %ymm3
vpslld $16, %ymm4, %ymm7
vpblendw $-86, %ymm7, %ymm9, %ymm7
vpsrld $16, %ymm9, %ymm8
vpblendw $-86, %ymm4, %ymm8, %ymm4
vpslld $16, %ymm5, %ymm8
vpblendw $-86, %ymm8, %ymm0, %ymm8
vpsrld $16, %ymm0, %ymm0
vpblendw $-86, %ymm5, %ymm0, %ymm0
vpslld $16, %ymm6, %ymm5
vpblendw $-86, %ymm5, %ymm1, %ymm5
vpsrld $16, %ymm1, %ymm1
vpblendw $-86, %ymm6, %ymm1, %ymm1
vpslld $16, %ymm3, %ymm6
vpblendw $-86, %ymm6, %ymm2, %ymm6
vpsrld $16, %ymm2, %ymm2
vpblendw $-86, %ymm3, %ymm2, %ymm2
vmovdqu %ymm7, (%rax)
vmovdqu %ymm4, 32(%rax)
vmovdqu %ymm8, 64(%rax)
vmovdqu %ymm0, 96(%rax)
vmovdqu %ymm5, 128(%rax)
vmovdqu %ymm1, 160(%rax)
vmovdqu %ymm6, 192(%rax)
vmovdqu %ymm2, 224(%rax)
vmovdqu 256(%rax), %ymm1
vmovdqu 288(%rax), %ymm3
vmovdqu 320(%rax), %ymm4
vmovdqu 352(%rax), %ymm5
vmovdqu 384(%rax), %ymm2
vmovdqu 416(%rax), %ymm6
vmovdqu 448(%rax), %ymm7
vmovdqu 480(%rax), %ymm8
vperm2i128 $32, %ymm2, %ymm1, %ymm0
vperm2i128 $49, %ymm2, %ymm1, %ymm1
vperm2i128 $32, %ymm6, %ymm3, %ymm2
vperm2i128 $49, %ymm6, %ymm3, %ymm3
vperm2i128 $32, %ymm7, %ymm4, %ymm6
vperm2i128 $49, %ymm7, %ymm4, %ymm7
vperm2i128 $32, %ymm8, %ymm5, %ymm9
vperm2i128 $49, %ymm8, %ymm5, %ymm10
vpunpcklqdq %ymm6, %ymm0, %ymm4
vpunpckhqdq %ymm6, %ymm0, %ymm5
vpunpcklqdq %ymm7, %ymm1, %ymm6
vpunpckhqdq %ymm7, %ymm1, %ymm7
vpunpcklqdq %ymm9, %ymm2, %ymm0
vpunpckhqdq %ymm9, %ymm2, %ymm2
vpunpcklqdq %ymm10, %ymm3, %ymm8
vpunpckhqdq %ymm10, %ymm3, %ymm3
vmovsldup %ymm0, %ymm1
vpblendd $-86, %ymm1, %ymm4, %ymm9
vpsrlq $32, %ymm4, %ymm1
vpblendd $-86, %ymm0, %ymm1, %ymm0
vmovsldup %ymm2, %ymm1
vpblendd $-86, %ymm1, %ymm5, %ymm1
vpsrlq $32, %ymm5, %ymm4
vpblendd $-86, %ymm2, %ymm4, %ymm2
vmovsldup %ymm8, %ymm4
vpblendd $-86, %ymm4, %ymm6, %ymm4
vpsrlq $32, %ymm6, %ymm5
vpblendd $-86, %ymm8, %ymm5, %ymm5
vmovsldup %ymm3, %ymm6
vpblendd $-86, %ymm6, %ymm7, %ymm6
vpsrlq $32, %ymm7, %ymm7
vpblendd $-86, %ymm3, %ymm7, %ymm3
vpslld $16, %ymm4, %ymm7
vpblendw $-86, %ymm7, %ymm9, %ymm7
vpsrld $16, %ymm9, %ymm8
vpblendw $-86, %ymm4, %ymm8, %ymm4
vpslld $16, %ymm5, %ymm8
vpblendw $-86, %ymm8, %ymm0, %ymm8
vpsrld $16, %ymm0, %ymm0
vpblendw $-86, %ymm5, %ymm0, %ymm0
vpslld $16, %ymm6, %ymm5
vpblendw $-86, %ymm5, %ymm1, %ymm5
vpsrld $16, %ymm1, %ymm1
vpblendw $-86, %ymm6, %ymm1, %ymm1
vpslld $16, %ymm3, %ymm6
vpblendw $-86, %ymm6, %ymm2, %ymm6
vpsrld $16, %ymm2, %ymm2
vpblendw $-86, %ymm3, %ymm2, %ymm2
vmovdqu %ymm7, 256(%rax)
vmovdqu %ymm4, 288(%rax)
vmovdqu %ymm8, 320(%rax)
vmovdqu %ymm0, 352(%rax)
vmovdqu %ymm5, 384(%rax)
vmovdqu %ymm1, 416(%rax)
vmovdqu %ymm6, 448(%rax)
vmovdqu %ymm2, 480(%rax)
jmp *%rcx
L_nttpack$1:
vmovdqu (%rax), %ymm0
vmovdqu 32(%rax), %ymm1
vmovdqu 64(%rax), %ymm8
vmovdqu 96(%rax), %ymm9
vmovdqu 128(%rax), %ymm2
vmovdqu 160(%rax), %ymm3
vmovdqu 192(%rax), %ymm4
vmovdqu 224(%rax), %ymm5
vpslld $16, %ymm1, %ymm6
vpblendw $-86, %ymm6, %ymm0, %ymm6
vpsrld $16, %ymm0, %ymm0
vpblendw $-86, %ymm1, %ymm0, %ymm0
vpslld $16, %ymm9, %ymm1
vpblendw $-86, %ymm1, %ymm8, %ymm7
vpsrld $16, %ymm8, %ymm1
vpblendw $-86, %ymm9, %ymm1, %ymm1
vpslld $16, %ymm3, %ymm8
vpblendw $-86, %ymm8, %ymm2, %ymm8
vpsrld $16, %ymm2, %ymm2
vpblendw $-86, %ymm3, %ymm2, %ymm2
vpslld $16, %ymm5, %ymm3
vpblendw $-86, %ymm3, %ymm4, %ymm3
vpsrld $16, %ymm4, %ymm4
vpblendw $-86, %ymm5, %ymm4, %ymm4
vmovsldup %ymm7, %ymm5
vpblendd $-86, %ymm5, %ymm6, %ymm5
vpsrlq $32, %ymm6, %ymm6
vpblendd $-86, %ymm7, %ymm6, %ymm6
vmovsldup %ymm3, %ymm7
vpblendd $-86, %ymm7, %ymm8, %ymm7
vpsrlq $32, %ymm8, %ymm8
vpblendd $-86, %ymm3, %ymm8, %ymm3
vmovsldup %ymm1, %ymm8
vpblendd $-86, %ymm8, %ymm0, %ymm8
vpsrlq $32, %ymm0, %ymm0
vpblendd $-86, %ymm1, %ymm0, %ymm0
vmovsldup %ymm4, %ymm1
vpblendd $-86, %ymm1, %ymm2, %ymm9
vpsrlq $32, %ymm2, %ymm1
vpblendd $-86, %ymm4, %ymm1, %ymm10
vpunpcklqdq %ymm7, %ymm5, %ymm1
vpunpckhqdq %ymm7, %ymm5, %ymm2
vpunpcklqdq %ymm9, %ymm8, %ymm5
vpunpckhqdq %ymm9, %ymm8, %ymm4
vpunpcklqdq %ymm3, %ymm6, %ymm7
vpunpckhqdq %ymm3, %ymm6, %ymm3
vpunpcklqdq %ymm10, %ymm0, %ymm6
vpunpckhqdq %ymm10, %ymm0, %ymm0
vperm2i128 $32, %ymm5, %ymm1, %ymm8
vperm2i128 $49, %ymm5, %ymm1, %ymm1
vperm2i128 $32, %ymm6, %ymm7, %ymm5
vperm2i128 $49, %ymm6, %ymm7, %ymm6
vperm2i128 $32, %ymm4, %ymm2, %ymm7
vperm2i128 $49, %ymm4, %ymm2, %ymm2
vperm2i128 $32, %ymm0, %ymm3, %ymm4
vperm2i128 $49, %ymm0, %ymm3, %ymm0
vmovdqu %ymm8, (%rax)
vmovdqu %ymm5, 32(%rax)
vmovdqu %ymm7, 64(%rax)
vmovdqu %ymm4, 96(%rax)
vmovdqu %ymm1, 128(%rax)
vmovdqu %ymm6, 160(%rax)
vmovdqu %ymm2, 192(%rax)
vmovdqu %ymm0, 224(%rax)
vmovdqu 256(%rax), %ymm0
vmovdqu 288(%rax), %ymm1
vmovdqu 320(%rax), %ymm8
vmovdqu 352(%rax), %ymm9
vmovdqu 384(%rax), %ymm2
vmovdqu 416(%rax), %ymm3
vmovdqu 448(%rax), %ymm4
vmovdqu 480(%rax), %ymm5
vpslld $16, %ymm1, %ymm6
vpblendw $-86, %ymm6, %ymm0, %ymm6
vpsrld $16, %ymm0, %ymm0
vpblendw $-86, %ymm1, %ymm0, %ymm0
vpslld $16, %ymm9, %ymm1
vpblendw $-86, %ymm1, %ymm8, %ymm7
vpsrld $16, %ymm8, %ymm1
vpblendw $-86, %ymm9, %ymm1, %ymm1
vpslld $16, %ymm3, %ymm8
vpblendw $-86, %ymm8, %ymm2, %ymm8
vpsrld $16, %ymm2, %ymm2
vpblendw $-86, %ymm3, %ymm2, %ymm2
vpslld $16, %ymm5, %ymm3
vpblendw $-86, %ymm3, %ymm4, %ymm3
vpsrld $16, %ymm4, %ymm4
vpblendw $-86, %ymm5, %ymm4, %ymm4
vmovsldup %ymm7, %ymm5
vpblendd $-86, %ymm5, %ymm6, %ymm5
vpsrlq $32, %ymm6, %ymm6
vpblendd $-86, %ymm7, %ymm6, %ymm6
vmovsldup %ymm3, %ymm7
vpblendd $-86, %ymm7, %ymm8, %ymm7
vpsrlq $32, %ymm8, %ymm8
vpblendd $-86, %ymm3, %ymm8, %ymm3
vmovsldup %ymm1, %ymm8
vpblendd $-86, %ymm8, %ymm0, %ymm8
vpsrlq $32, %ymm0, %ymm0
vpblendd $-86, %ymm1, %ymm0, %ymm0
vmovsldup %ymm4, %ymm1
vpblendd $-86, %ymm1, %ymm2, %ymm9
vpsrlq $32, %ymm2, %ymm1
vpblendd $-86, %ymm4, %ymm1, %ymm10
vpunpcklqdq %ymm7, %ymm5, %ymm1
vpunpckhqdq %ymm7, %ymm5, %ymm2
vpunpcklqdq %ymm9, %ymm8, %ymm5
vpunpckhqdq %ymm9, %ymm8, %ymm4
vpunpcklqdq %ymm3, %ymm6, %ymm7
vpunpckhqdq %ymm3, %ymm6, %ymm3
vpunpcklqdq %ymm10, %ymm0, %ymm6
vpunpckhqdq %ymm10, %ymm0, %ymm0
vperm2i128 $32, %ymm5, %ymm1, %ymm8
vperm2i128 $49, %ymm5, %ymm1, %ymm1
vperm2i128 $32, %ymm6, %ymm7, %ymm5
vperm2i128 $49, %ymm6, %ymm7, %ymm6
vperm2i128 $32, %ymm4, %ymm2, %ymm7
vperm2i128 $49, %ymm4, %ymm2, %ymm2
vperm2i128 $32, %ymm0, %ymm3, %ymm4
vperm2i128 $49, %ymm0, %ymm3, %ymm0
vmovdqu %ymm8, 256(%rax)
vmovdqu %ymm5, 288(%rax)
vmovdqu %ymm7, 320(%rax)
vmovdqu %ymm4, 352(%rax)
vmovdqu %ymm1, 384(%rax)
vmovdqu %ymm6, 416(%rax)
vmovdqu %ymm2, 448(%rax)
vmovdqu %ymm0, 480(%rax)
jmp *%rcx
L_shake256_absorb4x_33$1:
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, (%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 32(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 64(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 96(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 128(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 160(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 192(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 224(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 256(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 288(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 320(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 352(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 384(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 416(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 448(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 480(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 512(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 544(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 576(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 608(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 640(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 672(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 704(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 736(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 768(%rax)
movq (%rcx), %rbx
xorq %rbx, (%rax)
movq (%rdx), %rbx
xorq %rbx, 8(%rax)
movq (%rsi), %rbx
xorq %rbx, 16(%rax)
movq (%r11), %rbx
xorq %rbx, 24(%rax)
movq 8(%rcx), %rbx
xorq %rbx, 32(%rax)
movq 8(%rdx), %rbx
xorq %rbx, 40(%rax)
movq 8(%rsi), %rbx
xorq %rbx, 48(%rax)
movq 8(%r11), %rbx
xorq %rbx, 56(%rax)
movq 16(%rcx), %rbx
xorq %rbx, 64(%rax)
movq 16(%rdx), %rbx
xorq %rbx, 72(%rax)
movq 16(%rsi), %rbx
xorq %rbx, 80(%rax)
movq 16(%r11), %rbx
xorq %rbx, 88(%rax)
movq 24(%rcx), %rbx
xorq %rbx, 96(%rax)
movq 24(%rdx), %rbx
xorq %rbx, 104(%rax)
movq 24(%rsi), %rbx
xorq %rbx, 112(%rax)
movq 24(%r11), %rbx
xorq %rbx, 120(%rax)
movb 32(%rcx), %cl
xorb %cl, 128(%rax)
xorb $31, 129(%rax)
movb 32(%rdx), %cl
xorb %cl, 136(%rax)
xorb $31, 137(%rax)
movb 32(%rsi), %cl
xorb %cl, 144(%rax)
xorb $31, 145(%rax)
movb 32(%r11), %cl
xorb %cl, 152(%rax)
xorb $31, 153(%rax)
vmovdqu glob_data + 2080(%rip), %ymm0
vmovdqu 512(%rax), %ymm1
vpxor %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 512(%rax)
jmp *(%rsp)
L_shake128_absorb4x_34$1:
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, (%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 32(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 64(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 96(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 128(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 160(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 192(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 224(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 256(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 288(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 320(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 352(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 384(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 416(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 448(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 480(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 512(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 544(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 576(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 608(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 640(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 672(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 704(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 736(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 768(%rax)
movq (%rcx), %r8
xorq %r8, (%rax)
movq (%rdx), %r8
xorq %r8, 8(%rax)
movq (%rsi), %r8
xorq %r8, 16(%rax)
movq (%rdi), %r8
xorq %r8, 24(%rax)
movq 8(%rcx), %r8
xorq %r8, 32(%rax)
movq 8(%rdx), %r8
xorq %r8, 40(%rax)
movq 8(%rsi), %r8
xorq %r8, 48(%rax)
movq 8(%rdi), %r8
xorq %r8, 56(%rax)
movq 16(%rcx), %r8
xorq %r8, 64(%rax)
movq 16(%rdx), %r8
xorq %r8, 72(%rax)
movq 16(%rsi), %r8
xorq %r8, 80(%rax)
movq 16(%rdi), %r8
xorq %r8, 88(%rax)
movq 24(%rcx), %r8
xorq %r8, 96(%rax)
movq 24(%rdx), %r8
xorq %r8, 104(%rax)
movq 24(%rsi), %r8
xorq %r8, 112(%rax)
movq 24(%rdi), %r8
xorq %r8, 120(%rax)
movw 32(%rcx), %cx
xorw %cx, 128(%rax)
xorb $31, 130(%rax)
movw 32(%rdx), %cx
xorw %cx, 136(%rax)
xorb $31, 138(%rax)
movw 32(%rsi), %cx
xorw %cx, 144(%rax)
xorb $31, 146(%rax)
movw 32(%rdi), %cx
xorw %cx, 152(%rax)
xorb $31, 154(%rax)
vmovdqu glob_data + 2080(%rip), %ymm0
vmovdqu 640(%rax), %ymm1
vpxor %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 640(%rax)
jmp *(%rsp)
L_keccakf1600_4x_avx2$1:
movq %rsp, %rcx
leaq glob_data + 2176(%rip), %rdx
vmovdqu glob_data + 2112(%rip), %ymm0
vmovdqu glob_data + 2144(%rip), %ymm1
movq $0, %rsi
L_keccakf1600_4x_avx2$2:
vmovdqu (%rdx,%rsi), %ymm2
vmovdqu (%rax), %ymm3
vmovdqu 32(%rax), %ymm4
vmovdqu 64(%rax), %ymm5
vmovdqu 96(%rax), %ymm6
vmovdqu 128(%rax), %ymm7
vpxor 160(%rax), %ymm3, %ymm3
vpxor 192(%rax), %ymm4, %ymm4
vpxor 224(%rax), %ymm5, %ymm5
vpxor 256(%rax), %ymm6, %ymm6
vpxor 288(%rax), %ymm7, %ymm7
vpxor 320(%rax), %ymm3, %ymm3
vpxor 352(%rax), %ymm4, %ymm4
vpxor 384(%rax), %ymm5, %ymm5
vpxor 416(%rax), %ymm6, %ymm6
vpxor 448(%rax), %ymm7, %ymm7
vpxor 480(%rax), %ymm3, %ymm3
vpxor 512(%rax), %ymm4, %ymm4
vpxor 544(%rax), %ymm5, %ymm8
vpxor 576(%rax), %ymm6, %ymm9
vpxor 608(%rax), %ymm7, %ymm10
vpxor 640(%rax), %ymm3, %ymm7
vpxor 672(%rax), %ymm4, %ymm5
vpxor 704(%rax), %ymm8, %ymm6
vpxor 736(%rax), %ymm9, %ymm8
vpxor 768(%rax), %ymm10, %ymm9
vmovdqu %ymm5, %ymm3
vpsllq $1, %ymm3, %ymm4
vpsrlq $63, %ymm3, %ymm3
vpor %ymm4, %ymm3, %ymm3
vpxor %ymm9, %ymm3, %ymm3
vmovdqu %ymm6, %ymm4
vpsllq $1, %ymm4, %ymm10
vpsrlq $63, %ymm4, %ymm4
vpor %ymm10, %ymm4, %ymm4
vpxor %ymm7, %ymm4, %ymm4
vmovdqu %ymm8, %ymm10
vpsllq $1, %ymm10, %ymm11
vpsrlq $63, %ymm10, %ymm10
vpor %ymm11, %ymm10, %ymm10
vpxor %ymm5, %ymm10, %ymm5
vpsllq $1, %ymm9, %ymm10
vpsrlq $63, %ymm9, %ymm9
vpor %ymm10, %ymm9, %ymm9
vpxor %ymm6, %ymm9, %ymm6
vpsllq $1, %ymm7, %ymm9
vpsrlq $63, %ymm7, %ymm7
vpor %ymm9, %ymm7, %ymm7
vpxor %ymm8, %ymm7, %ymm7
vmovdqu (%rax), %ymm8
vpxor %ymm3, %ymm8, %ymm8
vmovdqu 192(%rax), %ymm9
vpxor %ymm4, %ymm9, %ymm9
vpsllq $44, %ymm9, %ymm10
vpsrlq $20, %ymm9, %ymm9
vpor %ymm10, %ymm9, %ymm9
vmovdqu 384(%rax), %ymm10
vpxor %ymm5, %ymm10, %ymm10
vpsllq $43, %ymm10, %ymm11
vpsrlq $21, %ymm10, %ymm10
vpor %ymm11, %ymm10, %ymm10
vmovdqu 576(%rax), %ymm11
vpxor %ymm6, %ymm11, %ymm11
vpsllq $21, %ymm11, %ymm12
vpsrlq $43, %ymm11, %ymm11
vpor %ymm12, %ymm11, %ymm11
vmovdqu 768(%rax), %ymm12
vpxor %ymm7, %ymm12, %ymm12
vpsllq $14, %ymm12, %ymm13
vpsrlq $50, %ymm12, %ymm12
vpor %ymm13, %ymm12, %ymm12
vpandn %ymm10, %ymm9, %ymm13
vpxor %ymm8, %ymm13, %ymm13
vpxor %ymm2, %ymm13, %ymm2
vmovdqu %ymm2, (%rcx)
vpandn %ymm11, %ymm10, %ymm2
vpxor %ymm9, %ymm2, %ymm2
vmovdqu %ymm2, 32(%rcx)
vpandn %ymm12, %ymm11, %ymm2
vpxor %ymm10, %ymm2, %ymm2
vmovdqu %ymm2, 64(%rcx)
vpandn %ymm8, %ymm12, %ymm2
vpxor %ymm11, %ymm2, %ymm2
vmovdqu %ymm2, 96(%rcx)
vpandn %ymm9, %ymm8, %ymm2
vpxor %ymm12, %ymm2, %ymm2
vmovdqu %ymm2, 128(%rcx)
vmovdqu 96(%rax), %ymm2
vpxor %ymm6, %ymm2, %ymm2
vpsllq $28, %ymm2, %ymm8
vpsrlq $36, %ymm2, %ymm2
vpor %ymm8, %ymm2, %ymm2
vmovdqu 288(%rax), %ymm8
vpxor %ymm7, %ymm8, %ymm8
vpsllq $20, %ymm8, %ymm9
vpsrlq $44, %ymm8, %ymm8
vpor %ymm9, %ymm8, %ymm8
vmovdqu 320(%rax), %ymm9
vpxor %ymm3, %ymm9, %ymm9
vpsllq $3, %ymm9, %ymm10
vpsrlq $61, %ymm9, %ymm9
vpor %ymm10, %ymm9, %ymm9
vmovdqu 512(%rax), %ymm10
vpxor %ymm4, %ymm10, %ymm10
vpsllq $45, %ymm10, %ymm11
vpsrlq $19, %ymm10, %ymm10
vpor %ymm11, %ymm10, %ymm10
vmovdqu 704(%rax), %ymm11
vpxor %ymm5, %ymm11, %ymm11
vpsllq $61, %ymm11, %ymm12
vpsrlq $3, %ymm11, %ymm11
vpor %ymm12, %ymm11, %ymm11
vpandn %ymm9, %ymm8, %ymm12
vpxor %ymm2, %ymm12, %ymm12
vmovdqu %ymm12, 160(%rcx)
vpandn %ymm10, %ymm9, %ymm12
vpxor %ymm8, %ymm12, %ymm12
vmovdqu %ymm12, 192(%rcx)
vpandn %ymm11, %ymm10, %ymm12
vpxor %ymm9, %ymm12, %ymm9
vmovdqu %ymm9, 224(%rcx)
vpandn %ymm2, %ymm11, %ymm9
vpxor %ymm10, %ymm9, %ymm9
vmovdqu %ymm9, 256(%rcx)
vpandn %ymm8, %ymm2, %ymm2
vpxor %ymm11, %ymm2, %ymm2
vmovdqu %ymm2, 288(%rcx)
vmovdqu 32(%rax), %ymm2
vpxor %ymm4, %ymm2, %ymm2
vpsllq $1, %ymm2, %ymm8
vpsrlq $63, %ymm2, %ymm2
vpor %ymm8, %ymm2, %ymm2
vmovdqu 224(%rax), %ymm8
vpxor %ymm5, %ymm8, %ymm8
vpsllq $6, %ymm8, %ymm9
vpsrlq $58, %ymm8, %ymm8
vpor %ymm9, %ymm8, %ymm8
vmovdqu 416(%rax), %ymm9
vpxor %ymm6, %ymm9, %ymm9
vpsllq $25, %ymm9, %ymm10
vpsrlq $39, %ymm9, %ymm9
vpor %ymm10, %ymm9, %ymm9
vmovdqu 608(%rax), %ymm10
vpxor %ymm7, %ymm10, %ymm10
vpshufb %ymm0, %ymm10, %ymm10
vmovdqu 640(%rax), %ymm11
vpxor %ymm3, %ymm11, %ymm11
vpsllq $18, %ymm11, %ymm12
vpsrlq $46, %ymm11, %ymm11
vpor %ymm12, %ymm11, %ymm11
vpandn %ymm9, %ymm8, %ymm12
vpxor %ymm2, %ymm12, %ymm12
vmovdqu %ymm12, 320(%rcx)
vpandn %ymm10, %ymm9, %ymm12
vpxor %ymm8, %ymm12, %ymm12
vmovdqu %ymm12, 352(%rcx)
vpandn %ymm11, %ymm10, %ymm12
vpxor %ymm9, %ymm12, %ymm9
vmovdqu %ymm9, 384(%rcx)
vpandn %ymm2, %ymm11, %ymm9
vpxor %ymm10, %ymm9, %ymm9
vmovdqu %ymm9, 416(%rcx)
vpandn %ymm8, %ymm2, %ymm2
vpxor %ymm11, %ymm2, %ymm2
vmovdqu %ymm2, 448(%rcx)
vmovdqu 128(%rax), %ymm2
vpxor %ymm7, %ymm2, %ymm2
vpsllq $27, %ymm2, %ymm8
vpsrlq $37, %ymm2, %ymm2
vpor %ymm8, %ymm2, %ymm2
vmovdqu 160(%rax), %ymm8
vpxor %ymm3, %ymm8, %ymm8
vpsllq $36, %ymm8, %ymm9
vpsrlq $28, %ymm8, %ymm8
vpor %ymm9, %ymm8, %ymm8
vmovdqu 352(%rax), %ymm9
vpxor %ymm4, %ymm9, %ymm9
vpsllq $10, %ymm9, %ymm10
vpsrlq $54, %ymm9, %ymm9
vpor %ymm10, %ymm9, %ymm9
vmovdqu 544(%rax), %ymm10
vpxor %ymm5, %ymm10, %ymm10
vpsllq $15, %ymm10, %ymm11
vpsrlq $49, %ymm10, %ymm10
vpor %ymm11, %ymm10, %ymm10
vmovdqu 736(%rax), %ymm11
vpxor %ymm6, %ymm11, %ymm11
vpshufb %ymm1, %ymm11, %ymm11
vpandn %ymm9, %ymm8, %ymm12
vpxor %ymm2, %ymm12, %ymm12
vmovdqu %ymm12, 480(%rcx)
vpandn %ymm10, %ymm9, %ymm12
vpxor %ymm8, %ymm12, %ymm12
vmovdqu %ymm12, 512(%rcx)
vpandn %ymm11, %ymm10, %ymm12
vpxor %ymm9, %ymm12, %ymm9
vmovdqu %ymm9, 544(%rcx)
vpandn %ymm2, %ymm11, %ymm9
vpxor %ymm10, %ymm9, %ymm9
vmovdqu %ymm9, 576(%rcx)
vpandn %ymm8, %ymm2, %ymm2
vpxor %ymm11, %ymm2, %ymm2
vmovdqu %ymm2, 608(%rcx)
vmovdqu 64(%rax), %ymm2
vpxor %ymm5, %ymm2, %ymm2
vpsllq $62, %ymm2, %ymm5
vpsrlq $2, %ymm2, %ymm2
vpor %ymm5, %ymm2, %ymm2
vmovdqu 256(%rax), %ymm5
vpxor %ymm6, %ymm5, %ymm5
vpsllq $55, %ymm5, %ymm6
vpsrlq $9, %ymm5, %ymm5
vpor %ymm6, %ymm5, %ymm5
vmovdqu 448(%rax), %ymm6
vpxor %ymm7, %ymm6, %ymm6
vpsllq $39, %ymm6, %ymm7
vpsrlq $25, %ymm6, %ymm6
vpor %ymm7, %ymm6, %ymm6
vmovdqu 480(%rax), %ymm7
vpxor %ymm3, %ymm7, %ymm3
vpsllq $41, %ymm3, %ymm7
vpsrlq $23, %ymm3, %ymm3
vpor %ymm7, %ymm3, %ymm3
vmovdqu 672(%rax), %ymm7
vpxor %ymm4, %ymm7, %ymm4
vpsllq $2, %ymm4, %ymm7
vpsrlq $62, %ymm4, %ymm4
vpor %ymm7, %ymm4, %ymm4
vpandn %ymm6, %ymm5, %ymm7
vpxor %ymm2, %ymm7, %ymm7
vmovdqu %ymm7, 640(%rcx)
vpandn %ymm3, %ymm6, %ymm7
vpxor %ymm5, %ymm7, %ymm7
vmovdqu %ymm7, 672(%rcx)
vpandn %ymm4, %ymm3, %ymm7
vpxor %ymm6, %ymm7, %ymm6
vmovdqu %ymm6, 704(%rcx)
vpandn %ymm2, %ymm4, %ymm6
vpxor %ymm3, %ymm6, %ymm3
vmovdqu %ymm3, 736(%rcx)
vpandn %ymm5, %ymm2, %ymm2
vpxor %ymm4, %ymm2, %ymm2
vmovdqu %ymm2, 768(%rcx)
vmovdqu 32(%rdx,%rsi), %ymm2
vmovdqu (%rcx), %ymm3
vmovdqu 32(%rcx), %ymm4
vmovdqu 64(%rcx), %ymm5
vmovdqu 96(%rcx), %ymm6
vmovdqu 128(%rcx), %ymm7
vpxor 160(%rcx), %ymm3, %ymm3
vpxor 192(%rcx), %ymm4, %ymm4
vpxor 224(%rcx), %ymm5, %ymm5
vpxor 256(%rcx), %ymm6, %ymm6
vpxor 288(%rcx), %ymm7, %ymm7
vpxor 320(%rcx), %ymm3, %ymm3
vpxor 352(%rcx), %ymm4, %ymm4
vpxor 384(%rcx), %ymm5, %ymm5
vpxor 416(%rcx), %ymm6, %ymm6
vpxor 448(%rcx), %ymm7, %ymm7
vpxor 480(%rcx), %ymm3, %ymm3
vpxor 512(%rcx), %ymm4, %ymm4
vpxor 544(%rcx), %ymm5, %ymm8
vpxor 576(%rcx), %ymm6, %ymm9
vpxor 608(%rcx), %ymm7, %ymm10
vpxor 640(%rcx), %ymm3, %ymm7
vpxor 672(%rcx), %ymm4, %ymm5
vpxor 704(%rcx), %ymm8, %ymm6
vpxor 736(%rcx), %ymm9, %ymm8
vpxor 768(%rcx), %ymm10, %ymm9
vmovdqu %ymm5, %ymm3
vpsllq $1, %ymm3, %ymm4
vpsrlq $63, %ymm3, %ymm3
vpor %ymm4, %ymm3, %ymm3
vpxor %ymm9, %ymm3, %ymm3
vmovdqu %ymm6, %ymm4
vpsllq $1, %ymm4, %ymm10
vpsrlq $63, %ymm4, %ymm4
vpor %ymm10, %ymm4, %ymm4
vpxor %ymm7, %ymm4, %ymm4
vmovdqu %ymm8, %ymm10
vpsllq $1, %ymm10, %ymm11
vpsrlq $63, %ymm10, %ymm10
vpor %ymm11, %ymm10, %ymm10
vpxor %ymm5, %ymm10, %ymm5
vpsllq $1, %ymm9, %ymm10
vpsrlq $63, %ymm9, %ymm9
vpor %ymm10, %ymm9, %ymm9
vpxor %ymm6, %ymm9, %ymm6
vpsllq $1, %ymm7, %ymm9
vpsrlq $63, %ymm7, %ymm7
vpor %ymm9, %ymm7, %ymm7
vpxor %ymm8, %ymm7, %ymm7
vmovdqu (%rcx), %ymm8
vpxor %ymm3, %ymm8, %ymm8
vmovdqu 192(%rcx), %ymm9
vpxor %ymm4, %ymm9, %ymm9
vpsllq $44, %ymm9, %ymm10
vpsrlq $20, %ymm9, %ymm9
vpor %ymm10, %ymm9, %ymm9
vmovdqu 384(%rcx), %ymm10
vpxor %ymm5, %ymm10, %ymm10
vpsllq $43, %ymm10, %ymm11
vpsrlq $21, %ymm10, %ymm10
vpor %ymm11, %ymm10, %ymm10
vmovdqu 576(%rcx), %ymm11
vpxor %ymm6, %ymm11, %ymm11
vpsllq $21, %ymm11, %ymm12
vpsrlq $43, %ymm11, %ymm11
vpor %ymm12, %ymm11, %ymm11
vmovdqu 768(%rcx), %ymm12
vpxor %ymm7, %ymm12, %ymm12
vpsllq $14, %ymm12, %ymm13
vpsrlq $50, %ymm12, %ymm12
vpor %ymm13, %ymm12, %ymm12
vpandn %ymm10, %ymm9, %ymm13
vpxor %ymm8, %ymm13, %ymm13
vpxor %ymm2, %ymm13, %ymm2
vmovdqu %ymm2, (%rax)
vpandn %ymm11, %ymm10, %ymm2
vpxor %ymm9, %ymm2, %ymm2
vmovdqu %ymm2, 32(%rax)
vpandn %ymm12, %ymm11, %ymm2
vpxor %ymm10, %ymm2, %ymm2
vmovdqu %ymm2, 64(%rax)
vpandn %ymm8, %ymm12, %ymm2
vpxor %ymm11, %ymm2, %ymm2
vmovdqu %ymm2, 96(%rax)
vpandn %ymm9, %ymm8, %ymm2
vpxor %ymm12, %ymm2, %ymm2
vmovdqu %ymm2, 128(%rax)
vmovdqu 96(%rcx), %ymm2
vpxor %ymm6, %ymm2, %ymm2
vpsllq $28, %ymm2, %ymm8
vpsrlq $36, %ymm2, %ymm2
vpor %ymm8, %ymm2, %ymm2
vmovdqu 288(%rcx), %ymm8
vpxor %ymm7, %ymm8, %ymm8
vpsllq $20, %ymm8, %ymm9
vpsrlq $44, %ymm8, %ymm8
vpor %ymm9, %ymm8, %ymm8
vmovdqu 320(%rcx), %ymm9
vpxor %ymm3, %ymm9, %ymm9
vpsllq $3, %ymm9, %ymm10
vpsrlq $61, %ymm9, %ymm9
vpor %ymm10, %ymm9, %ymm9
vmovdqu 512(%rcx), %ymm10
vpxor %ymm4, %ymm10, %ymm10
vpsllq $45, %ymm10, %ymm11
vpsrlq $19, %ymm10, %ymm10
vpor %ymm11, %ymm10, %ymm10
vmovdqu 704(%rcx), %ymm11
vpxor %ymm5, %ymm11, %ymm11
vpsllq $61, %ymm11, %ymm12
vpsrlq $3, %ymm11, %ymm11
vpor %ymm12, %ymm11, %ymm11
vpandn %ymm9, %ymm8, %ymm12
vpxor %ymm2, %ymm12, %ymm12
vmovdqu %ymm12, 160(%rax)
vpandn %ymm10, %ymm9, %ymm12
vpxor %ymm8, %ymm12, %ymm12
vmovdqu %ymm12, 192(%rax)
vpandn %ymm11, %ymm10, %ymm12
vpxor %ymm9, %ymm12, %ymm9
vmovdqu %ymm9, 224(%rax)
vpandn %ymm2, %ymm11, %ymm9
vpxor %ymm10, %ymm9, %ymm9
vmovdqu %ymm9, 256(%rax)
vpandn %ymm8, %ymm2, %ymm2
vpxor %ymm11, %ymm2, %ymm2
vmovdqu %ymm2, 288(%rax)
vmovdqu 32(%rcx), %ymm2
vpxor %ymm4, %ymm2, %ymm2
vpsllq $1, %ymm2, %ymm8
vpsrlq $63, %ymm2, %ymm2
vpor %ymm8, %ymm2, %ymm2
vmovdqu 224(%rcx), %ymm8
vpxor %ymm5, %ymm8, %ymm8
vpsllq $6, %ymm8, %ymm9
vpsrlq $58, %ymm8, %ymm8
vpor %ymm9, %ymm8, %ymm8
vmovdqu 416(%rcx), %ymm9
vpxor %ymm6, %ymm9, %ymm9
vpsllq $25, %ymm9, %ymm10
vpsrlq $39, %ymm9, %ymm9
vpor %ymm10, %ymm9, %ymm9
vmovdqu 608(%rcx), %ymm10
vpxor %ymm7, %ymm10, %ymm10
vpshufb %ymm0, %ymm10, %ymm10
vmovdqu 640(%rcx), %ymm11
vpxor %ymm3, %ymm11, %ymm11
vpsllq $18, %ymm11, %ymm12
vpsrlq $46, %ymm11, %ymm11
vpor %ymm12, %ymm11, %ymm11
vpandn %ymm9, %ymm8, %ymm12
vpxor %ymm2, %ymm12, %ymm12
vmovdqu %ymm12, 320(%rax)
vpandn %ymm10, %ymm9, %ymm12
vpxor %ymm8, %ymm12, %ymm12
vmovdqu %ymm12, 352(%rax)
vpandn %ymm11, %ymm10, %ymm12
vpxor %ymm9, %ymm12, %ymm9
vmovdqu %ymm9, 384(%rax)
vpandn %ymm2, %ymm11, %ymm9
vpxor %ymm10, %ymm9, %ymm9
vmovdqu %ymm9, 416(%rax)
vpandn %ymm8, %ymm2, %ymm2
vpxor %ymm11, %ymm2, %ymm2
vmovdqu %ymm2, 448(%rax)
vmovdqu 128(%rcx), %ymm2
vpxor %ymm7, %ymm2, %ymm2
vpsllq $27, %ymm2, %ymm8
vpsrlq $37, %ymm2, %ymm2
vpor %ymm8, %ymm2, %ymm2
vmovdqu 160(%rcx), %ymm8
vpxor %ymm3, %ymm8, %ymm8
vpsllq $36, %ymm8, %ymm9
vpsrlq $28, %ymm8, %ymm8
vpor %ymm9, %ymm8, %ymm8
vmovdqu 352(%rcx), %ymm9
vpxor %ymm4, %ymm9, %ymm9
vpsllq $10, %ymm9, %ymm10
vpsrlq $54, %ymm9, %ymm9
vpor %ymm10, %ymm9, %ymm9
vmovdqu 544(%rcx), %ymm10
vpxor %ymm5, %ymm10, %ymm10
vpsllq $15, %ymm10, %ymm11
vpsrlq $49, %ymm10, %ymm10
vpor %ymm11, %ymm10, %ymm10
vmovdqu 736(%rcx), %ymm11
vpxor %ymm6, %ymm11, %ymm11
vpshufb %ymm1, %ymm11, %ymm11
vpandn %ymm9, %ymm8, %ymm12
vpxor %ymm2, %ymm12, %ymm12
vmovdqu %ymm12, 480(%rax)
vpandn %ymm10, %ymm9, %ymm12
vpxor %ymm8, %ymm12, %ymm12
vmovdqu %ymm12, 512(%rax)
vpandn %ymm11, %ymm10, %ymm12
vpxor %ymm9, %ymm12, %ymm9
vmovdqu %ymm9, 544(%rax)
vpandn %ymm2, %ymm11, %ymm9
vpxor %ymm10, %ymm9, %ymm9
vmovdqu %ymm9, 576(%rax)
vpandn %ymm8, %ymm2, %ymm2
vpxor %ymm11, %ymm2, %ymm2
vmovdqu %ymm2, 608(%rax)
vmovdqu 64(%rcx), %ymm2
vpxor %ymm5, %ymm2, %ymm2
vpsllq $62, %ymm2, %ymm5
vpsrlq $2, %ymm2, %ymm2
vpor %ymm5, %ymm2, %ymm2
vmovdqu 256(%rcx), %ymm5
vpxor %ymm6, %ymm5, %ymm5
vpsllq $55, %ymm5, %ymm6
vpsrlq $9, %ymm5, %ymm5
vpor %ymm6, %ymm5, %ymm5
vmovdqu 448(%rcx), %ymm6
vpxor %ymm7, %ymm6, %ymm6
vpsllq $39, %ymm6, %ymm7
vpsrlq $25, %ymm6, %ymm6
vpor %ymm7, %ymm6, %ymm6
vmovdqu 480(%rcx), %ymm7
vpxor %ymm3, %ymm7, %ymm3
vpsllq $41, %ymm3, %ymm7
vpsrlq $23, %ymm3, %ymm3
vpor %ymm7, %ymm3, %ymm3
vmovdqu 672(%rcx), %ymm7
vpxor %ymm4, %ymm7, %ymm4
vpsllq $2, %ymm4, %ymm7
vpsrlq $62, %ymm4, %ymm4
vpor %ymm7, %ymm4, %ymm4
vpandn %ymm6, %ymm5, %ymm7
vpxor %ymm2, %ymm7, %ymm7
vmovdqu %ymm7, 640(%rax)
vpandn %ymm3, %ymm6, %ymm7
vpxor %ymm5, %ymm7, %ymm7
vmovdqu %ymm7, 672(%rax)
vpandn %ymm4, %ymm3, %ymm7
vpxor %ymm6, %ymm7, %ymm6
vmovdqu %ymm6, 704(%rax)
vpandn %ymm2, %ymm4, %ymm6
vpxor %ymm3, %ymm6, %ymm3
vmovdqu %ymm3, 736(%rax)
vpandn %ymm5, %ymm2, %ymm2
vpxor %ymm4, %ymm2, %ymm2
vmovdqu %ymm2, 768(%rax)
addq $64, %rsi
cmpq $768, %rsi
jb L_keccakf1600_4x_avx2$2
jmp *800(%rsp)
L_sha3_512_32$1:
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, (%rsp)
vmovdqu %ymm0, 32(%rsp)
vmovdqu %ymm0, 64(%rsp)
vmovdqu %ymm0, 96(%rsp)
vmovdqu %ymm0, 128(%rsp)
vmovdqu %ymm0, 160(%rsp)
vmovdqu %ymm0, 192(%rsp)
vpbroadcastq (%rcx), %ymm6
movq 8(%rcx), %rdx
movq glob_data + 6208(%rip), %rsi
movq %rdx, (%rsp,%rsi,8)
movq 16(%rcx), %rdx
movq glob_data + 6216(%rip), %rsi
movq %rdx, (%rsp,%rsi,8)
movq 24(%rcx), %rcx
movq glob_data + 6224(%rip), %rdx
movq %rcx, (%rsp,%rdx,8)
movq glob_data + 6232(%rip), %rcx
shlq $3, %rcx
movb $6, (%rsp,%rcx)
movq glob_data + 6264(%rip), %rcx
shlq $3, %rcx
movq $71, %rdx
andq $7, %rdx
addq %rdx, %rcx
xorb $-128, (%rsp,%rcx)
vmovdqu 32(%rsp), %ymm0
vmovdqu 64(%rsp), %ymm1
vmovdqu 96(%rsp), %ymm2
vmovdqu 128(%rsp), %ymm3
vmovdqu 160(%rsp), %ymm4
vmovdqu 192(%rsp), %ymm5
leaq glob_data + 3328(%rip), %rcx
movq $0, %rdx
leaq glob_data + 3136(%rip), %rsi
leaq glob_data + 2944(%rip), %rdi
movq $24, %r8
L_sha3_512_32$2:
vpshufd $78, %ymm1, %ymm8
vpxor %ymm2, %ymm4, %ymm7
vpxor %ymm5, %ymm3, %ymm9
vpxor %ymm0, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm1, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm1, %ymm1
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm1, %ymm7
vpsrlvq (%rdi), %ymm1, %ymm1
vpor %ymm7, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpsllvq 64(%rsi), %ymm2, %ymm7
vpsrlvq 64(%rdi), %ymm2, %ymm2
vpor %ymm7, %ymm2, %ymm2
vpxor %ymm9, %ymm3, %ymm3
vpsllvq 96(%rsi), %ymm3, %ymm7
vpsrlvq 96(%rdi), %ymm3, %ymm3
vpor %ymm7, %ymm3, %ymm10
vpxor %ymm9, %ymm4, %ymm3
vpsllvq 128(%rsi), %ymm3, %ymm4
vpsrlvq 128(%rdi), %ymm3, %ymm3
vpor %ymm4, %ymm3, %ymm4
vpxor %ymm9, %ymm5, %ymm5
vpermq $-115, %ymm1, %ymm3
vpermq $-115, %ymm2, %ymm7
vpsllvq 160(%rsi), %ymm5, %ymm1
vpsrlvq 160(%rdi), %ymm5, %ymm2
vpor %ymm1, %ymm2, %ymm8
vpxor %ymm9, %ymm0, %ymm1
vpermq $27, %ymm10, %ymm0
vpermq $114, %ymm4, %ymm9
vpsllvq 32(%rsi), %ymm1, %ymm2
vpsrlvq 32(%rdi), %ymm1, %ymm1
vpor %ymm2, %ymm1, %ymm10
vpsrldq $8, %ymm8, %ymm1
vpandn %ymm1, %ymm8, %ymm2
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm3, %ymm5
vpblendd $12, %ymm3, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm0, %ymm4, %ymm4
vpblendd $48, %ymm10, %ymm5, %ymm5
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm0, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm9, %ymm5, %ymm5
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm4, %ymm1, %ymm1
vpandn %ymm11, %ymm5, %ymm5
vpblendd $12, %ymm10, %ymm0, %ymm11
vpblendd $12, %ymm0, %ymm3, %ymm12
vpxor %ymm3, %ymm1, %ymm4
vpblendd $48, %ymm3, %ymm11, %ymm1
vpblendd $48, %ymm7, %ymm12, %ymm11
vpxor %ymm0, %ymm5, %ymm5
vpblendd $-64, %ymm7, %ymm1, %ymm1
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm1, %ymm1
vpxor %ymm9, %ymm1, %ymm12
vpermq $30, %ymm8, %ymm1
vpblendd $48, %ymm6, %ymm1, %ymm1
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm1, %ymm11, %ymm11
vpblendd $12, %ymm0, %ymm7, %ymm1
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm13, %ymm13
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm0, %ymm13, %ymm13
vpandn %ymm13, %ymm1, %ymm1
vpxor %ymm10, %ymm1, %ymm1
vpermq $0, %ymm2, %ymm13
vpermq $27, %ymm4, %ymm2
vpermq $-115, %ymm5, %ymm4
vpermq $114, %ymm12, %ymm5
vpblendd $12, %ymm3, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm0, %ymm9
vpblendd $48, %ymm0, %ymm12, %ymm0
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm0, %ymm0
vpblendd $-64, %ymm3, %ymm9, %ymm3
vpandn %ymm3, %ymm0, %ymm3
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm0
vpxor %ymm7, %ymm3, %ymm3
vpxor (%rcx,%rdx), %ymm6, %ymm6
addq $32, %rdx
decq %r8
jne L_sha3_512_32$2
vmovdqu %ymm6, (%rsp)
vmovdqu %ymm0, 32(%rsp)
vmovdqu %ymm1, 64(%rsp)
vmovdqu %ymm2, 96(%rsp)
vmovdqu %ymm3, 128(%rsp)
vmovdqu %ymm4, 160(%rsp)
vmovdqu %ymm5, 192(%rsp)
movq glob_data + 6200(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, (%rax)
movq glob_data + 6208(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 8(%rax)
movq glob_data + 6216(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 16(%rax)
movq glob_data + 6224(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 24(%rax)
movq glob_data + 6232(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 32(%rax)
movq glob_data + 6240(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 40(%rax)
movq glob_data + 6248(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 48(%rax)
movq glob_data + 6256(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 56(%rax)
jmp *224(%rsp)
L_sha3_512_64$1:
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, (%rsp)
vmovdqu %ymm0, 32(%rsp)
vmovdqu %ymm0, 64(%rsp)
vmovdqu %ymm0, 96(%rsp)
vmovdqu %ymm0, 128(%rsp)
vmovdqu %ymm0, 160(%rsp)
vmovdqu %ymm0, 192(%rsp)
vpbroadcastq (%rcx), %ymm6
movq 8(%rcx), %rdx
movq glob_data + 6208(%rip), %rsi
movq %rdx, (%rsp,%rsi,8)
movq 16(%rcx), %rdx
movq glob_data + 6216(%rip), %rsi
movq %rdx, (%rsp,%rsi,8)
movq 24(%rcx), %rdx
movq glob_data + 6224(%rip), %rsi
movq %rdx, (%rsp,%rsi,8)
movq 32(%rcx), %rdx
movq glob_data + 6232(%rip), %rsi
movq %rdx, (%rsp,%rsi,8)
movq 40(%rcx), %rdx
movq glob_data + 6240(%rip), %rsi
movq %rdx, (%rsp,%rsi,8)
movq 48(%rcx), %rdx
movq glob_data + 6248(%rip), %rsi
movq %rdx, (%rsp,%rsi,8)
movq 56(%rcx), %rcx
movq glob_data + 6256(%rip), %rdx
movq %rcx, (%rsp,%rdx,8)
movq glob_data + 6264(%rip), %rcx
shlq $3, %rcx
movb $6, (%rsp,%rcx)
movq glob_data + 6264(%rip), %rcx
shlq $3, %rcx
movq $71, %rdx
andq $7, %rdx
addq %rdx, %rcx
xorb $-128, (%rsp,%rcx)
vmovdqu 32(%rsp), %ymm0
vmovdqu 64(%rsp), %ymm1
vmovdqu 96(%rsp), %ymm2
vmovdqu 128(%rsp), %ymm3
vmovdqu 160(%rsp), %ymm4
vmovdqu 192(%rsp), %ymm5
leaq glob_data + 3328(%rip), %rcx
movq $0, %rdx
leaq glob_data + 3136(%rip), %rsi
leaq glob_data + 2944(%rip), %rdi
movq $24, %r8
L_sha3_512_64$2:
vpshufd $78, %ymm1, %ymm8
vpxor %ymm2, %ymm4, %ymm7
vpxor %ymm5, %ymm3, %ymm9
vpxor %ymm0, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm1, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm1, %ymm1
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm1, %ymm7
vpsrlvq (%rdi), %ymm1, %ymm1
vpor %ymm7, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpsllvq 64(%rsi), %ymm2, %ymm7
vpsrlvq 64(%rdi), %ymm2, %ymm2
vpor %ymm7, %ymm2, %ymm2
vpxor %ymm9, %ymm3, %ymm3
vpsllvq 96(%rsi), %ymm3, %ymm7
vpsrlvq 96(%rdi), %ymm3, %ymm3
vpor %ymm7, %ymm3, %ymm10
vpxor %ymm9, %ymm4, %ymm3
vpsllvq 128(%rsi), %ymm3, %ymm4
vpsrlvq 128(%rdi), %ymm3, %ymm3
vpor %ymm4, %ymm3, %ymm4
vpxor %ymm9, %ymm5, %ymm5
vpermq $-115, %ymm1, %ymm3
vpermq $-115, %ymm2, %ymm7
vpsllvq 160(%rsi), %ymm5, %ymm1
vpsrlvq 160(%rdi), %ymm5, %ymm2
vpor %ymm1, %ymm2, %ymm8
vpxor %ymm9, %ymm0, %ymm1
vpermq $27, %ymm10, %ymm0
vpermq $114, %ymm4, %ymm9
vpsllvq 32(%rsi), %ymm1, %ymm2
vpsrlvq 32(%rdi), %ymm1, %ymm1
vpor %ymm2, %ymm1, %ymm10
vpsrldq $8, %ymm8, %ymm1
vpandn %ymm1, %ymm8, %ymm2
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm3, %ymm5
vpblendd $12, %ymm3, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm0, %ymm4, %ymm4
vpblendd $48, %ymm10, %ymm5, %ymm5
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm0, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm9, %ymm5, %ymm5
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm4, %ymm1, %ymm1
vpandn %ymm11, %ymm5, %ymm5
vpblendd $12, %ymm10, %ymm0, %ymm11
vpblendd $12, %ymm0, %ymm3, %ymm12
vpxor %ymm3, %ymm1, %ymm4
vpblendd $48, %ymm3, %ymm11, %ymm1
vpblendd $48, %ymm7, %ymm12, %ymm11
vpxor %ymm0, %ymm5, %ymm5
vpblendd $-64, %ymm7, %ymm1, %ymm1
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm1, %ymm1
vpxor %ymm9, %ymm1, %ymm12
vpermq $30, %ymm8, %ymm1
vpblendd $48, %ymm6, %ymm1, %ymm1
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm1, %ymm11, %ymm11
vpblendd $12, %ymm0, %ymm7, %ymm1
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm13, %ymm13
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm0, %ymm13, %ymm13
vpandn %ymm13, %ymm1, %ymm1
vpxor %ymm10, %ymm1, %ymm1
vpermq $0, %ymm2, %ymm13
vpermq $27, %ymm4, %ymm2
vpermq $-115, %ymm5, %ymm4
vpermq $114, %ymm12, %ymm5
vpblendd $12, %ymm3, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm0, %ymm9
vpblendd $48, %ymm0, %ymm12, %ymm0
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm0, %ymm0
vpblendd $-64, %ymm3, %ymm9, %ymm3
vpandn %ymm3, %ymm0, %ymm3
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm0
vpxor %ymm7, %ymm3, %ymm3
vpxor (%rcx,%rdx), %ymm6, %ymm6
addq $32, %rdx
decq %r8
jne L_sha3_512_64$2
vmovdqu %ymm6, (%rsp)
vmovdqu %ymm0, 32(%rsp)
vmovdqu %ymm1, 64(%rsp)
vmovdqu %ymm2, 96(%rsp)
vmovdqu %ymm3, 128(%rsp)
vmovdqu %ymm4, 160(%rsp)
vmovdqu %ymm5, 192(%rsp)
movq glob_data + 6200(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, (%rax)
movq glob_data + 6208(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 8(%rax)
movq glob_data + 6216(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 16(%rax)
movq glob_data + 6224(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 24(%rax)
movq glob_data + 6232(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 32(%rax)
movq glob_data + 6240(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 40(%rax)
movq glob_data + 6248(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 48(%rax)
movq glob_data + 6256(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 56(%rax)
jmp *224(%rsp)
L_shake256_128_33$1:
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, (%rsp)
vmovdqu %ymm0, 32(%rsp)
vmovdqu %ymm0, 64(%rsp)
vmovdqu %ymm0, 96(%rsp)
vmovdqu %ymm0, 128(%rsp)
vmovdqu %ymm0, 160(%rsp)
vmovdqu %ymm0, 192(%rsp)
vpbroadcastq (%rcx), %ymm6
movq 8(%rcx), %rdx
movq glob_data + 6208(%rip), %rsi
movq %rdx, (%rsp,%rsi,8)
movq 16(%rcx), %rdx
movq glob_data + 6216(%rip), %rsi
movq %rdx, (%rsp,%rsi,8)
movq 24(%rcx), %rdx
movq glob_data + 6224(%rip), %rsi
movq %rdx, (%rsp,%rsi,8)
movb 32(%rcx), %cl
movq glob_data + 6232(%rip), %rdx
shlq $3, %rdx
movb %cl, (%rsp,%rdx)
incq %rdx
movb $31, (%rsp,%rdx)
movq glob_data + 6328(%rip), %rcx
shlq $3, %rcx
movq $135, %rdx
andq $7, %rdx
addq %rdx, %rcx
xorb $-128, (%rsp,%rcx)
vmovdqu 32(%rsp), %ymm0
vmovdqu 64(%rsp), %ymm1
vmovdqu 96(%rsp), %ymm2
vmovdqu 128(%rsp), %ymm3
vmovdqu 160(%rsp), %ymm4
vmovdqu 192(%rsp), %ymm5
leaq glob_data + 3328(%rip), %rcx
movq $0, %rdx
leaq glob_data + 3136(%rip), %rsi
leaq glob_data + 2944(%rip), %rdi
movq $24, %r8
L_shake256_128_33$2:
vpshufd $78, %ymm1, %ymm8
vpxor %ymm2, %ymm4, %ymm7
vpxor %ymm5, %ymm3, %ymm9
vpxor %ymm0, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm1, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm1, %ymm1
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm1, %ymm7
vpsrlvq (%rdi), %ymm1, %ymm1
vpor %ymm7, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpsllvq 64(%rsi), %ymm2, %ymm7
vpsrlvq 64(%rdi), %ymm2, %ymm2
vpor %ymm7, %ymm2, %ymm2
vpxor %ymm9, %ymm3, %ymm3
vpsllvq 96(%rsi), %ymm3, %ymm7
vpsrlvq 96(%rdi), %ymm3, %ymm3
vpor %ymm7, %ymm3, %ymm10
vpxor %ymm9, %ymm4, %ymm3
vpsllvq 128(%rsi), %ymm3, %ymm4
vpsrlvq 128(%rdi), %ymm3, %ymm3
vpor %ymm4, %ymm3, %ymm4
vpxor %ymm9, %ymm5, %ymm5
vpermq $-115, %ymm1, %ymm3
vpermq $-115, %ymm2, %ymm7
vpsllvq 160(%rsi), %ymm5, %ymm1
vpsrlvq 160(%rdi), %ymm5, %ymm2
vpor %ymm1, %ymm2, %ymm8
vpxor %ymm9, %ymm0, %ymm1
vpermq $27, %ymm10, %ymm0
vpermq $114, %ymm4, %ymm9
vpsllvq 32(%rsi), %ymm1, %ymm2
vpsrlvq 32(%rdi), %ymm1, %ymm1
vpor %ymm2, %ymm1, %ymm10
vpsrldq $8, %ymm8, %ymm1
vpandn %ymm1, %ymm8, %ymm2
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm3, %ymm5
vpblendd $12, %ymm3, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm0, %ymm4, %ymm4
vpblendd $48, %ymm10, %ymm5, %ymm5
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm0, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm9, %ymm5, %ymm5
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm4, %ymm1, %ymm1
vpandn %ymm11, %ymm5, %ymm5
vpblendd $12, %ymm10, %ymm0, %ymm11
vpblendd $12, %ymm0, %ymm3, %ymm12
vpxor %ymm3, %ymm1, %ymm4
vpblendd $48, %ymm3, %ymm11, %ymm1
vpblendd $48, %ymm7, %ymm12, %ymm11
vpxor %ymm0, %ymm5, %ymm5
vpblendd $-64, %ymm7, %ymm1, %ymm1
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm1, %ymm1
vpxor %ymm9, %ymm1, %ymm12
vpermq $30, %ymm8, %ymm1
vpblendd $48, %ymm6, %ymm1, %ymm1
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm1, %ymm11, %ymm11
vpblendd $12, %ymm0, %ymm7, %ymm1
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm13, %ymm13
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm0, %ymm13, %ymm13
vpandn %ymm13, %ymm1, %ymm1
vpxor %ymm10, %ymm1, %ymm1
vpermq $0, %ymm2, %ymm13
vpermq $27, %ymm4, %ymm2
vpermq $-115, %ymm5, %ymm4
vpermq $114, %ymm12, %ymm5
vpblendd $12, %ymm3, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm0, %ymm9
vpblendd $48, %ymm0, %ymm12, %ymm0
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm0, %ymm0
vpblendd $-64, %ymm3, %ymm9, %ymm3
vpandn %ymm3, %ymm0, %ymm3
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm0
vpxor %ymm7, %ymm3, %ymm3
vpxor (%rcx,%rdx), %ymm6, %ymm6
addq $32, %rdx
decq %r8
jne L_shake256_128_33$2
vmovdqu %ymm6, (%rsp)
vmovdqu %ymm0, 32(%rsp)
vmovdqu %ymm1, 64(%rsp)
vmovdqu %ymm2, 96(%rsp)
vmovdqu %ymm3, 128(%rsp)
vmovdqu %ymm4, 160(%rsp)
vmovdqu %ymm5, 192(%rsp)
movq glob_data + 6200(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, (%rax)
movq glob_data + 6208(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 8(%rax)
movq glob_data + 6216(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 16(%rax)
movq glob_data + 6224(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 24(%rax)
movq glob_data + 6232(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 32(%rax)
movq glob_data + 6240(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 40(%rax)
movq glob_data + 6248(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 48(%rax)
movq glob_data + 6256(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 56(%rax)
movq glob_data + 6264(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 64(%rax)
movq glob_data + 6272(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 72(%rax)
movq glob_data + 6280(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 80(%rax)
movq glob_data + 6288(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 88(%rax)
movq glob_data + 6296(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 96(%rax)
movq glob_data + 6304(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 104(%rax)
movq glob_data + 6312(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 112(%rax)
movq glob_data + 6320(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 120(%rax)
jmp *224(%rsp)
L_shake256_64$1:
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, (%rsp)
vmovdqu %ymm0, 32(%rsp)
vmovdqu %ymm0, 64(%rsp)
vmovdqu %ymm0, 96(%rsp)
vmovdqu %ymm0, 128(%rsp)
vmovdqu %ymm0, 160(%rsp)
vmovdqu %ymm0, 192(%rsp)
vpbroadcastq (%rax), %ymm4
movq glob_data + 6208(%rip), %rsi
movq 8(%rax), %rdi
movq %rdi, (%rsp,%rsi,8)
movq glob_data + 6216(%rip), %rsi
movq 16(%rax), %rdi
movq %rdi, (%rsp,%rsi,8)
movq glob_data + 6224(%rip), %rsi
movq 24(%rax), %rdi
movq %rdi, (%rsp,%rsi,8)
movq glob_data + 6232(%rip), %rsi
movq 32(%rax), %rdi
movq %rdi, (%rsp,%rsi,8)
movq glob_data + 6240(%rip), %rsi
movq 40(%rax), %rdi
movq %rdi, (%rsp,%rsi,8)
movq glob_data + 6248(%rip), %rsi
movq 48(%rax), %rdi
movq %rdi, (%rsp,%rsi,8)
movq glob_data + 6256(%rip), %rsi
movq 56(%rax), %rax
movq %rax, (%rsp,%rsi,8)
movq glob_data + 6264(%rip), %rax
shlq $3, %rax
movb $31, (%rsp,%rax)
movq glob_data + 6328(%rip), %rax
shlq $3, %rax
movq $135, %rsi
andq $7, %rsi
addq %rsi, %rax
xorb $-128, (%rsp,%rax)
vmovdqu 32(%rsp), %ymm5
vmovdqu 64(%rsp), %ymm0
vmovdqu 96(%rsp), %ymm1
vmovdqu 128(%rsp), %ymm6
vmovdqu 160(%rsp), %ymm2
vmovdqu 192(%rsp), %ymm3
movq $136, %rsi
leaq glob_data + 6200(%rip), %rax
jmp L_shake256_64$7
L_shake256_64$8:
leaq glob_data + 3328(%rip), %rdi
movq $0, %r8
leaq glob_data + 3136(%rip), %r9
leaq glob_data + 2944(%rip), %r10
movq $24, %r11
L_shake256_64$11:
vpshufd $78, %ymm0, %ymm8
vpxor %ymm1, %ymm2, %ymm7
vpxor %ymm3, %ymm6, %ymm9
vpxor %ymm5, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm0, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm4, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm0, %ymm0
vpxor %ymm11, %ymm4, %ymm4
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%r9), %ymm0, %ymm7
vpsrlvq (%r10), %ymm0, %ymm0
vpor %ymm7, %ymm0, %ymm0
vpxor %ymm9, %ymm1, %ymm1
vpsllvq 64(%r9), %ymm1, %ymm7
vpsrlvq 64(%r10), %ymm1, %ymm1
vpor %ymm7, %ymm1, %ymm1
vpxor %ymm9, %ymm6, %ymm6
vpsllvq 96(%r9), %ymm6, %ymm7
vpsrlvq 96(%r10), %ymm6, %ymm6
vpor %ymm7, %ymm6, %ymm10
vpxor %ymm9, %ymm2, %ymm2
vpsllvq 128(%r9), %ymm2, %ymm6
vpsrlvq 128(%r10), %ymm2, %ymm2
vpor %ymm6, %ymm2, %ymm2
vpxor %ymm9, %ymm3, %ymm3
vpermq $-115, %ymm0, %ymm6
vpermq $-115, %ymm1, %ymm7
vpsllvq 160(%r9), %ymm3, %ymm0
vpsrlvq 160(%r10), %ymm3, %ymm1
vpor %ymm0, %ymm1, %ymm8
vpxor %ymm9, %ymm5, %ymm0
vpermq $27, %ymm10, %ymm5
vpermq $114, %ymm2, %ymm9
vpsllvq 32(%r9), %ymm0, %ymm1
vpsrlvq 32(%r10), %ymm0, %ymm0
vpor %ymm1, %ymm0, %ymm10
vpsrldq $8, %ymm8, %ymm0
vpandn %ymm0, %ymm8, %ymm1
vpblendd $12, %ymm9, %ymm10, %ymm0
vpblendd $12, %ymm10, %ymm7, %ymm2
vpblendd $12, %ymm7, %ymm6, %ymm3
vpblendd $12, %ymm6, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm0, %ymm0
vpblendd $48, %ymm5, %ymm2, %ymm2
vpblendd $48, %ymm10, %ymm3, %ymm3
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm5, %ymm0, %ymm0
vpblendd $-64, %ymm9, %ymm2, %ymm2
vpblendd $-64, %ymm9, %ymm3, %ymm3
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm2, %ymm0, %ymm0
vpandn %ymm11, %ymm3, %ymm3
vpblendd $12, %ymm10, %ymm5, %ymm11
vpblendd $12, %ymm5, %ymm6, %ymm12
vpxor %ymm6, %ymm0, %ymm2
vpblendd $48, %ymm6, %ymm11, %ymm0
vpblendd $48, %ymm7, %ymm12, %ymm11
vpxor %ymm5, %ymm3, %ymm3
vpblendd $-64, %ymm7, %ymm0, %ymm0
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm0, %ymm0
vpxor %ymm9, %ymm0, %ymm12
vpermq $30, %ymm8, %ymm0
vpblendd $48, %ymm4, %ymm0, %ymm0
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm4, %ymm11, %ymm11
vpandn %ymm0, %ymm11, %ymm11
vpblendd $12, %ymm5, %ymm7, %ymm0
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm0, %ymm0
vpblendd $48, %ymm6, %ymm13, %ymm13
vpblendd $-64, %ymm6, %ymm0, %ymm0
vpblendd $-64, %ymm5, %ymm13, %ymm13
vpandn %ymm13, %ymm0, %ymm0
vpxor %ymm10, %ymm0, %ymm0
vpermq $0, %ymm1, %ymm13
vpermq $27, %ymm2, %ymm1
vpermq $-115, %ymm3, %ymm2
vpermq $114, %ymm12, %ymm3
vpblendd $12, %ymm6, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm5, %ymm9
vpblendd $48, %ymm5, %ymm12, %ymm5
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm5, %ymm5
vpblendd $-64, %ymm6, %ymm9, %ymm6
vpandn %ymm6, %ymm5, %ymm6
vpxor %ymm13, %ymm4, %ymm4
vpxor %ymm8, %ymm11, %ymm5
vpxor %ymm7, %ymm6, %ymm6
vpxor (%rdi,%r8), %ymm4, %ymm4
addq $32, %r8
decq %r11
jne L_shake256_64$11
vmovdqu %ymm4, (%rsp)
vmovdqu %ymm5, 32(%rsp)
vmovdqu %ymm0, 64(%rsp)
vmovdqu %ymm1, 96(%rsp)
vmovdqu %ymm6, 128(%rsp)
vmovdqu %ymm2, 160(%rsp)
vmovdqu %ymm3, 192(%rsp)
movq %rsi, %rdi
shrq $3, %rdi
movq $0, %r8
jmp L_shake256_64$9
L_shake256_64$10:
movq (%rax,%r8,8), %r9
movq (%rsp,%r9,8), %r9
movq %r9, (%rdx,%r8,8)
incq %r8
L_shake256_64$9:
cmpq %rdi, %r8
jb L_shake256_64$10
addq %rsi, %rdx
subq %rsi, %rcx
L_shake256_64$7:
cmpq %rsi, %rcx
jnbe L_shake256_64$8
leaq glob_data + 3328(%rip), %rsi
movq $0, %rdi
leaq glob_data + 3136(%rip), %r8
leaq glob_data + 2944(%rip), %r9
movq $24, %r10
L_shake256_64$6:
vpshufd $78, %ymm0, %ymm8
vpxor %ymm1, %ymm2, %ymm7
vpxor %ymm3, %ymm6, %ymm9
vpxor %ymm5, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm0, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm4, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm0, %ymm0
vpxor %ymm11, %ymm4, %ymm4
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%r8), %ymm0, %ymm7
vpsrlvq (%r9), %ymm0, %ymm0
vpor %ymm7, %ymm0, %ymm0
vpxor %ymm9, %ymm1, %ymm1
vpsllvq 64(%r8), %ymm1, %ymm7
vpsrlvq 64(%r9), %ymm1, %ymm1
vpor %ymm7, %ymm1, %ymm1
vpxor %ymm9, %ymm6, %ymm6
vpsllvq 96(%r8), %ymm6, %ymm7
vpsrlvq 96(%r9), %ymm6, %ymm6
vpor %ymm7, %ymm6, %ymm10
vpxor %ymm9, %ymm2, %ymm2
vpsllvq 128(%r8), %ymm2, %ymm6
vpsrlvq 128(%r9), %ymm2, %ymm2
vpor %ymm6, %ymm2, %ymm2
vpxor %ymm9, %ymm3, %ymm3
vpermq $-115, %ymm0, %ymm6
vpermq $-115, %ymm1, %ymm7
vpsllvq 160(%r8), %ymm3, %ymm0
vpsrlvq 160(%r9), %ymm3, %ymm1
vpor %ymm0, %ymm1, %ymm8
vpxor %ymm9, %ymm5, %ymm0
vpermq $27, %ymm10, %ymm5
vpermq $114, %ymm2, %ymm9
vpsllvq 32(%r8), %ymm0, %ymm1
vpsrlvq 32(%r9), %ymm0, %ymm0
vpor %ymm1, %ymm0, %ymm10
vpsrldq $8, %ymm8, %ymm0
vpandn %ymm0, %ymm8, %ymm1
vpblendd $12, %ymm9, %ymm10, %ymm0
vpblendd $12, %ymm10, %ymm7, %ymm2
vpblendd $12, %ymm7, %ymm6, %ymm3
vpblendd $12, %ymm6, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm0, %ymm0
vpblendd $48, %ymm5, %ymm2, %ymm2
vpblendd $48, %ymm10, %ymm3, %ymm3
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm5, %ymm0, %ymm0
vpblendd $-64, %ymm9, %ymm2, %ymm2
vpblendd $-64, %ymm9, %ymm3, %ymm3
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm2, %ymm0, %ymm0
vpandn %ymm11, %ymm3, %ymm3
vpblendd $12, %ymm10, %ymm5, %ymm11
vpblendd $12, %ymm5, %ymm6, %ymm12
vpxor %ymm6, %ymm0, %ymm2
vpblendd $48, %ymm6, %ymm11, %ymm0
vpblendd $48, %ymm7, %ymm12, %ymm11
vpxor %ymm5, %ymm3, %ymm3
vpblendd $-64, %ymm7, %ymm0, %ymm0
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm0, %ymm0
vpxor %ymm9, %ymm0, %ymm12
vpermq $30, %ymm8, %ymm0
vpblendd $48, %ymm4, %ymm0, %ymm0
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm4, %ymm11, %ymm11
vpandn %ymm0, %ymm11, %ymm11
vpblendd $12, %ymm5, %ymm7, %ymm0
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm0, %ymm0
vpblendd $48, %ymm6, %ymm13, %ymm13
vpblendd $-64, %ymm6, %ymm0, %ymm0
vpblendd $-64, %ymm5, %ymm13, %ymm13
vpandn %ymm13, %ymm0, %ymm0
vpxor %ymm10, %ymm0, %ymm0
vpermq $0, %ymm1, %ymm13
vpermq $27, %ymm2, %ymm1
vpermq $-115, %ymm3, %ymm2
vpermq $114, %ymm12, %ymm3
vpblendd $12, %ymm6, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm5, %ymm9
vpblendd $48, %ymm5, %ymm12, %ymm5
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm5, %ymm5
vpblendd $-64, %ymm6, %ymm9, %ymm6
vpandn %ymm6, %ymm5, %ymm6
vpxor %ymm13, %ymm4, %ymm4
vpxor %ymm8, %ymm11, %ymm5
vpxor %ymm7, %ymm6, %ymm6
vpxor (%rsi,%rdi), %ymm4, %ymm4
addq $32, %rdi
decq %r10
jne L_shake256_64$6
vmovdqu %ymm4, (%rsp)
vmovdqu %ymm5, 32(%rsp)
vmovdqu %ymm0, 64(%rsp)
vmovdqu %ymm1, 96(%rsp)
vmovdqu %ymm6, 128(%rsp)
vmovdqu %ymm2, 160(%rsp)
vmovdqu %ymm3, 192(%rsp)
movq %rcx, %rsi
shrq $3, %rsi
movq $0, %rdi
jmp L_shake256_64$4
L_shake256_64$5:
movq (%rax,%rdi,8), %r8
movq (%rsp,%r8,8), %r8
movq %r8, (%rdx,%rdi,8)
incq %rdi
L_shake256_64$4:
cmpq %rsi, %rdi
jb L_shake256_64$5
movq (%rax,%rdi,8), %rax
shlq $3, %rdi
shlq $3, %rax
jmp L_shake256_64$2
L_shake256_64$3:
movb (%rsp,%rax), %sil
movb %sil, (%rdx,%rdi)
incq %rdi
incq %rax
L_shake256_64$2:
cmpq %rcx, %rdi
jb L_shake256_64$3
jmp *224(%rsp)
L_sha3_256_32$1:
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, (%rsp)
vmovdqu %ymm0, 32(%rsp)
vmovdqu %ymm0, 64(%rsp)
vmovdqu %ymm0, 96(%rsp)
vmovdqu %ymm0, 128(%rsp)
vmovdqu %ymm0, 160(%rsp)
vmovdqu %ymm0, 192(%rsp)
vpbroadcastq (%rcx), %ymm6
movq 8(%rcx), %rdx
movq glob_data + 6208(%rip), %rsi
movq %rdx, (%rsp,%rsi,8)
movq 16(%rcx), %rdx
movq glob_data + 6216(%rip), %rsi
movq %rdx, (%rsp,%rsi,8)
movq 24(%rcx), %rcx
movq glob_data + 6224(%rip), %rdx
movq %rcx, (%rsp,%rdx,8)
movq glob_data + 6232(%rip), %rcx
shlq $3, %rcx
movb $6, (%rsp,%rcx)
movq glob_data + 6328(%rip), %rcx
shlq $3, %rcx
movq $135, %rdx
andq $7, %rdx
addq %rdx, %rcx
xorb $-128, (%rsp,%rcx)
vmovdqu 32(%rsp), %ymm0
vmovdqu 64(%rsp), %ymm1
vmovdqu 96(%rsp), %ymm2
vmovdqu 128(%rsp), %ymm3
vmovdqu 160(%rsp), %ymm4
vmovdqu 192(%rsp), %ymm5
leaq glob_data + 3328(%rip), %rcx
movq $0, %rdx
leaq glob_data + 3136(%rip), %rsi
leaq glob_data + 2944(%rip), %rdi
movq $24, %r8
L_sha3_256_32$2:
vpshufd $78, %ymm1, %ymm8
vpxor %ymm2, %ymm4, %ymm7
vpxor %ymm5, %ymm3, %ymm9
vpxor %ymm0, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm1, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm1, %ymm1
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm1, %ymm7
vpsrlvq (%rdi), %ymm1, %ymm1
vpor %ymm7, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpsllvq 64(%rsi), %ymm2, %ymm7
vpsrlvq 64(%rdi), %ymm2, %ymm2
vpor %ymm7, %ymm2, %ymm2
vpxor %ymm9, %ymm3, %ymm3
vpsllvq 96(%rsi), %ymm3, %ymm7
vpsrlvq 96(%rdi), %ymm3, %ymm3
vpor %ymm7, %ymm3, %ymm10
vpxor %ymm9, %ymm4, %ymm3
vpsllvq 128(%rsi), %ymm3, %ymm4
vpsrlvq 128(%rdi), %ymm3, %ymm3
vpor %ymm4, %ymm3, %ymm4
vpxor %ymm9, %ymm5, %ymm5
vpermq $-115, %ymm1, %ymm3
vpermq $-115, %ymm2, %ymm7
vpsllvq 160(%rsi), %ymm5, %ymm1
vpsrlvq 160(%rdi), %ymm5, %ymm2
vpor %ymm1, %ymm2, %ymm8
vpxor %ymm9, %ymm0, %ymm1
vpermq $27, %ymm10, %ymm0
vpermq $114, %ymm4, %ymm9
vpsllvq 32(%rsi), %ymm1, %ymm2
vpsrlvq 32(%rdi), %ymm1, %ymm1
vpor %ymm2, %ymm1, %ymm10
vpsrldq $8, %ymm8, %ymm1
vpandn %ymm1, %ymm8, %ymm2
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm3, %ymm5
vpblendd $12, %ymm3, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm0, %ymm4, %ymm4
vpblendd $48, %ymm10, %ymm5, %ymm5
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm0, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm9, %ymm5, %ymm5
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm4, %ymm1, %ymm1
vpandn %ymm11, %ymm5, %ymm5
vpblendd $12, %ymm10, %ymm0, %ymm11
vpblendd $12, %ymm0, %ymm3, %ymm12
vpxor %ymm3, %ymm1, %ymm4
vpblendd $48, %ymm3, %ymm11, %ymm1
vpblendd $48, %ymm7, %ymm12, %ymm11
vpxor %ymm0, %ymm5, %ymm5
vpblendd $-64, %ymm7, %ymm1, %ymm1
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm1, %ymm1
vpxor %ymm9, %ymm1, %ymm12
vpermq $30, %ymm8, %ymm1
vpblendd $48, %ymm6, %ymm1, %ymm1
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm1, %ymm11, %ymm11
vpblendd $12, %ymm0, %ymm7, %ymm1
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm13, %ymm13
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm0, %ymm13, %ymm13
vpandn %ymm13, %ymm1, %ymm1
vpxor %ymm10, %ymm1, %ymm1
vpermq $0, %ymm2, %ymm13
vpermq $27, %ymm4, %ymm2
vpermq $-115, %ymm5, %ymm4
vpermq $114, %ymm12, %ymm5
vpblendd $12, %ymm3, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm0, %ymm9
vpblendd $48, %ymm0, %ymm12, %ymm0
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm0, %ymm0
vpblendd $-64, %ymm3, %ymm9, %ymm3
vpandn %ymm3, %ymm0, %ymm3
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm0
vpxor %ymm7, %ymm3, %ymm3
vpxor (%rcx,%rdx), %ymm6, %ymm6
addq $32, %rdx
decq %r8
jne L_sha3_256_32$2
vmovdqu %ymm6, (%rsp)
vmovdqu %ymm0, 32(%rsp)
vmovdqu %ymm1, 64(%rsp)
vmovdqu %ymm2, 96(%rsp)
vmovdqu %ymm3, 128(%rsp)
vmovdqu %ymm4, 160(%rsp)
vmovdqu %ymm5, 192(%rsp)
movq glob_data + 6200(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, (%rax)
movq glob_data + 6208(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 8(%rax)
movq glob_data + 6216(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 16(%rax)
movq glob_data + 6224(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 24(%rax)
jmp *224(%rsp)
L_sha3_256$1:
vpxor %ymm6, %ymm6, %ymm6
vpxor %ymm3, %ymm3, %ymm3
vpxor %ymm4, %ymm4, %ymm4
vpxor %ymm0, %ymm0, %ymm0
vpxor %ymm5, %ymm5, %ymm5
vpxor %ymm1, %ymm1, %ymm1
vpxor %ymm2, %ymm2, %ymm2
movb $6, %cl
movq $136, %rdx
leaq glob_data + 6200(%rip), %rsi
vpxor %ymm7, %ymm7, %ymm7
vmovdqu %ymm7, (%rsp)
vmovdqu %ymm7, 32(%rsp)
vmovdqu %ymm7, 64(%rsp)
vmovdqu %ymm7, 96(%rsp)
vmovdqu %ymm7, 128(%rsp)
vmovdqu %ymm7, 160(%rsp)
vmovdqu %ymm7, 192(%rsp)
jmp L_sha3_256$7
L_sha3_256$8:
movq %rdx, %r9
shrq $3, %r9
movq $0, %r10
jmp L_sha3_256$10
L_sha3_256$11:
movq (%r8,%r10,8), %r11
movq (%rsi,%r10,8), %rbx
movq %r11, (%rsp,%rbx,8)
incq %r10
L_sha3_256$10:
cmpq %r9, %r10
jb L_sha3_256$11
movq (%rsp), %r9
movq %r9, 8(%rsp)
movq %r9, 16(%rsp)
movq %r9, 24(%rsp)
vpxor (%rsp), %ymm6, %ymm6
vpxor 32(%rsp), %ymm3, %ymm3
vpxor 64(%rsp), %ymm4, %ymm4
vpxor 96(%rsp), %ymm0, %ymm0
vpxor 128(%rsp), %ymm5, %ymm5
vpxor 160(%rsp), %ymm1, %ymm1
vpxor 192(%rsp), %ymm2, %ymm2
addq %rdx, %r8
subq %rdx, %rdi
leaq glob_data + 3328(%rip), %r9
movq $0, %r10
leaq glob_data + 3136(%rip), %r11
leaq glob_data + 2944(%rip), %rbx
movq $24, %rbp
L_sha3_256$9:
vpshufd $78, %ymm4, %ymm8
vpxor %ymm0, %ymm1, %ymm7
vpxor %ymm2, %ymm5, %ymm9
vpxor %ymm3, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm4, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm4, %ymm4
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%r11), %ymm4, %ymm7
vpsrlvq (%rbx), %ymm4, %ymm4
vpor %ymm7, %ymm4, %ymm4
vpxor %ymm9, %ymm0, %ymm0
vpsllvq 64(%r11), %ymm0, %ymm7
vpsrlvq 64(%rbx), %ymm0, %ymm0
vpor %ymm7, %ymm0, %ymm0
vpxor %ymm9, %ymm5, %ymm5
vpsllvq 96(%r11), %ymm5, %ymm7
vpsrlvq 96(%rbx), %ymm5, %ymm5
vpor %ymm7, %ymm5, %ymm10
vpxor %ymm9, %ymm1, %ymm1
vpsllvq 128(%r11), %ymm1, %ymm5
vpsrlvq 128(%rbx), %ymm1, %ymm1
vpor %ymm5, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpermq $-115, %ymm4, %ymm5
vpermq $-115, %ymm0, %ymm7
vpsllvq 160(%r11), %ymm2, %ymm0
vpsrlvq 160(%rbx), %ymm2, %ymm2
vpor %ymm0, %ymm2, %ymm8
vpxor %ymm9, %ymm3, %ymm0
vpermq $27, %ymm10, %ymm3
vpermq $114, %ymm1, %ymm9
vpsllvq 32(%r11), %ymm0, %ymm1
vpsrlvq 32(%rbx), %ymm0, %ymm0
vpor %ymm1, %ymm0, %ymm10
vpsrldq $8, %ymm8, %ymm0
vpandn %ymm0, %ymm8, %ymm0
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm2
vpblendd $12, %ymm7, %ymm5, %ymm4
vpblendd $12, %ymm5, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm2, %ymm2
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm2, %ymm2
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm2, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm2
vpblendd $12, %ymm10, %ymm3, %ymm4
vpblendd $12, %ymm3, %ymm5, %ymm11
vpxor %ymm5, %ymm1, %ymm1
vpblendd $48, %ymm5, %ymm4, %ymm4
vpblendd $48, %ymm7, %ymm11, %ymm11
vpxor %ymm3, %ymm2, %ymm2
vpblendd $-64, %ymm7, %ymm4, %ymm4
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm4, %ymm4
vpxor %ymm9, %ymm4, %ymm12
vpermq $30, %ymm8, %ymm4
vpblendd $48, %ymm6, %ymm4, %ymm4
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm4, %ymm11, %ymm11
vpblendd $12, %ymm3, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm4, %ymm4
vpblendd $48, %ymm5, %ymm13, %ymm13
vpblendd $-64, %ymm5, %ymm4, %ymm4
vpblendd $-64, %ymm3, %ymm13, %ymm13
vpandn %ymm13, %ymm4, %ymm4
vpxor %ymm10, %ymm4, %ymm4
vpermq $0, %ymm0, %ymm13
vpermq $27, %ymm1, %ymm0
vpermq $-115, %ymm2, %ymm1
vpermq $114, %ymm12, %ymm2
vpblendd $12, %ymm5, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm3, %ymm9
vpblendd $48, %ymm3, %ymm12, %ymm3
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm3, %ymm3
vpblendd $-64, %ymm5, %ymm9, %ymm5
vpandn %ymm5, %ymm3, %ymm5
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm3
vpxor %ymm7, %ymm5, %ymm5
vpxor (%r9,%r10), %ymm6, %ymm6
addq $32, %r10
decq %rbp
jne L_sha3_256$9
L_sha3_256$7:
cmpq %rdx, %rdi
jnb L_sha3_256$8
vpxor %ymm7, %ymm7, %ymm7
vmovdqu %ymm7, (%rsp)
vmovdqu %ymm7, 32(%rsp)
vmovdqu %ymm7, 64(%rsp)
vmovdqu %ymm7, 96(%rsp)
vmovdqu %ymm7, 128(%rsp)
vmovdqu %ymm7, 160(%rsp)
vmovdqu %ymm7, 192(%rsp)
movq %rdi, %r9
shrq $3, %r9
movq $0, %r10
jmp L_sha3_256$5
L_sha3_256$6:
movq (%r8,%r10,8), %r11
movq (%rsi,%r10,8), %rbx
movq %r11, (%rsp,%rbx,8)
incq %r10
L_sha3_256$5:
cmpq %r9, %r10
jb L_sha3_256$6
movq (%rsi,%r10,8), %r9
shlq $3, %r9
shlq $3, %r10
jmp L_sha3_256$3
L_sha3_256$4:
movb (%r8,%r10), %r11b
movb %r11b, (%rsp,%r9)
incq %r10
incq %r9
L_sha3_256$3:
cmpq %rdi, %r10
jb L_sha3_256$4
movb %cl, (%rsp,%r9)
movq %rdx, %rcx
addq $-1, %rcx
shrq $3, %rcx
movq (%rsi,%rcx,8), %rcx
shlq $3, %rcx
addq $-1, %rdx
andq $7, %rdx
addq %rdx, %rcx
xorb $-128, (%rsp,%rcx)
movq (%rsp), %rcx
movq %rcx, 8(%rsp)
movq %rcx, 16(%rsp)
movq %rcx, 24(%rsp)
vpxor (%rsp), %ymm6, %ymm6
vpxor 32(%rsp), %ymm3, %ymm7
vpxor 64(%rsp), %ymm4, %ymm3
vpxor 96(%rsp), %ymm0, %ymm0
vpxor 128(%rsp), %ymm5, %ymm4
vpxor 160(%rsp), %ymm1, %ymm1
vpxor 192(%rsp), %ymm2, %ymm2
leaq glob_data + 3328(%rip), %rcx
movq $0, %rdx
leaq glob_data + 3136(%rip), %rsi
leaq glob_data + 2944(%rip), %rdi
movq $24, %r8
L_sha3_256$2:
vpshufd $78, %ymm3, %ymm5
vpxor %ymm0, %ymm1, %ymm8
vpxor %ymm2, %ymm4, %ymm9
vpxor %ymm7, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm10
vpermq $-109, %ymm10, %ymm8
vpxor %ymm3, %ymm5, %ymm5
vpermq $78, %ymm5, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm8, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm5, %ymm5
vpxor %ymm9, %ymm5, %ymm9
vpsrlq $63, %ymm9, %ymm5
vpaddq %ymm9, %ymm9, %ymm12
vpor %ymm5, %ymm12, %ymm12
vpxor %ymm11, %ymm3, %ymm3
vpxor %ymm11, %ymm6, %ymm5
vpblendd $-64, %ymm12, %ymm10, %ymm6
vpblendd $3, %ymm9, %ymm8, %ymm8
vpxor %ymm8, %ymm6, %ymm9
vpsllvq (%rsi), %ymm3, %ymm6
vpsrlvq (%rdi), %ymm3, %ymm3
vpor %ymm6, %ymm3, %ymm3
vpxor %ymm9, %ymm0, %ymm0
vpsllvq 64(%rsi), %ymm0, %ymm6
vpsrlvq 64(%rdi), %ymm0, %ymm0
vpor %ymm6, %ymm0, %ymm0
vpxor %ymm9, %ymm4, %ymm4
vpsllvq 96(%rsi), %ymm4, %ymm6
vpsrlvq 96(%rdi), %ymm4, %ymm4
vpor %ymm6, %ymm4, %ymm10
vpxor %ymm9, %ymm1, %ymm1
vpsllvq 128(%rsi), %ymm1, %ymm4
vpsrlvq 128(%rdi), %ymm1, %ymm1
vpor %ymm4, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpermq $-115, %ymm3, %ymm4
vpermq $-115, %ymm0, %ymm6
vpsllvq 160(%rsi), %ymm2, %ymm0
vpsrlvq 160(%rdi), %ymm2, %ymm2
vpor %ymm0, %ymm2, %ymm8
vpxor %ymm9, %ymm7, %ymm0
vpermq $27, %ymm10, %ymm7
vpermq $114, %ymm1, %ymm9
vpsllvq 32(%rsi), %ymm0, %ymm1
vpsrlvq 32(%rdi), %ymm0, %ymm0
vpor %ymm1, %ymm0, %ymm10
vpsrldq $8, %ymm8, %ymm0
vpandn %ymm0, %ymm8, %ymm0
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm6, %ymm2
vpblendd $12, %ymm6, %ymm4, %ymm3
vpblendd $12, %ymm4, %ymm10, %ymm11
vpblendd $48, %ymm6, %ymm1, %ymm1
vpblendd $48, %ymm7, %ymm2, %ymm2
vpblendd $48, %ymm10, %ymm3, %ymm3
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm7, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm2, %ymm2
vpblendd $-64, %ymm9, %ymm3, %ymm3
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm2, %ymm1, %ymm1
vpandn %ymm11, %ymm3, %ymm2
vpblendd $12, %ymm10, %ymm7, %ymm3
vpblendd $12, %ymm7, %ymm4, %ymm11
vpxor %ymm4, %ymm1, %ymm1
vpblendd $48, %ymm4, %ymm3, %ymm3
vpblendd $48, %ymm6, %ymm11, %ymm11
vpxor %ymm7, %ymm2, %ymm2
vpblendd $-64, %ymm6, %ymm3, %ymm3
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm3, %ymm3
vpxor %ymm9, %ymm3, %ymm12
vpermq $30, %ymm8, %ymm3
vpblendd $48, %ymm5, %ymm3, %ymm3
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm5, %ymm11, %ymm11
vpandn %ymm3, %ymm11, %ymm11
vpblendd $12, %ymm7, %ymm6, %ymm3
vpblendd $12, %ymm6, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm3, %ymm3
vpblendd $48, %ymm4, %ymm13, %ymm13
vpblendd $-64, %ymm4, %ymm3, %ymm3
vpblendd $-64, %ymm7, %ymm13, %ymm13
vpandn %ymm13, %ymm3, %ymm3
vpxor %ymm10, %ymm3, %ymm3
vpermq $0, %ymm0, %ymm13
vpermq $27, %ymm1, %ymm0
vpermq $-115, %ymm2, %ymm1
vpermq $114, %ymm12, %ymm2
vpblendd $12, %ymm4, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm7, %ymm9
vpblendd $48, %ymm7, %ymm12, %ymm7
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm7, %ymm7
vpblendd $-64, %ymm4, %ymm9, %ymm4
vpandn %ymm4, %ymm7, %ymm4
vpxor %ymm13, %ymm5, %ymm5
vpxor %ymm8, %ymm11, %ymm7
vpxor %ymm6, %ymm4, %ymm4
vpxor (%rcx,%rdx), %ymm5, %ymm6
addq $32, %rdx
decq %r8
jne L_sha3_256$2
vmovdqu %ymm6, (%rsp)
vmovdqu %ymm7, 32(%rsp)
vmovdqu %ymm3, 64(%rsp)
vmovdqu %ymm0, 96(%rsp)
vmovdqu %ymm4, 128(%rsp)
vmovdqu %ymm1, 160(%rsp)
vmovdqu %ymm2, 192(%rsp)
leaq glob_data + 6200(%rip), %rcx
movq (%rcx), %rdx
movq (%rsp,%rdx,8), %rdx
movq %rdx, (%rax)
movq 8(%rcx), %rdx
movq (%rsp,%rdx,8), %rdx
movq %rdx, 8(%rax)
movq 16(%rcx), %rdx
movq (%rsp,%rdx,8), %rdx
movq %rdx, 16(%rax)
movq 24(%rcx), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 24(%rax)
jmp *224(%rsp)
L_keccak1600_avx2$1:
vpxor %ymm6, %ymm6, %ymm6
vpxor %ymm3, %ymm3, %ymm3
vpxor %ymm4, %ymm4, %ymm4
vpxor %ymm0, %ymm0, %ymm0
vpxor %ymm5, %ymm5, %ymm5
vpxor %ymm1, %ymm1, %ymm1
vpxor %ymm2, %ymm2, %ymm2
leaq glob_data + 6200(%rip), %rax
vpxor %ymm7, %ymm7, %ymm7
vmovdqu %ymm7, (%rsp)
vmovdqu %ymm7, 32(%rsp)
vmovdqu %ymm7, 64(%rsp)
vmovdqu %ymm7, 96(%rsp)
vmovdqu %ymm7, 128(%rsp)
vmovdqu %ymm7, 160(%rsp)
vmovdqu %ymm7, 192(%rsp)
jmp L_keccak1600_avx2$16
L_keccak1600_avx2$17:
movq %rcx, %r11
shrq $3, %r11
movq $0, %rbx
jmp L_keccak1600_avx2$19
L_keccak1600_avx2$20:
movq (%rsi,%rbx,8), %rbp
movq (%rax,%rbx,8), %r12
movq %rbp, (%rsp,%r12,8)
incq %rbx
L_keccak1600_avx2$19:
cmpq %r11, %rbx
jb L_keccak1600_avx2$20
movq (%rsp), %r11
movq %r11, 8(%rsp)
movq %r11, 16(%rsp)
movq %r11, 24(%rsp)
vpxor (%rsp), %ymm6, %ymm6
vpxor 32(%rsp), %ymm3, %ymm3
vpxor 64(%rsp), %ymm4, %ymm4
vpxor 96(%rsp), %ymm0, %ymm0
vpxor 128(%rsp), %ymm5, %ymm5
vpxor 160(%rsp), %ymm1, %ymm1
vpxor 192(%rsp), %ymm2, %ymm2
addq %rcx, %rsi
subq %rcx, %rdx
leaq glob_data + 3328(%rip), %r11
movq $0, %rbx
leaq glob_data + 3136(%rip), %rbp
leaq glob_data + 2944(%rip), %r12
movq $24, %r13
L_keccak1600_avx2$18:
vpshufd $78, %ymm4, %ymm8
vpxor %ymm0, %ymm1, %ymm7
vpxor %ymm2, %ymm5, %ymm9
vpxor %ymm3, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm4, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm4, %ymm4
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rbp), %ymm4, %ymm7
vpsrlvq (%r12), %ymm4, %ymm4
vpor %ymm7, %ymm4, %ymm4
vpxor %ymm9, %ymm0, %ymm0
vpsllvq 64(%rbp), %ymm0, %ymm7
vpsrlvq 64(%r12), %ymm0, %ymm0
vpor %ymm7, %ymm0, %ymm0
vpxor %ymm9, %ymm5, %ymm5
vpsllvq 96(%rbp), %ymm5, %ymm7
vpsrlvq 96(%r12), %ymm5, %ymm5
vpor %ymm7, %ymm5, %ymm10
vpxor %ymm9, %ymm1, %ymm1
vpsllvq 128(%rbp), %ymm1, %ymm5
vpsrlvq 128(%r12), %ymm1, %ymm1
vpor %ymm5, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpermq $-115, %ymm4, %ymm5
vpermq $-115, %ymm0, %ymm7
vpsllvq 160(%rbp), %ymm2, %ymm0
vpsrlvq 160(%r12), %ymm2, %ymm2
vpor %ymm0, %ymm2, %ymm8
vpxor %ymm9, %ymm3, %ymm0
vpermq $27, %ymm10, %ymm3
vpermq $114, %ymm1, %ymm9
vpsllvq 32(%rbp), %ymm0, %ymm1
vpsrlvq 32(%r12), %ymm0, %ymm0
vpor %ymm1, %ymm0, %ymm10
vpsrldq $8, %ymm8, %ymm0
vpandn %ymm0, %ymm8, %ymm0
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm2
vpblendd $12, %ymm7, %ymm5, %ymm4
vpblendd $12, %ymm5, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm2, %ymm2
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm2, %ymm2
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm2, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm2
vpblendd $12, %ymm10, %ymm3, %ymm4
vpblendd $12, %ymm3, %ymm5, %ymm11
vpxor %ymm5, %ymm1, %ymm1
vpblendd $48, %ymm5, %ymm4, %ymm4
vpblendd $48, %ymm7, %ymm11, %ymm11
vpxor %ymm3, %ymm2, %ymm2
vpblendd $-64, %ymm7, %ymm4, %ymm4
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm4, %ymm4
vpxor %ymm9, %ymm4, %ymm12
vpermq $30, %ymm8, %ymm4
vpblendd $48, %ymm6, %ymm4, %ymm4
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm4, %ymm11, %ymm11
vpblendd $12, %ymm3, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm4, %ymm4
vpblendd $48, %ymm5, %ymm13, %ymm13
vpblendd $-64, %ymm5, %ymm4, %ymm4
vpblendd $-64, %ymm3, %ymm13, %ymm13
vpandn %ymm13, %ymm4, %ymm4
vpxor %ymm10, %ymm4, %ymm4
vpermq $0, %ymm0, %ymm13
vpermq $27, %ymm1, %ymm0
vpermq $-115, %ymm2, %ymm1
vpermq $114, %ymm12, %ymm2
vpblendd $12, %ymm5, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm3, %ymm9
vpblendd $48, %ymm3, %ymm12, %ymm3
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm3, %ymm3
vpblendd $-64, %ymm5, %ymm9, %ymm5
vpandn %ymm5, %ymm3, %ymm5
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm3
vpxor %ymm7, %ymm5, %ymm5
vpxor (%r11,%rbx), %ymm6, %ymm6
addq $32, %rbx
decq %r13
jne L_keccak1600_avx2$18
L_keccak1600_avx2$16:
cmpq %rcx, %rdx
jnb L_keccak1600_avx2$17
vpxor %ymm7, %ymm7, %ymm7
vmovdqu %ymm7, (%rsp)
vmovdqu %ymm7, 32(%rsp)
vmovdqu %ymm7, 64(%rsp)
vmovdqu %ymm7, 96(%rsp)
vmovdqu %ymm7, 128(%rsp)
vmovdqu %ymm7, 160(%rsp)
vmovdqu %ymm7, 192(%rsp)
movq %rdx, %r11
shrq $3, %r11
movq $0, %rbx
jmp L_keccak1600_avx2$14
L_keccak1600_avx2$15:
movq (%rsi,%rbx,8), %rbp
movq (%rax,%rbx,8), %r12
movq %rbp, (%rsp,%r12,8)
incq %rbx
L_keccak1600_avx2$14:
cmpq %r11, %rbx
jb L_keccak1600_avx2$15
movq (%rax,%rbx,8), %r11
shlq $3, %r11
shlq $3, %rbx
jmp L_keccak1600_avx2$12
L_keccak1600_avx2$13:
movb (%rsi,%rbx), %bpl
movb %bpl, (%rsp,%r11)
incq %rbx
incq %r11
L_keccak1600_avx2$12:
cmpq %rdx, %rbx
jb L_keccak1600_avx2$13
movb %dil, (%rsp,%r11)
movq %rcx, %rdx
addq $-1, %rdx
shrq $3, %rdx
movq (%rax,%rdx,8), %rax
shlq $3, %rax
movq %rcx, %rdx
addq $-1, %rdx
andq $7, %rdx
addq %rdx, %rax
xorb $-128, (%rsp,%rax)
movq (%rsp), %rax
movq %rax, 8(%rsp)
movq %rax, 16(%rsp)
movq %rax, 24(%rsp)
vpxor (%rsp), %ymm6, %ymm6
vpxor 32(%rsp), %ymm3, %ymm3
vpxor 64(%rsp), %ymm4, %ymm4
vpxor 96(%rsp), %ymm0, %ymm0
vpxor 128(%rsp), %ymm5, %ymm5
vpxor 160(%rsp), %ymm1, %ymm1
vpxor 192(%rsp), %ymm2, %ymm2
leaq glob_data + 6200(%rip), %rax
jmp L_keccak1600_avx2$7
L_keccak1600_avx2$8:
leaq glob_data + 3328(%rip), %rdx
movq $0, %rsi
leaq glob_data + 3136(%rip), %rdi
leaq glob_data + 2944(%rip), %r11
movq $24, %rbx
L_keccak1600_avx2$11:
vpshufd $78, %ymm4, %ymm8
vpxor %ymm0, %ymm1, %ymm7
vpxor %ymm2, %ymm5, %ymm9
vpxor %ymm3, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm4, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm4, %ymm4
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rdi), %ymm4, %ymm7
vpsrlvq (%r11), %ymm4, %ymm4
vpor %ymm7, %ymm4, %ymm4
vpxor %ymm9, %ymm0, %ymm0
vpsllvq 64(%rdi), %ymm0, %ymm7
vpsrlvq 64(%r11), %ymm0, %ymm0
vpor %ymm7, %ymm0, %ymm0
vpxor %ymm9, %ymm5, %ymm5
vpsllvq 96(%rdi), %ymm5, %ymm7
vpsrlvq 96(%r11), %ymm5, %ymm5
vpor %ymm7, %ymm5, %ymm10
vpxor %ymm9, %ymm1, %ymm1
vpsllvq 128(%rdi), %ymm1, %ymm5
vpsrlvq 128(%r11), %ymm1, %ymm1
vpor %ymm5, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpermq $-115, %ymm4, %ymm5
vpermq $-115, %ymm0, %ymm7
vpsllvq 160(%rdi), %ymm2, %ymm0
vpsrlvq 160(%r11), %ymm2, %ymm2
vpor %ymm0, %ymm2, %ymm8
vpxor %ymm9, %ymm3, %ymm0
vpermq $27, %ymm10, %ymm3
vpermq $114, %ymm1, %ymm9
vpsllvq 32(%rdi), %ymm0, %ymm1
vpsrlvq 32(%r11), %ymm0, %ymm0
vpor %ymm1, %ymm0, %ymm10
vpsrldq $8, %ymm8, %ymm0
vpandn %ymm0, %ymm8, %ymm0
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm2
vpblendd $12, %ymm7, %ymm5, %ymm4
vpblendd $12, %ymm5, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm2, %ymm2
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm2, %ymm2
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm2, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm2
vpblendd $12, %ymm10, %ymm3, %ymm4
vpblendd $12, %ymm3, %ymm5, %ymm11
vpxor %ymm5, %ymm1, %ymm1
vpblendd $48, %ymm5, %ymm4, %ymm4
vpblendd $48, %ymm7, %ymm11, %ymm11
vpxor %ymm3, %ymm2, %ymm2
vpblendd $-64, %ymm7, %ymm4, %ymm4
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm4, %ymm4
vpxor %ymm9, %ymm4, %ymm12
vpermq $30, %ymm8, %ymm4
vpblendd $48, %ymm6, %ymm4, %ymm4
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm4, %ymm11, %ymm11
vpblendd $12, %ymm3, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm4, %ymm4
vpblendd $48, %ymm5, %ymm13, %ymm13
vpblendd $-64, %ymm5, %ymm4, %ymm4
vpblendd $-64, %ymm3, %ymm13, %ymm13
vpandn %ymm13, %ymm4, %ymm4
vpxor %ymm10, %ymm4, %ymm4
vpermq $0, %ymm0, %ymm13
vpermq $27, %ymm1, %ymm0
vpermq $-115, %ymm2, %ymm1
vpermq $114, %ymm12, %ymm2
vpblendd $12, %ymm5, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm3, %ymm9
vpblendd $48, %ymm3, %ymm12, %ymm3
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm3, %ymm3
vpblendd $-64, %ymm5, %ymm9, %ymm5
vpandn %ymm5, %ymm3, %ymm5
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm3
vpxor %ymm7, %ymm5, %ymm5
vpxor (%rdx,%rsi), %ymm6, %ymm6
addq $32, %rsi
decq %rbx
jne L_keccak1600_avx2$11
vmovdqu %ymm6, (%rsp)
vmovdqu %ymm3, 32(%rsp)
vmovdqu %ymm4, 64(%rsp)
vmovdqu %ymm0, 96(%rsp)
vmovdqu %ymm5, 128(%rsp)
vmovdqu %ymm1, 160(%rsp)
vmovdqu %ymm2, 192(%rsp)
movq %rcx, %rdx
shrq $3, %rdx
movq $0, %rsi
jmp L_keccak1600_avx2$9
L_keccak1600_avx2$10:
movq (%rax,%rsi,8), %rdi
movq (%rsp,%rdi,8), %rdi
movq %rdi, (%r9,%rsi,8)
incq %rsi
L_keccak1600_avx2$9:
cmpq %rdx, %rsi
jb L_keccak1600_avx2$10
addq %rcx, %r9
subq %rcx, %r8
L_keccak1600_avx2$7:
cmpq %rcx, %r8
jnbe L_keccak1600_avx2$8
leaq glob_data + 3328(%rip), %rcx
movq $0, %rdx
leaq glob_data + 3136(%rip), %rsi
leaq glob_data + 2944(%rip), %rdi
movq $24, %r11
L_keccak1600_avx2$6:
vpshufd $78, %ymm4, %ymm8
vpxor %ymm0, %ymm1, %ymm7
vpxor %ymm2, %ymm5, %ymm9
vpxor %ymm3, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm4, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm4, %ymm4
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm4, %ymm7
vpsrlvq (%rdi), %ymm4, %ymm4
vpor %ymm7, %ymm4, %ymm4
vpxor %ymm9, %ymm0, %ymm0
vpsllvq 64(%rsi), %ymm0, %ymm7
vpsrlvq 64(%rdi), %ymm0, %ymm0
vpor %ymm7, %ymm0, %ymm0
vpxor %ymm9, %ymm5, %ymm5
vpsllvq 96(%rsi), %ymm5, %ymm7
vpsrlvq 96(%rdi), %ymm5, %ymm5
vpor %ymm7, %ymm5, %ymm10
vpxor %ymm9, %ymm1, %ymm1
vpsllvq 128(%rsi), %ymm1, %ymm5
vpsrlvq 128(%rdi), %ymm1, %ymm1
vpor %ymm5, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpermq $-115, %ymm4, %ymm5
vpermq $-115, %ymm0, %ymm7
vpsllvq 160(%rsi), %ymm2, %ymm0
vpsrlvq 160(%rdi), %ymm2, %ymm2
vpor %ymm0, %ymm2, %ymm8
vpxor %ymm9, %ymm3, %ymm0
vpermq $27, %ymm10, %ymm3
vpermq $114, %ymm1, %ymm9
vpsllvq 32(%rsi), %ymm0, %ymm1
vpsrlvq 32(%rdi), %ymm0, %ymm0
vpor %ymm1, %ymm0, %ymm10
vpsrldq $8, %ymm8, %ymm0
vpandn %ymm0, %ymm8, %ymm0
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm2
vpblendd $12, %ymm7, %ymm5, %ymm4
vpblendd $12, %ymm5, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm2, %ymm2
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm2, %ymm2
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm2, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm2
vpblendd $12, %ymm10, %ymm3, %ymm4
vpblendd $12, %ymm3, %ymm5, %ymm11
vpxor %ymm5, %ymm1, %ymm1
vpblendd $48, %ymm5, %ymm4, %ymm4
vpblendd $48, %ymm7, %ymm11, %ymm11
vpxor %ymm3, %ymm2, %ymm2
vpblendd $-64, %ymm7, %ymm4, %ymm4
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm4, %ymm4
vpxor %ymm9, %ymm4, %ymm12
vpermq $30, %ymm8, %ymm4
vpblendd $48, %ymm6, %ymm4, %ymm4
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm4, %ymm11, %ymm11
vpblendd $12, %ymm3, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm4, %ymm4
vpblendd $48, %ymm5, %ymm13, %ymm13
vpblendd $-64, %ymm5, %ymm4, %ymm4
vpblendd $-64, %ymm3, %ymm13, %ymm13
vpandn %ymm13, %ymm4, %ymm4
vpxor %ymm10, %ymm4, %ymm4
vpermq $0, %ymm0, %ymm13
vpermq $27, %ymm1, %ymm0
vpermq $-115, %ymm2, %ymm1
vpermq $114, %ymm12, %ymm2
vpblendd $12, %ymm5, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm3, %ymm9
vpblendd $48, %ymm3, %ymm12, %ymm3
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm3, %ymm3
vpblendd $-64, %ymm5, %ymm9, %ymm5
vpandn %ymm5, %ymm3, %ymm5
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm3
vpxor %ymm7, %ymm5, %ymm5
vpxor (%rcx,%rdx), %ymm6, %ymm6
addq $32, %rdx
decq %r11
jne L_keccak1600_avx2$6
vmovdqu %ymm6, (%rsp)
vmovdqu %ymm3, 32(%rsp)
vmovdqu %ymm4, 64(%rsp)
vmovdqu %ymm0, 96(%rsp)
vmovdqu %ymm5, 128(%rsp)
vmovdqu %ymm1, 160(%rsp)
vmovdqu %ymm2, 192(%rsp)
movq %r8, %rcx
shrq $3, %rcx
movq $0, %rdx
jmp L_keccak1600_avx2$4
L_keccak1600_avx2$5:
movq (%rax,%rdx,8), %rsi
movq (%rsp,%rsi,8), %rsi
movq %rsi, (%r9,%rdx,8)
incq %rdx
L_keccak1600_avx2$4:
cmpq %rcx, %rdx
jb L_keccak1600_avx2$5
movq (%rax,%rdx,8), %rax
shlq $3, %rdx
shlq $3, %rax
jmp L_keccak1600_avx2$2
L_keccak1600_avx2$3:
movb (%rsp,%rax), %cl
movb %cl, (%r9,%rdx)
incq %rdx
incq %rax
L_keccak1600_avx2$2:
cmpq %r8, %rdx
jb L_keccak1600_avx2$3
jmp *%r10
.data
.p2align 5
_glob_data:
glob_data:
.byte 0
.byte 1
.byte 1
.byte 2
.byte 3
.byte 4
.byte 4
.byte 5
.byte 6
.byte 7
.byte 7
.byte 8
.byte 9
.byte 10
.byte 10
.byte 11
.byte 4
.byte 5
.byte 5
.byte 6
.byte 7
.byte 8
.byte 8
.byte 9
.byte 10
.byte 11
.byte 11
.byte 12
.byte 13
.byte 14
.byte 14
.byte 15
.byte 0
.byte 1
.byte 2
.byte 3
.byte 4
.byte 8
.byte 9
.byte 10
.byte 11
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 9
.byte 10
.byte 11
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 1
.byte 2
.byte 3
.byte 4
.byte 8
.byte 0
.byte 1
.byte 1
.byte 2
.byte 2
.byte 3
.byte 3
.byte 4
.byte 5
.byte 6
.byte 6
.byte 7
.byte 7
.byte 8
.byte 8
.byte 9
.byte 2
.byte 3
.byte 3
.byte 4
.byte 4
.byte 5
.byte 5
.byte 6
.byte 7
.byte 8
.byte 8
.byte 9
.byte 9
.byte 10
.byte 10
.byte 11
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 1
.byte 1
.byte 1
.byte 2
.byte 2
.byte 2
.byte 2
.byte 3
.byte 3
.byte 3
.byte 3
.byte 4
.byte 4
.byte 4
.byte 4
.byte 5
.byte 5
.byte 5
.byte 5
.byte 6
.byte 6
.byte 6
.byte 6
.byte 7
.byte 7
.byte 7
.byte 7
.byte 0
.byte 0
.byte 0
.byte 0
.byte 4
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 5
.byte 0
.byte 0
.byte 0
.byte 2
.byte 0
.byte 0
.byte 0
.byte 6
.byte 0
.byte 0
.byte 0
.byte 3
.byte 0
.byte 0
.byte 0
.byte 7
.byte 0
.byte 0
.byte 0
.byte 73
.byte 5
.byte 73
.byte 5
.byte 73
.byte 5
.byte 73
.byte 5
.byte 73
.byte 5
.byte 73
.byte 5
.byte 73
.byte 5
.byte 73
.byte 5
.byte 73
.byte 5
.byte 73
.byte 5
.byte 73
.byte 5
.byte 73
.byte 5
.byte 73
.byte 5
.byte 73
.byte 5
.byte 73
.byte 5
.byte 73
.byte 5
.byte 64
.byte 3
.byte 64
.byte 3
.byte 64
.byte 3
.byte 64
.byte 3
.byte 64
.byte 3
.byte 64
.byte 3
.byte 64
.byte 3
.byte 64
.byte 3
.byte 64
.byte 3
.byte 64
.byte 3
.byte 64
.byte 3
.byte 64
.byte 3
.byte 64
.byte 3
.byte 64
.byte 3
.byte 64
.byte 3
.byte 64
.byte 3
.byte -128
.byte 6
.byte -128
.byte 6
.byte -128
.byte 6
.byte -128
.byte 6
.byte -128
.byte 6
.byte -128
.byte 6
.byte -128
.byte 6
.byte -128
.byte 6
.byte -128
.byte 6
.byte -128
.byte 6
.byte -128
.byte 6
.byte -128
.byte 6
.byte -128
.byte 6
.byte -128
.byte 6
.byte -128
.byte 6
.byte -128
.byte 6
.byte -127
.byte 6
.byte -127
.byte 6
.byte -127
.byte 6
.byte -127
.byte 6
.byte -127
.byte 6
.byte -127
.byte 6
.byte -127
.byte 6
.byte -127
.byte 6
.byte -127
.byte 6
.byte -127
.byte 6
.byte -127
.byte 6
.byte -127
.byte 6
.byte -127
.byte 6
.byte -127
.byte 6
.byte -127
.byte 6
.byte -127
.byte 6
.byte -1
.byte 15
.byte -1
.byte 15
.byte -1
.byte 15
.byte -1
.byte 15
.byte -1
.byte 15
.byte -1
.byte 15
.byte -1
.byte 15
.byte -1
.byte 15
.byte -1
.byte 15
.byte -1
.byte 15
.byte -1
.byte 15
.byte -1
.byte 15
.byte -1
.byte 15
.byte -1
.byte 15
.byte -1
.byte 15
.byte -1
.byte 15
.byte -95
.byte -40
.byte -95
.byte -40
.byte -95
.byte -40
.byte -95
.byte -40
.byte -95
.byte -40
.byte -95
.byte -40
.byte -95
.byte -40
.byte -95
.byte -40
.byte -95
.byte -40
.byte -95
.byte -40
.byte -95
.byte -40
.byte -95
.byte -40
.byte -95
.byte -40
.byte -95
.byte -40
.byte -95
.byte -40
.byte -95
.byte -40
.byte -95
.byte 5
.byte -95
.byte 5
.byte -95
.byte 5
.byte -95
.byte 5
.byte -95
.byte 5
.byte -95
.byte 5
.byte -95
.byte 5
.byte -95
.byte 5
.byte -95
.byte 5
.byte -95
.byte 5
.byte -95
.byte 5
.byte -95
.byte 5
.byte -95
.byte 5
.byte -95
.byte 5
.byte -95
.byte 5
.byte -95
.byte 5
.byte -65
.byte 78
.byte -65
.byte 78
.byte -65
.byte 78
.byte -65
.byte 78
.byte -65
.byte 78
.byte -65
.byte 78
.byte -65
.byte 78
.byte -65
.byte 78
.byte -65
.byte 78
.byte -65
.byte 78
.byte -65
.byte 78
.byte -65
.byte 78
.byte -65
.byte 78
.byte -65
.byte 78
.byte -65
.byte 78
.byte -65
.byte 78
.byte 1
.byte -13
.byte 1
.byte -13
.byte 1
.byte -13
.byte 1
.byte -13
.byte 1
.byte -13
.byte 1
.byte -13
.byte 1
.byte -13
.byte 1
.byte -13
.byte 1
.byte -13
.byte 1
.byte -13
.byte 1
.byte -13
.byte 1
.byte -13
.byte 1
.byte -13
.byte 1
.byte -13
.byte 1
.byte -13
.byte 1
.byte -13
.byte 1
.byte 13
.byte 1
.byte 13
.byte 1
.byte 13
.byte 1
.byte 13
.byte 1
.byte 13
.byte 1
.byte 13
.byte 1
.byte 13
.byte 1
.byte 13
.byte 1
.byte 13
.byte 1
.byte 13
.byte 1
.byte 13
.byte 1
.byte 13
.byte 1
.byte 13
.byte 1
.byte 13
.byte 1
.byte 13
.byte 1
.byte 13
.byte -91
.byte -91
.byte -76
.byte -31
.byte 34
.byte 79
.byte 52
.byte 93
.byte 35
.byte 68
.byte 86
.byte -91
.byte -25
.byte 78
.byte -6
.byte 83
.byte 123
.byte -57
.byte 37
.byte 43
.byte 55
.byte 58
.byte -120
.byte 24
.byte -127
.byte 126
.byte 5
.byte -60
.byte -97
.byte -9
.byte -72
.byte -80
.byte -91
.byte 6
.byte -76
.byte 5
.byte 34
.byte 9
.byte 52
.byte 1
.byte 35
.byte 11
.byte 86
.byte 3
.byte -25
.byte 9
.byte -6
.byte 5
.byte 123
.byte 6
.byte 37
.byte 12
.byte 55
.byte 5
.byte -120
.byte 0
.byte -127
.byte 11
.byte 5
.byte 5
.byte -97
.byte 10
.byte -72
.byte 8
.byte 15
.byte 68
.byte 67
.byte -94
.byte 29
.byte -112
.byte 108
.byte -124
.byte 102
.byte -43
.byte -26
.byte 87
.byte -2
.byte 30
.byte -95
.byte -41
.byte -93
.byte -67
.byte 106
.byte -95
.byte 63
.byte -43
.byte -65
.byte 81
.byte -71
.byte -96
.byte -41
.byte 28
.byte -90
.byte -100
.byte -48
.byte 121
.byte 15
.byte 7
.byte 67
.byte 9
.byte 29
.byte 9
.byte 108
.byte 0
.byte 102
.byte 3
.byte -26
.byte 5
.byte -2
.byte 4
.byte -95
.byte 4
.byte -93
.byte 4
.byte 106
.byte 3
.byte 63
.byte 8
.byte -65
.byte 4
.byte -71
.byte 5
.byte -41
.byte 7
.byte -90
.byte 10
.byte -48
.byte 9
.byte -5
.byte 69
.byte 92
.byte 94
.byte 41
.byte -17
.byte 65
.byte -66
.byte -43
.byte 49
.byte -28
.byte 113
.byte 64
.byte -55
.byte -114
.byte -53
.byte -73
.byte -72
.byte -9
.byte 117
.byte -115
.byte -36
.byte -106
.byte 110
.byte -61
.byte 34
.byte 15
.byte 62
.byte 90
.byte 110
.byte 85
.byte -78
.byte -5
.byte 4
.byte 92
.byte 10
.byte 41
.byte 4
.byte 65
.byte 11
.byte -43
.byte 2
.byte -28
.byte 5
.byte 64
.byte 9
.byte -114
.byte 1
.byte -73
.byte 3
.byte -9
.byte 0
.byte -115
.byte 5
.byte -106
.byte 12
.byte -61
.byte 9
.byte 15
.byte 1
.byte 90
.byte 0
.byte 85
.byte 3
.byte 35
.byte 63
.byte 35
.byte 63
.byte -51
.byte -105
.byte -51
.byte -105
.byte 102
.byte -35
.byte 102
.byte -35
.byte 6
.byte -72
.byte 6
.byte -72
.byte -95
.byte -35
.byte -95
.byte -35
.byte 37
.byte 41
.byte 37
.byte 41
.byte 8
.byte -95
.byte 8
.byte -95
.byte -87
.byte 109
.byte -87
.byte 109
.byte 35
.byte 6
.byte 35
.byte 6
.byte -51
.byte 0
.byte -51
.byte 0
.byte 102
.byte 11
.byte 102
.byte 11
.byte 6
.byte 6
.byte 6
.byte 6
.byte -95
.byte 10
.byte -95
.byte 10
.byte 37
.byte 10
.byte 37
.byte 10
.byte 8
.byte 9
.byte 8
.byte 9
.byte -87
.byte 2
.byte -87
.byte 2
.byte 69
.byte -122
.byte 69
.byte -122
.byte 69
.byte -122
.byte 69
.byte -122
.byte -62
.byte 43
.byte -62
.byte 43
.byte -62
.byte 43
.byte -62
.byte 43
.byte -78
.byte -6
.byte -78
.byte -6
.byte -78
.byte -6
.byte -78
.byte -6
.byte 63
.byte -42
.byte 63
.byte -42
.byte 63
.byte -42
.byte 63
.byte -42
.byte 69
.byte 7
.byte 69
.byte 7
.byte 69
.byte 7
.byte 69
.byte 7
.byte -62
.byte 5
.byte -62
.byte 5
.byte -62
.byte 5
.byte -62
.byte 5
.byte -78
.byte 4
.byte -78
.byte 4
.byte -78
.byte 4
.byte -78
.byte 4
.byte 63
.byte 9
.byte 63
.byte 9
.byte 63
.byte 9
.byte 63
.byte 9
.byte 55
.byte 65
.byte 55
.byte 65
.byte 55
.byte 65
.byte 55
.byte 65
.byte 55
.byte 65
.byte 55
.byte 65
.byte 55
.byte 65
.byte 55
.byte 65
.byte -30
.byte -111
.byte -30
.byte -111
.byte -30
.byte -111
.byte -30
.byte -111
.byte -30
.byte -111
.byte -30
.byte -111
.byte -30
.byte -111
.byte -30
.byte -111
.byte 55
.byte 12
.byte 55
.byte 12
.byte 55
.byte 12
.byte 55
.byte 12
.byte 55
.byte 12
.byte 55
.byte 12
.byte 55
.byte 12
.byte 55
.byte 12
.byte -30
.byte 11
.byte -30
.byte 11
.byte -30
.byte 11
.byte -30
.byte 11
.byte -30
.byte 11
.byte -30
.byte 11
.byte -30
.byte 11
.byte -30
.byte 11
.byte -19
.byte -4
.byte -19
.byte -4
.byte -19
.byte 5
.byte -19
.byte 5
.byte 75
.byte 49
.byte -72
.byte -77
.byte -92
.byte -73
.byte 125
.byte -79
.byte -94
.byte -50
.byte 54
.byte 73
.byte -109
.byte -119
.byte -9
.byte 126
.byte -116
.byte -22
.byte -52
.byte -91
.byte -21
.byte 17
.byte -74
.byte -52
.byte -104
.byte 84
.byte -102
.byte 55
.byte -74
.byte -53
.byte 83
.byte -44
.byte 75
.byte 0
.byte -72
.byte 11
.byte -92
.byte 11
.byte 125
.byte 10
.byte -94
.byte 8
.byte 54
.byte 7
.byte -109
.byte 0
.byte -9
.byte 9
.byte -116
.byte 6
.byte -52
.byte 1
.byte -21
.byte 0
.byte -74
.byte 10
.byte -104
.byte 12
.byte -102
.byte 9
.byte -74
.byte 9
.byte 83
.byte 11
.byte -100
.byte 20
.byte 95
.byte 56
.byte 104
.byte -69
.byte 54
.byte 72
.byte 90
.byte 112
.byte 9
.byte -114
.byte 122
.byte -42
.byte -10
.byte -126
.byte -37
.byte -25
.byte 35
.byte 58
.byte 80
.byte -4
.byte 91
.byte 108
.byte -13
.byte -81
.byte -29
.byte 125
.byte -42
.byte 44
.byte 79
.byte 1
.byte -100
.byte 0
.byte 95
.byte 11
.byte 104
.byte 3
.byte 54
.byte 6
.byte 90
.byte 2
.byte 9
.byte 3
.byte 122
.byte 8
.byte -10
.byte 0
.byte -37
.byte 6
.byte 35
.byte 1
.byte 80
.byte 12
.byte 91
.byte 11
.byte -13
.byte 6
.byte -29
.byte 4
.byte -42
.byte 10
.byte 79
.byte 4
.byte 68
.byte -109
.byte -125
.byte 101
.byte -118
.byte 2
.byte 82
.byte -36
.byte -102
.byte 48
.byte 64
.byte -63
.byte 8
.byte -104
.byte -3
.byte 49
.byte 8
.byte -98
.byte 26
.byte -81
.byte 46
.byte -79
.byte 13
.byte 92
.byte 10
.byte -121
.byte 40
.byte -6
.byte 117
.byte 25
.byte 58
.byte 22
.byte 68
.byte 7
.byte -125
.byte 12
.byte -118
.byte 4
.byte 82
.byte 6
.byte -102
.byte 2
.byte 64
.byte 1
.byte 8
.byte 0
.byte -3
.byte 10
.byte 8
.byte 6
.byte 26
.byte 1
.byte 46
.byte 7
.byte 13
.byte 5
.byte 10
.byte 9
.byte 40
.byte 2
.byte 117
.byte 10
.byte 58
.byte 8
.byte -126
.byte 102
.byte -126
.byte 102
.byte 66
.byte -84
.byte 66
.byte -84
.byte 79
.byte 4
.byte 79
.byte 4
.byte 61
.byte -22
.byte 61
.byte -22
.byte -126
.byte 113
.byte -126
.byte 113
.byte -7
.byte 102
.byte -7
.byte 102
.byte 45
.byte -68
.byte 45
.byte -68
.byte -60
.byte 22
.byte -60
.byte 22
.byte -126
.byte 0
.byte -126
.byte 0
.byte 66
.byte 6
.byte 66
.byte 6
.byte 79
.byte 7
.byte 79
.byte 7
.byte 61
.byte 3
.byte 61
.byte 3
.byte -126
.byte 11
.byte -126
.byte 11
.byte -7
.byte 11
.byte -7
.byte 11
.byte 45
.byte 5
.byte 45
.byte 5
.byte -60
.byte 10
.byte -60
.byte 10
.byte 75
.byte 61
.byte 75
.byte 61
.byte 75
.byte 61
.byte 75
.byte 61
.byte -40
.byte 14
.byte -40
.byte 14
.byte -40
.byte 14
.byte -40
.byte 14
.byte -109
.byte -109
.byte -109
.byte -109
.byte -109
.byte -109
.byte -109
.byte -109
.byte -85
.byte 81
.byte -85
.byte 81
.byte -85
.byte 81
.byte -85
.byte 81
.byte 75
.byte 12
.byte 75
.byte 12
.byte 75
.byte 12
.byte 75
.byte 12
.byte -40
.byte 6
.byte -40
.byte 6
.byte -40
.byte 6
.byte -40
.byte 6
.byte -109
.byte 10
.byte -109
.byte 10
.byte -109
.byte 10
.byte -109
.byte 10
.byte -85
.byte 0
.byte -85
.byte 0
.byte -85
.byte 0
.byte -85
.byte 0
.byte 115
.byte 48
.byte 115
.byte 48
.byte 115
.byte 48
.byte 115
.byte 48
.byte 115
.byte 48
.byte 115
.byte 48
.byte 115
.byte 48
.byte 115
.byte 48
.byte 44
.byte -53
.byte 44
.byte -53
.byte 44
.byte -53
.byte 44
.byte -53
.byte 44
.byte -53
.byte 44
.byte -53
.byte 44
.byte -53
.byte 44
.byte -53
.byte 115
.byte 7
.byte 115
.byte 7
.byte 115
.byte 7
.byte 115
.byte 7
.byte 115
.byte 7
.byte 115
.byte 7
.byte 115
.byte 7
.byte 115
.byte 7
.byte 44
.byte 7
.byte 44
.byte 7
.byte 44
.byte 7
.byte 44
.byte 7
.byte 44
.byte 7
.byte 44
.byte 7
.byte 44
.byte 7
.byte 44
.byte 7
.byte 103
.byte -58
.byte 103
.byte -58
.byte 103
.byte 1
.byte 103
.byte 1
.byte -116
.byte -21
.byte -116
.byte -21
.byte -116
.byte 7
.byte -116
.byte 7
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 11
.byte 123
.byte 11
.byte 123
.byte 11
.byte 10
.byte 11
.byte 10
.byte -102
.byte 57
.byte -102
.byte 57
.byte -102
.byte 11
.byte -102
.byte 11
.byte -43
.byte 52
.byte -43
.byte 52
.byte -43
.byte 52
.byte -43
.byte 52
.byte -43
.byte 52
.byte -43
.byte 52
.byte -43
.byte 52
.byte -43
.byte 52
.byte -114
.byte -49
.byte -114
.byte -49
.byte -114
.byte -49
.byte -114
.byte -49
.byte -114
.byte -49
.byte -114
.byte -49
.byte -114
.byte -49
.byte -114
.byte -49
.byte -43
.byte 5
.byte -43
.byte 5
.byte -43
.byte 5
.byte -43
.byte 5
.byte -43
.byte 5
.byte -43
.byte 5
.byte -43
.byte 5
.byte -43
.byte 5
.byte -114
.byte 5
.byte -114
.byte 5
.byte -114
.byte 5
.byte -114
.byte 5
.byte -114
.byte 5
.byte -114
.byte 5
.byte -114
.byte 5
.byte -114
.byte 5
.byte 86
.byte -82
.byte 86
.byte -82
.byte 86
.byte -82
.byte 86
.byte -82
.byte 110
.byte 108
.byte 110
.byte 108
.byte 110
.byte 108
.byte 110
.byte 108
.byte 41
.byte -15
.byte 41
.byte -15
.byte 41
.byte -15
.byte 41
.byte -15
.byte -74
.byte -62
.byte -74
.byte -62
.byte -74
.byte -62
.byte -74
.byte -62
.byte 86
.byte 12
.byte 86
.byte 12
.byte 86
.byte 12
.byte 86
.byte 12
.byte 110
.byte 2
.byte 110
.byte 2
.byte 110
.byte 2
.byte 110
.byte 2
.byte 41
.byte 6
.byte 41
.byte 6
.byte 41
.byte 6
.byte 41
.byte 6
.byte -74
.byte 0
.byte -74
.byte 0
.byte -74
.byte 0
.byte -74
.byte 0
.byte 61
.byte -23
.byte 61
.byte -23
.byte -44
.byte 67
.byte -44
.byte 67
.byte 8
.byte -103
.byte 8
.byte -103
.byte 127
.byte -114
.byte 127
.byte -114
.byte -60
.byte 21
.byte -60
.byte 21
.byte -78
.byte -5
.byte -78
.byte -5
.byte -65
.byte 83
.byte -65
.byte 83
.byte 127
.byte -103
.byte 127
.byte -103
.byte 61
.byte 2
.byte 61
.byte 2
.byte -44
.byte 7
.byte -44
.byte 7
.byte 8
.byte 1
.byte 8
.byte 1
.byte 127
.byte 1
.byte 127
.byte 1
.byte -60
.byte 9
.byte -60
.byte 9
.byte -78
.byte 5
.byte -78
.byte 5
.byte -65
.byte 6
.byte -65
.byte 6
.byte 127
.byte 12
.byte 127
.byte 12
.byte -57
.byte -23
.byte -116
.byte -26
.byte -39
.byte 5
.byte -9
.byte 120
.byte -12
.byte -93
.byte -45
.byte 78
.byte -25
.byte 80
.byte -7
.byte 97
.byte 4
.byte -50
.byte -7
.byte 103
.byte -63
.byte 62
.byte 103
.byte -49
.byte -81
.byte 35
.byte 119
.byte -3
.byte 126
.byte -102
.byte -67
.byte 108
.byte -57
.byte 4
.byte -116
.byte 2
.byte -39
.byte 10
.byte -9
.byte 3
.byte -12
.byte 7
.byte -45
.byte 5
.byte -25
.byte 11
.byte -7
.byte 6
.byte 4
.byte 2
.byte -7
.byte 12
.byte -63
.byte 11
.byte 103
.byte 10
.byte -81
.byte 6
.byte 119
.byte 8
.byte 126
.byte 0
.byte -67
.byte 5
.byte -78
.byte -2
.byte 43
.byte -45
.byte 30
.byte -126
.byte 14
.byte 80
.byte -90
.byte -109
.byte -79
.byte 3
.byte -34
.byte -59
.byte 38
.byte 24
.byte 11
.byte 125
.byte -121
.byte 41
.byte -8
.byte 113
.byte -89
.byte -113
.byte -53
.byte -73
.byte -103
.byte 68
.byte -94
.byte -57
.byte 101
.byte -21
.byte -78
.byte 8
.byte 43
.byte 2
.byte 30
.byte 8
.byte 14
.byte 6
.byte -90
.byte 1
.byte -79
.byte 0
.byte -34
.byte 11
.byte 38
.byte 6
.byte 11
.byte 12
.byte -121
.byte 4
.byte -8
.byte 9
.byte -89
.byte 10
.byte -53
.byte 6
.byte -103
.byte 9
.byte -94
.byte 1
.byte 101
.byte 12
.byte -82
.byte 43
.byte 75
.byte 52
.byte 103
.byte -56
.byte 105
.byte -85
.byte 75
.byte 51
.byte 22
.byte -18
.byte 53
.byte 90
.byte 117
.byte 21
.byte 10
.byte -127
.byte 110
.byte 118
.byte -53
.byte -74
.byte 95
.byte 49
.byte -124
.byte 78
.byte 93
.byte 72
.byte 73
.byte 76
.byte -74
.byte -50
.byte -82
.byte 1
.byte 75
.byte 3
.byte 103
.byte 3
.byte 105
.byte 0
.byte 75
.byte 2
.byte 22
.byte 12
.byte 53
.byte 11
.byte 117
.byte 6
.byte 10
.byte 3
.byte 110
.byte 12
.byte -53
.byte 5
.byte 95
.byte 4
.byte -124
.byte 2
.byte 93
.byte 1
.byte 73
.byte 1
.byte -74
.byte 12
.byte 20
.byte 3
.byte 20
.byte 3
.byte 20
.byte 7
.byte 20
.byte 7
.byte 31
.byte 110
.byte 31
.byte 110
.byte 31
.byte 110
.byte 31
.byte 110
.byte 31
.byte 110
.byte 31
.byte 110
.byte 31
.byte 110
.byte 31
.byte 110
.byte -54
.byte -66
.byte -54
.byte -66
.byte -54
.byte -66
.byte -54
.byte -66
.byte -54
.byte -66
.byte -54
.byte -66
.byte -54
.byte -66
.byte -54
.byte -66
.byte 31
.byte 1
.byte 31
.byte 1
.byte 31
.byte 1
.byte 31
.byte 1
.byte 31
.byte 1
.byte 31
.byte 1
.byte 31
.byte 1
.byte 31
.byte 1
.byte -54
.byte 0
.byte -54
.byte 0
.byte -54
.byte 0
.byte -54
.byte 0
.byte -54
.byte 0
.byte -54
.byte 0
.byte -54
.byte 0
.byte -54
.byte 0
.byte -62
.byte 41
.byte -62
.byte 41
.byte -62
.byte 41
.byte -62
.byte 41
.byte 79
.byte 5
.byte 79
.byte 5
.byte 79
.byte 5
.byte 79
.byte 5
.byte 63
.byte -44
.byte 63
.byte -44
.byte 63
.byte -44
.byte 63
.byte -44
.byte -68
.byte 121
.byte -68
.byte 121
.byte -68
.byte 121
.byte -68
.byte 121
.byte -62
.byte 3
.byte -62
.byte 3
.byte -62
.byte 3
.byte -62
.byte 3
.byte 79
.byte 8
.byte 79
.byte 8
.byte 79
.byte 8
.byte 79
.byte 8
.byte 63
.byte 7
.byte 63
.byte 7
.byte 63
.byte 7
.byte 63
.byte 7
.byte -68
.byte 5
.byte -68
.byte 5
.byte -68
.byte 5
.byte -68
.byte 5
.byte 88
.byte -110
.byte 88
.byte -110
.byte -7
.byte 94
.byte -7
.byte 94
.byte -36
.byte -42
.byte -36
.byte -42
.byte 96
.byte 34
.byte 96
.byte 34
.byte -5
.byte 71
.byte -5
.byte 71
.byte -101
.byte 34
.byte -101
.byte 34
.byte 52
.byte 104
.byte 52
.byte 104
.byte -34
.byte -64
.byte -34
.byte -64
.byte 88
.byte 10
.byte 88
.byte 10
.byte -7
.byte 3
.byte -7
.byte 3
.byte -36
.byte 2
.byte -36
.byte 2
.byte 96
.byte 2
.byte 96
.byte 2
.byte -5
.byte 6
.byte -5
.byte 6
.byte -101
.byte 1
.byte -101
.byte 1
.byte 52
.byte 12
.byte 52
.byte 12
.byte -34
.byte 6
.byte -34
.byte 6
.byte -84
.byte 77
.byte -89
.byte -111
.byte -14
.byte -63
.byte 62
.byte -35
.byte 107
.byte -111
.byte 116
.byte 35
.byte 10
.byte -118
.byte 74
.byte 71
.byte 115
.byte 52
.byte -63
.byte 54
.byte 29
.byte -114
.byte 44
.byte -50
.byte -64
.byte 65
.byte -40
.byte 16
.byte -91
.byte -95
.byte 6
.byte -70
.byte -84
.byte 9
.byte -89
.byte 12
.byte -14
.byte 11
.byte 62
.byte 3
.byte 107
.byte 0
.byte 116
.byte 7
.byte 10
.byte 12
.byte 74
.byte 9
.byte 115
.byte 11
.byte -63
.byte 3
.byte 29
.byte 7
.byte 44
.byte 10
.byte -64
.byte 1
.byte -40
.byte 8
.byte -91
.byte 2
.byte 6
.byte 8
.byte 49
.byte -122
.byte 91
.byte 99
.byte 42
.byte -29
.byte 72
.byte 95
.byte 66
.byte -82
.byte -62
.byte 42
.byte -105
.byte 94
.byte 94
.byte 66
.byte 96
.byte 40
.byte 3
.byte -31
.byte 27
.byte -88
.byte -101
.byte 42
.byte -107
.byte 123
.byte -28
.byte 111
.byte -66
.byte 93
.byte -14
.byte -69
.byte 49
.byte 3
.byte 91
.byte 2
.byte 42
.byte 5
.byte 72
.byte 7
.byte 66
.byte 8
.byte -62
.byte 4
.byte -105
.byte 9
.byte 94
.byte 8
.byte 96
.byte 8
.byte 3
.byte 8
.byte 27
.byte 7
.byte -101
.byte 9
.byte -107
.byte 12
.byte -28
.byte 3
.byte -66
.byte 3
.byte -14
.byte 5
.byte 73
.byte 79
.byte 98
.byte 8
.byte -4
.byte 59
.byte -128
.byte -127
.byte 121
.byte -25
.byte -54
.byte -59
.byte -36
.byte -44
.byte -122
.byte 56
.byte 7
.byte -84
.byte 26
.byte -79
.byte -85
.byte 90
.byte -34
.byte -69
.byte -51
.byte -94
.byte -33
.byte -80
.byte 77
.byte 30
.byte 92
.byte 90
.byte 73
.byte 4
.byte 98
.byte 2
.byte -4
.byte 7
.byte -128
.byte 1
.byte 121
.byte 12
.byte -54
.byte 7
.byte -36
.byte 0
.byte -122
.byte 6
.byte 7
.byte 7
.byte 26
.byte 3
.byte -85
.byte 9
.byte -34
.byte 1
.byte -51
.byte 11
.byte -33
.byte 3
.byte 77
.byte 7
.byte 92
.byte 6
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 7
.byte 0
.byte 1
.byte 2
.byte 3
.byte 4
.byte 5
.byte 6
.byte 15
.byte 8
.byte 9
.byte 10
.byte 11
.byte 12
.byte 13
.byte 14
.byte 23
.byte 16
.byte 17
.byte 18
.byte 19
.byte 20
.byte 21
.byte 22
.byte 31
.byte 24
.byte 25
.byte 26
.byte 27
.byte 28
.byte 29
.byte 30
.byte 1
.byte 2
.byte 3
.byte 4
.byte 5
.byte 6
.byte 7
.byte 0
.byte 9
.byte 10
.byte 11
.byte 12
.byte 13
.byte 14
.byte 15
.byte 8
.byte 17
.byte 18
.byte 19
.byte 20
.byte 21
.byte 22
.byte 23
.byte 16
.byte 25
.byte 26
.byte 27
.byte 28
.byte 29
.byte 30
.byte 31
.byte 24
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 61
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 46
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 28
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 23
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 63
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 2
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 36
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 37
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 19
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 58
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 25
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 54
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 3
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 56
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 62
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 49
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 39
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 44
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 20
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 21
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 43
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 50
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 3
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 18
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 36
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 41
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 62
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 28
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 27
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 45
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 6
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 56
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 39
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 61
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 55
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 2
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 15
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 25
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 20
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 44
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 43
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 21
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 14
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte 1
.byte 4
.byte 5
.byte 8
.byte 9
.byte 12
.byte 13
.byte 2
.byte 3
.byte 6
.byte 7
.byte 10
.byte 11
.byte 14
.byte 15
.byte 3
.byte 0
.byte 0
.byte 0
.byte 2
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 4
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 6
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 6
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 6
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 6
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 4
.byte 6
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 6
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 6
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 6
.byte -1
.byte -1
.byte -1
.byte -1
.byte 8
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 8
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 8
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 8
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 4
.byte 8
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 8
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 8
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 8
.byte -1
.byte -1
.byte -1
.byte -1
.byte 6
.byte 8
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 6
.byte 8
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 6
.byte 8
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 6
.byte 8
.byte -1
.byte -1
.byte -1
.byte -1
.byte 4
.byte 6
.byte 8
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 6
.byte 8
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 6
.byte 8
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 6
.byte 8
.byte -1
.byte -1
.byte -1
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 4
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte 6
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 6
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 6
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 6
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte 4
.byte 6
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 6
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 6
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 6
.byte 10
.byte -1
.byte -1
.byte -1
.byte 8
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 8
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 8
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 8
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte 4
.byte 8
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 8
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 8
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 8
.byte 10
.byte -1
.byte -1
.byte -1
.byte 6
.byte 8
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 6
.byte 8
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 6
.byte 8
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 6
.byte 8
.byte 10
.byte -1
.byte -1
.byte -1
.byte 4
.byte 6
.byte 8
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 6
.byte 8
.byte 10
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 6
.byte 8
.byte 10
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 6
.byte 8
.byte 10
.byte -1
.byte -1
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 4
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 6
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 6
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 6
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 6
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 4
.byte 6
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 6
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 6
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 6
.byte 12
.byte -1
.byte -1
.byte -1
.byte 8
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 8
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 8
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 8
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 4
.byte 8
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 8
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 8
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 8
.byte 12
.byte -1
.byte -1
.byte -1
.byte 6
.byte 8
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 6
.byte 8
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 6
.byte 8
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 6
.byte 8
.byte 12
.byte -1
.byte -1
.byte -1
.byte 4
.byte 6
.byte 8
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 6
.byte 8
.byte 12
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 6
.byte 8
.byte 12
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 6
.byte 8
.byte 12
.byte -1
.byte -1
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 4
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte 6
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 6
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 6
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 6
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte 4
.byte 6
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 6
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 6
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 6
.byte 10
.byte 12
.byte -1
.byte -1
.byte 8
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 8
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 8
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 8
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte 4
.byte 8
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 8
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 8
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 8
.byte 10
.byte 12
.byte -1
.byte -1
.byte 6
.byte 8
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 6
.byte 8
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte 2
.byte 6
.byte 8
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 6
.byte 8
.byte 10
.byte 12
.byte -1
.byte -1
.byte 4
.byte 6
.byte 8
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 6
.byte 8
.byte 10
.byte 12
.byte -1
.byte -1
.byte 2
.byte 4
.byte 6
.byte 8
.byte 10
.byte 12
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 6
.byte 8
.byte 10
.byte 12
.byte -1
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 4
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 6
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 6
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 6
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 6
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 4
.byte 6
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 6
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 6
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 6
.byte 14
.byte -1
.byte -1
.byte -1
.byte 8
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 8
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 8
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 8
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 4
.byte 8
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 8
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 8
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 8
.byte 14
.byte -1
.byte -1
.byte -1
.byte 6
.byte 8
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 6
.byte 8
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 6
.byte 8
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 6
.byte 8
.byte 14
.byte -1
.byte -1
.byte -1
.byte 4
.byte 6
.byte 8
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 6
.byte 8
.byte 14
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 6
.byte 8
.byte 14
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 6
.byte 8
.byte 14
.byte -1
.byte -1
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 4
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte 6
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 6
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 6
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 6
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte 4
.byte 6
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 6
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 6
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 6
.byte 10
.byte 14
.byte -1
.byte -1
.byte 8
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 8
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 8
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 8
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte 4
.byte 8
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 8
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 8
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 8
.byte 10
.byte 14
.byte -1
.byte -1
.byte 6
.byte 8
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 6
.byte 8
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte 2
.byte 6
.byte 8
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 6
.byte 8
.byte 10
.byte 14
.byte -1
.byte -1
.byte 4
.byte 6
.byte 8
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 6
.byte 8
.byte 10
.byte 14
.byte -1
.byte -1
.byte 2
.byte 4
.byte 6
.byte 8
.byte 10
.byte 14
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 6
.byte 8
.byte 10
.byte 14
.byte -1
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 4
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 6
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 6
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 6
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 6
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 4
.byte 6
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 6
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 6
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 6
.byte 12
.byte 14
.byte -1
.byte -1
.byte 8
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 8
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 8
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 8
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 4
.byte 8
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 8
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 8
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 8
.byte 12
.byte 14
.byte -1
.byte -1
.byte 6
.byte 8
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 6
.byte 8
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 2
.byte 6
.byte 8
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 6
.byte 8
.byte 12
.byte 14
.byte -1
.byte -1
.byte 4
.byte 6
.byte 8
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 6
.byte 8
.byte 12
.byte 14
.byte -1
.byte -1
.byte 2
.byte 4
.byte 6
.byte 8
.byte 12
.byte 14
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 6
.byte 8
.byte 12
.byte 14
.byte -1
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 4
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte 6
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 6
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 2
.byte 6
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 6
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte 4
.byte 6
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 6
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte 2
.byte 4
.byte 6
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 6
.byte 10
.byte 12
.byte 14
.byte -1
.byte 8
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 8
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 2
.byte 8
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 8
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte 4
.byte 8
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 8
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte 2
.byte 4
.byte 8
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 8
.byte 10
.byte 12
.byte 14
.byte -1
.byte 6
.byte 8
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 0
.byte 6
.byte 8
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte 2
.byte 6
.byte 8
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte 0
.byte 2
.byte 6
.byte 8
.byte 10
.byte 12
.byte 14
.byte -1
.byte 4
.byte 6
.byte 8
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte 0
.byte 4
.byte 6
.byte 8
.byte 10
.byte 12
.byte 14
.byte -1
.byte 2
.byte 4
.byte 6
.byte 8
.byte 10
.byte 12
.byte 14
.byte -1
.byte 0
.byte 2
.byte 4
.byte 6
.byte 8
.byte 10
.byte 12
.byte 14
.byte 12
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 4
.byte 1
.byte 0
.byte 0
.byte 4
.byte 4
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 4
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 5
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 6
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 7
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 24
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 13
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 18
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 23
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 16
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 25
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 22
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 15
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 11
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 12
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 21
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 26
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 19
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 20
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 17
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 14
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 27
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -8
.byte 31
.byte -32
.byte 127
.byte 4
.byte 52
.byte 1
.byte 13
.byte 0
.byte 8
.byte -128
.byte 0
.byte 15
.byte 0
.byte -16
.byte 0
.byte -1
.byte 15
.byte -1
.byte 3
.byte 0
.byte 16
.byte 15
.byte 0
.byte 1
.byte 16
.byte 15
.byte 0
.byte 0
.byte 2
.byte 1
.byte 0
.byte 1
.byte 2
.byte -1
.byte 3
.byte 4
.byte 5
.byte -1
.byte 6
.byte 7
.byte 8
.byte -1
.byte 9
.byte 10
.byte 11
.byte -1
.byte 4
.byte 5
.byte 6
.byte -1
.byte 7
.byte 8
.byte 9
.byte -1
.byte 10
.byte 11
.byte 12
.byte -1
.byte 13
.byte 14
.byte 15
.byte -1
.byte -5
.byte 58
.byte -5
.byte 58
.byte -5
.byte 58
.byte -5
.byte 58
.byte -5
.byte 58
.byte -5
.byte 58
.byte -5
.byte 58
.byte -5
.byte 58
.byte -5
.byte 58
.byte -5
.byte 58
.byte -5
.byte 58
.byte -5
.byte 58
.byte -5
.byte 58
.byte -5
.byte 58
.byte -5
.byte 58
.byte -5
.byte 58
.byte -91
.byte 6
.byte 15
.byte 7
.byte -76
.byte 5
.byte 67
.byte 9
.byte 34
.byte 9
.byte 29
.byte 9
.byte 52
.byte 1
.byte 108
.byte 0
.byte 35
.byte 11
.byte 102
.byte 3
.byte 86
.byte 3
.byte -26
.byte 5
.byte -25
.byte 9
.byte -2
.byte 4
.byte -6
.byte 5
.byte -95
.byte 4
.byte 123
.byte 6
.byte -93
.byte 4
.byte 37
.byte 12
.byte 106
.byte 3
.byte 55
.byte 5
.byte 63
.byte 8
.byte -120
.byte 0
.byte -65
.byte 4
.byte -127
.byte 11
.byte -71
.byte 5
.byte 5
.byte 5
.byte -41
.byte 7
.byte -97
.byte 10
.byte -90
.byte 10
.byte -72
.byte 8
.byte -48
.byte 9
.byte 75
.byte 0
.byte -100
.byte 0
.byte -72
.byte 11
.byte 95
.byte 11
.byte -92
.byte 11
.byte 104
.byte 3
.byte 125
.byte 10
.byte 54
.byte 6
.byte -94
.byte 8
.byte 90
.byte 2
.byte 54
.byte 7
.byte 9
.byte 3
.byte -109
.byte 0
.byte 122
.byte 8
.byte -9
.byte 9
.byte -10
.byte 0
.byte -116
.byte 6
.byte -37
.byte 6
.byte -52
.byte 1
.byte 35
.byte 1
.byte -21
.byte 0
.byte 80
.byte 12
.byte -74
.byte 10
.byte 91
.byte 11
.byte -104
.byte 12
.byte -13
.byte 6
.byte -102
.byte 9
.byte -29
.byte 4
.byte -74
.byte 9
.byte -42
.byte 10
.byte 83
.byte 11
.byte 79
.byte 4
.byte -5
.byte 4
.byte 92
.byte 10
.byte 41
.byte 4
.byte 65
.byte 11
.byte -43
.byte 2
.byte -28
.byte 5
.byte 64
.byte 9
.byte -114
.byte 1
.byte -73
.byte 3
.byte -9
.byte 0
.byte -115
.byte 5
.byte -106
.byte 12
.byte -61
.byte 9
.byte 15
.byte 1
.byte 90
.byte 0
.byte 85
.byte 3
.byte 68
.byte 7
.byte -125
.byte 12
.byte -118
.byte 4
.byte 82
.byte 6
.byte -102
.byte 2
.byte 64
.byte 1
.byte 8
.byte 0
.byte -3
.byte 10
.byte 8
.byte 6
.byte 26
.byte 1
.byte 46
.byte 7
.byte 13
.byte 5
.byte 10
.byte 9
.byte 40
.byte 2
.byte 117
.byte 10
.byte 58
.byte 8
.byte 35
.byte 6
.byte -51
.byte 0
.byte 102
.byte 11
.byte 6
.byte 6
.byte -95
.byte 10
.byte 37
.byte 10
.byte 8
.byte 9
.byte -87
.byte 2
.byte -126
.byte 0
.byte 66
.byte 6
.byte 79
.byte 7
.byte 61
.byte 3
.byte -126
.byte 11
.byte -7
.byte 11
.byte 45
.byte 5
.byte -60
.byte 10
.byte 69
.byte 7
.byte -62
.byte 5
.byte -78
.byte 4
.byte 63
.byte 9
.byte 75
.byte 12
.byte -40
.byte 6
.byte -109
.byte 10
.byte -85
.byte 0
.byte 55
.byte 12
.byte -30
.byte 11
.byte 115
.byte 7
.byte 44
.byte 7
.byte -19
.byte 5
.byte 103
.byte 1
.byte -10
.byte 2
.byte -95
.byte 5
.byte -19
.byte 8
.byte 11
.byte 10
.byte -102
.byte 11
.byte 20
.byte 7
.byte -43
.byte 5
.byte -114
.byte 5
.byte 31
.byte 1
.byte -54
.byte 0
.byte 86
.byte 12
.byte 110
.byte 2
.byte 41
.byte 6
.byte -74
.byte 0
.byte -62
.byte 3
.byte 79
.byte 8
.byte 63
.byte 7
.byte -68
.byte 5
.byte 61
.byte 2
.byte -44
.byte 7
.byte 8
.byte 1
.byte 127
.byte 1
.byte -60
.byte 9
.byte -78
.byte 5
.byte -65
.byte 6
.byte 127
.byte 12
.byte 88
.byte 10
.byte -7
.byte 3
.byte -36
.byte 2
.byte 96
.byte 2
.byte -5
.byte 6
.byte -101
.byte 1
.byte 52
.byte 12
.byte -34
.byte 6
.byte -57
.byte 4
.byte -116
.byte 2
.byte -39
.byte 10
.byte -9
.byte 3
.byte -12
.byte 7
.byte -45
.byte 5
.byte -25
.byte 11
.byte -7
.byte 6
.byte 4
.byte 2
.byte -7
.byte 12
.byte -63
.byte 11
.byte 103
.byte 10
.byte -81
.byte 6
.byte 119
.byte 8
.byte 126
.byte 0
.byte -67
.byte 5
.byte -84
.byte 9
.byte -89
.byte 12
.byte -14
.byte 11
.byte 62
.byte 3
.byte 107
.byte 0
.byte 116
.byte 7
.byte 10
.byte 12
.byte 74
.byte 9
.byte 115
.byte 11
.byte -63
.byte 3
.byte 29
.byte 7
.byte 44
.byte 10
.byte -64
.byte 1
.byte -40
.byte 8
.byte -91
.byte 2
.byte 6
.byte 8
.byte -78
.byte 8
.byte -82
.byte 1
.byte 43
.byte 2
.byte 75
.byte 3
.byte 30
.byte 8
.byte 103
.byte 3
.byte 14
.byte 6
.byte 105
.byte 0
.byte -90
.byte 1
.byte 75
.byte 2
.byte -79
.byte 0
.byte 22
.byte 12
.byte -34
.byte 11
.byte 53
.byte 11
.byte 38
.byte 6
.byte 117
.byte 6
.byte 11
.byte 12
.byte 10
.byte 3
.byte -121
.byte 4
.byte 110
.byte 12
.byte -8
.byte 9
.byte -53
.byte 5
.byte -89
.byte 10
.byte 95
.byte 4
.byte -53
.byte 6
.byte -124
.byte 2
.byte -103
.byte 9
.byte 93
.byte 1
.byte -94
.byte 1
.byte 73
.byte 1
.byte 101
.byte 12
.byte -74
.byte 12
.byte 49
.byte 3
.byte 73
.byte 4
.byte 91
.byte 2
.byte 98
.byte 2
.byte 42
.byte 5
.byte -4
.byte 7
.byte 72
.byte 7
.byte -128
.byte 1
.byte 66
.byte 8
.byte 121
.byte 12
.byte -62
.byte 4
.byte -54
.byte 7
.byte -105
.byte 9
.byte -36
.byte 0
.byte 94
.byte 8
.byte -122
.byte 6
.byte 96
.byte 8
.byte 7
.byte 7
.byte 3
.byte 8
.byte 26
.byte 3
.byte 27
.byte 7
.byte -85
.byte 9
.byte -101
.byte 9
.byte -34
.byte 1
.byte -107
.byte 12
.byte -51
.byte 11
.byte -28
.byte 3
.byte -33
.byte 3
.byte -66
.byte 3
.byte 77
.byte 7
.byte -14
.byte 5
.byte 92
.byte 6
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
|
usenix-security-verdict/verdict
| 377,805
|
deps/libcrux/sys/libjade/jazz/kyber_kyber768_ref.s
|
.att_syntax
.text
.p2align 5
.globl _jade_kem_kyber_kyber768_amd64_ref_dec
.globl jade_kem_kyber_kyber768_amd64_ref_dec
.globl _jade_kem_kyber_kyber768_amd64_ref_enc_derand
.globl jade_kem_kyber_kyber768_amd64_ref_enc_derand
.globl _jade_kem_kyber_kyber768_amd64_ref_keypair_derand
.globl jade_kem_kyber_kyber768_amd64_ref_keypair_derand
_jade_kem_kyber_kyber768_amd64_ref_dec:
jade_kem_kyber_kyber768_amd64_ref_dec:
movq %rsp, %rax
leaq -14560(%rsp), %rsp
andq $-8, %rsp
movq %rax, 14552(%rsp)
movq %r15, 14504(%rsp)
movq %r14, 14512(%rsp)
movq %r13, 14520(%rsp)
movq %r12, 14528(%rsp)
movq %rbp, 14536(%rsp)
movq %rbx, 14544(%rsp)
movq %rdi, (%rsp)
movq %rsi, 8(%rsp)
leaq 80(%rsp), %rax
movq $0, %rcx
movq $0, %rdi
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$225
Ljade_kem_kyber_kyber768_amd64_ref_dec$226:
movzbl (%rsi,%rdi), %r10d
incq %rdi
movzbl (%rsi,%rdi), %r11d
incq %rdi
movzbl (%rsi,%rdi), %r8d
incq %rdi
movzbl (%rsi,%rdi), %r9d
incq %rdi
movzbl (%rsi,%rdi), %ebx
incq %rdi
movl %r11d, %ebp
shrl $2, %r11d
andl $3, %ebp
shll $8, %ebp
orl %ebp, %r10d
movl %r8d, %ebp
shrl $4, %r8d
andl $15, %ebp
shll $6, %ebp
orl %ebp, %r11d
movl %r9d, %ebp
shrl $6, %r9d
andl $63, %ebp
shll $4, %ebp
orl %ebp, %r8d
shll $2, %ebx
orl %ebx, %r9d
imull $3329, %r10d, %r10d
addl $512, %r10d
shrl $10, %r10d
movw %r10w, 2456(%rsp,%rcx,2)
incq %rcx
imull $3329, %r11d, %r10d
addl $512, %r10d
shrl $10, %r10d
movw %r10w, 2456(%rsp,%rcx,2)
incq %rcx
imull $3329, %r8d, %r8d
addl $512, %r8d
shrl $10, %r8d
movw %r8w, 2456(%rsp,%rcx,2)
incq %rcx
imull $3329, %r9d, %r8d
addl $512, %r8d
shrl $10, %r8d
movw %r8w, 2456(%rsp,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$225:
cmpq $768, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$226
addq $960, %rsi
leaq 920(%rsp), %rcx
call L_poly_decompress$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$224:
movq %rdx, %rsi
leaq 3992(%rsp), %rdi
call L_poly_frombytes$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$223:
addq $384, %rsi
leaq 4504(%rsp), %rdi
call L_poly_frombytes$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$222:
addq $384, %rsi
leaq 5016(%rsp), %rdi
call L_poly_frombytes$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$221:
leaq 2456(%rsp), %rcx
call L_poly_ntt$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$220:
leaq 2968(%rsp), %rcx
call L_poly_ntt$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$219:
leaq 3480(%rsp), %rcx
call L_poly_ntt$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$218:
leaq 408(%rsp), %rdi
leaq 3992(%rsp), %rcx
leaq 2456(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$217:
leaq 16(%rsp), %rsp
leaq 1432(%rsp), %rdi
leaq 4504(%rsp), %rcx
leaq 2968(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$216:
leaq 16(%rsp), %rsp
leaq 408(%rsp), %rcx
leaq 1432(%rsp), %rsi
call L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$215:
leaq 1432(%rsp), %rdi
leaq 5016(%rsp), %rcx
leaq 3480(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$214:
leaq 16(%rsp), %rsp
leaq 408(%rsp), %rcx
leaq 1432(%rsp), %rsi
call L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$213:
leaq 408(%rsp), %rcx
movq $0, %rsi
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$211
Ljade_kem_kyber_kyber768_amd64_ref_dec$212:
movw (%rcx,%rsi,2), %di
movswl %di, %r8d
imull $20159, %r8d, %r8d
sarl $26, %r8d
imull $3329, %r8d, %r8d
subw %r8w, %di
movw %di, (%rcx,%rsi,2)
incq %rsi
Ljade_kem_kyber_kyber768_amd64_ref_dec$211:
cmpq $256, %rsi
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$212
leaq 408(%rsp), %rcx
call L_poly_invntt$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$210:
leaq 1432(%rsp), %rcx
leaq 920(%rsp), %rsi
leaq 408(%rsp), %rdi
call L_poly_sub$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$209:
leaq 1432(%rsp), %rcx
movq $0, %rsi
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$207
Ljade_kem_kyber_kyber768_amd64_ref_dec$208:
movw (%rcx,%rsi,2), %di
movswl %di, %r8d
imull $20159, %r8d, %r8d
sarl $26, %r8d
imull $3329, %r8d, %r8d
subw %r8w, %di
movw %di, (%rcx,%rsi,2)
incq %rsi
Ljade_kem_kyber_kyber768_amd64_ref_dec$207:
cmpq $256, %rsi
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$208
leaq 1432(%rsp), %rcx
call L_i_poly_tomsg$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$206:
leaq 32(%rdx), %rax
addq $2304, %rax
movq (%rax), %rcx
movq %rcx, 112(%rsp)
movq 8(%rax), %rcx
movq %rcx, 120(%rsp)
movq 16(%rax), %rcx
movq %rcx, 128(%rsp)
movq 24(%rax), %rax
movq %rax, 136(%rsp)
movq %rdx, 16(%rsp)
leaq 144(%rsp), %rax
leaq 80(%rsp), %rdx
leaq -208(%rsp), %rsp
call L_sha3_512_64$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$205:
leaq 208(%rsp), %rsp
movq 16(%rsp), %rdx
addq $1152, %rdx
leaq 13410(%rsp), %rsi
leaq 80(%rsp), %rcx
leaq 176(%rsp), %rax
movq %rsi, 24(%rsp)
movq %rdx, %rsi
leaq 2456(%rsp), %rdi
call L_poly_frombytes$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$204:
addq $384, %rsi
leaq 2968(%rsp), %rdi
call L_poly_frombytes$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$203:
addq $384, %rsi
leaq 3480(%rsp), %rdi
call L_poly_frombytes$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$202:
movq $0, %rsi
addq $1152, %rdx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$200
Ljade_kem_kyber_kyber768_amd64_ref_dec$201:
movq (%rdx), %rdi
movq %rdi, 48(%rsp,%rsi,8)
addq $8, %rdx
incq %rsi
Ljade_kem_kyber_kyber768_amd64_ref_dec$200:
cmpq $4, %rsi
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$201
leaq 1432(%rsp), %rdx
call L_i_poly_frommsg$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$199:
movq $1, %rcx
movq %rcx, 32(%rsp)
movb 48(%rsp), %cl
movb %cl, 13208(%rsp)
movb 49(%rsp), %cl
movb %cl, 13209(%rsp)
movb 50(%rsp), %cl
movb %cl, 13210(%rsp)
movb 51(%rsp), %cl
movb %cl, 13211(%rsp)
movb 52(%rsp), %cl
movb %cl, 13212(%rsp)
movb 53(%rsp), %cl
movb %cl, 13213(%rsp)
movb 54(%rsp), %cl
movb %cl, 13214(%rsp)
movb 55(%rsp), %cl
movb %cl, 13215(%rsp)
movb 56(%rsp), %cl
movb %cl, 13216(%rsp)
movb 57(%rsp), %cl
movb %cl, 13217(%rsp)
movb 58(%rsp), %cl
movb %cl, 13218(%rsp)
movb 59(%rsp), %cl
movb %cl, 13219(%rsp)
movb 60(%rsp), %cl
movb %cl, 13220(%rsp)
movb 61(%rsp), %cl
movb %cl, 13221(%rsp)
movb 62(%rsp), %cl
movb %cl, 13222(%rsp)
movb 63(%rsp), %cl
movb %cl, 13223(%rsp)
movb 64(%rsp), %cl
movb %cl, 13224(%rsp)
movb 65(%rsp), %cl
movb %cl, 13225(%rsp)
movb 66(%rsp), %cl
movb %cl, 13226(%rsp)
movb 67(%rsp), %cl
movb %cl, 13227(%rsp)
movb 68(%rsp), %cl
movb %cl, 13228(%rsp)
movb 69(%rsp), %cl
movb %cl, 13229(%rsp)
movb 70(%rsp), %cl
movb %cl, 13230(%rsp)
movb 71(%rsp), %cl
movb %cl, 13231(%rsp)
movb 72(%rsp), %cl
movb %cl, 13232(%rsp)
movb 73(%rsp), %cl
movb %cl, 13233(%rsp)
movb 74(%rsp), %cl
movb %cl, 13234(%rsp)
movb 75(%rsp), %cl
movb %cl, 13235(%rsp)
movb 76(%rsp), %cl
movb %cl, 13236(%rsp)
movb 77(%rsp), %cl
movb %cl, 13237(%rsp)
movb 78(%rsp), %cl
movb %cl, 13238(%rsp)
movb 79(%rsp), %cl
movb %cl, 13239(%rsp)
movq 32(%rsp), %rcx
cmpq $0, %rcx
je Ljade_kem_kyber_kyber768_amd64_ref_dec$197
movb $0, 13240(%rsp)
movb $0, 13241(%rsp)
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$198
Ljade_kem_kyber_kyber768_amd64_ref_dec$197:
movb $0, 13240(%rsp)
movb $0, 13241(%rsp)
Ljade_kem_kyber_kyber768_amd64_ref_dec$198:
leaq 208(%rsp), %rcx
leaq 13208(%rsp), %rdx
call L_shake128_absorb34$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$196:
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$194
Ljade_kem_kyber_kyber768_amd64_ref_dec$195:
movq %rcx, 408(%rsp,%rcx,8)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$194:
cmpq $64, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$195
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$186
Ljade_kem_kyber_kyber768_amd64_ref_dec$187:
movq %rcx, 40(%rsp)
leaq 208(%rsp), %rcx
leaq 13242(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$193:
leaq 8(%rsp), %rsp
movq 40(%rsp), %rcx
movq $0, %rdx
Ljade_kem_kyber_kyber768_amd64_ref_dec$188:
movzbw 13242(%rsp,%rdx), %si
incq %rdx
movzbw 13242(%rsp,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw 13242(%rsp,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$191
cmpq $256, %rcx
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$191
movw %si, 408(%rsp,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$192:
Ljade_kem_kyber_kyber768_amd64_ref_dec$191:
cmpw $3329, %r8w
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$189
cmpq $256, %rcx
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$189
movw %r8w, 408(%rsp,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$190:
Ljade_kem_kyber_kyber768_amd64_ref_dec$189:
cmpq $166, %rdx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$188
Ljade_kem_kyber_kyber768_amd64_ref_dec$186:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$187
movq $0, %rcx
movq $0, %rdx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$184
Ljade_kem_kyber_kyber768_amd64_ref_dec$185:
movw 408(%rsp,%rcx,2), %si
movw %si, 8600(%rsp,%rdx,2)
incq %rcx
incq %rdx
Ljade_kem_kyber_kyber768_amd64_ref_dec$184:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$185
movq 32(%rsp), %rcx
cmpq $0, %rcx
je Ljade_kem_kyber_kyber768_amd64_ref_dec$182
movb $0, 13240(%rsp)
movb $1, 13241(%rsp)
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$183
Ljade_kem_kyber_kyber768_amd64_ref_dec$182:
movb $1, 13240(%rsp)
movb $0, 13241(%rsp)
Ljade_kem_kyber_kyber768_amd64_ref_dec$183:
leaq 208(%rsp), %rcx
leaq 13208(%rsp), %rdx
call L_shake128_absorb34$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$181:
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$179
Ljade_kem_kyber_kyber768_amd64_ref_dec$180:
movq %rcx, 408(%rsp,%rcx,8)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$179:
cmpq $64, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$180
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$171
Ljade_kem_kyber_kyber768_amd64_ref_dec$172:
movq %rcx, 40(%rsp)
leaq 208(%rsp), %rcx
leaq 13242(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$178:
leaq 8(%rsp), %rsp
movq 40(%rsp), %rcx
movq $0, %rdx
Ljade_kem_kyber_kyber768_amd64_ref_dec$173:
movzbw 13242(%rsp,%rdx), %si
incq %rdx
movzbw 13242(%rsp,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw 13242(%rsp,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$176
cmpq $256, %rcx
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$176
movw %si, 408(%rsp,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$177:
Ljade_kem_kyber_kyber768_amd64_ref_dec$176:
cmpw $3329, %r8w
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$174
cmpq $256, %rcx
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$174
movw %r8w, 408(%rsp,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$175:
Ljade_kem_kyber_kyber768_amd64_ref_dec$174:
cmpq $166, %rdx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$173
Ljade_kem_kyber_kyber768_amd64_ref_dec$171:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$172
movq $0, %rcx
movq $256, %rdx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$169
Ljade_kem_kyber_kyber768_amd64_ref_dec$170:
movw 408(%rsp,%rcx,2), %si
movw %si, 8600(%rsp,%rdx,2)
incq %rcx
incq %rdx
Ljade_kem_kyber_kyber768_amd64_ref_dec$169:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$170
movq 32(%rsp), %rcx
cmpq $0, %rcx
je Ljade_kem_kyber_kyber768_amd64_ref_dec$167
movb $0, 13240(%rsp)
movb $2, 13241(%rsp)
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$168
Ljade_kem_kyber_kyber768_amd64_ref_dec$167:
movb $2, 13240(%rsp)
movb $0, 13241(%rsp)
Ljade_kem_kyber_kyber768_amd64_ref_dec$168:
leaq 208(%rsp), %rcx
leaq 13208(%rsp), %rdx
call L_shake128_absorb34$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$166:
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$164
Ljade_kem_kyber_kyber768_amd64_ref_dec$165:
movq %rcx, 408(%rsp,%rcx,8)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$164:
cmpq $64, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$165
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$156
Ljade_kem_kyber_kyber768_amd64_ref_dec$157:
movq %rcx, 40(%rsp)
leaq 208(%rsp), %rcx
leaq 13242(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$163:
leaq 8(%rsp), %rsp
movq 40(%rsp), %rcx
movq $0, %rdx
Ljade_kem_kyber_kyber768_amd64_ref_dec$158:
movzbw 13242(%rsp,%rdx), %si
incq %rdx
movzbw 13242(%rsp,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw 13242(%rsp,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$161
cmpq $256, %rcx
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$161
movw %si, 408(%rsp,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$162:
Ljade_kem_kyber_kyber768_amd64_ref_dec$161:
cmpw $3329, %r8w
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$159
cmpq $256, %rcx
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$159
movw %r8w, 408(%rsp,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$160:
Ljade_kem_kyber_kyber768_amd64_ref_dec$159:
cmpq $166, %rdx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$158
Ljade_kem_kyber_kyber768_amd64_ref_dec$156:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$157
movq $0, %rcx
movq $512, %rdx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$154
Ljade_kem_kyber_kyber768_amd64_ref_dec$155:
movw 408(%rsp,%rcx,2), %si
movw %si, 8600(%rsp,%rdx,2)
incq %rcx
incq %rdx
Ljade_kem_kyber_kyber768_amd64_ref_dec$154:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$155
movq 32(%rsp), %rcx
cmpq $0, %rcx
je Ljade_kem_kyber_kyber768_amd64_ref_dec$152
movb $1, 13240(%rsp)
movb $0, 13241(%rsp)
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$153
Ljade_kem_kyber_kyber768_amd64_ref_dec$152:
movb $0, 13240(%rsp)
movb $1, 13241(%rsp)
Ljade_kem_kyber_kyber768_amd64_ref_dec$153:
leaq 208(%rsp), %rcx
leaq 13208(%rsp), %rdx
call L_shake128_absorb34$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$151:
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$149
Ljade_kem_kyber_kyber768_amd64_ref_dec$150:
movq %rcx, 408(%rsp,%rcx,8)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$149:
cmpq $64, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$150
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$141
Ljade_kem_kyber_kyber768_amd64_ref_dec$142:
movq %rcx, 40(%rsp)
leaq 208(%rsp), %rcx
leaq 13242(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$148:
leaq 8(%rsp), %rsp
movq 40(%rsp), %rcx
movq $0, %rdx
Ljade_kem_kyber_kyber768_amd64_ref_dec$143:
movzbw 13242(%rsp,%rdx), %si
incq %rdx
movzbw 13242(%rsp,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw 13242(%rsp,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$146
cmpq $256, %rcx
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$146
movw %si, 408(%rsp,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$147:
Ljade_kem_kyber_kyber768_amd64_ref_dec$146:
cmpw $3329, %r8w
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$144
cmpq $256, %rcx
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$144
movw %r8w, 408(%rsp,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$145:
Ljade_kem_kyber_kyber768_amd64_ref_dec$144:
cmpq $166, %rdx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$143
Ljade_kem_kyber_kyber768_amd64_ref_dec$141:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$142
movq $0, %rcx
movq $768, %rdx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$139
Ljade_kem_kyber_kyber768_amd64_ref_dec$140:
movw 408(%rsp,%rcx,2), %si
movw %si, 8600(%rsp,%rdx,2)
incq %rcx
incq %rdx
Ljade_kem_kyber_kyber768_amd64_ref_dec$139:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$140
movq 32(%rsp), %rcx
cmpq $0, %rcx
je Ljade_kem_kyber_kyber768_amd64_ref_dec$137
movb $1, 13240(%rsp)
movb $1, 13241(%rsp)
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$138
Ljade_kem_kyber_kyber768_amd64_ref_dec$137:
movb $1, 13240(%rsp)
movb $1, 13241(%rsp)
Ljade_kem_kyber_kyber768_amd64_ref_dec$138:
leaq 208(%rsp), %rcx
leaq 13208(%rsp), %rdx
call L_shake128_absorb34$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$136:
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$134
Ljade_kem_kyber_kyber768_amd64_ref_dec$135:
movq %rcx, 408(%rsp,%rcx,8)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$134:
cmpq $64, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$135
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$126
Ljade_kem_kyber_kyber768_amd64_ref_dec$127:
movq %rcx, 40(%rsp)
leaq 208(%rsp), %rcx
leaq 13242(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$133:
leaq 8(%rsp), %rsp
movq 40(%rsp), %rcx
movq $0, %rdx
Ljade_kem_kyber_kyber768_amd64_ref_dec$128:
movzbw 13242(%rsp,%rdx), %si
incq %rdx
movzbw 13242(%rsp,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw 13242(%rsp,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$131
cmpq $256, %rcx
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$131
movw %si, 408(%rsp,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$132:
Ljade_kem_kyber_kyber768_amd64_ref_dec$131:
cmpw $3329, %r8w
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$129
cmpq $256, %rcx
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$129
movw %r8w, 408(%rsp,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$130:
Ljade_kem_kyber_kyber768_amd64_ref_dec$129:
cmpq $166, %rdx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$128
Ljade_kem_kyber_kyber768_amd64_ref_dec$126:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$127
movq $0, %rcx
movq $1024, %rdx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$124
Ljade_kem_kyber_kyber768_amd64_ref_dec$125:
movw 408(%rsp,%rcx,2), %si
movw %si, 8600(%rsp,%rdx,2)
incq %rcx
incq %rdx
Ljade_kem_kyber_kyber768_amd64_ref_dec$124:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$125
movq 32(%rsp), %rcx
cmpq $0, %rcx
je Ljade_kem_kyber_kyber768_amd64_ref_dec$122
movb $1, 13240(%rsp)
movb $2, 13241(%rsp)
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$123
Ljade_kem_kyber_kyber768_amd64_ref_dec$122:
movb $2, 13240(%rsp)
movb $1, 13241(%rsp)
Ljade_kem_kyber_kyber768_amd64_ref_dec$123:
leaq 208(%rsp), %rcx
leaq 13208(%rsp), %rdx
call L_shake128_absorb34$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$121:
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$119
Ljade_kem_kyber_kyber768_amd64_ref_dec$120:
movq %rcx, 408(%rsp,%rcx,8)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$119:
cmpq $64, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$120
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$111
Ljade_kem_kyber_kyber768_amd64_ref_dec$112:
movq %rcx, 40(%rsp)
leaq 208(%rsp), %rcx
leaq 13242(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$118:
leaq 8(%rsp), %rsp
movq 40(%rsp), %rcx
movq $0, %rdx
Ljade_kem_kyber_kyber768_amd64_ref_dec$113:
movzbw 13242(%rsp,%rdx), %si
incq %rdx
movzbw 13242(%rsp,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw 13242(%rsp,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$116
cmpq $256, %rcx
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$116
movw %si, 408(%rsp,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$117:
Ljade_kem_kyber_kyber768_amd64_ref_dec$116:
cmpw $3329, %r8w
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$114
cmpq $256, %rcx
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$114
movw %r8w, 408(%rsp,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$115:
Ljade_kem_kyber_kyber768_amd64_ref_dec$114:
cmpq $166, %rdx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$113
Ljade_kem_kyber_kyber768_amd64_ref_dec$111:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$112
movq $0, %rcx
movq $1280, %rdx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$109
Ljade_kem_kyber_kyber768_amd64_ref_dec$110:
movw 408(%rsp,%rcx,2), %si
movw %si, 8600(%rsp,%rdx,2)
incq %rcx
incq %rdx
Ljade_kem_kyber_kyber768_amd64_ref_dec$109:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$110
movq 32(%rsp), %rcx
cmpq $0, %rcx
je Ljade_kem_kyber_kyber768_amd64_ref_dec$107
movb $2, 13240(%rsp)
movb $0, 13241(%rsp)
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$108
Ljade_kem_kyber_kyber768_amd64_ref_dec$107:
movb $0, 13240(%rsp)
movb $2, 13241(%rsp)
Ljade_kem_kyber_kyber768_amd64_ref_dec$108:
leaq 208(%rsp), %rcx
leaq 13208(%rsp), %rdx
call L_shake128_absorb34$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$106:
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$104
Ljade_kem_kyber_kyber768_amd64_ref_dec$105:
movq %rcx, 408(%rsp,%rcx,8)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$104:
cmpq $64, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$105
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$96
Ljade_kem_kyber_kyber768_amd64_ref_dec$97:
movq %rcx, 40(%rsp)
leaq 208(%rsp), %rcx
leaq 13242(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$103:
leaq 8(%rsp), %rsp
movq 40(%rsp), %rcx
movq $0, %rdx
Ljade_kem_kyber_kyber768_amd64_ref_dec$98:
movzbw 13242(%rsp,%rdx), %si
incq %rdx
movzbw 13242(%rsp,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw 13242(%rsp,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$101
cmpq $256, %rcx
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$101
movw %si, 408(%rsp,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$102:
Ljade_kem_kyber_kyber768_amd64_ref_dec$101:
cmpw $3329, %r8w
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$99
cmpq $256, %rcx
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$99
movw %r8w, 408(%rsp,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$100:
Ljade_kem_kyber_kyber768_amd64_ref_dec$99:
cmpq $166, %rdx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$98
Ljade_kem_kyber_kyber768_amd64_ref_dec$96:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$97
movq $0, %rcx
movq $1536, %rdx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$94
Ljade_kem_kyber_kyber768_amd64_ref_dec$95:
movw 408(%rsp,%rcx,2), %si
movw %si, 8600(%rsp,%rdx,2)
incq %rcx
incq %rdx
Ljade_kem_kyber_kyber768_amd64_ref_dec$94:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$95
movq 32(%rsp), %rcx
cmpq $0, %rcx
je Ljade_kem_kyber_kyber768_amd64_ref_dec$92
movb $2, 13240(%rsp)
movb $1, 13241(%rsp)
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$93
Ljade_kem_kyber_kyber768_amd64_ref_dec$92:
movb $1, 13240(%rsp)
movb $2, 13241(%rsp)
Ljade_kem_kyber_kyber768_amd64_ref_dec$93:
leaq 208(%rsp), %rcx
leaq 13208(%rsp), %rdx
call L_shake128_absorb34$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$91:
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$89
Ljade_kem_kyber_kyber768_amd64_ref_dec$90:
movq %rcx, 408(%rsp,%rcx,8)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$89:
cmpq $64, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$90
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$81
Ljade_kem_kyber_kyber768_amd64_ref_dec$82:
movq %rcx, 40(%rsp)
leaq 208(%rsp), %rcx
leaq 13242(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$88:
leaq 8(%rsp), %rsp
movq 40(%rsp), %rcx
movq $0, %rdx
Ljade_kem_kyber_kyber768_amd64_ref_dec$83:
movzbw 13242(%rsp,%rdx), %si
incq %rdx
movzbw 13242(%rsp,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw 13242(%rsp,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$86
cmpq $256, %rcx
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$86
movw %si, 408(%rsp,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$87:
Ljade_kem_kyber_kyber768_amd64_ref_dec$86:
cmpw $3329, %r8w
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$84
cmpq $256, %rcx
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$84
movw %r8w, 408(%rsp,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$85:
Ljade_kem_kyber_kyber768_amd64_ref_dec$84:
cmpq $166, %rdx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$83
Ljade_kem_kyber_kyber768_amd64_ref_dec$81:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$82
movq $0, %rcx
movq $1792, %rdx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$79
Ljade_kem_kyber_kyber768_amd64_ref_dec$80:
movw 408(%rsp,%rcx,2), %si
movw %si, 8600(%rsp,%rdx,2)
incq %rcx
incq %rdx
Ljade_kem_kyber_kyber768_amd64_ref_dec$79:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$80
movq 32(%rsp), %rcx
cmpq $0, %rcx
je Ljade_kem_kyber_kyber768_amd64_ref_dec$77
movb $2, 13240(%rsp)
movb $2, 13241(%rsp)
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$78
Ljade_kem_kyber_kyber768_amd64_ref_dec$77:
movb $2, 13240(%rsp)
movb $2, 13241(%rsp)
Ljade_kem_kyber_kyber768_amd64_ref_dec$78:
leaq 208(%rsp), %rcx
leaq 13208(%rsp), %rdx
call L_shake128_absorb34$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$76:
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$74
Ljade_kem_kyber_kyber768_amd64_ref_dec$75:
movq %rcx, 408(%rsp,%rcx,8)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$74:
cmpq $64, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$75
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$66
Ljade_kem_kyber_kyber768_amd64_ref_dec$67:
movq %rcx, 32(%rsp)
leaq 208(%rsp), %rcx
leaq 13242(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$73:
leaq 8(%rsp), %rsp
movq 32(%rsp), %rcx
movq $0, %rdx
Ljade_kem_kyber_kyber768_amd64_ref_dec$68:
movzbw 13242(%rsp,%rdx), %si
incq %rdx
movzbw 13242(%rsp,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw 13242(%rsp,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$71
cmpq $256, %rcx
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$71
movw %si, 408(%rsp,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$72:
Ljade_kem_kyber_kyber768_amd64_ref_dec$71:
cmpw $3329, %r8w
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$69
cmpq $256, %rcx
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$69
movw %r8w, 408(%rsp,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$70:
Ljade_kem_kyber_kyber768_amd64_ref_dec$69:
cmpq $166, %rdx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$68
Ljade_kem_kyber_kyber768_amd64_ref_dec$66:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$67
movq $0, %rcx
movq $2048, %rdx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$64
Ljade_kem_kyber_kyber768_amd64_ref_dec$65:
movw 408(%rsp,%rcx,2), %si
movw %si, 8600(%rsp,%rdx,2)
incq %rcx
incq %rdx
Ljade_kem_kyber_kyber768_amd64_ref_dec$64:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$65
movb $0, %cl
leaq 3992(%rsp), %rdx
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$63:
leaq 176(%rsp), %rsp
movb $1, %cl
leaq 4504(%rsp), %rdx
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$62:
leaq 176(%rsp), %rsp
movb $2, %cl
leaq 5016(%rsp), %rdx
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$61:
leaq 176(%rsp), %rsp
movb $3, %cl
leaq 5528(%rsp), %rdx
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$60:
leaq 176(%rsp), %rsp
movb $4, %cl
leaq 6040(%rsp), %rdx
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$59:
leaq 176(%rsp), %rsp
movb $5, %cl
leaq 6552(%rsp), %rdx
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$58:
leaq 176(%rsp), %rsp
movb $6, %cl
leaq 408(%rsp), %rdx
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$57:
leaq 176(%rsp), %rsp
leaq 3992(%rsp), %rcx
call L_poly_ntt$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$56:
leaq 4504(%rsp), %rcx
call L_poly_ntt$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$55:
leaq 5016(%rsp), %rcx
call L_poly_ntt$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$54:
leaq 7064(%rsp), %rdi
leaq 8600(%rsp), %rcx
leaq 3992(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$53:
leaq 16(%rsp), %rsp
leaq 920(%rsp), %rdi
leaq 9112(%rsp), %rcx
leaq 4504(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$52:
leaq 16(%rsp), %rsp
leaq 7064(%rsp), %rcx
leaq 920(%rsp), %rsi
call L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$51:
leaq 920(%rsp), %rdi
leaq 9624(%rsp), %rcx
leaq 5016(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$50:
leaq 16(%rsp), %rsp
leaq 7064(%rsp), %rcx
leaq 920(%rsp), %rsi
call L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$49:
leaq 7064(%rsp), %rax
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$47
Ljade_kem_kyber_kyber768_amd64_ref_dec$48:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$47:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$48
leaq 7576(%rsp), %rdi
leaq 10136(%rsp), %rcx
leaq 3992(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$46:
leaq 16(%rsp), %rsp
leaq 920(%rsp), %rdi
leaq 10648(%rsp), %rcx
leaq 4504(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$45:
leaq 16(%rsp), %rsp
leaq 7576(%rsp), %rcx
leaq 920(%rsp), %rsi
call L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$44:
leaq 920(%rsp), %rdi
leaq 11160(%rsp), %rcx
leaq 5016(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$43:
leaq 16(%rsp), %rsp
leaq 7576(%rsp), %rcx
leaq 920(%rsp), %rsi
call L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$42:
leaq 7576(%rsp), %rax
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$40
Ljade_kem_kyber_kyber768_amd64_ref_dec$41:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$40:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$41
leaq 8088(%rsp), %rdi
leaq 11672(%rsp), %rcx
leaq 3992(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$39:
leaq 16(%rsp), %rsp
leaq 920(%rsp), %rdi
leaq 12184(%rsp), %rcx
leaq 4504(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$38:
leaq 16(%rsp), %rsp
leaq 8088(%rsp), %rcx
leaq 920(%rsp), %rsi
call L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$37:
leaq 920(%rsp), %rdi
leaq 12696(%rsp), %rcx
leaq 5016(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$36:
leaq 16(%rsp), %rsp
leaq 8088(%rsp), %rcx
leaq 920(%rsp), %rsi
call L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$35:
leaq 8088(%rsp), %rax
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$33
Ljade_kem_kyber_kyber768_amd64_ref_dec$34:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$33:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$34
leaq 920(%rsp), %rdi
leaq 2456(%rsp), %rcx
leaq 3992(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$32:
leaq 16(%rsp), %rsp
leaq 1944(%rsp), %rdi
leaq 2968(%rsp), %rcx
leaq 4504(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$31:
leaq 16(%rsp), %rsp
leaq 920(%rsp), %rcx
leaq 1944(%rsp), %rsi
call L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$30:
leaq 1944(%rsp), %rdi
leaq 3480(%rsp), %rcx
leaq 5016(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$29:
leaq 16(%rsp), %rsp
leaq 920(%rsp), %rcx
leaq 1944(%rsp), %rsi
call L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$28:
leaq 920(%rsp), %rax
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$26
Ljade_kem_kyber_kyber768_amd64_ref_dec$27:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$26:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$27
leaq 7064(%rsp), %rcx
call L_poly_invntt$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$25:
leaq 7576(%rsp), %rcx
call L_poly_invntt$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$24:
leaq 8088(%rsp), %rcx
call L_poly_invntt$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$23:
leaq 920(%rsp), %rcx
call L_poly_invntt$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$22:
leaq 7064(%rsp), %rcx
leaq 5528(%rsp), %rsi
call L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$21:
leaq 7576(%rsp), %rcx
leaq 6040(%rsp), %rsi
call L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$20:
leaq 8088(%rsp), %rcx
leaq 6552(%rsp), %rsi
call L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$19:
leaq 920(%rsp), %rcx
leaq 408(%rsp), %rsi
call L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$18:
leaq 920(%rsp), %rcx
leaq 1432(%rsp), %rsi
call L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$17:
leaq 7064(%rsp), %rax
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$15
Ljade_kem_kyber_kyber768_amd64_ref_dec$16:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$15:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$16
leaq 7576(%rsp), %rax
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$13
Ljade_kem_kyber_kyber768_amd64_ref_dec$14:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$13:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$14
leaq 8088(%rsp), %rax
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$11
Ljade_kem_kyber_kyber768_amd64_ref_dec$12:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$11:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$12
leaq 920(%rsp), %rax
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$9
Ljade_kem_kyber_kyber768_amd64_ref_dec$10:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$9:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$10
movq 24(%rsp), %rax
movq %rax, %rdx
movq $0, %rsi
movq $0, %rdi
leaq 7064(%rsp), %rcx
call L_poly_csubq$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$8:
leaq 7576(%rsp), %rcx
call L_poly_csubq$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$7:
leaq 8088(%rsp), %rcx
call L_poly_csubq$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$6:
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$4
Ljade_kem_kyber_kyber768_amd64_ref_dec$5:
movzwq 7064(%rsp,%rsi,2), %rcx
incq %rsi
shlq $10, %rcx
addq $1665, %rcx
imulq $1290167, %rcx, %rcx
shrq $32, %rcx
andq $1023, %rcx
movzwq 7064(%rsp,%rsi,2), %r8
incq %rsi
shlq $10, %r8
addq $1665, %r8
imulq $1290167, %r8, %r8
shrq $32, %r8
andq $1023, %r8
movzwq 7064(%rsp,%rsi,2), %r9
incq %rsi
shlq $10, %r9
addq $1665, %r9
imulq $1290167, %r9, %r9
shrq $32, %r9
andq $1023, %r9
movzwq 7064(%rsp,%rsi,2), %r10
incq %rsi
shlq $10, %r10
addq $1665, %r10
imulq $1290167, %r10, %r10
shrq $32, %r10
andq $1023, %r10
movw %cx, %r11w
andw $255, %r11w
movb %r11b, (%rdx,%rdi)
incq %rdi
shrw $8, %cx
movw %r8w, %r11w
shlw $2, %r11w
orw %cx, %r11w
movb %r11b, (%rdx,%rdi)
incq %rdi
shrw $6, %r8w
movw %r9w, %cx
shlw $4, %cx
orw %r8w, %cx
movb %cl, (%rdx,%rdi)
incq %rdi
shrw $4, %r9w
movw %r10w, %cx
shlw $6, %cx
orw %r9w, %cx
movb %cl, (%rdx,%rdi)
incq %rdi
shrq $2, %r10
movb %r10b, (%rdx,%rdi)
incq %rdi
Ljade_kem_kyber_kyber768_amd64_ref_dec$4:
cmpq $768, %rsi
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$5
leaq 960(%rax), %rax
leaq 920(%rsp), %rcx
call L_i_poly_compress$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$3:
movq 8(%rsp), %rsi
leaq 13410(%rsp), %rax
movq $0, %rcx
movb (%rax), %dl
movb (%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1(%rax), %dl
movb 1(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 2(%rax), %dl
movb 2(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 3(%rax), %dl
movb 3(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 4(%rax), %dl
movb 4(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 5(%rax), %dl
movb 5(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 6(%rax), %dl
movb 6(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 7(%rax), %dl
movb 7(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 8(%rax), %dl
movb 8(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 9(%rax), %dl
movb 9(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 10(%rax), %dl
movb 10(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 11(%rax), %dl
movb 11(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 12(%rax), %dl
movb 12(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 13(%rax), %dl
movb 13(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 14(%rax), %dl
movb 14(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 15(%rax), %dl
movb 15(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 16(%rax), %dl
movb 16(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 17(%rax), %dl
movb 17(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 18(%rax), %dl
movb 18(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 19(%rax), %dl
movb 19(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 20(%rax), %dl
movb 20(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 21(%rax), %dl
movb 21(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 22(%rax), %dl
movb 22(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 23(%rax), %dl
movb 23(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 24(%rax), %dl
movb 24(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 25(%rax), %dl
movb 25(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 26(%rax), %dl
movb 26(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 27(%rax), %dl
movb 27(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 28(%rax), %dl
movb 28(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 29(%rax), %dl
movb 29(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 30(%rax), %dl
movb 30(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 31(%rax), %dl
movb 31(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 32(%rax), %dl
movb 32(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 33(%rax), %dl
movb 33(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 34(%rax), %dl
movb 34(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 35(%rax), %dl
movb 35(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 36(%rax), %dl
movb 36(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 37(%rax), %dl
movb 37(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 38(%rax), %dl
movb 38(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 39(%rax), %dl
movb 39(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 40(%rax), %dl
movb 40(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 41(%rax), %dl
movb 41(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 42(%rax), %dl
movb 42(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 43(%rax), %dl
movb 43(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 44(%rax), %dl
movb 44(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 45(%rax), %dl
movb 45(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 46(%rax), %dl
movb 46(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 47(%rax), %dl
movb 47(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 48(%rax), %dl
movb 48(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 49(%rax), %dl
movb 49(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 50(%rax), %dl
movb 50(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 51(%rax), %dl
movb 51(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 52(%rax), %dl
movb 52(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 53(%rax), %dl
movb 53(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 54(%rax), %dl
movb 54(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 55(%rax), %dl
movb 55(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 56(%rax), %dl
movb 56(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 57(%rax), %dl
movb 57(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 58(%rax), %dl
movb 58(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 59(%rax), %dl
movb 59(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 60(%rax), %dl
movb 60(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 61(%rax), %dl
movb 61(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 62(%rax), %dl
movb 62(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 63(%rax), %dl
movb 63(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 64(%rax), %dl
movb 64(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 65(%rax), %dl
movb 65(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 66(%rax), %dl
movb 66(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 67(%rax), %dl
movb 67(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 68(%rax), %dl
movb 68(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 69(%rax), %dl
movb 69(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 70(%rax), %dl
movb 70(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 71(%rax), %dl
movb 71(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 72(%rax), %dl
movb 72(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 73(%rax), %dl
movb 73(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 74(%rax), %dl
movb 74(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 75(%rax), %dl
movb 75(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 76(%rax), %dl
movb 76(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 77(%rax), %dl
movb 77(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 78(%rax), %dl
movb 78(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 79(%rax), %dl
movb 79(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 80(%rax), %dl
movb 80(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 81(%rax), %dl
movb 81(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 82(%rax), %dl
movb 82(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 83(%rax), %dl
movb 83(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 84(%rax), %dl
movb 84(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 85(%rax), %dl
movb 85(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 86(%rax), %dl
movb 86(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 87(%rax), %dl
movb 87(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 88(%rax), %dl
movb 88(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 89(%rax), %dl
movb 89(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 90(%rax), %dl
movb 90(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 91(%rax), %dl
movb 91(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 92(%rax), %dl
movb 92(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 93(%rax), %dl
movb 93(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 94(%rax), %dl
movb 94(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 95(%rax), %dl
movb 95(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 96(%rax), %dl
movb 96(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 97(%rax), %dl
movb 97(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 98(%rax), %dl
movb 98(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 99(%rax), %dl
movb 99(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 100(%rax), %dl
movb 100(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 101(%rax), %dl
movb 101(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 102(%rax), %dl
movb 102(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 103(%rax), %dl
movb 103(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 104(%rax), %dl
movb 104(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 105(%rax), %dl
movb 105(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 106(%rax), %dl
movb 106(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 107(%rax), %dl
movb 107(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 108(%rax), %dl
movb 108(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 109(%rax), %dl
movb 109(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 110(%rax), %dl
movb 110(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 111(%rax), %dl
movb 111(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 112(%rax), %dl
movb 112(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 113(%rax), %dl
movb 113(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 114(%rax), %dl
movb 114(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 115(%rax), %dl
movb 115(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 116(%rax), %dl
movb 116(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 117(%rax), %dl
movb 117(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 118(%rax), %dl
movb 118(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 119(%rax), %dl
movb 119(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 120(%rax), %dl
movb 120(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 121(%rax), %dl
movb 121(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 122(%rax), %dl
movb 122(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 123(%rax), %dl
movb 123(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 124(%rax), %dl
movb 124(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 125(%rax), %dl
movb 125(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 126(%rax), %dl
movb 126(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 127(%rax), %dl
movb 127(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 128(%rax), %dl
movb 128(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 129(%rax), %dl
movb 129(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 130(%rax), %dl
movb 130(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 131(%rax), %dl
movb 131(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 132(%rax), %dl
movb 132(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 133(%rax), %dl
movb 133(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 134(%rax), %dl
movb 134(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 135(%rax), %dl
movb 135(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 136(%rax), %dl
movb 136(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 137(%rax), %dl
movb 137(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 138(%rax), %dl
movb 138(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 139(%rax), %dl
movb 139(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 140(%rax), %dl
movb 140(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 141(%rax), %dl
movb 141(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 142(%rax), %dl
movb 142(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 143(%rax), %dl
movb 143(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 144(%rax), %dl
movb 144(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 145(%rax), %dl
movb 145(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 146(%rax), %dl
movb 146(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 147(%rax), %dl
movb 147(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 148(%rax), %dl
movb 148(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 149(%rax), %dl
movb 149(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 150(%rax), %dl
movb 150(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 151(%rax), %dl
movb 151(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 152(%rax), %dl
movb 152(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 153(%rax), %dl
movb 153(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 154(%rax), %dl
movb 154(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 155(%rax), %dl
movb 155(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 156(%rax), %dl
movb 156(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 157(%rax), %dl
movb 157(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 158(%rax), %dl
movb 158(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 159(%rax), %dl
movb 159(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 160(%rax), %dl
movb 160(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 161(%rax), %dl
movb 161(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 162(%rax), %dl
movb 162(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 163(%rax), %dl
movb 163(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 164(%rax), %dl
movb 164(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 165(%rax), %dl
movb 165(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 166(%rax), %dl
movb 166(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 167(%rax), %dl
movb 167(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 168(%rax), %dl
movb 168(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 169(%rax), %dl
movb 169(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 170(%rax), %dl
movb 170(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 171(%rax), %dl
movb 171(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 172(%rax), %dl
movb 172(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 173(%rax), %dl
movb 173(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 174(%rax), %dl
movb 174(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 175(%rax), %dl
movb 175(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 176(%rax), %dl
movb 176(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 177(%rax), %dl
movb 177(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 178(%rax), %dl
movb 178(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 179(%rax), %dl
movb 179(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 180(%rax), %dl
movb 180(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 181(%rax), %dl
movb 181(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 182(%rax), %dl
movb 182(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 183(%rax), %dl
movb 183(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 184(%rax), %dl
movb 184(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 185(%rax), %dl
movb 185(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 186(%rax), %dl
movb 186(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 187(%rax), %dl
movb 187(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 188(%rax), %dl
movb 188(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 189(%rax), %dl
movb 189(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 190(%rax), %dl
movb 190(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 191(%rax), %dl
movb 191(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 192(%rax), %dl
movb 192(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 193(%rax), %dl
movb 193(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 194(%rax), %dl
movb 194(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 195(%rax), %dl
movb 195(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 196(%rax), %dl
movb 196(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 197(%rax), %dl
movb 197(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 198(%rax), %dl
movb 198(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 199(%rax), %dl
movb 199(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 200(%rax), %dl
movb 200(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 201(%rax), %dl
movb 201(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 202(%rax), %dl
movb 202(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 203(%rax), %dl
movb 203(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 204(%rax), %dl
movb 204(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 205(%rax), %dl
movb 205(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 206(%rax), %dl
movb 206(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 207(%rax), %dl
movb 207(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 208(%rax), %dl
movb 208(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 209(%rax), %dl
movb 209(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 210(%rax), %dl
movb 210(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 211(%rax), %dl
movb 211(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 212(%rax), %dl
movb 212(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 213(%rax), %dl
movb 213(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 214(%rax), %dl
movb 214(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 215(%rax), %dl
movb 215(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 216(%rax), %dl
movb 216(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 217(%rax), %dl
movb 217(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 218(%rax), %dl
movb 218(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 219(%rax), %dl
movb 219(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 220(%rax), %dl
movb 220(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 221(%rax), %dl
movb 221(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 222(%rax), %dl
movb 222(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 223(%rax), %dl
movb 223(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 224(%rax), %dl
movb 224(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 225(%rax), %dl
movb 225(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 226(%rax), %dl
movb 226(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 227(%rax), %dl
movb 227(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 228(%rax), %dl
movb 228(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 229(%rax), %dl
movb 229(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 230(%rax), %dl
movb 230(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 231(%rax), %dl
movb 231(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 232(%rax), %dl
movb 232(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 233(%rax), %dl
movb 233(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 234(%rax), %dl
movb 234(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 235(%rax), %dl
movb 235(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 236(%rax), %dl
movb 236(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 237(%rax), %dl
movb 237(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 238(%rax), %dl
movb 238(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 239(%rax), %dl
movb 239(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 240(%rax), %dl
movb 240(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 241(%rax), %dl
movb 241(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 242(%rax), %dl
movb 242(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 243(%rax), %dl
movb 243(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 244(%rax), %dl
movb 244(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 245(%rax), %dl
movb 245(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 246(%rax), %dl
movb 246(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 247(%rax), %dl
movb 247(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 248(%rax), %dl
movb 248(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 249(%rax), %dl
movb 249(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 250(%rax), %dl
movb 250(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 251(%rax), %dl
movb 251(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 252(%rax), %dl
movb 252(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 253(%rax), %dl
movb 253(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 254(%rax), %dl
movb 254(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 255(%rax), %dl
movb 255(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 256(%rax), %dl
movb 256(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 257(%rax), %dl
movb 257(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 258(%rax), %dl
movb 258(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 259(%rax), %dl
movb 259(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 260(%rax), %dl
movb 260(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 261(%rax), %dl
movb 261(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 262(%rax), %dl
movb 262(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 263(%rax), %dl
movb 263(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 264(%rax), %dl
movb 264(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 265(%rax), %dl
movb 265(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 266(%rax), %dl
movb 266(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 267(%rax), %dl
movb 267(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 268(%rax), %dl
movb 268(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 269(%rax), %dl
movb 269(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 270(%rax), %dl
movb 270(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 271(%rax), %dl
movb 271(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 272(%rax), %dl
movb 272(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 273(%rax), %dl
movb 273(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 274(%rax), %dl
movb 274(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 275(%rax), %dl
movb 275(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 276(%rax), %dl
movb 276(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 277(%rax), %dl
movb 277(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 278(%rax), %dl
movb 278(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 279(%rax), %dl
movb 279(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 280(%rax), %dl
movb 280(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 281(%rax), %dl
movb 281(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 282(%rax), %dl
movb 282(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 283(%rax), %dl
movb 283(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 284(%rax), %dl
movb 284(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 285(%rax), %dl
movb 285(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 286(%rax), %dl
movb 286(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 287(%rax), %dl
movb 287(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 288(%rax), %dl
movb 288(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 289(%rax), %dl
movb 289(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 290(%rax), %dl
movb 290(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 291(%rax), %dl
movb 291(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 292(%rax), %dl
movb 292(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 293(%rax), %dl
movb 293(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 294(%rax), %dl
movb 294(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 295(%rax), %dl
movb 295(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 296(%rax), %dl
movb 296(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 297(%rax), %dl
movb 297(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 298(%rax), %dl
movb 298(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 299(%rax), %dl
movb 299(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 300(%rax), %dl
movb 300(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 301(%rax), %dl
movb 301(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 302(%rax), %dl
movb 302(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 303(%rax), %dl
movb 303(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 304(%rax), %dl
movb 304(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 305(%rax), %dl
movb 305(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 306(%rax), %dl
movb 306(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 307(%rax), %dl
movb 307(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 308(%rax), %dl
movb 308(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 309(%rax), %dl
movb 309(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 310(%rax), %dl
movb 310(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 311(%rax), %dl
movb 311(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 312(%rax), %dl
movb 312(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 313(%rax), %dl
movb 313(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 314(%rax), %dl
movb 314(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 315(%rax), %dl
movb 315(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 316(%rax), %dl
movb 316(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 317(%rax), %dl
movb 317(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 318(%rax), %dl
movb 318(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 319(%rax), %dl
movb 319(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 320(%rax), %dl
movb 320(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 321(%rax), %dl
movb 321(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 322(%rax), %dl
movb 322(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 323(%rax), %dl
movb 323(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 324(%rax), %dl
movb 324(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 325(%rax), %dl
movb 325(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 326(%rax), %dl
movb 326(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 327(%rax), %dl
movb 327(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 328(%rax), %dl
movb 328(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 329(%rax), %dl
movb 329(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 330(%rax), %dl
movb 330(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 331(%rax), %dl
movb 331(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 332(%rax), %dl
movb 332(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 333(%rax), %dl
movb 333(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 334(%rax), %dl
movb 334(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 335(%rax), %dl
movb 335(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 336(%rax), %dl
movb 336(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 337(%rax), %dl
movb 337(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 338(%rax), %dl
movb 338(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 339(%rax), %dl
movb 339(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 340(%rax), %dl
movb 340(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 341(%rax), %dl
movb 341(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 342(%rax), %dl
movb 342(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 343(%rax), %dl
movb 343(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 344(%rax), %dl
movb 344(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 345(%rax), %dl
movb 345(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 346(%rax), %dl
movb 346(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 347(%rax), %dl
movb 347(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 348(%rax), %dl
movb 348(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 349(%rax), %dl
movb 349(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 350(%rax), %dl
movb 350(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 351(%rax), %dl
movb 351(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 352(%rax), %dl
movb 352(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 353(%rax), %dl
movb 353(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 354(%rax), %dl
movb 354(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 355(%rax), %dl
movb 355(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 356(%rax), %dl
movb 356(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 357(%rax), %dl
movb 357(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 358(%rax), %dl
movb 358(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 359(%rax), %dl
movb 359(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 360(%rax), %dl
movb 360(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 361(%rax), %dl
movb 361(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 362(%rax), %dl
movb 362(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 363(%rax), %dl
movb 363(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 364(%rax), %dl
movb 364(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 365(%rax), %dl
movb 365(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 366(%rax), %dl
movb 366(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 367(%rax), %dl
movb 367(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 368(%rax), %dl
movb 368(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 369(%rax), %dl
movb 369(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 370(%rax), %dl
movb 370(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 371(%rax), %dl
movb 371(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 372(%rax), %dl
movb 372(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 373(%rax), %dl
movb 373(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 374(%rax), %dl
movb 374(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 375(%rax), %dl
movb 375(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 376(%rax), %dl
movb 376(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 377(%rax), %dl
movb 377(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 378(%rax), %dl
movb 378(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 379(%rax), %dl
movb 379(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 380(%rax), %dl
movb 380(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 381(%rax), %dl
movb 381(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 382(%rax), %dl
movb 382(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 383(%rax), %dl
movb 383(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 384(%rax), %dl
movb 384(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 385(%rax), %dl
movb 385(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 386(%rax), %dl
movb 386(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 387(%rax), %dl
movb 387(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 388(%rax), %dl
movb 388(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 389(%rax), %dl
movb 389(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 390(%rax), %dl
movb 390(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 391(%rax), %dl
movb 391(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 392(%rax), %dl
movb 392(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 393(%rax), %dl
movb 393(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 394(%rax), %dl
movb 394(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 395(%rax), %dl
movb 395(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 396(%rax), %dl
movb 396(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 397(%rax), %dl
movb 397(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 398(%rax), %dl
movb 398(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 399(%rax), %dl
movb 399(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 400(%rax), %dl
movb 400(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 401(%rax), %dl
movb 401(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 402(%rax), %dl
movb 402(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 403(%rax), %dl
movb 403(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 404(%rax), %dl
movb 404(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 405(%rax), %dl
movb 405(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 406(%rax), %dl
movb 406(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 407(%rax), %dl
movb 407(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 408(%rax), %dl
movb 408(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 409(%rax), %dl
movb 409(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 410(%rax), %dl
movb 410(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 411(%rax), %dl
movb 411(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 412(%rax), %dl
movb 412(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 413(%rax), %dl
movb 413(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 414(%rax), %dl
movb 414(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 415(%rax), %dl
movb 415(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 416(%rax), %dl
movb 416(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 417(%rax), %dl
movb 417(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 418(%rax), %dl
movb 418(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 419(%rax), %dl
movb 419(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 420(%rax), %dl
movb 420(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 421(%rax), %dl
movb 421(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 422(%rax), %dl
movb 422(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 423(%rax), %dl
movb 423(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 424(%rax), %dl
movb 424(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 425(%rax), %dl
movb 425(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 426(%rax), %dl
movb 426(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 427(%rax), %dl
movb 427(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 428(%rax), %dl
movb 428(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 429(%rax), %dl
movb 429(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 430(%rax), %dl
movb 430(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 431(%rax), %dl
movb 431(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 432(%rax), %dl
movb 432(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 433(%rax), %dl
movb 433(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 434(%rax), %dl
movb 434(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 435(%rax), %dl
movb 435(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 436(%rax), %dl
movb 436(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 437(%rax), %dl
movb 437(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 438(%rax), %dl
movb 438(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 439(%rax), %dl
movb 439(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 440(%rax), %dl
movb 440(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 441(%rax), %dl
movb 441(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 442(%rax), %dl
movb 442(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 443(%rax), %dl
movb 443(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 444(%rax), %dl
movb 444(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 445(%rax), %dl
movb 445(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 446(%rax), %dl
movb 446(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 447(%rax), %dl
movb 447(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 448(%rax), %dl
movb 448(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 449(%rax), %dl
movb 449(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 450(%rax), %dl
movb 450(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 451(%rax), %dl
movb 451(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 452(%rax), %dl
movb 452(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 453(%rax), %dl
movb 453(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 454(%rax), %dl
movb 454(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 455(%rax), %dl
movb 455(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 456(%rax), %dl
movb 456(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 457(%rax), %dl
movb 457(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 458(%rax), %dl
movb 458(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 459(%rax), %dl
movb 459(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 460(%rax), %dl
movb 460(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 461(%rax), %dl
movb 461(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 462(%rax), %dl
movb 462(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 463(%rax), %dl
movb 463(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 464(%rax), %dl
movb 464(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 465(%rax), %dl
movb 465(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 466(%rax), %dl
movb 466(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 467(%rax), %dl
movb 467(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 468(%rax), %dl
movb 468(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 469(%rax), %dl
movb 469(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 470(%rax), %dl
movb 470(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 471(%rax), %dl
movb 471(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 472(%rax), %dl
movb 472(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 473(%rax), %dl
movb 473(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 474(%rax), %dl
movb 474(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 475(%rax), %dl
movb 475(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 476(%rax), %dl
movb 476(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 477(%rax), %dl
movb 477(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 478(%rax), %dl
movb 478(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 479(%rax), %dl
movb 479(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 480(%rax), %dl
movb 480(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 481(%rax), %dl
movb 481(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 482(%rax), %dl
movb 482(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 483(%rax), %dl
movb 483(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 484(%rax), %dl
movb 484(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 485(%rax), %dl
movb 485(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 486(%rax), %dl
movb 486(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 487(%rax), %dl
movb 487(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 488(%rax), %dl
movb 488(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 489(%rax), %dl
movb 489(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 490(%rax), %dl
movb 490(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 491(%rax), %dl
movb 491(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 492(%rax), %dl
movb 492(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 493(%rax), %dl
movb 493(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 494(%rax), %dl
movb 494(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 495(%rax), %dl
movb 495(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 496(%rax), %dl
movb 496(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 497(%rax), %dl
movb 497(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 498(%rax), %dl
movb 498(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 499(%rax), %dl
movb 499(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 500(%rax), %dl
movb 500(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 501(%rax), %dl
movb 501(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 502(%rax), %dl
movb 502(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 503(%rax), %dl
movb 503(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 504(%rax), %dl
movb 504(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 505(%rax), %dl
movb 505(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 506(%rax), %dl
movb 506(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 507(%rax), %dl
movb 507(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 508(%rax), %dl
movb 508(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 509(%rax), %dl
movb 509(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 510(%rax), %dl
movb 510(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 511(%rax), %dl
movb 511(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 512(%rax), %dl
movb 512(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 513(%rax), %dl
movb 513(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 514(%rax), %dl
movb 514(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 515(%rax), %dl
movb 515(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 516(%rax), %dl
movb 516(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 517(%rax), %dl
movb 517(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 518(%rax), %dl
movb 518(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 519(%rax), %dl
movb 519(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 520(%rax), %dl
movb 520(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 521(%rax), %dl
movb 521(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 522(%rax), %dl
movb 522(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 523(%rax), %dl
movb 523(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 524(%rax), %dl
movb 524(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 525(%rax), %dl
movb 525(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 526(%rax), %dl
movb 526(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 527(%rax), %dl
movb 527(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 528(%rax), %dl
movb 528(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 529(%rax), %dl
movb 529(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 530(%rax), %dl
movb 530(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 531(%rax), %dl
movb 531(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 532(%rax), %dl
movb 532(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 533(%rax), %dl
movb 533(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 534(%rax), %dl
movb 534(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 535(%rax), %dl
movb 535(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 536(%rax), %dl
movb 536(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 537(%rax), %dl
movb 537(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 538(%rax), %dl
movb 538(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 539(%rax), %dl
movb 539(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 540(%rax), %dl
movb 540(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 541(%rax), %dl
movb 541(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 542(%rax), %dl
movb 542(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 543(%rax), %dl
movb 543(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 544(%rax), %dl
movb 544(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 545(%rax), %dl
movb 545(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 546(%rax), %dl
movb 546(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 547(%rax), %dl
movb 547(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 548(%rax), %dl
movb 548(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 549(%rax), %dl
movb 549(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 550(%rax), %dl
movb 550(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 551(%rax), %dl
movb 551(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 552(%rax), %dl
movb 552(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 553(%rax), %dl
movb 553(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 554(%rax), %dl
movb 554(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 555(%rax), %dl
movb 555(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 556(%rax), %dl
movb 556(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 557(%rax), %dl
movb 557(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 558(%rax), %dl
movb 558(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 559(%rax), %dl
movb 559(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 560(%rax), %dl
movb 560(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 561(%rax), %dl
movb 561(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 562(%rax), %dl
movb 562(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 563(%rax), %dl
movb 563(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 564(%rax), %dl
movb 564(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 565(%rax), %dl
movb 565(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 566(%rax), %dl
movb 566(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 567(%rax), %dl
movb 567(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 568(%rax), %dl
movb 568(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 569(%rax), %dl
movb 569(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 570(%rax), %dl
movb 570(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 571(%rax), %dl
movb 571(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 572(%rax), %dl
movb 572(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 573(%rax), %dl
movb 573(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 574(%rax), %dl
movb 574(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 575(%rax), %dl
movb 575(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 576(%rax), %dl
movb 576(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 577(%rax), %dl
movb 577(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 578(%rax), %dl
movb 578(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 579(%rax), %dl
movb 579(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 580(%rax), %dl
movb 580(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 581(%rax), %dl
movb 581(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 582(%rax), %dl
movb 582(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 583(%rax), %dl
movb 583(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 584(%rax), %dl
movb 584(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 585(%rax), %dl
movb 585(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 586(%rax), %dl
movb 586(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 587(%rax), %dl
movb 587(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 588(%rax), %dl
movb 588(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 589(%rax), %dl
movb 589(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 590(%rax), %dl
movb 590(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 591(%rax), %dl
movb 591(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 592(%rax), %dl
movb 592(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 593(%rax), %dl
movb 593(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 594(%rax), %dl
movb 594(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 595(%rax), %dl
movb 595(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 596(%rax), %dl
movb 596(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 597(%rax), %dl
movb 597(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 598(%rax), %dl
movb 598(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 599(%rax), %dl
movb 599(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 600(%rax), %dl
movb 600(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 601(%rax), %dl
movb 601(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 602(%rax), %dl
movb 602(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 603(%rax), %dl
movb 603(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 604(%rax), %dl
movb 604(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 605(%rax), %dl
movb 605(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 606(%rax), %dl
movb 606(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 607(%rax), %dl
movb 607(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 608(%rax), %dl
movb 608(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 609(%rax), %dl
movb 609(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 610(%rax), %dl
movb 610(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 611(%rax), %dl
movb 611(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 612(%rax), %dl
movb 612(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 613(%rax), %dl
movb 613(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 614(%rax), %dl
movb 614(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 615(%rax), %dl
movb 615(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 616(%rax), %dl
movb 616(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 617(%rax), %dl
movb 617(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 618(%rax), %dl
movb 618(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 619(%rax), %dl
movb 619(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 620(%rax), %dl
movb 620(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 621(%rax), %dl
movb 621(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 622(%rax), %dl
movb 622(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 623(%rax), %dl
movb 623(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 624(%rax), %dl
movb 624(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 625(%rax), %dl
movb 625(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 626(%rax), %dl
movb 626(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 627(%rax), %dl
movb 627(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 628(%rax), %dl
movb 628(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 629(%rax), %dl
movb 629(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 630(%rax), %dl
movb 630(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 631(%rax), %dl
movb 631(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 632(%rax), %dl
movb 632(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 633(%rax), %dl
movb 633(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 634(%rax), %dl
movb 634(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 635(%rax), %dl
movb 635(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 636(%rax), %dl
movb 636(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 637(%rax), %dl
movb 637(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 638(%rax), %dl
movb 638(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 639(%rax), %dl
movb 639(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 640(%rax), %dl
movb 640(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 641(%rax), %dl
movb 641(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 642(%rax), %dl
movb 642(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 643(%rax), %dl
movb 643(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 644(%rax), %dl
movb 644(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 645(%rax), %dl
movb 645(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 646(%rax), %dl
movb 646(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 647(%rax), %dl
movb 647(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 648(%rax), %dl
movb 648(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 649(%rax), %dl
movb 649(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 650(%rax), %dl
movb 650(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 651(%rax), %dl
movb 651(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 652(%rax), %dl
movb 652(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 653(%rax), %dl
movb 653(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 654(%rax), %dl
movb 654(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 655(%rax), %dl
movb 655(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 656(%rax), %dl
movb 656(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 657(%rax), %dl
movb 657(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 658(%rax), %dl
movb 658(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 659(%rax), %dl
movb 659(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 660(%rax), %dl
movb 660(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 661(%rax), %dl
movb 661(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 662(%rax), %dl
movb 662(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 663(%rax), %dl
movb 663(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 664(%rax), %dl
movb 664(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 665(%rax), %dl
movb 665(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 666(%rax), %dl
movb 666(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 667(%rax), %dl
movb 667(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 668(%rax), %dl
movb 668(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 669(%rax), %dl
movb 669(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 670(%rax), %dl
movb 670(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 671(%rax), %dl
movb 671(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 672(%rax), %dl
movb 672(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 673(%rax), %dl
movb 673(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 674(%rax), %dl
movb 674(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 675(%rax), %dl
movb 675(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 676(%rax), %dl
movb 676(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 677(%rax), %dl
movb 677(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 678(%rax), %dl
movb 678(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 679(%rax), %dl
movb 679(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 680(%rax), %dl
movb 680(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 681(%rax), %dl
movb 681(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 682(%rax), %dl
movb 682(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 683(%rax), %dl
movb 683(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 684(%rax), %dl
movb 684(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 685(%rax), %dl
movb 685(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 686(%rax), %dl
movb 686(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 687(%rax), %dl
movb 687(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 688(%rax), %dl
movb 688(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 689(%rax), %dl
movb 689(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 690(%rax), %dl
movb 690(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 691(%rax), %dl
movb 691(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 692(%rax), %dl
movb 692(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 693(%rax), %dl
movb 693(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 694(%rax), %dl
movb 694(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 695(%rax), %dl
movb 695(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 696(%rax), %dl
movb 696(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 697(%rax), %dl
movb 697(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 698(%rax), %dl
movb 698(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 699(%rax), %dl
movb 699(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 700(%rax), %dl
movb 700(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 701(%rax), %dl
movb 701(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 702(%rax), %dl
movb 702(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 703(%rax), %dl
movb 703(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 704(%rax), %dl
movb 704(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 705(%rax), %dl
movb 705(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 706(%rax), %dl
movb 706(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 707(%rax), %dl
movb 707(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 708(%rax), %dl
movb 708(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 709(%rax), %dl
movb 709(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 710(%rax), %dl
movb 710(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 711(%rax), %dl
movb 711(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 712(%rax), %dl
movb 712(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 713(%rax), %dl
movb 713(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 714(%rax), %dl
movb 714(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 715(%rax), %dl
movb 715(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 716(%rax), %dl
movb 716(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 717(%rax), %dl
movb 717(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 718(%rax), %dl
movb 718(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 719(%rax), %dl
movb 719(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 720(%rax), %dl
movb 720(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 721(%rax), %dl
movb 721(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 722(%rax), %dl
movb 722(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 723(%rax), %dl
movb 723(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 724(%rax), %dl
movb 724(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 725(%rax), %dl
movb 725(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 726(%rax), %dl
movb 726(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 727(%rax), %dl
movb 727(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 728(%rax), %dl
movb 728(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 729(%rax), %dl
movb 729(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 730(%rax), %dl
movb 730(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 731(%rax), %dl
movb 731(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 732(%rax), %dl
movb 732(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 733(%rax), %dl
movb 733(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 734(%rax), %dl
movb 734(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 735(%rax), %dl
movb 735(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 736(%rax), %dl
movb 736(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 737(%rax), %dl
movb 737(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 738(%rax), %dl
movb 738(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 739(%rax), %dl
movb 739(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 740(%rax), %dl
movb 740(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 741(%rax), %dl
movb 741(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 742(%rax), %dl
movb 742(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 743(%rax), %dl
movb 743(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 744(%rax), %dl
movb 744(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 745(%rax), %dl
movb 745(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 746(%rax), %dl
movb 746(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 747(%rax), %dl
movb 747(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 748(%rax), %dl
movb 748(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 749(%rax), %dl
movb 749(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 750(%rax), %dl
movb 750(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 751(%rax), %dl
movb 751(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 752(%rax), %dl
movb 752(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 753(%rax), %dl
movb 753(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 754(%rax), %dl
movb 754(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 755(%rax), %dl
movb 755(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 756(%rax), %dl
movb 756(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 757(%rax), %dl
movb 757(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 758(%rax), %dl
movb 758(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 759(%rax), %dl
movb 759(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 760(%rax), %dl
movb 760(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 761(%rax), %dl
movb 761(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 762(%rax), %dl
movb 762(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 763(%rax), %dl
movb 763(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 764(%rax), %dl
movb 764(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 765(%rax), %dl
movb 765(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 766(%rax), %dl
movb 766(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 767(%rax), %dl
movb 767(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 768(%rax), %dl
movb 768(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 769(%rax), %dl
movb 769(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 770(%rax), %dl
movb 770(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 771(%rax), %dl
movb 771(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 772(%rax), %dl
movb 772(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 773(%rax), %dl
movb 773(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 774(%rax), %dl
movb 774(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 775(%rax), %dl
movb 775(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 776(%rax), %dl
movb 776(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 777(%rax), %dl
movb 777(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 778(%rax), %dl
movb 778(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 779(%rax), %dl
movb 779(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 780(%rax), %dl
movb 780(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 781(%rax), %dl
movb 781(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 782(%rax), %dl
movb 782(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 783(%rax), %dl
movb 783(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 784(%rax), %dl
movb 784(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 785(%rax), %dl
movb 785(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 786(%rax), %dl
movb 786(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 787(%rax), %dl
movb 787(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 788(%rax), %dl
movb 788(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 789(%rax), %dl
movb 789(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 790(%rax), %dl
movb 790(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 791(%rax), %dl
movb 791(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 792(%rax), %dl
movb 792(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 793(%rax), %dl
movb 793(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 794(%rax), %dl
movb 794(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 795(%rax), %dl
movb 795(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 796(%rax), %dl
movb 796(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 797(%rax), %dl
movb 797(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 798(%rax), %dl
movb 798(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 799(%rax), %dl
movb 799(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 800(%rax), %dl
movb 800(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 801(%rax), %dl
movb 801(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 802(%rax), %dl
movb 802(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 803(%rax), %dl
movb 803(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 804(%rax), %dl
movb 804(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 805(%rax), %dl
movb 805(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 806(%rax), %dl
movb 806(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 807(%rax), %dl
movb 807(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 808(%rax), %dl
movb 808(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 809(%rax), %dl
movb 809(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 810(%rax), %dl
movb 810(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 811(%rax), %dl
movb 811(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 812(%rax), %dl
movb 812(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 813(%rax), %dl
movb 813(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 814(%rax), %dl
movb 814(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 815(%rax), %dl
movb 815(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 816(%rax), %dl
movb 816(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 817(%rax), %dl
movb 817(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 818(%rax), %dl
movb 818(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 819(%rax), %dl
movb 819(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 820(%rax), %dl
movb 820(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 821(%rax), %dl
movb 821(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 822(%rax), %dl
movb 822(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 823(%rax), %dl
movb 823(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 824(%rax), %dl
movb 824(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 825(%rax), %dl
movb 825(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 826(%rax), %dl
movb 826(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 827(%rax), %dl
movb 827(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 828(%rax), %dl
movb 828(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 829(%rax), %dl
movb 829(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 830(%rax), %dl
movb 830(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 831(%rax), %dl
movb 831(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 832(%rax), %dl
movb 832(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 833(%rax), %dl
movb 833(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 834(%rax), %dl
movb 834(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 835(%rax), %dl
movb 835(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 836(%rax), %dl
movb 836(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 837(%rax), %dl
movb 837(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 838(%rax), %dl
movb 838(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 839(%rax), %dl
movb 839(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 840(%rax), %dl
movb 840(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 841(%rax), %dl
movb 841(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 842(%rax), %dl
movb 842(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 843(%rax), %dl
movb 843(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 844(%rax), %dl
movb 844(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 845(%rax), %dl
movb 845(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 846(%rax), %dl
movb 846(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 847(%rax), %dl
movb 847(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 848(%rax), %dl
movb 848(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 849(%rax), %dl
movb 849(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 850(%rax), %dl
movb 850(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 851(%rax), %dl
movb 851(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 852(%rax), %dl
movb 852(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 853(%rax), %dl
movb 853(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 854(%rax), %dl
movb 854(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 855(%rax), %dl
movb 855(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 856(%rax), %dl
movb 856(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 857(%rax), %dl
movb 857(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 858(%rax), %dl
movb 858(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 859(%rax), %dl
movb 859(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 860(%rax), %dl
movb 860(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 861(%rax), %dl
movb 861(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 862(%rax), %dl
movb 862(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 863(%rax), %dl
movb 863(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 864(%rax), %dl
movb 864(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 865(%rax), %dl
movb 865(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 866(%rax), %dl
movb 866(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 867(%rax), %dl
movb 867(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 868(%rax), %dl
movb 868(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 869(%rax), %dl
movb 869(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 870(%rax), %dl
movb 870(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 871(%rax), %dl
movb 871(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 872(%rax), %dl
movb 872(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 873(%rax), %dl
movb 873(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 874(%rax), %dl
movb 874(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 875(%rax), %dl
movb 875(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 876(%rax), %dl
movb 876(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 877(%rax), %dl
movb 877(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 878(%rax), %dl
movb 878(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 879(%rax), %dl
movb 879(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 880(%rax), %dl
movb 880(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 881(%rax), %dl
movb 881(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 882(%rax), %dl
movb 882(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 883(%rax), %dl
movb 883(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 884(%rax), %dl
movb 884(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 885(%rax), %dl
movb 885(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 886(%rax), %dl
movb 886(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 887(%rax), %dl
movb 887(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 888(%rax), %dl
movb 888(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 889(%rax), %dl
movb 889(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 890(%rax), %dl
movb 890(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 891(%rax), %dl
movb 891(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 892(%rax), %dl
movb 892(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 893(%rax), %dl
movb 893(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 894(%rax), %dl
movb 894(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 895(%rax), %dl
movb 895(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 896(%rax), %dl
movb 896(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 897(%rax), %dl
movb 897(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 898(%rax), %dl
movb 898(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 899(%rax), %dl
movb 899(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 900(%rax), %dl
movb 900(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 901(%rax), %dl
movb 901(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 902(%rax), %dl
movb 902(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 903(%rax), %dl
movb 903(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 904(%rax), %dl
movb 904(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 905(%rax), %dl
movb 905(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 906(%rax), %dl
movb 906(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 907(%rax), %dl
movb 907(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 908(%rax), %dl
movb 908(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 909(%rax), %dl
movb 909(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 910(%rax), %dl
movb 910(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 911(%rax), %dl
movb 911(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 912(%rax), %dl
movb 912(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 913(%rax), %dl
movb 913(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 914(%rax), %dl
movb 914(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 915(%rax), %dl
movb 915(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 916(%rax), %dl
movb 916(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 917(%rax), %dl
movb 917(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 918(%rax), %dl
movb 918(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 919(%rax), %dl
movb 919(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 920(%rax), %dl
movb 920(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 921(%rax), %dl
movb 921(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 922(%rax), %dl
movb 922(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 923(%rax), %dl
movb 923(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 924(%rax), %dl
movb 924(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 925(%rax), %dl
movb 925(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 926(%rax), %dl
movb 926(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 927(%rax), %dl
movb 927(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 928(%rax), %dl
movb 928(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 929(%rax), %dl
movb 929(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 930(%rax), %dl
movb 930(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 931(%rax), %dl
movb 931(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 932(%rax), %dl
movb 932(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 933(%rax), %dl
movb 933(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 934(%rax), %dl
movb 934(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 935(%rax), %dl
movb 935(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 936(%rax), %dl
movb 936(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 937(%rax), %dl
movb 937(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 938(%rax), %dl
movb 938(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 939(%rax), %dl
movb 939(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 940(%rax), %dl
movb 940(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 941(%rax), %dl
movb 941(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 942(%rax), %dl
movb 942(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 943(%rax), %dl
movb 943(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 944(%rax), %dl
movb 944(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 945(%rax), %dl
movb 945(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 946(%rax), %dl
movb 946(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 947(%rax), %dl
movb 947(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 948(%rax), %dl
movb 948(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 949(%rax), %dl
movb 949(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 950(%rax), %dl
movb 950(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 951(%rax), %dl
movb 951(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 952(%rax), %dl
movb 952(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 953(%rax), %dl
movb 953(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 954(%rax), %dl
movb 954(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 955(%rax), %dl
movb 955(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 956(%rax), %dl
movb 956(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 957(%rax), %dl
movb 957(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 958(%rax), %dl
movb 958(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 959(%rax), %dl
movb 959(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 960(%rax), %dl
movb 960(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 961(%rax), %dl
movb 961(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 962(%rax), %dl
movb 962(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 963(%rax), %dl
movb 963(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 964(%rax), %dl
movb 964(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 965(%rax), %dl
movb 965(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 966(%rax), %dl
movb 966(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 967(%rax), %dl
movb 967(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 968(%rax), %dl
movb 968(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 969(%rax), %dl
movb 969(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 970(%rax), %dl
movb 970(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 971(%rax), %dl
movb 971(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 972(%rax), %dl
movb 972(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 973(%rax), %dl
movb 973(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 974(%rax), %dl
movb 974(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 975(%rax), %dl
movb 975(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 976(%rax), %dl
movb 976(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 977(%rax), %dl
movb 977(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 978(%rax), %dl
movb 978(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 979(%rax), %dl
movb 979(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 980(%rax), %dl
movb 980(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 981(%rax), %dl
movb 981(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 982(%rax), %dl
movb 982(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 983(%rax), %dl
movb 983(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 984(%rax), %dl
movb 984(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 985(%rax), %dl
movb 985(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 986(%rax), %dl
movb 986(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 987(%rax), %dl
movb 987(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 988(%rax), %dl
movb 988(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 989(%rax), %dl
movb 989(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 990(%rax), %dl
movb 990(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 991(%rax), %dl
movb 991(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 992(%rax), %dl
movb 992(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 993(%rax), %dl
movb 993(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 994(%rax), %dl
movb 994(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 995(%rax), %dl
movb 995(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 996(%rax), %dl
movb 996(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 997(%rax), %dl
movb 997(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 998(%rax), %dl
movb 998(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 999(%rax), %dl
movb 999(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1000(%rax), %dl
movb 1000(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1001(%rax), %dl
movb 1001(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1002(%rax), %dl
movb 1002(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1003(%rax), %dl
movb 1003(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1004(%rax), %dl
movb 1004(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1005(%rax), %dl
movb 1005(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1006(%rax), %dl
movb 1006(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1007(%rax), %dl
movb 1007(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1008(%rax), %dl
movb 1008(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1009(%rax), %dl
movb 1009(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1010(%rax), %dl
movb 1010(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1011(%rax), %dl
movb 1011(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1012(%rax), %dl
movb 1012(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1013(%rax), %dl
movb 1013(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1014(%rax), %dl
movb 1014(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1015(%rax), %dl
movb 1015(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1016(%rax), %dl
movb 1016(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1017(%rax), %dl
movb 1017(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1018(%rax), %dl
movb 1018(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1019(%rax), %dl
movb 1019(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1020(%rax), %dl
movb 1020(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1021(%rax), %dl
movb 1021(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1022(%rax), %dl
movb 1022(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1023(%rax), %dl
movb 1023(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1024(%rax), %dl
movb 1024(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1025(%rax), %dl
movb 1025(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1026(%rax), %dl
movb 1026(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1027(%rax), %dl
movb 1027(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1028(%rax), %dl
movb 1028(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1029(%rax), %dl
movb 1029(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1030(%rax), %dl
movb 1030(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1031(%rax), %dl
movb 1031(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1032(%rax), %dl
movb 1032(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1033(%rax), %dl
movb 1033(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1034(%rax), %dl
movb 1034(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1035(%rax), %dl
movb 1035(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1036(%rax), %dl
movb 1036(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1037(%rax), %dl
movb 1037(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1038(%rax), %dl
movb 1038(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1039(%rax), %dl
movb 1039(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1040(%rax), %dl
movb 1040(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1041(%rax), %dl
movb 1041(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1042(%rax), %dl
movb 1042(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1043(%rax), %dl
movb 1043(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1044(%rax), %dl
movb 1044(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1045(%rax), %dl
movb 1045(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1046(%rax), %dl
movb 1046(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1047(%rax), %dl
movb 1047(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1048(%rax), %dl
movb 1048(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1049(%rax), %dl
movb 1049(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1050(%rax), %dl
movb 1050(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1051(%rax), %dl
movb 1051(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1052(%rax), %dl
movb 1052(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1053(%rax), %dl
movb 1053(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1054(%rax), %dl
movb 1054(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1055(%rax), %dl
movb 1055(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1056(%rax), %dl
movb 1056(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1057(%rax), %dl
movb 1057(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1058(%rax), %dl
movb 1058(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1059(%rax), %dl
movb 1059(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1060(%rax), %dl
movb 1060(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1061(%rax), %dl
movb 1061(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1062(%rax), %dl
movb 1062(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1063(%rax), %dl
movb 1063(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1064(%rax), %dl
movb 1064(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1065(%rax), %dl
movb 1065(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1066(%rax), %dl
movb 1066(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1067(%rax), %dl
movb 1067(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1068(%rax), %dl
movb 1068(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1069(%rax), %dl
movb 1069(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1070(%rax), %dl
movb 1070(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1071(%rax), %dl
movb 1071(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1072(%rax), %dl
movb 1072(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1073(%rax), %dl
movb 1073(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1074(%rax), %dl
movb 1074(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1075(%rax), %dl
movb 1075(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1076(%rax), %dl
movb 1076(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1077(%rax), %dl
movb 1077(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1078(%rax), %dl
movb 1078(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1079(%rax), %dl
movb 1079(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1080(%rax), %dl
movb 1080(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1081(%rax), %dl
movb 1081(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1082(%rax), %dl
movb 1082(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1083(%rax), %dl
movb 1083(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1084(%rax), %dl
movb 1084(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1085(%rax), %dl
movb 1085(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1086(%rax), %dl
movb 1086(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1087(%rax), %al
movb 1087(%rsi), %dl
xorb %dl, %al
movzbq %al, %rax
orq %rax, %rcx
negq %rcx
shrq $63, %rcx
movq 16(%rsp), %rax
addq $64, %rax
addq $2304, %rax
leaq 144(%rsp), %rdx
negq %rcx
movb (%rdx), %dil
movb (%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, (%rdx)
movb 1(%rdx), %dil
movb 1(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 1(%rdx)
movb 2(%rdx), %dil
movb 2(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 2(%rdx)
movb 3(%rdx), %dil
movb 3(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 3(%rdx)
movb 4(%rdx), %dil
movb 4(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 4(%rdx)
movb 5(%rdx), %dil
movb 5(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 5(%rdx)
movb 6(%rdx), %dil
movb 6(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 6(%rdx)
movb 7(%rdx), %dil
movb 7(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 7(%rdx)
movb 8(%rdx), %dil
movb 8(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 8(%rdx)
movb 9(%rdx), %dil
movb 9(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 9(%rdx)
movb 10(%rdx), %dil
movb 10(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 10(%rdx)
movb 11(%rdx), %dil
movb 11(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 11(%rdx)
movb 12(%rdx), %dil
movb 12(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 12(%rdx)
movb 13(%rdx), %dil
movb 13(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 13(%rdx)
movb 14(%rdx), %dil
movb 14(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 14(%rdx)
movb 15(%rdx), %dil
movb 15(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 15(%rdx)
movb 16(%rdx), %dil
movb 16(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 16(%rdx)
movb 17(%rdx), %dil
movb 17(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 17(%rdx)
movb 18(%rdx), %dil
movb 18(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 18(%rdx)
movb 19(%rdx), %dil
movb 19(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 19(%rdx)
movb 20(%rdx), %dil
movb 20(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 20(%rdx)
movb 21(%rdx), %dil
movb 21(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 21(%rdx)
movb 22(%rdx), %dil
movb 22(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 22(%rdx)
movb 23(%rdx), %dil
movb 23(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 23(%rdx)
movb 24(%rdx), %dil
movb 24(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 24(%rdx)
movb 25(%rdx), %dil
movb 25(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 25(%rdx)
movb 26(%rdx), %dil
movb 26(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 26(%rdx)
movb 27(%rdx), %dil
movb 27(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 27(%rdx)
movb 28(%rdx), %dil
movb 28(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 28(%rdx)
movb 29(%rdx), %dil
movb 29(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 29(%rdx)
movb 30(%rdx), %dil
movb 30(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 30(%rdx)
movb 31(%rdx), %dil
movb 31(%rax), %al
xorb %dil, %al
andb %cl, %al
xorb %al, %dil
movb %dil, 31(%rdx)
movq $1088, %rax
leaq 176(%rsp), %rcx
leaq -232(%rsp), %rsp
call L_sha3_256$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$2:
leaq 232(%rsp), %rsp
movq (%rsp), %rax
movq $32, %rcx
leaq 144(%rsp), %rdx
leaq -216(%rsp), %rsp
call L_shake256_64$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$1:
leaq 216(%rsp), %rsp
xorq %rax, %rax
movq 14504(%rsp), %r15
movq 14512(%rsp), %r14
movq 14520(%rsp), %r13
movq 14528(%rsp), %r12
movq 14536(%rsp), %rbp
movq 14544(%rsp), %rbx
movq 14552(%rsp), %rsp
ret
_jade_kem_kyber_kyber768_amd64_ref_enc_derand:
jade_kem_kyber_kyber768_amd64_ref_enc_derand:
movq %rsp, %rax
leaq -88(%rsp), %rsp
andq $-8, %rsp
movq %rax, 80(%rsp)
movq %r15, 32(%rsp)
movq %r14, 40(%rsp)
movq %r13, 48(%rsp)
movq %r12, 56(%rsp)
movq %rbp, 64(%rsp)
movq %rbx, 72(%rsp)
movq %rsp, %rax
movb (%rcx), %r8b
movb %r8b, (%rax)
movb 1(%rcx), %r8b
movb %r8b, 1(%rax)
movb 2(%rcx), %r8b
movb %r8b, 2(%rax)
movb 3(%rcx), %r8b
movb %r8b, 3(%rax)
movb 4(%rcx), %r8b
movb %r8b, 4(%rax)
movb 5(%rcx), %r8b
movb %r8b, 5(%rax)
movb 6(%rcx), %r8b
movb %r8b, 6(%rax)
movb 7(%rcx), %r8b
movb %r8b, 7(%rax)
movb 8(%rcx), %r8b
movb %r8b, 8(%rax)
movb 9(%rcx), %r8b
movb %r8b, 9(%rax)
movb 10(%rcx), %r8b
movb %r8b, 10(%rax)
movb 11(%rcx), %r8b
movb %r8b, 11(%rax)
movb 12(%rcx), %r8b
movb %r8b, 12(%rax)
movb 13(%rcx), %r8b
movb %r8b, 13(%rax)
movb 14(%rcx), %r8b
movb %r8b, 14(%rax)
movb 15(%rcx), %r8b
movb %r8b, 15(%rax)
movb 16(%rcx), %r8b
movb %r8b, 16(%rax)
movb 17(%rcx), %r8b
movb %r8b, 17(%rax)
movb 18(%rcx), %r8b
movb %r8b, 18(%rax)
movb 19(%rcx), %r8b
movb %r8b, 19(%rax)
movb 20(%rcx), %r8b
movb %r8b, 20(%rax)
movb 21(%rcx), %r8b
movb %r8b, 21(%rax)
movb 22(%rcx), %r8b
movb %r8b, 22(%rax)
movb 23(%rcx), %r8b
movb %r8b, 23(%rax)
movb 24(%rcx), %r8b
movb %r8b, 24(%rax)
movb 25(%rcx), %r8b
movb %r8b, 25(%rax)
movb 26(%rcx), %r8b
movb %r8b, 26(%rax)
movb 27(%rcx), %r8b
movb %r8b, 27(%rax)
movb 28(%rcx), %r8b
movb %r8b, 28(%rax)
movb 29(%rcx), %r8b
movb %r8b, 29(%rax)
movb 30(%rcx), %r8b
movb %r8b, 30(%rax)
movb 31(%rcx), %cl
movb %cl, 31(%rax)
movq %rsp, %rax
leaq -13400(%rsp), %rsp
call L_crypto_kem_enc_derand_jazz$1
Ljade_kem_kyber_kyber768_amd64_ref_enc_derand$1:
leaq 13400(%rsp), %rsp
xorq %rax, %rax
movq 32(%rsp), %r15
movq 40(%rsp), %r14
movq 48(%rsp), %r13
movq 56(%rsp), %r12
movq 64(%rsp), %rbp
movq 72(%rsp), %rbx
movq 80(%rsp), %rsp
ret
_jade_kem_kyber_kyber768_amd64_ref_keypair_derand:
jade_kem_kyber_kyber768_amd64_ref_keypair_derand:
movq %rsp, %rax
leaq -120(%rsp), %rsp
andq $-8, %rsp
movq %rax, 112(%rsp)
movq %r15, 64(%rsp)
movq %r14, 72(%rsp)
movq %r13, 80(%rsp)
movq %r12, 88(%rsp)
movq %rbp, 96(%rsp)
movq %rbx, 104(%rsp)
movq %rsp, %rax
movb (%rdx), %cl
movb %cl, (%rax)
movb 1(%rdx), %cl
movb %cl, 1(%rax)
movb 2(%rdx), %cl
movb %cl, 2(%rax)
movb 3(%rdx), %cl
movb %cl, 3(%rax)
movb 4(%rdx), %cl
movb %cl, 4(%rax)
movb 5(%rdx), %cl
movb %cl, 5(%rax)
movb 6(%rdx), %cl
movb %cl, 6(%rax)
movb 7(%rdx), %cl
movb %cl, 7(%rax)
movb 8(%rdx), %cl
movb %cl, 8(%rax)
movb 9(%rdx), %cl
movb %cl, 9(%rax)
movb 10(%rdx), %cl
movb %cl, 10(%rax)
movb 11(%rdx), %cl
movb %cl, 11(%rax)
movb 12(%rdx), %cl
movb %cl, 12(%rax)
movb 13(%rdx), %cl
movb %cl, 13(%rax)
movb 14(%rdx), %cl
movb %cl, 14(%rax)
movb 15(%rdx), %cl
movb %cl, 15(%rax)
movb 16(%rdx), %cl
movb %cl, 16(%rax)
movb 17(%rdx), %cl
movb %cl, 17(%rax)
movb 18(%rdx), %cl
movb %cl, 18(%rax)
movb 19(%rdx), %cl
movb %cl, 19(%rax)
movb 20(%rdx), %cl
movb %cl, 20(%rax)
movb 21(%rdx), %cl
movb %cl, 21(%rax)
movb 22(%rdx), %cl
movb %cl, 22(%rax)
movb 23(%rdx), %cl
movb %cl, 23(%rax)
movb 24(%rdx), %cl
movb %cl, 24(%rax)
movb 25(%rdx), %cl
movb %cl, 25(%rax)
movb 26(%rdx), %cl
movb %cl, 26(%rax)
movb 27(%rdx), %cl
movb %cl, 27(%rax)
movb 28(%rdx), %cl
movb %cl, 28(%rax)
movb 29(%rdx), %cl
movb %cl, 29(%rax)
movb 30(%rdx), %cl
movb %cl, 30(%rax)
movb 31(%rdx), %cl
movb %cl, 31(%rax)
movb 32(%rdx), %cl
movb %cl, 32(%rax)
movb 33(%rdx), %cl
movb %cl, 33(%rax)
movb 34(%rdx), %cl
movb %cl, 34(%rax)
movb 35(%rdx), %cl
movb %cl, 35(%rax)
movb 36(%rdx), %cl
movb %cl, 36(%rax)
movb 37(%rdx), %cl
movb %cl, 37(%rax)
movb 38(%rdx), %cl
movb %cl, 38(%rax)
movb 39(%rdx), %cl
movb %cl, 39(%rax)
movb 40(%rdx), %cl
movb %cl, 40(%rax)
movb 41(%rdx), %cl
movb %cl, 41(%rax)
movb 42(%rdx), %cl
movb %cl, 42(%rax)
movb 43(%rdx), %cl
movb %cl, 43(%rax)
movb 44(%rdx), %cl
movb %cl, 44(%rax)
movb 45(%rdx), %cl
movb %cl, 45(%rax)
movb 46(%rdx), %cl
movb %cl, 46(%rax)
movb 47(%rdx), %cl
movb %cl, 47(%rax)
movb 48(%rdx), %cl
movb %cl, 48(%rax)
movb 49(%rdx), %cl
movb %cl, 49(%rax)
movb 50(%rdx), %cl
movb %cl, 50(%rax)
movb 51(%rdx), %cl
movb %cl, 51(%rax)
movb 52(%rdx), %cl
movb %cl, 52(%rax)
movb 53(%rdx), %cl
movb %cl, 53(%rax)
movb 54(%rdx), %cl
movb %cl, 54(%rax)
movb 55(%rdx), %cl
movb %cl, 55(%rax)
movb 56(%rdx), %cl
movb %cl, 56(%rax)
movb 57(%rdx), %cl
movb %cl, 57(%rax)
movb 58(%rdx), %cl
movb %cl, 58(%rax)
movb 59(%rdx), %cl
movb %cl, 59(%rax)
movb 60(%rdx), %cl
movb %cl, 60(%rax)
movb 61(%rdx), %cl
movb %cl, 61(%rax)
movb 62(%rdx), %cl
movb %cl, 62(%rax)
movb 63(%rdx), %cl
movb %cl, 63(%rax)
movq %rsp, %rax
leaq -10320(%rsp), %rsp
call L_crypto_kem_keypair_derand_jazz$1
Ljade_kem_kyber_kyber768_amd64_ref_keypair_derand$1:
leaq 10320(%rsp), %rsp
xorq %rax, %rax
movq 64(%rsp), %r15
movq 72(%rsp), %r14
movq 80(%rsp), %r13
movq 88(%rsp), %r12
movq 96(%rsp), %rbp
movq 104(%rsp), %rbx
movq 112(%rsp), %rsp
ret
L_crypto_kem_enc_derand_jazz$1:
movq %rdx, 8(%rsp)
movq %rdi, 16(%rsp)
movq %rsi, 24(%rsp)
movq (%rax), %rcx
movq %rcx, 72(%rsp)
movq 8(%rax), %rcx
movq %rcx, 80(%rsp)
movq 16(%rax), %rcx
movq %rcx, 88(%rsp)
movq 24(%rax), %rax
movq %rax, 96(%rsp)
leaq 136(%rsp), %rax
leaq 72(%rsp), %rdx
leaq -208(%rsp), %rsp
call L_sha3_256_32$1
L_crypto_kem_enc_derand_jazz$208:
leaq 208(%rsp), %rsp
movq 8(%rsp), %rsi
movq $1184, %rax
leaq 168(%rsp), %rcx
leaq -232(%rsp), %rsp
call L_sha3_256$1
L_crypto_kem_enc_derand_jazz$207:
leaq 232(%rsp), %rsp
leaq 72(%rsp), %rax
leaq 136(%rsp), %rdx
leaq -208(%rsp), %rsp
call L_sha3_512_64$1
L_crypto_kem_enc_derand_jazz$206:
leaq 208(%rsp), %rsp
movq 8(%rsp), %rdx
leaq 136(%rsp), %rcx
leaq 104(%rsp), %rax
movq %rdx, %rsi
leaq 2448(%rsp), %rdi
call L_poly_frombytes$1
L_crypto_kem_enc_derand_jazz$205:
addq $384, %rsi
leaq 2960(%rsp), %rdi
call L_poly_frombytes$1
L_crypto_kem_enc_derand_jazz$204:
addq $384, %rsi
leaq 3472(%rsp), %rdi
call L_poly_frombytes$1
L_crypto_kem_enc_derand_jazz$203:
movq $0, %rsi
addq $1152, %rdx
jmp L_crypto_kem_enc_derand_jazz$201
L_crypto_kem_enc_derand_jazz$202:
movq (%rdx), %rdi
movq %rdi, 40(%rsp,%rsi,8)
addq $8, %rdx
incq %rsi
L_crypto_kem_enc_derand_jazz$201:
cmpq $4, %rsi
jb L_crypto_kem_enc_derand_jazz$202
leaq 912(%rsp), %rdx
call L_i_poly_frommsg$1
L_crypto_kem_enc_derand_jazz$200:
movq $1, %rcx
movq %rcx, 8(%rsp)
movb 40(%rsp), %cl
movb %cl, 13200(%rsp)
movb 41(%rsp), %cl
movb %cl, 13201(%rsp)
movb 42(%rsp), %cl
movb %cl, 13202(%rsp)
movb 43(%rsp), %cl
movb %cl, 13203(%rsp)
movb 44(%rsp), %cl
movb %cl, 13204(%rsp)
movb 45(%rsp), %cl
movb %cl, 13205(%rsp)
movb 46(%rsp), %cl
movb %cl, 13206(%rsp)
movb 47(%rsp), %cl
movb %cl, 13207(%rsp)
movb 48(%rsp), %cl
movb %cl, 13208(%rsp)
movb 49(%rsp), %cl
movb %cl, 13209(%rsp)
movb 50(%rsp), %cl
movb %cl, 13210(%rsp)
movb 51(%rsp), %cl
movb %cl, 13211(%rsp)
movb 52(%rsp), %cl
movb %cl, 13212(%rsp)
movb 53(%rsp), %cl
movb %cl, 13213(%rsp)
movb 54(%rsp), %cl
movb %cl, 13214(%rsp)
movb 55(%rsp), %cl
movb %cl, 13215(%rsp)
movb 56(%rsp), %cl
movb %cl, 13216(%rsp)
movb 57(%rsp), %cl
movb %cl, 13217(%rsp)
movb 58(%rsp), %cl
movb %cl, 13218(%rsp)
movb 59(%rsp), %cl
movb %cl, 13219(%rsp)
movb 60(%rsp), %cl
movb %cl, 13220(%rsp)
movb 61(%rsp), %cl
movb %cl, 13221(%rsp)
movb 62(%rsp), %cl
movb %cl, 13222(%rsp)
movb 63(%rsp), %cl
movb %cl, 13223(%rsp)
movb 64(%rsp), %cl
movb %cl, 13224(%rsp)
movb 65(%rsp), %cl
movb %cl, 13225(%rsp)
movb 66(%rsp), %cl
movb %cl, 13226(%rsp)
movb 67(%rsp), %cl
movb %cl, 13227(%rsp)
movb 68(%rsp), %cl
movb %cl, 13228(%rsp)
movb 69(%rsp), %cl
movb %cl, 13229(%rsp)
movb 70(%rsp), %cl
movb %cl, 13230(%rsp)
movb 71(%rsp), %cl
movb %cl, 13231(%rsp)
movq 8(%rsp), %rcx
cmpq $0, %rcx
je L_crypto_kem_enc_derand_jazz$198
movb $0, 13232(%rsp)
movb $0, 13233(%rsp)
jmp L_crypto_kem_enc_derand_jazz$199
L_crypto_kem_enc_derand_jazz$198:
movb $0, 13232(%rsp)
movb $0, 13233(%rsp)
L_crypto_kem_enc_derand_jazz$199:
leaq 200(%rsp), %rcx
leaq 13200(%rsp), %rdx
call L_shake128_absorb34$1
L_crypto_kem_enc_derand_jazz$197:
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$195
L_crypto_kem_enc_derand_jazz$196:
movq %rcx, 400(%rsp,%rcx,8)
incq %rcx
L_crypto_kem_enc_derand_jazz$195:
cmpq $64, %rcx
jb L_crypto_kem_enc_derand_jazz$196
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$187
L_crypto_kem_enc_derand_jazz$188:
movq %rcx, 32(%rsp)
leaq 200(%rsp), %rcx
leaq 13234(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
L_crypto_kem_enc_derand_jazz$194:
leaq 8(%rsp), %rsp
movq 32(%rsp), %rcx
movq $0, %rdx
L_crypto_kem_enc_derand_jazz$189:
movzbw 13234(%rsp,%rdx), %si
incq %rdx
movzbw 13234(%rsp,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw 13234(%rsp,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb L_crypto_kem_enc_derand_jazz$192
cmpq $256, %rcx
jnb L_crypto_kem_enc_derand_jazz$192
movw %si, 400(%rsp,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$193:
L_crypto_kem_enc_derand_jazz$192:
cmpw $3329, %r8w
jnb L_crypto_kem_enc_derand_jazz$190
cmpq $256, %rcx
jnb L_crypto_kem_enc_derand_jazz$190
movw %r8w, 400(%rsp,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$191:
L_crypto_kem_enc_derand_jazz$190:
cmpq $166, %rdx
jb L_crypto_kem_enc_derand_jazz$189
L_crypto_kem_enc_derand_jazz$187:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$188
movq $0, %rcx
movq $0, %rdx
jmp L_crypto_kem_enc_derand_jazz$185
L_crypto_kem_enc_derand_jazz$186:
movw 400(%rsp,%rcx,2), %si
movw %si, 8592(%rsp,%rdx,2)
incq %rcx
incq %rdx
L_crypto_kem_enc_derand_jazz$185:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$186
movq 8(%rsp), %rcx
cmpq $0, %rcx
je L_crypto_kem_enc_derand_jazz$183
movb $0, 13232(%rsp)
movb $1, 13233(%rsp)
jmp L_crypto_kem_enc_derand_jazz$184
L_crypto_kem_enc_derand_jazz$183:
movb $1, 13232(%rsp)
movb $0, 13233(%rsp)
L_crypto_kem_enc_derand_jazz$184:
leaq 200(%rsp), %rcx
leaq 13200(%rsp), %rdx
call L_shake128_absorb34$1
L_crypto_kem_enc_derand_jazz$182:
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$180
L_crypto_kem_enc_derand_jazz$181:
movq %rcx, 400(%rsp,%rcx,8)
incq %rcx
L_crypto_kem_enc_derand_jazz$180:
cmpq $64, %rcx
jb L_crypto_kem_enc_derand_jazz$181
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$172
L_crypto_kem_enc_derand_jazz$173:
movq %rcx, 32(%rsp)
leaq 200(%rsp), %rcx
leaq 13234(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
L_crypto_kem_enc_derand_jazz$179:
leaq 8(%rsp), %rsp
movq 32(%rsp), %rcx
movq $0, %rdx
L_crypto_kem_enc_derand_jazz$174:
movzbw 13234(%rsp,%rdx), %si
incq %rdx
movzbw 13234(%rsp,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw 13234(%rsp,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb L_crypto_kem_enc_derand_jazz$177
cmpq $256, %rcx
jnb L_crypto_kem_enc_derand_jazz$177
movw %si, 400(%rsp,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$178:
L_crypto_kem_enc_derand_jazz$177:
cmpw $3329, %r8w
jnb L_crypto_kem_enc_derand_jazz$175
cmpq $256, %rcx
jnb L_crypto_kem_enc_derand_jazz$175
movw %r8w, 400(%rsp,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$176:
L_crypto_kem_enc_derand_jazz$175:
cmpq $166, %rdx
jb L_crypto_kem_enc_derand_jazz$174
L_crypto_kem_enc_derand_jazz$172:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$173
movq $0, %rcx
movq $256, %rdx
jmp L_crypto_kem_enc_derand_jazz$170
L_crypto_kem_enc_derand_jazz$171:
movw 400(%rsp,%rcx,2), %si
movw %si, 8592(%rsp,%rdx,2)
incq %rcx
incq %rdx
L_crypto_kem_enc_derand_jazz$170:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$171
movq 8(%rsp), %rcx
cmpq $0, %rcx
je L_crypto_kem_enc_derand_jazz$168
movb $0, 13232(%rsp)
movb $2, 13233(%rsp)
jmp L_crypto_kem_enc_derand_jazz$169
L_crypto_kem_enc_derand_jazz$168:
movb $2, 13232(%rsp)
movb $0, 13233(%rsp)
L_crypto_kem_enc_derand_jazz$169:
leaq 200(%rsp), %rcx
leaq 13200(%rsp), %rdx
call L_shake128_absorb34$1
L_crypto_kem_enc_derand_jazz$167:
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$165
L_crypto_kem_enc_derand_jazz$166:
movq %rcx, 400(%rsp,%rcx,8)
incq %rcx
L_crypto_kem_enc_derand_jazz$165:
cmpq $64, %rcx
jb L_crypto_kem_enc_derand_jazz$166
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$157
L_crypto_kem_enc_derand_jazz$158:
movq %rcx, 32(%rsp)
leaq 200(%rsp), %rcx
leaq 13234(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
L_crypto_kem_enc_derand_jazz$164:
leaq 8(%rsp), %rsp
movq 32(%rsp), %rcx
movq $0, %rdx
L_crypto_kem_enc_derand_jazz$159:
movzbw 13234(%rsp,%rdx), %si
incq %rdx
movzbw 13234(%rsp,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw 13234(%rsp,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb L_crypto_kem_enc_derand_jazz$162
cmpq $256, %rcx
jnb L_crypto_kem_enc_derand_jazz$162
movw %si, 400(%rsp,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$163:
L_crypto_kem_enc_derand_jazz$162:
cmpw $3329, %r8w
jnb L_crypto_kem_enc_derand_jazz$160
cmpq $256, %rcx
jnb L_crypto_kem_enc_derand_jazz$160
movw %r8w, 400(%rsp,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$161:
L_crypto_kem_enc_derand_jazz$160:
cmpq $166, %rdx
jb L_crypto_kem_enc_derand_jazz$159
L_crypto_kem_enc_derand_jazz$157:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$158
movq $0, %rcx
movq $512, %rdx
jmp L_crypto_kem_enc_derand_jazz$155
L_crypto_kem_enc_derand_jazz$156:
movw 400(%rsp,%rcx,2), %si
movw %si, 8592(%rsp,%rdx,2)
incq %rcx
incq %rdx
L_crypto_kem_enc_derand_jazz$155:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$156
movq 8(%rsp), %rcx
cmpq $0, %rcx
je L_crypto_kem_enc_derand_jazz$153
movb $1, 13232(%rsp)
movb $0, 13233(%rsp)
jmp L_crypto_kem_enc_derand_jazz$154
L_crypto_kem_enc_derand_jazz$153:
movb $0, 13232(%rsp)
movb $1, 13233(%rsp)
L_crypto_kem_enc_derand_jazz$154:
leaq 200(%rsp), %rcx
leaq 13200(%rsp), %rdx
call L_shake128_absorb34$1
L_crypto_kem_enc_derand_jazz$152:
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$150
L_crypto_kem_enc_derand_jazz$151:
movq %rcx, 400(%rsp,%rcx,8)
incq %rcx
L_crypto_kem_enc_derand_jazz$150:
cmpq $64, %rcx
jb L_crypto_kem_enc_derand_jazz$151
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$142
L_crypto_kem_enc_derand_jazz$143:
movq %rcx, 32(%rsp)
leaq 200(%rsp), %rcx
leaq 13234(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
L_crypto_kem_enc_derand_jazz$149:
leaq 8(%rsp), %rsp
movq 32(%rsp), %rcx
movq $0, %rdx
L_crypto_kem_enc_derand_jazz$144:
movzbw 13234(%rsp,%rdx), %si
incq %rdx
movzbw 13234(%rsp,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw 13234(%rsp,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb L_crypto_kem_enc_derand_jazz$147
cmpq $256, %rcx
jnb L_crypto_kem_enc_derand_jazz$147
movw %si, 400(%rsp,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$148:
L_crypto_kem_enc_derand_jazz$147:
cmpw $3329, %r8w
jnb L_crypto_kem_enc_derand_jazz$145
cmpq $256, %rcx
jnb L_crypto_kem_enc_derand_jazz$145
movw %r8w, 400(%rsp,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$146:
L_crypto_kem_enc_derand_jazz$145:
cmpq $166, %rdx
jb L_crypto_kem_enc_derand_jazz$144
L_crypto_kem_enc_derand_jazz$142:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$143
movq $0, %rcx
movq $768, %rdx
jmp L_crypto_kem_enc_derand_jazz$140
L_crypto_kem_enc_derand_jazz$141:
movw 400(%rsp,%rcx,2), %si
movw %si, 8592(%rsp,%rdx,2)
incq %rcx
incq %rdx
L_crypto_kem_enc_derand_jazz$140:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$141
movq 8(%rsp), %rcx
cmpq $0, %rcx
je L_crypto_kem_enc_derand_jazz$138
movb $1, 13232(%rsp)
movb $1, 13233(%rsp)
jmp L_crypto_kem_enc_derand_jazz$139
L_crypto_kem_enc_derand_jazz$138:
movb $1, 13232(%rsp)
movb $1, 13233(%rsp)
L_crypto_kem_enc_derand_jazz$139:
leaq 200(%rsp), %rcx
leaq 13200(%rsp), %rdx
call L_shake128_absorb34$1
L_crypto_kem_enc_derand_jazz$137:
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$135
L_crypto_kem_enc_derand_jazz$136:
movq %rcx, 400(%rsp,%rcx,8)
incq %rcx
L_crypto_kem_enc_derand_jazz$135:
cmpq $64, %rcx
jb L_crypto_kem_enc_derand_jazz$136
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$127
L_crypto_kem_enc_derand_jazz$128:
movq %rcx, 32(%rsp)
leaq 200(%rsp), %rcx
leaq 13234(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
L_crypto_kem_enc_derand_jazz$134:
leaq 8(%rsp), %rsp
movq 32(%rsp), %rcx
movq $0, %rdx
L_crypto_kem_enc_derand_jazz$129:
movzbw 13234(%rsp,%rdx), %si
incq %rdx
movzbw 13234(%rsp,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw 13234(%rsp,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb L_crypto_kem_enc_derand_jazz$132
cmpq $256, %rcx
jnb L_crypto_kem_enc_derand_jazz$132
movw %si, 400(%rsp,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$133:
L_crypto_kem_enc_derand_jazz$132:
cmpw $3329, %r8w
jnb L_crypto_kem_enc_derand_jazz$130
cmpq $256, %rcx
jnb L_crypto_kem_enc_derand_jazz$130
movw %r8w, 400(%rsp,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$131:
L_crypto_kem_enc_derand_jazz$130:
cmpq $166, %rdx
jb L_crypto_kem_enc_derand_jazz$129
L_crypto_kem_enc_derand_jazz$127:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$128
movq $0, %rcx
movq $1024, %rdx
jmp L_crypto_kem_enc_derand_jazz$125
L_crypto_kem_enc_derand_jazz$126:
movw 400(%rsp,%rcx,2), %si
movw %si, 8592(%rsp,%rdx,2)
incq %rcx
incq %rdx
L_crypto_kem_enc_derand_jazz$125:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$126
movq 8(%rsp), %rcx
cmpq $0, %rcx
je L_crypto_kem_enc_derand_jazz$123
movb $1, 13232(%rsp)
movb $2, 13233(%rsp)
jmp L_crypto_kem_enc_derand_jazz$124
L_crypto_kem_enc_derand_jazz$123:
movb $2, 13232(%rsp)
movb $1, 13233(%rsp)
L_crypto_kem_enc_derand_jazz$124:
leaq 200(%rsp), %rcx
leaq 13200(%rsp), %rdx
call L_shake128_absorb34$1
L_crypto_kem_enc_derand_jazz$122:
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$120
L_crypto_kem_enc_derand_jazz$121:
movq %rcx, 400(%rsp,%rcx,8)
incq %rcx
L_crypto_kem_enc_derand_jazz$120:
cmpq $64, %rcx
jb L_crypto_kem_enc_derand_jazz$121
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$112
L_crypto_kem_enc_derand_jazz$113:
movq %rcx, 32(%rsp)
leaq 200(%rsp), %rcx
leaq 13234(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
L_crypto_kem_enc_derand_jazz$119:
leaq 8(%rsp), %rsp
movq 32(%rsp), %rcx
movq $0, %rdx
L_crypto_kem_enc_derand_jazz$114:
movzbw 13234(%rsp,%rdx), %si
incq %rdx
movzbw 13234(%rsp,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw 13234(%rsp,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb L_crypto_kem_enc_derand_jazz$117
cmpq $256, %rcx
jnb L_crypto_kem_enc_derand_jazz$117
movw %si, 400(%rsp,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$118:
L_crypto_kem_enc_derand_jazz$117:
cmpw $3329, %r8w
jnb L_crypto_kem_enc_derand_jazz$115
cmpq $256, %rcx
jnb L_crypto_kem_enc_derand_jazz$115
movw %r8w, 400(%rsp,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$116:
L_crypto_kem_enc_derand_jazz$115:
cmpq $166, %rdx
jb L_crypto_kem_enc_derand_jazz$114
L_crypto_kem_enc_derand_jazz$112:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$113
movq $0, %rcx
movq $1280, %rdx
jmp L_crypto_kem_enc_derand_jazz$110
L_crypto_kem_enc_derand_jazz$111:
movw 400(%rsp,%rcx,2), %si
movw %si, 8592(%rsp,%rdx,2)
incq %rcx
incq %rdx
L_crypto_kem_enc_derand_jazz$110:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$111
movq 8(%rsp), %rcx
cmpq $0, %rcx
je L_crypto_kem_enc_derand_jazz$108
movb $2, 13232(%rsp)
movb $0, 13233(%rsp)
jmp L_crypto_kem_enc_derand_jazz$109
L_crypto_kem_enc_derand_jazz$108:
movb $0, 13232(%rsp)
movb $2, 13233(%rsp)
L_crypto_kem_enc_derand_jazz$109:
leaq 200(%rsp), %rcx
leaq 13200(%rsp), %rdx
call L_shake128_absorb34$1
L_crypto_kem_enc_derand_jazz$107:
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$105
L_crypto_kem_enc_derand_jazz$106:
movq %rcx, 400(%rsp,%rcx,8)
incq %rcx
L_crypto_kem_enc_derand_jazz$105:
cmpq $64, %rcx
jb L_crypto_kem_enc_derand_jazz$106
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$97
L_crypto_kem_enc_derand_jazz$98:
movq %rcx, 32(%rsp)
leaq 200(%rsp), %rcx
leaq 13234(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
L_crypto_kem_enc_derand_jazz$104:
leaq 8(%rsp), %rsp
movq 32(%rsp), %rcx
movq $0, %rdx
L_crypto_kem_enc_derand_jazz$99:
movzbw 13234(%rsp,%rdx), %si
incq %rdx
movzbw 13234(%rsp,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw 13234(%rsp,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb L_crypto_kem_enc_derand_jazz$102
cmpq $256, %rcx
jnb L_crypto_kem_enc_derand_jazz$102
movw %si, 400(%rsp,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$103:
L_crypto_kem_enc_derand_jazz$102:
cmpw $3329, %r8w
jnb L_crypto_kem_enc_derand_jazz$100
cmpq $256, %rcx
jnb L_crypto_kem_enc_derand_jazz$100
movw %r8w, 400(%rsp,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$101:
L_crypto_kem_enc_derand_jazz$100:
cmpq $166, %rdx
jb L_crypto_kem_enc_derand_jazz$99
L_crypto_kem_enc_derand_jazz$97:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$98
movq $0, %rcx
movq $1536, %rdx
jmp L_crypto_kem_enc_derand_jazz$95
L_crypto_kem_enc_derand_jazz$96:
movw 400(%rsp,%rcx,2), %si
movw %si, 8592(%rsp,%rdx,2)
incq %rcx
incq %rdx
L_crypto_kem_enc_derand_jazz$95:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$96
movq 8(%rsp), %rcx
cmpq $0, %rcx
je L_crypto_kem_enc_derand_jazz$93
movb $2, 13232(%rsp)
movb $1, 13233(%rsp)
jmp L_crypto_kem_enc_derand_jazz$94
L_crypto_kem_enc_derand_jazz$93:
movb $1, 13232(%rsp)
movb $2, 13233(%rsp)
L_crypto_kem_enc_derand_jazz$94:
leaq 200(%rsp), %rcx
leaq 13200(%rsp), %rdx
call L_shake128_absorb34$1
L_crypto_kem_enc_derand_jazz$92:
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$90
L_crypto_kem_enc_derand_jazz$91:
movq %rcx, 400(%rsp,%rcx,8)
incq %rcx
L_crypto_kem_enc_derand_jazz$90:
cmpq $64, %rcx
jb L_crypto_kem_enc_derand_jazz$91
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$82
L_crypto_kem_enc_derand_jazz$83:
movq %rcx, 32(%rsp)
leaq 200(%rsp), %rcx
leaq 13234(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
L_crypto_kem_enc_derand_jazz$89:
leaq 8(%rsp), %rsp
movq 32(%rsp), %rcx
movq $0, %rdx
L_crypto_kem_enc_derand_jazz$84:
movzbw 13234(%rsp,%rdx), %si
incq %rdx
movzbw 13234(%rsp,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw 13234(%rsp,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb L_crypto_kem_enc_derand_jazz$87
cmpq $256, %rcx
jnb L_crypto_kem_enc_derand_jazz$87
movw %si, 400(%rsp,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$88:
L_crypto_kem_enc_derand_jazz$87:
cmpw $3329, %r8w
jnb L_crypto_kem_enc_derand_jazz$85
cmpq $256, %rcx
jnb L_crypto_kem_enc_derand_jazz$85
movw %r8w, 400(%rsp,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$86:
L_crypto_kem_enc_derand_jazz$85:
cmpq $166, %rdx
jb L_crypto_kem_enc_derand_jazz$84
L_crypto_kem_enc_derand_jazz$82:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$83
movq $0, %rcx
movq $1792, %rdx
jmp L_crypto_kem_enc_derand_jazz$80
L_crypto_kem_enc_derand_jazz$81:
movw 400(%rsp,%rcx,2), %si
movw %si, 8592(%rsp,%rdx,2)
incq %rcx
incq %rdx
L_crypto_kem_enc_derand_jazz$80:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$81
movq 8(%rsp), %rcx
cmpq $0, %rcx
je L_crypto_kem_enc_derand_jazz$78
movb $2, 13232(%rsp)
movb $2, 13233(%rsp)
jmp L_crypto_kem_enc_derand_jazz$79
L_crypto_kem_enc_derand_jazz$78:
movb $2, 13232(%rsp)
movb $2, 13233(%rsp)
L_crypto_kem_enc_derand_jazz$79:
leaq 200(%rsp), %rcx
leaq 13200(%rsp), %rdx
call L_shake128_absorb34$1
L_crypto_kem_enc_derand_jazz$77:
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$75
L_crypto_kem_enc_derand_jazz$76:
movq %rcx, 400(%rsp,%rcx,8)
incq %rcx
L_crypto_kem_enc_derand_jazz$75:
cmpq $64, %rcx
jb L_crypto_kem_enc_derand_jazz$76
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$67
L_crypto_kem_enc_derand_jazz$68:
movq %rcx, 8(%rsp)
leaq 200(%rsp), %rcx
leaq 13234(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
L_crypto_kem_enc_derand_jazz$74:
leaq 8(%rsp), %rsp
movq 8(%rsp), %rcx
movq $0, %rdx
L_crypto_kem_enc_derand_jazz$69:
movzbw 13234(%rsp,%rdx), %si
incq %rdx
movzbw 13234(%rsp,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw 13234(%rsp,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb L_crypto_kem_enc_derand_jazz$72
cmpq $256, %rcx
jnb L_crypto_kem_enc_derand_jazz$72
movw %si, 400(%rsp,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$73:
L_crypto_kem_enc_derand_jazz$72:
cmpw $3329, %r8w
jnb L_crypto_kem_enc_derand_jazz$70
cmpq $256, %rcx
jnb L_crypto_kem_enc_derand_jazz$70
movw %r8w, 400(%rsp,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$71:
L_crypto_kem_enc_derand_jazz$70:
cmpq $166, %rdx
jb L_crypto_kem_enc_derand_jazz$69
L_crypto_kem_enc_derand_jazz$67:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$68
movq $0, %rcx
movq $2048, %rdx
jmp L_crypto_kem_enc_derand_jazz$65
L_crypto_kem_enc_derand_jazz$66:
movw 400(%rsp,%rcx,2), %si
movw %si, 8592(%rsp,%rdx,2)
incq %rcx
incq %rdx
L_crypto_kem_enc_derand_jazz$65:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$66
movb $0, %cl
leaq 3984(%rsp), %rdx
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
L_crypto_kem_enc_derand_jazz$64:
leaq 176(%rsp), %rsp
movb $1, %cl
leaq 4496(%rsp), %rdx
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
L_crypto_kem_enc_derand_jazz$63:
leaq 176(%rsp), %rsp
movb $2, %cl
leaq 5008(%rsp), %rdx
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
L_crypto_kem_enc_derand_jazz$62:
leaq 176(%rsp), %rsp
movb $3, %cl
leaq 5520(%rsp), %rdx
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
L_crypto_kem_enc_derand_jazz$61:
leaq 176(%rsp), %rsp
movb $4, %cl
leaq 6032(%rsp), %rdx
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
L_crypto_kem_enc_derand_jazz$60:
leaq 176(%rsp), %rsp
movb $5, %cl
leaq 6544(%rsp), %rdx
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
L_crypto_kem_enc_derand_jazz$59:
leaq 176(%rsp), %rsp
movb $6, %cl
leaq 400(%rsp), %rdx
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
L_crypto_kem_enc_derand_jazz$58:
leaq 176(%rsp), %rsp
leaq 3984(%rsp), %rcx
call L_poly_ntt$1
L_crypto_kem_enc_derand_jazz$57:
leaq 4496(%rsp), %rcx
call L_poly_ntt$1
L_crypto_kem_enc_derand_jazz$56:
leaq 5008(%rsp), %rcx
call L_poly_ntt$1
L_crypto_kem_enc_derand_jazz$55:
leaq 7056(%rsp), %rdi
leaq 8592(%rsp), %rcx
leaq 3984(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_enc_derand_jazz$54:
leaq 16(%rsp), %rsp
leaq 1424(%rsp), %rdi
leaq 9104(%rsp), %rcx
leaq 4496(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_enc_derand_jazz$53:
leaq 16(%rsp), %rsp
leaq 7056(%rsp), %rcx
leaq 1424(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_enc_derand_jazz$52:
leaq 1424(%rsp), %rdi
leaq 9616(%rsp), %rcx
leaq 5008(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_enc_derand_jazz$51:
leaq 16(%rsp), %rsp
leaq 7056(%rsp), %rcx
leaq 1424(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_enc_derand_jazz$50:
leaq 7056(%rsp), %rax
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$48
L_crypto_kem_enc_derand_jazz$49:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$48:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$49
leaq 7568(%rsp), %rdi
leaq 10128(%rsp), %rcx
leaq 3984(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_enc_derand_jazz$47:
leaq 16(%rsp), %rsp
leaq 1424(%rsp), %rdi
leaq 10640(%rsp), %rcx
leaq 4496(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_enc_derand_jazz$46:
leaq 16(%rsp), %rsp
leaq 7568(%rsp), %rcx
leaq 1424(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_enc_derand_jazz$45:
leaq 1424(%rsp), %rdi
leaq 11152(%rsp), %rcx
leaq 5008(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_enc_derand_jazz$44:
leaq 16(%rsp), %rsp
leaq 7568(%rsp), %rcx
leaq 1424(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_enc_derand_jazz$43:
leaq 7568(%rsp), %rax
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$41
L_crypto_kem_enc_derand_jazz$42:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$41:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$42
leaq 8080(%rsp), %rdi
leaq 11664(%rsp), %rcx
leaq 3984(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_enc_derand_jazz$40:
leaq 16(%rsp), %rsp
leaq 1424(%rsp), %rdi
leaq 12176(%rsp), %rcx
leaq 4496(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_enc_derand_jazz$39:
leaq 16(%rsp), %rsp
leaq 8080(%rsp), %rcx
leaq 1424(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_enc_derand_jazz$38:
leaq 1424(%rsp), %rdi
leaq 12688(%rsp), %rcx
leaq 5008(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_enc_derand_jazz$37:
leaq 16(%rsp), %rsp
leaq 8080(%rsp), %rcx
leaq 1424(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_enc_derand_jazz$36:
leaq 8080(%rsp), %rax
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$34
L_crypto_kem_enc_derand_jazz$35:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$34:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$35
leaq 1424(%rsp), %rdi
leaq 2448(%rsp), %rcx
leaq 3984(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_enc_derand_jazz$33:
leaq 16(%rsp), %rsp
leaq 1936(%rsp), %rdi
leaq 2960(%rsp), %rcx
leaq 4496(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_enc_derand_jazz$32:
leaq 16(%rsp), %rsp
leaq 1424(%rsp), %rcx
leaq 1936(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_enc_derand_jazz$31:
leaq 1936(%rsp), %rdi
leaq 3472(%rsp), %rcx
leaq 5008(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_enc_derand_jazz$30:
leaq 16(%rsp), %rsp
leaq 1424(%rsp), %rcx
leaq 1936(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_enc_derand_jazz$29:
leaq 1424(%rsp), %rax
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$27
L_crypto_kem_enc_derand_jazz$28:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$27:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$28
leaq 7056(%rsp), %rcx
call L_poly_invntt$1
L_crypto_kem_enc_derand_jazz$26:
leaq 7568(%rsp), %rcx
call L_poly_invntt$1
L_crypto_kem_enc_derand_jazz$25:
leaq 8080(%rsp), %rcx
call L_poly_invntt$1
L_crypto_kem_enc_derand_jazz$24:
leaq 1424(%rsp), %rcx
call L_poly_invntt$1
L_crypto_kem_enc_derand_jazz$23:
leaq 7056(%rsp), %rcx
leaq 5520(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_enc_derand_jazz$22:
leaq 7568(%rsp), %rcx
leaq 6032(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_enc_derand_jazz$21:
leaq 8080(%rsp), %rcx
leaq 6544(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_enc_derand_jazz$20:
leaq 1424(%rsp), %rcx
leaq 400(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_enc_derand_jazz$19:
leaq 1424(%rsp), %rcx
leaq 912(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_enc_derand_jazz$18:
leaq 7056(%rsp), %rax
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$16
L_crypto_kem_enc_derand_jazz$17:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$16:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$17
leaq 7568(%rsp), %rax
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$14
L_crypto_kem_enc_derand_jazz$15:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$14:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$15
leaq 8080(%rsp), %rax
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$12
L_crypto_kem_enc_derand_jazz$13:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$12:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$13
leaq 1424(%rsp), %rax
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$10
L_crypto_kem_enc_derand_jazz$11:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$10:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$11
movq 16(%rsp), %rax
movq $0, %rdx
movq $0, %rsi
leaq 7056(%rsp), %rcx
call L_poly_csubq$1
L_crypto_kem_enc_derand_jazz$9:
leaq 7568(%rsp), %rcx
call L_poly_csubq$1
L_crypto_kem_enc_derand_jazz$8:
leaq 8080(%rsp), %rcx
call L_poly_csubq$1
L_crypto_kem_enc_derand_jazz$7:
jmp L_crypto_kem_enc_derand_jazz$5
L_crypto_kem_enc_derand_jazz$6:
movzwq 7056(%rsp,%rdx,2), %rcx
incq %rdx
shlq $10, %rcx
addq $1665, %rcx
imulq $1290167, %rcx, %rcx
shrq $32, %rcx
andq $1023, %rcx
movzwq 7056(%rsp,%rdx,2), %rdi
incq %rdx
shlq $10, %rdi
addq $1665, %rdi
imulq $1290167, %rdi, %rdi
shrq $32, %rdi
andq $1023, %rdi
movzwq 7056(%rsp,%rdx,2), %r8
incq %rdx
shlq $10, %r8
addq $1665, %r8
imulq $1290167, %r8, %r8
shrq $32, %r8
andq $1023, %r8
movzwq 7056(%rsp,%rdx,2), %r9
incq %rdx
shlq $10, %r9
addq $1665, %r9
imulq $1290167, %r9, %r9
shrq $32, %r9
andq $1023, %r9
movw %cx, %r10w
andw $255, %r10w
movb %r10b, (%rax,%rsi)
incq %rsi
shrw $8, %cx
movw %di, %r10w
shlw $2, %r10w
orw %cx, %r10w
movb %r10b, (%rax,%rsi)
incq %rsi
shrw $6, %di
movw %r8w, %cx
shlw $4, %cx
orw %di, %cx
movb %cl, (%rax,%rsi)
incq %rsi
shrw $4, %r8w
movw %r9w, %cx
shlw $6, %cx
orw %r8w, %cx
movb %cl, (%rax,%rsi)
incq %rsi
shrq $2, %r9
movb %r9b, (%rax,%rsi)
incq %rsi
L_crypto_kem_enc_derand_jazz$5:
cmpq $768, %rdx
jb L_crypto_kem_enc_derand_jazz$6
addq $960, %rax
leaq 1424(%rsp), %rcx
call L_poly_compress$1
L_crypto_kem_enc_derand_jazz$4:
movq 16(%rsp), %rsi
movq $1088, %rax
leaq 104(%rsp), %rcx
leaq -232(%rsp), %rsp
call L_sha3_256$1
L_crypto_kem_enc_derand_jazz$3:
leaq 232(%rsp), %rsp
movq 24(%rsp), %rax
movq $32, %rcx
leaq 72(%rsp), %rdx
leaq -216(%rsp), %rsp
call L_shake256_64$1
L_crypto_kem_enc_derand_jazz$2:
leaq 216(%rsp), %rsp
ret
L_crypto_kem_keypair_derand_jazz$1:
movq %rax, 8(%rsp)
movq %rdi, 16(%rsp)
movq %rsi, 24(%rsp)
movq %rdi, 32(%rsp)
movq %rsi, 40(%rsp)
movq (%rax), %rcx
movq %rcx, 64(%rsp)
movq 8(%rax), %rcx
movq %rcx, 72(%rsp)
movq 16(%rax), %rcx
movq %rcx, 80(%rsp)
movq 24(%rax), %rax
movq %rax, 88(%rsp)
leaq 128(%rsp), %rcx
leaq 64(%rsp), %rax
leaq -208(%rsp), %rsp
call L_sha3_512_32$1
L_crypto_kem_keypair_derand_jazz$189:
leaq 208(%rsp), %rsp
movq 128(%rsp), %rax
movq %rax, 96(%rsp)
movq 160(%rsp), %rax
movq %rax, 64(%rsp)
movq 136(%rsp), %rax
movq %rax, 104(%rsp)
movq 168(%rsp), %rax
movq %rax, 72(%rsp)
movq 144(%rsp), %rax
movq %rax, 112(%rsp)
movq 176(%rsp), %rax
movq %rax, 80(%rsp)
movq 152(%rsp), %rax
movq %rax, 120(%rsp)
movq 184(%rsp), %rax
movq %rax, 88(%rsp)
movq $0, %rax
movq %rax, 48(%rsp)
movb 96(%rsp), %al
movb %al, 10120(%rsp)
movb 97(%rsp), %al
movb %al, 10121(%rsp)
movb 98(%rsp), %al
movb %al, 10122(%rsp)
movb 99(%rsp), %al
movb %al, 10123(%rsp)
movb 100(%rsp), %al
movb %al, 10124(%rsp)
movb 101(%rsp), %al
movb %al, 10125(%rsp)
movb 102(%rsp), %al
movb %al, 10126(%rsp)
movb 103(%rsp), %al
movb %al, 10127(%rsp)
movb 104(%rsp), %al
movb %al, 10128(%rsp)
movb 105(%rsp), %al
movb %al, 10129(%rsp)
movb 106(%rsp), %al
movb %al, 10130(%rsp)
movb 107(%rsp), %al
movb %al, 10131(%rsp)
movb 108(%rsp), %al
movb %al, 10132(%rsp)
movb 109(%rsp), %al
movb %al, 10133(%rsp)
movb 110(%rsp), %al
movb %al, 10134(%rsp)
movb 111(%rsp), %al
movb %al, 10135(%rsp)
movb 112(%rsp), %al
movb %al, 10136(%rsp)
movb 113(%rsp), %al
movb %al, 10137(%rsp)
movb 114(%rsp), %al
movb %al, 10138(%rsp)
movb 115(%rsp), %al
movb %al, 10139(%rsp)
movb 116(%rsp), %al
movb %al, 10140(%rsp)
movb 117(%rsp), %al
movb %al, 10141(%rsp)
movb 118(%rsp), %al
movb %al, 10142(%rsp)
movb 119(%rsp), %al
movb %al, 10143(%rsp)
movb 120(%rsp), %al
movb %al, 10144(%rsp)
movb 121(%rsp), %al
movb %al, 10145(%rsp)
movb 122(%rsp), %al
movb %al, 10146(%rsp)
movb 123(%rsp), %al
movb %al, 10147(%rsp)
movb 124(%rsp), %al
movb %al, 10148(%rsp)
movb 125(%rsp), %al
movb %al, 10149(%rsp)
movb 126(%rsp), %al
movb %al, 10150(%rsp)
movb 127(%rsp), %al
movb %al, 10151(%rsp)
movq 48(%rsp), %rax
cmpq $0, %rax
je L_crypto_kem_keypair_derand_jazz$187
movb $0, 10152(%rsp)
movb $0, 10153(%rsp)
jmp L_crypto_kem_keypair_derand_jazz$188
L_crypto_kem_keypair_derand_jazz$187:
movb $0, 10152(%rsp)
movb $0, 10153(%rsp)
L_crypto_kem_keypair_derand_jazz$188:
leaq 192(%rsp), %rcx
leaq 10120(%rsp), %rdx
call L_shake128_absorb34$1
L_crypto_kem_keypair_derand_jazz$186:
movq $0, %rax
jmp L_crypto_kem_keypair_derand_jazz$184
L_crypto_kem_keypair_derand_jazz$185:
movq %rax, 392(%rsp,%rax,8)
incq %rax
L_crypto_kem_keypair_derand_jazz$184:
cmpq $64, %rax
jb L_crypto_kem_keypair_derand_jazz$185
movq $0, %rax
jmp L_crypto_kem_keypair_derand_jazz$176
L_crypto_kem_keypair_derand_jazz$177:
movq %rax, 56(%rsp)
leaq 192(%rsp), %rcx
leaq 10154(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
L_crypto_kem_keypair_derand_jazz$183:
leaq 8(%rsp), %rsp
movq 56(%rsp), %rax
movq $0, %rcx
L_crypto_kem_keypair_derand_jazz$178:
movzbw 10154(%rsp,%rcx), %dx
incq %rcx
movzbw 10154(%rsp,%rcx), %si
movw %si, %di
shrw $4, %di
andw $15, %si
shlw $8, %si
orw %si, %dx
incq %rcx
movzbw 10154(%rsp,%rcx), %si
shlw $4, %si
orw %si, %di
incq %rcx
cmpw $3329, %dx
jnb L_crypto_kem_keypair_derand_jazz$181
cmpq $256, %rax
jnb L_crypto_kem_keypair_derand_jazz$181
movw %dx, 392(%rsp,%rax,2)
incq %rax
L_crypto_kem_keypair_derand_jazz$182:
L_crypto_kem_keypair_derand_jazz$181:
cmpw $3329, %di
jnb L_crypto_kem_keypair_derand_jazz$179
cmpq $256, %rax
jnb L_crypto_kem_keypair_derand_jazz$179
movw %di, 392(%rsp,%rax,2)
incq %rax
L_crypto_kem_keypair_derand_jazz$180:
L_crypto_kem_keypair_derand_jazz$179:
cmpq $166, %rcx
jb L_crypto_kem_keypair_derand_jazz$178
L_crypto_kem_keypair_derand_jazz$176:
cmpq $256, %rax
jb L_crypto_kem_keypair_derand_jazz$177
movq $0, %rax
movq $0, %rcx
jmp L_crypto_kem_keypair_derand_jazz$174
L_crypto_kem_keypair_derand_jazz$175:
movw 392(%rsp,%rax,2), %dx
movw %dx, 5512(%rsp,%rcx,2)
incq %rax
incq %rcx
L_crypto_kem_keypair_derand_jazz$174:
cmpq $256, %rax
jb L_crypto_kem_keypair_derand_jazz$175
movq 48(%rsp), %rax
cmpq $0, %rax
je L_crypto_kem_keypair_derand_jazz$172
movb $0, 10152(%rsp)
movb $1, 10153(%rsp)
jmp L_crypto_kem_keypair_derand_jazz$173
L_crypto_kem_keypair_derand_jazz$172:
movb $1, 10152(%rsp)
movb $0, 10153(%rsp)
L_crypto_kem_keypair_derand_jazz$173:
leaq 192(%rsp), %rcx
leaq 10120(%rsp), %rdx
call L_shake128_absorb34$1
L_crypto_kem_keypair_derand_jazz$171:
movq $0, %rax
jmp L_crypto_kem_keypair_derand_jazz$169
L_crypto_kem_keypair_derand_jazz$170:
movq %rax, 392(%rsp,%rax,8)
incq %rax
L_crypto_kem_keypair_derand_jazz$169:
cmpq $64, %rax
jb L_crypto_kem_keypair_derand_jazz$170
movq $0, %rax
jmp L_crypto_kem_keypair_derand_jazz$161
L_crypto_kem_keypair_derand_jazz$162:
movq %rax, 56(%rsp)
leaq 192(%rsp), %rcx
leaq 10154(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
L_crypto_kem_keypair_derand_jazz$168:
leaq 8(%rsp), %rsp
movq 56(%rsp), %rax
movq $0, %rcx
L_crypto_kem_keypair_derand_jazz$163:
movzbw 10154(%rsp,%rcx), %dx
incq %rcx
movzbw 10154(%rsp,%rcx), %si
movw %si, %di
shrw $4, %di
andw $15, %si
shlw $8, %si
orw %si, %dx
incq %rcx
movzbw 10154(%rsp,%rcx), %si
shlw $4, %si
orw %si, %di
incq %rcx
cmpw $3329, %dx
jnb L_crypto_kem_keypair_derand_jazz$166
cmpq $256, %rax
jnb L_crypto_kem_keypair_derand_jazz$166
movw %dx, 392(%rsp,%rax,2)
incq %rax
L_crypto_kem_keypair_derand_jazz$167:
L_crypto_kem_keypair_derand_jazz$166:
cmpw $3329, %di
jnb L_crypto_kem_keypair_derand_jazz$164
cmpq $256, %rax
jnb L_crypto_kem_keypair_derand_jazz$164
movw %di, 392(%rsp,%rax,2)
incq %rax
L_crypto_kem_keypair_derand_jazz$165:
L_crypto_kem_keypair_derand_jazz$164:
cmpq $166, %rcx
jb L_crypto_kem_keypair_derand_jazz$163
L_crypto_kem_keypair_derand_jazz$161:
cmpq $256, %rax
jb L_crypto_kem_keypair_derand_jazz$162
movq $0, %rax
movq $256, %rcx
jmp L_crypto_kem_keypair_derand_jazz$159
L_crypto_kem_keypair_derand_jazz$160:
movw 392(%rsp,%rax,2), %dx
movw %dx, 5512(%rsp,%rcx,2)
incq %rax
incq %rcx
L_crypto_kem_keypair_derand_jazz$159:
cmpq $256, %rax
jb L_crypto_kem_keypair_derand_jazz$160
movq 48(%rsp), %rax
cmpq $0, %rax
je L_crypto_kem_keypair_derand_jazz$157
movb $0, 10152(%rsp)
movb $2, 10153(%rsp)
jmp L_crypto_kem_keypair_derand_jazz$158
L_crypto_kem_keypair_derand_jazz$157:
movb $2, 10152(%rsp)
movb $0, 10153(%rsp)
L_crypto_kem_keypair_derand_jazz$158:
leaq 192(%rsp), %rcx
leaq 10120(%rsp), %rdx
call L_shake128_absorb34$1
L_crypto_kem_keypair_derand_jazz$156:
movq $0, %rax
jmp L_crypto_kem_keypair_derand_jazz$154
L_crypto_kem_keypair_derand_jazz$155:
movq %rax, 392(%rsp,%rax,8)
incq %rax
L_crypto_kem_keypair_derand_jazz$154:
cmpq $64, %rax
jb L_crypto_kem_keypair_derand_jazz$155
movq $0, %rax
jmp L_crypto_kem_keypair_derand_jazz$146
L_crypto_kem_keypair_derand_jazz$147:
movq %rax, 56(%rsp)
leaq 192(%rsp), %rcx
leaq 10154(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
L_crypto_kem_keypair_derand_jazz$153:
leaq 8(%rsp), %rsp
movq 56(%rsp), %rax
movq $0, %rcx
L_crypto_kem_keypair_derand_jazz$148:
movzbw 10154(%rsp,%rcx), %dx
incq %rcx
movzbw 10154(%rsp,%rcx), %si
movw %si, %di
shrw $4, %di
andw $15, %si
shlw $8, %si
orw %si, %dx
incq %rcx
movzbw 10154(%rsp,%rcx), %si
shlw $4, %si
orw %si, %di
incq %rcx
cmpw $3329, %dx
jnb L_crypto_kem_keypair_derand_jazz$151
cmpq $256, %rax
jnb L_crypto_kem_keypair_derand_jazz$151
movw %dx, 392(%rsp,%rax,2)
incq %rax
L_crypto_kem_keypair_derand_jazz$152:
L_crypto_kem_keypair_derand_jazz$151:
cmpw $3329, %di
jnb L_crypto_kem_keypair_derand_jazz$149
cmpq $256, %rax
jnb L_crypto_kem_keypair_derand_jazz$149
movw %di, 392(%rsp,%rax,2)
incq %rax
L_crypto_kem_keypair_derand_jazz$150:
L_crypto_kem_keypair_derand_jazz$149:
cmpq $166, %rcx
jb L_crypto_kem_keypair_derand_jazz$148
L_crypto_kem_keypair_derand_jazz$146:
cmpq $256, %rax
jb L_crypto_kem_keypair_derand_jazz$147
movq $0, %rax
movq $512, %rcx
jmp L_crypto_kem_keypair_derand_jazz$144
L_crypto_kem_keypair_derand_jazz$145:
movw 392(%rsp,%rax,2), %dx
movw %dx, 5512(%rsp,%rcx,2)
incq %rax
incq %rcx
L_crypto_kem_keypair_derand_jazz$144:
cmpq $256, %rax
jb L_crypto_kem_keypair_derand_jazz$145
movq 48(%rsp), %rax
cmpq $0, %rax
je L_crypto_kem_keypair_derand_jazz$142
movb $1, 10152(%rsp)
movb $0, 10153(%rsp)
jmp L_crypto_kem_keypair_derand_jazz$143
L_crypto_kem_keypair_derand_jazz$142:
movb $0, 10152(%rsp)
movb $1, 10153(%rsp)
L_crypto_kem_keypair_derand_jazz$143:
leaq 192(%rsp), %rcx
leaq 10120(%rsp), %rdx
call L_shake128_absorb34$1
L_crypto_kem_keypair_derand_jazz$141:
movq $0, %rax
jmp L_crypto_kem_keypair_derand_jazz$139
L_crypto_kem_keypair_derand_jazz$140:
movq %rax, 392(%rsp,%rax,8)
incq %rax
L_crypto_kem_keypair_derand_jazz$139:
cmpq $64, %rax
jb L_crypto_kem_keypair_derand_jazz$140
movq $0, %rax
jmp L_crypto_kem_keypair_derand_jazz$131
L_crypto_kem_keypair_derand_jazz$132:
movq %rax, 56(%rsp)
leaq 192(%rsp), %rcx
leaq 10154(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
L_crypto_kem_keypair_derand_jazz$138:
leaq 8(%rsp), %rsp
movq 56(%rsp), %rax
movq $0, %rcx
L_crypto_kem_keypair_derand_jazz$133:
movzbw 10154(%rsp,%rcx), %dx
incq %rcx
movzbw 10154(%rsp,%rcx), %si
movw %si, %di
shrw $4, %di
andw $15, %si
shlw $8, %si
orw %si, %dx
incq %rcx
movzbw 10154(%rsp,%rcx), %si
shlw $4, %si
orw %si, %di
incq %rcx
cmpw $3329, %dx
jnb L_crypto_kem_keypair_derand_jazz$136
cmpq $256, %rax
jnb L_crypto_kem_keypair_derand_jazz$136
movw %dx, 392(%rsp,%rax,2)
incq %rax
L_crypto_kem_keypair_derand_jazz$137:
L_crypto_kem_keypair_derand_jazz$136:
cmpw $3329, %di
jnb L_crypto_kem_keypair_derand_jazz$134
cmpq $256, %rax
jnb L_crypto_kem_keypair_derand_jazz$134
movw %di, 392(%rsp,%rax,2)
incq %rax
L_crypto_kem_keypair_derand_jazz$135:
L_crypto_kem_keypair_derand_jazz$134:
cmpq $166, %rcx
jb L_crypto_kem_keypair_derand_jazz$133
L_crypto_kem_keypair_derand_jazz$131:
cmpq $256, %rax
jb L_crypto_kem_keypair_derand_jazz$132
movq $0, %rax
movq $768, %rcx
jmp L_crypto_kem_keypair_derand_jazz$129
L_crypto_kem_keypair_derand_jazz$130:
movw 392(%rsp,%rax,2), %dx
movw %dx, 5512(%rsp,%rcx,2)
incq %rax
incq %rcx
L_crypto_kem_keypair_derand_jazz$129:
cmpq $256, %rax
jb L_crypto_kem_keypair_derand_jazz$130
movq 48(%rsp), %rax
cmpq $0, %rax
je L_crypto_kem_keypair_derand_jazz$127
movb $1, 10152(%rsp)
movb $1, 10153(%rsp)
jmp L_crypto_kem_keypair_derand_jazz$128
L_crypto_kem_keypair_derand_jazz$127:
movb $1, 10152(%rsp)
movb $1, 10153(%rsp)
L_crypto_kem_keypair_derand_jazz$128:
leaq 192(%rsp), %rcx
leaq 10120(%rsp), %rdx
call L_shake128_absorb34$1
L_crypto_kem_keypair_derand_jazz$126:
movq $0, %rax
jmp L_crypto_kem_keypair_derand_jazz$124
L_crypto_kem_keypair_derand_jazz$125:
movq %rax, 392(%rsp,%rax,8)
incq %rax
L_crypto_kem_keypair_derand_jazz$124:
cmpq $64, %rax
jb L_crypto_kem_keypair_derand_jazz$125
movq $0, %rax
jmp L_crypto_kem_keypair_derand_jazz$116
L_crypto_kem_keypair_derand_jazz$117:
movq %rax, 56(%rsp)
leaq 192(%rsp), %rcx
leaq 10154(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
L_crypto_kem_keypair_derand_jazz$123:
leaq 8(%rsp), %rsp
movq 56(%rsp), %rax
movq $0, %rcx
L_crypto_kem_keypair_derand_jazz$118:
movzbw 10154(%rsp,%rcx), %dx
incq %rcx
movzbw 10154(%rsp,%rcx), %si
movw %si, %di
shrw $4, %di
andw $15, %si
shlw $8, %si
orw %si, %dx
incq %rcx
movzbw 10154(%rsp,%rcx), %si
shlw $4, %si
orw %si, %di
incq %rcx
cmpw $3329, %dx
jnb L_crypto_kem_keypair_derand_jazz$121
cmpq $256, %rax
jnb L_crypto_kem_keypair_derand_jazz$121
movw %dx, 392(%rsp,%rax,2)
incq %rax
L_crypto_kem_keypair_derand_jazz$122:
L_crypto_kem_keypair_derand_jazz$121:
cmpw $3329, %di
jnb L_crypto_kem_keypair_derand_jazz$119
cmpq $256, %rax
jnb L_crypto_kem_keypair_derand_jazz$119
movw %di, 392(%rsp,%rax,2)
incq %rax
L_crypto_kem_keypair_derand_jazz$120:
L_crypto_kem_keypair_derand_jazz$119:
cmpq $166, %rcx
jb L_crypto_kem_keypair_derand_jazz$118
L_crypto_kem_keypair_derand_jazz$116:
cmpq $256, %rax
jb L_crypto_kem_keypair_derand_jazz$117
movq $0, %rax
movq $1024, %rcx
jmp L_crypto_kem_keypair_derand_jazz$114
L_crypto_kem_keypair_derand_jazz$115:
movw 392(%rsp,%rax,2), %dx
movw %dx, 5512(%rsp,%rcx,2)
incq %rax
incq %rcx
L_crypto_kem_keypair_derand_jazz$114:
cmpq $256, %rax
jb L_crypto_kem_keypair_derand_jazz$115
movq 48(%rsp), %rax
cmpq $0, %rax
je L_crypto_kem_keypair_derand_jazz$112
movb $1, 10152(%rsp)
movb $2, 10153(%rsp)
jmp L_crypto_kem_keypair_derand_jazz$113
L_crypto_kem_keypair_derand_jazz$112:
movb $2, 10152(%rsp)
movb $1, 10153(%rsp)
L_crypto_kem_keypair_derand_jazz$113:
leaq 192(%rsp), %rcx
leaq 10120(%rsp), %rdx
call L_shake128_absorb34$1
L_crypto_kem_keypair_derand_jazz$111:
movq $0, %rax
jmp L_crypto_kem_keypair_derand_jazz$109
L_crypto_kem_keypair_derand_jazz$110:
movq %rax, 392(%rsp,%rax,8)
incq %rax
L_crypto_kem_keypair_derand_jazz$109:
cmpq $64, %rax
jb L_crypto_kem_keypair_derand_jazz$110
movq $0, %rax
jmp L_crypto_kem_keypair_derand_jazz$101
L_crypto_kem_keypair_derand_jazz$102:
movq %rax, 56(%rsp)
leaq 192(%rsp), %rcx
leaq 10154(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
L_crypto_kem_keypair_derand_jazz$108:
leaq 8(%rsp), %rsp
movq 56(%rsp), %rax
movq $0, %rcx
L_crypto_kem_keypair_derand_jazz$103:
movzbw 10154(%rsp,%rcx), %dx
incq %rcx
movzbw 10154(%rsp,%rcx), %si
movw %si, %di
shrw $4, %di
andw $15, %si
shlw $8, %si
orw %si, %dx
incq %rcx
movzbw 10154(%rsp,%rcx), %si
shlw $4, %si
orw %si, %di
incq %rcx
cmpw $3329, %dx
jnb L_crypto_kem_keypair_derand_jazz$106
cmpq $256, %rax
jnb L_crypto_kem_keypair_derand_jazz$106
movw %dx, 392(%rsp,%rax,2)
incq %rax
L_crypto_kem_keypair_derand_jazz$107:
L_crypto_kem_keypair_derand_jazz$106:
cmpw $3329, %di
jnb L_crypto_kem_keypair_derand_jazz$104
cmpq $256, %rax
jnb L_crypto_kem_keypair_derand_jazz$104
movw %di, 392(%rsp,%rax,2)
incq %rax
L_crypto_kem_keypair_derand_jazz$105:
L_crypto_kem_keypair_derand_jazz$104:
cmpq $166, %rcx
jb L_crypto_kem_keypair_derand_jazz$103
L_crypto_kem_keypair_derand_jazz$101:
cmpq $256, %rax
jb L_crypto_kem_keypair_derand_jazz$102
movq $0, %rax
movq $1280, %rcx
jmp L_crypto_kem_keypair_derand_jazz$99
L_crypto_kem_keypair_derand_jazz$100:
movw 392(%rsp,%rax,2), %dx
movw %dx, 5512(%rsp,%rcx,2)
incq %rax
incq %rcx
L_crypto_kem_keypair_derand_jazz$99:
cmpq $256, %rax
jb L_crypto_kem_keypair_derand_jazz$100
movq 48(%rsp), %rax
cmpq $0, %rax
je L_crypto_kem_keypair_derand_jazz$97
movb $2, 10152(%rsp)
movb $0, 10153(%rsp)
jmp L_crypto_kem_keypair_derand_jazz$98
L_crypto_kem_keypair_derand_jazz$97:
movb $0, 10152(%rsp)
movb $2, 10153(%rsp)
L_crypto_kem_keypair_derand_jazz$98:
leaq 192(%rsp), %rcx
leaq 10120(%rsp), %rdx
call L_shake128_absorb34$1
L_crypto_kem_keypair_derand_jazz$96:
movq $0, %rax
jmp L_crypto_kem_keypair_derand_jazz$94
L_crypto_kem_keypair_derand_jazz$95:
movq %rax, 392(%rsp,%rax,8)
incq %rax
L_crypto_kem_keypair_derand_jazz$94:
cmpq $64, %rax
jb L_crypto_kem_keypair_derand_jazz$95
movq $0, %rax
jmp L_crypto_kem_keypair_derand_jazz$86
L_crypto_kem_keypair_derand_jazz$87:
movq %rax, 56(%rsp)
leaq 192(%rsp), %rcx
leaq 10154(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
L_crypto_kem_keypair_derand_jazz$93:
leaq 8(%rsp), %rsp
movq 56(%rsp), %rax
movq $0, %rcx
L_crypto_kem_keypair_derand_jazz$88:
movzbw 10154(%rsp,%rcx), %dx
incq %rcx
movzbw 10154(%rsp,%rcx), %si
movw %si, %di
shrw $4, %di
andw $15, %si
shlw $8, %si
orw %si, %dx
incq %rcx
movzbw 10154(%rsp,%rcx), %si
shlw $4, %si
orw %si, %di
incq %rcx
cmpw $3329, %dx
jnb L_crypto_kem_keypair_derand_jazz$91
cmpq $256, %rax
jnb L_crypto_kem_keypair_derand_jazz$91
movw %dx, 392(%rsp,%rax,2)
incq %rax
L_crypto_kem_keypair_derand_jazz$92:
L_crypto_kem_keypair_derand_jazz$91:
cmpw $3329, %di
jnb L_crypto_kem_keypair_derand_jazz$89
cmpq $256, %rax
jnb L_crypto_kem_keypair_derand_jazz$89
movw %di, 392(%rsp,%rax,2)
incq %rax
L_crypto_kem_keypair_derand_jazz$90:
L_crypto_kem_keypair_derand_jazz$89:
cmpq $166, %rcx
jb L_crypto_kem_keypair_derand_jazz$88
L_crypto_kem_keypair_derand_jazz$86:
cmpq $256, %rax
jb L_crypto_kem_keypair_derand_jazz$87
movq $0, %rax
movq $1536, %rcx
jmp L_crypto_kem_keypair_derand_jazz$84
L_crypto_kem_keypair_derand_jazz$85:
movw 392(%rsp,%rax,2), %dx
movw %dx, 5512(%rsp,%rcx,2)
incq %rax
incq %rcx
L_crypto_kem_keypair_derand_jazz$84:
cmpq $256, %rax
jb L_crypto_kem_keypair_derand_jazz$85
movq 48(%rsp), %rax
cmpq $0, %rax
je L_crypto_kem_keypair_derand_jazz$82
movb $2, 10152(%rsp)
movb $1, 10153(%rsp)
jmp L_crypto_kem_keypair_derand_jazz$83
L_crypto_kem_keypair_derand_jazz$82:
movb $1, 10152(%rsp)
movb $2, 10153(%rsp)
L_crypto_kem_keypair_derand_jazz$83:
leaq 192(%rsp), %rcx
leaq 10120(%rsp), %rdx
call L_shake128_absorb34$1
L_crypto_kem_keypair_derand_jazz$81:
movq $0, %rax
jmp L_crypto_kem_keypair_derand_jazz$79
L_crypto_kem_keypair_derand_jazz$80:
movq %rax, 392(%rsp,%rax,8)
incq %rax
L_crypto_kem_keypair_derand_jazz$79:
cmpq $64, %rax
jb L_crypto_kem_keypair_derand_jazz$80
movq $0, %rax
jmp L_crypto_kem_keypair_derand_jazz$71
L_crypto_kem_keypair_derand_jazz$72:
movq %rax, 56(%rsp)
leaq 192(%rsp), %rcx
leaq 10154(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
L_crypto_kem_keypair_derand_jazz$78:
leaq 8(%rsp), %rsp
movq 56(%rsp), %rax
movq $0, %rcx
L_crypto_kem_keypair_derand_jazz$73:
movzbw 10154(%rsp,%rcx), %dx
incq %rcx
movzbw 10154(%rsp,%rcx), %si
movw %si, %di
shrw $4, %di
andw $15, %si
shlw $8, %si
orw %si, %dx
incq %rcx
movzbw 10154(%rsp,%rcx), %si
shlw $4, %si
orw %si, %di
incq %rcx
cmpw $3329, %dx
jnb L_crypto_kem_keypair_derand_jazz$76
cmpq $256, %rax
jnb L_crypto_kem_keypair_derand_jazz$76
movw %dx, 392(%rsp,%rax,2)
incq %rax
L_crypto_kem_keypair_derand_jazz$77:
L_crypto_kem_keypair_derand_jazz$76:
cmpw $3329, %di
jnb L_crypto_kem_keypair_derand_jazz$74
cmpq $256, %rax
jnb L_crypto_kem_keypair_derand_jazz$74
movw %di, 392(%rsp,%rax,2)
incq %rax
L_crypto_kem_keypair_derand_jazz$75:
L_crypto_kem_keypair_derand_jazz$74:
cmpq $166, %rcx
jb L_crypto_kem_keypair_derand_jazz$73
L_crypto_kem_keypair_derand_jazz$71:
cmpq $256, %rax
jb L_crypto_kem_keypair_derand_jazz$72
movq $0, %rax
movq $1792, %rcx
jmp L_crypto_kem_keypair_derand_jazz$69
L_crypto_kem_keypair_derand_jazz$70:
movw 392(%rsp,%rax,2), %dx
movw %dx, 5512(%rsp,%rcx,2)
incq %rax
incq %rcx
L_crypto_kem_keypair_derand_jazz$69:
cmpq $256, %rax
jb L_crypto_kem_keypair_derand_jazz$70
movq 48(%rsp), %rax
cmpq $0, %rax
je L_crypto_kem_keypair_derand_jazz$67
movb $2, 10152(%rsp)
movb $2, 10153(%rsp)
jmp L_crypto_kem_keypair_derand_jazz$68
L_crypto_kem_keypair_derand_jazz$67:
movb $2, 10152(%rsp)
movb $2, 10153(%rsp)
L_crypto_kem_keypair_derand_jazz$68:
leaq 192(%rsp), %rcx
leaq 10120(%rsp), %rdx
call L_shake128_absorb34$1
L_crypto_kem_keypair_derand_jazz$66:
movq $0, %rax
jmp L_crypto_kem_keypair_derand_jazz$64
L_crypto_kem_keypair_derand_jazz$65:
movq %rax, 392(%rsp,%rax,8)
incq %rax
L_crypto_kem_keypair_derand_jazz$64:
cmpq $64, %rax
jb L_crypto_kem_keypair_derand_jazz$65
movq $0, %rax
jmp L_crypto_kem_keypair_derand_jazz$56
L_crypto_kem_keypair_derand_jazz$57:
movq %rax, 48(%rsp)
leaq 192(%rsp), %rcx
leaq 10154(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
L_crypto_kem_keypair_derand_jazz$63:
leaq 8(%rsp), %rsp
movq 48(%rsp), %rax
movq $0, %rcx
L_crypto_kem_keypair_derand_jazz$58:
movzbw 10154(%rsp,%rcx), %dx
incq %rcx
movzbw 10154(%rsp,%rcx), %si
movw %si, %di
shrw $4, %di
andw $15, %si
shlw $8, %si
orw %si, %dx
incq %rcx
movzbw 10154(%rsp,%rcx), %si
shlw $4, %si
orw %si, %di
incq %rcx
cmpw $3329, %dx
jnb L_crypto_kem_keypair_derand_jazz$61
cmpq $256, %rax
jnb L_crypto_kem_keypair_derand_jazz$61
movw %dx, 392(%rsp,%rax,2)
incq %rax
L_crypto_kem_keypair_derand_jazz$62:
L_crypto_kem_keypair_derand_jazz$61:
cmpw $3329, %di
jnb L_crypto_kem_keypair_derand_jazz$59
cmpq $256, %rax
jnb L_crypto_kem_keypair_derand_jazz$59
movw %di, 392(%rsp,%rax,2)
incq %rax
L_crypto_kem_keypair_derand_jazz$60:
L_crypto_kem_keypair_derand_jazz$59:
cmpq $166, %rcx
jb L_crypto_kem_keypair_derand_jazz$58
L_crypto_kem_keypair_derand_jazz$56:
cmpq $256, %rax
jb L_crypto_kem_keypair_derand_jazz$57
movq $0, %rax
movq $2048, %rcx
jmp L_crypto_kem_keypair_derand_jazz$54
L_crypto_kem_keypair_derand_jazz$55:
movw 392(%rsp,%rax,2), %dx
movw %dx, 5512(%rsp,%rcx,2)
incq %rax
incq %rcx
L_crypto_kem_keypair_derand_jazz$54:
cmpq $256, %rax
jb L_crypto_kem_keypair_derand_jazz$55
movb $0, %cl
leaq 904(%rsp), %rdx
leaq 64(%rsp), %rax
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
L_crypto_kem_keypair_derand_jazz$53:
leaq 176(%rsp), %rsp
movb $1, %cl
leaq 1416(%rsp), %rdx
leaq 64(%rsp), %rax
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
L_crypto_kem_keypair_derand_jazz$52:
leaq 176(%rsp), %rsp
movb $2, %cl
leaq 1928(%rsp), %rdx
leaq 64(%rsp), %rax
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
L_crypto_kem_keypair_derand_jazz$51:
leaq 176(%rsp), %rsp
movb $3, %cl
leaq 2440(%rsp), %rdx
leaq 64(%rsp), %rax
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
L_crypto_kem_keypair_derand_jazz$50:
leaq 176(%rsp), %rsp
movb $4, %cl
leaq 2952(%rsp), %rdx
leaq 64(%rsp), %rax
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
L_crypto_kem_keypair_derand_jazz$49:
leaq 176(%rsp), %rsp
movb $5, %cl
leaq 3464(%rsp), %rdx
leaq 64(%rsp), %rax
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
L_crypto_kem_keypair_derand_jazz$48:
leaq 176(%rsp), %rsp
leaq 904(%rsp), %rcx
call L_poly_ntt$1
L_crypto_kem_keypair_derand_jazz$47:
leaq 1416(%rsp), %rcx
call L_poly_ntt$1
L_crypto_kem_keypair_derand_jazz$46:
leaq 1928(%rsp), %rcx
call L_poly_ntt$1
L_crypto_kem_keypair_derand_jazz$45:
leaq 2440(%rsp), %rcx
call L_poly_ntt$1
L_crypto_kem_keypair_derand_jazz$44:
leaq 2952(%rsp), %rcx
call L_poly_ntt$1
L_crypto_kem_keypair_derand_jazz$43:
leaq 3464(%rsp), %rcx
call L_poly_ntt$1
L_crypto_kem_keypair_derand_jazz$42:
leaq 3976(%rsp), %rdi
leaq 5512(%rsp), %rcx
leaq 904(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_keypair_derand_jazz$41:
leaq 16(%rsp), %rsp
leaq 392(%rsp), %rdi
leaq 6024(%rsp), %rcx
leaq 1416(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_keypair_derand_jazz$40:
leaq 16(%rsp), %rsp
leaq 3976(%rsp), %rcx
leaq 392(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_keypair_derand_jazz$39:
leaq 392(%rsp), %rdi
leaq 6536(%rsp), %rcx
leaq 1928(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_keypair_derand_jazz$38:
leaq 16(%rsp), %rsp
leaq 3976(%rsp), %rcx
leaq 392(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_keypair_derand_jazz$37:
leaq 3976(%rsp), %rax
movq $0, %rcx
jmp L_crypto_kem_keypair_derand_jazz$35
L_crypto_kem_keypair_derand_jazz$36:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
L_crypto_kem_keypair_derand_jazz$35:
cmpq $256, %rcx
jb L_crypto_kem_keypair_derand_jazz$36
leaq 3976(%rsp), %rax
call L_poly_frommont$1
L_crypto_kem_keypair_derand_jazz$34:
leaq 4488(%rsp), %rdi
leaq 7048(%rsp), %rcx
leaq 904(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_keypair_derand_jazz$33:
leaq 16(%rsp), %rsp
leaq 392(%rsp), %rdi
leaq 7560(%rsp), %rcx
leaq 1416(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_keypair_derand_jazz$32:
leaq 16(%rsp), %rsp
leaq 4488(%rsp), %rcx
leaq 392(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_keypair_derand_jazz$31:
leaq 392(%rsp), %rdi
leaq 8072(%rsp), %rcx
leaq 1928(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_keypair_derand_jazz$30:
leaq 16(%rsp), %rsp
leaq 4488(%rsp), %rcx
leaq 392(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_keypair_derand_jazz$29:
leaq 4488(%rsp), %rax
movq $0, %rcx
jmp L_crypto_kem_keypair_derand_jazz$27
L_crypto_kem_keypair_derand_jazz$28:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
L_crypto_kem_keypair_derand_jazz$27:
cmpq $256, %rcx
jb L_crypto_kem_keypair_derand_jazz$28
leaq 4488(%rsp), %rax
call L_poly_frommont$1
L_crypto_kem_keypair_derand_jazz$26:
leaq 5000(%rsp), %rdi
leaq 8584(%rsp), %rcx
leaq 904(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_keypair_derand_jazz$25:
leaq 16(%rsp), %rsp
leaq 392(%rsp), %rdi
leaq 9096(%rsp), %rcx
leaq 1416(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_keypair_derand_jazz$24:
leaq 16(%rsp), %rsp
leaq 5000(%rsp), %rcx
leaq 392(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_keypair_derand_jazz$23:
leaq 392(%rsp), %rdi
leaq 9608(%rsp), %rcx
leaq 1928(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_keypair_derand_jazz$22:
leaq 16(%rsp), %rsp
leaq 5000(%rsp), %rcx
leaq 392(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_keypair_derand_jazz$21:
leaq 5000(%rsp), %rax
movq $0, %rcx
jmp L_crypto_kem_keypair_derand_jazz$19
L_crypto_kem_keypair_derand_jazz$20:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
L_crypto_kem_keypair_derand_jazz$19:
cmpq $256, %rcx
jb L_crypto_kem_keypair_derand_jazz$20
leaq 5000(%rsp), %rax
call L_poly_frommont$1
L_crypto_kem_keypair_derand_jazz$18:
leaq 3976(%rsp), %rcx
leaq 2440(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_keypair_derand_jazz$17:
leaq 4488(%rsp), %rcx
leaq 2952(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_keypair_derand_jazz$16:
leaq 5000(%rsp), %rcx
leaq 3464(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_keypair_derand_jazz$15:
leaq 3976(%rsp), %rax
movq $0, %rcx
jmp L_crypto_kem_keypair_derand_jazz$13
L_crypto_kem_keypair_derand_jazz$14:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
L_crypto_kem_keypair_derand_jazz$13:
cmpq $256, %rcx
jb L_crypto_kem_keypair_derand_jazz$14
leaq 4488(%rsp), %rax
movq $0, %rcx
jmp L_crypto_kem_keypair_derand_jazz$11
L_crypto_kem_keypair_derand_jazz$12:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
L_crypto_kem_keypair_derand_jazz$11:
cmpq $256, %rcx
jb L_crypto_kem_keypair_derand_jazz$12
leaq 5000(%rsp), %rax
movq $0, %rcx
jmp L_crypto_kem_keypair_derand_jazz$9
L_crypto_kem_keypair_derand_jazz$10:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
L_crypto_kem_keypair_derand_jazz$9:
cmpq $256, %rcx
jb L_crypto_kem_keypair_derand_jazz$10
movq 32(%rsp), %rax
movq 40(%rsp), %rcx
movq %rcx, %rdx
leaq 904(%rsp), %rcx
call L_poly_tobytes$1
L_crypto_kem_keypair_derand_jazz$8:
addq $384, %rdx
leaq 1416(%rsp), %rcx
call L_poly_tobytes$1
L_crypto_kem_keypair_derand_jazz$7:
addq $384, %rdx
leaq 1928(%rsp), %rcx
call L_poly_tobytes$1
L_crypto_kem_keypair_derand_jazz$6:
movq %rax, %rdx
leaq 3976(%rsp), %rcx
call L_poly_tobytes$1
L_crypto_kem_keypair_derand_jazz$5:
addq $384, %rdx
leaq 4488(%rsp), %rcx
call L_poly_tobytes$1
L_crypto_kem_keypair_derand_jazz$4:
addq $384, %rdx
leaq 5000(%rsp), %rcx
call L_poly_tobytes$1
L_crypto_kem_keypair_derand_jazz$3:
addq $1152, %rax
movq 96(%rsp), %rcx
movq %rcx, (%rax)
addq $8, %rax
movq 104(%rsp), %rcx
movq %rcx, (%rax)
addq $8, %rax
movq 112(%rsp), %rcx
movq %rcx, (%rax)
addq $8, %rax
movq 120(%rsp), %rcx
movq %rcx, (%rax)
movq 24(%rsp), %rax
addq $1152, %rax
movq 16(%rsp), %rcx
movq (%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 8(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 16(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 24(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 32(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 40(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 48(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 56(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 64(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 72(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 80(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 88(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 96(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 104(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 112(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 120(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 128(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 136(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 144(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 152(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 160(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 168(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 176(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 184(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 192(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 200(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 208(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 216(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 224(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 232(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 240(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 248(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 256(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 264(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 272(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 280(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 288(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 296(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 304(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 312(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 320(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 328(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 336(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 344(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 352(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 360(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 368(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 376(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 384(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 392(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 400(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 408(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 416(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 424(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 432(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 440(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 448(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 456(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 464(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 472(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 480(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 488(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 496(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 504(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 512(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 520(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 528(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 536(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 544(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 552(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 560(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 568(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 576(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 584(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 592(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 600(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 608(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 616(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 624(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 632(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 640(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 648(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 656(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 664(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 672(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 680(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 688(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 696(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 704(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 712(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 720(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 728(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 736(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 744(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 752(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 760(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 768(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 776(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 784(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 792(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 800(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 808(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 816(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 824(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 832(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 840(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 848(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 856(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 864(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 872(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 880(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 888(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 896(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 904(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 912(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 920(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 928(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 936(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 944(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 952(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 960(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 968(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 976(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 984(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 992(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1000(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1008(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1016(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1024(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1032(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1040(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1048(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1056(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1064(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1072(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1080(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1088(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1096(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1104(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1112(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1120(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1128(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1136(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1144(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1152(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1160(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1168(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1176(%rcx), %rcx
movq %rcx, (%rax)
addq $8, %rax
movq %rax, 24(%rsp)
movq 16(%rsp), %rsi
movq $1184, %rax
leaq 96(%rsp), %rcx
leaq -232(%rsp), %rsp
call L_sha3_256$1
L_crypto_kem_keypair_derand_jazz$2:
leaq 232(%rsp), %rsp
movq 24(%rsp), %rax
movq 96(%rsp), %rcx
movq %rcx, (%rax)
addq $8, %rax
movq 104(%rsp), %rcx
movq %rcx, (%rax)
addq $8, %rax
movq 112(%rsp), %rcx
movq %rcx, (%rax)
addq $8, %rax
movq 120(%rsp), %rcx
movq %rcx, (%rax)
addq $8, %rax
movq 8(%rsp), %rcx
leaq 32(%rcx), %rcx
movq (%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 8(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 16(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 24(%rcx), %rcx
movq %rcx, (%rax)
ret
L_i_poly_tomsg$1:
call L_poly_csubq$1
L_i_poly_tomsg$2:
movb $0, %sil
movw (%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 2(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 4(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 6(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 8(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 10(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 12(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 14(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, (%rax)
movb $0, %sil
movw 16(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 18(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 20(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 22(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 24(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 26(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 28(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 30(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 1(%rax)
movb $0, %sil
movw 32(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 34(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 36(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 38(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 40(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 42(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 44(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 46(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 2(%rax)
movb $0, %sil
movw 48(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 50(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 52(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 54(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 56(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 58(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 60(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 62(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 3(%rax)
movb $0, %sil
movw 64(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 66(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 68(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 70(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 72(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 74(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 76(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 78(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 4(%rax)
movb $0, %sil
movw 80(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 82(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 84(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 86(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 88(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 90(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 92(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 94(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 5(%rax)
movb $0, %sil
movw 96(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 98(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 100(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 102(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 104(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 106(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 108(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 110(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 6(%rax)
movb $0, %sil
movw 112(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 114(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 116(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 118(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 120(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 122(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 124(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 126(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 7(%rax)
movb $0, %sil
movw 128(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 130(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 132(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 134(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 136(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 138(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 140(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 142(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 8(%rax)
movb $0, %sil
movw 144(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 146(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 148(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 150(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 152(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 154(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 156(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 158(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 9(%rax)
movb $0, %sil
movw 160(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 162(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 164(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 166(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 168(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 170(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 172(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 174(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 10(%rax)
movb $0, %sil
movw 176(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 178(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 180(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 182(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 184(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 186(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 188(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 190(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 11(%rax)
movb $0, %sil
movw 192(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 194(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 196(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 198(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 200(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 202(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 204(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 206(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 12(%rax)
movb $0, %sil
movw 208(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 210(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 212(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 214(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 216(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 218(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 220(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 222(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 13(%rax)
movb $0, %sil
movw 224(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 226(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 228(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 230(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 232(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 234(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 236(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 238(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 14(%rax)
movb $0, %sil
movw 240(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 242(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 244(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 246(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 248(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 250(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 252(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 254(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 15(%rax)
movb $0, %sil
movw 256(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 258(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 260(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 262(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 264(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 266(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 268(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 270(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 16(%rax)
movb $0, %sil
movw 272(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 274(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 276(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 278(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 280(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 282(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 284(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 286(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 17(%rax)
movb $0, %sil
movw 288(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 290(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 292(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 294(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 296(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 298(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 300(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 302(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 18(%rax)
movb $0, %sil
movw 304(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 306(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 308(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 310(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 312(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 314(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 316(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 318(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 19(%rax)
movb $0, %sil
movw 320(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 322(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 324(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 326(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 328(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 330(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 332(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 334(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 20(%rax)
movb $0, %sil
movw 336(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 338(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 340(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 342(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 344(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 346(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 348(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 350(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 21(%rax)
movb $0, %sil
movw 352(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 354(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 356(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 358(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 360(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 362(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 364(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 366(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 22(%rax)
movb $0, %sil
movw 368(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 370(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 372(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 374(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 376(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 378(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 380(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 382(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 23(%rax)
movb $0, %sil
movw 384(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 386(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 388(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 390(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 392(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 394(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 396(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 398(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 24(%rax)
movb $0, %sil
movw 400(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 402(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 404(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 406(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 408(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 410(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 412(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 414(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 25(%rax)
movb $0, %sil
movw 416(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 418(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 420(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 422(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 424(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 426(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 428(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 430(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 26(%rax)
movb $0, %sil
movw 432(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 434(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 436(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 438(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 440(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 442(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 444(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 446(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 27(%rax)
movb $0, %sil
movw 448(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 450(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 452(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 454(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 456(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 458(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 460(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 462(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 28(%rax)
movb $0, %sil
movw 464(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 466(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 468(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 470(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 472(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 474(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 476(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 478(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 29(%rax)
movb $0, %sil
movw 480(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 482(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 484(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 486(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 488(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 490(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 492(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 494(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 30(%rax)
movb $0, %sil
movw 496(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 498(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 500(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 502(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 504(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 506(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 508(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 510(%rcx), %cx
movzwl %cx, %ecx
shll $1, %ecx
addl $1665, %ecx
imull $80635, %ecx, %ecx
shrl $28, %ecx
andl $1, %ecx
shll $7, %ecx
orb %cl, %sil
movb %sil, 31(%rax)
ret
L_poly_tobytes$1:
call L_poly_csubq$1
L_poly_tobytes$4:
movq $0, %rsi
movq $0, %rdi
jmp L_poly_tobytes$2
L_poly_tobytes$3:
movw (%rcx,%rsi,2), %r8w
incq %rsi
movw (%rcx,%rsi,2), %r9w
incq %rsi
movw %r8w, %r10w
andw $255, %r10w
movb %r10b, (%rdx,%rdi)
incq %rdi
shrw $8, %r8w
movw %r9w, %r10w
andw $15, %r10w
shlw $4, %r10w
orw %r8w, %r10w
movb %r10b, (%rdx,%rdi)
incq %rdi
shrw $4, %r9w
movb %r9b, (%rdx,%rdi)
incq %rdi
L_poly_tobytes$2:
cmpq $256, %rsi
jb L_poly_tobytes$3
ret
L_poly_sub$1:
movq $0, %r8
jmp L_poly_sub$2
L_poly_sub$3:
movw (%rsi,%r8,2), %r9w
movw (%rdi,%r8,2), %r10w
subw %r10w, %r9w
movw %r9w, (%rcx,%r8,2)
incq %r8
L_poly_sub$2:
cmpq $256, %r8
jb L_poly_sub$3
ret
L_poly_ntt$1:
leaq glob_data + 448(%rip), %rsi
movq $0, %rdi
movq $128, %r8
jmp L_poly_ntt$4
L_poly_ntt$5:
movq $0, %r11
jmp L_poly_ntt$6
L_poly_ntt$7:
incq %rdi
movw (%rsi,%rdi,2), %r9w
movq %r11, %r10
leaq (%r11,%r8), %r11
jmp L_poly_ntt$8
L_poly_ntt$9:
leaq (%r10,%r8), %rbx
movw (%rcx,%rbx,2), %bp
movswl %bp, %ebp
movswl %r9w, %r12d
imull %r12d, %ebp
imull $62209, %ebp, %r12d
shll $16, %r12d
sarl $16, %r12d
imull $3329, %r12d, %r12d
subl %r12d, %ebp
sarl $16, %ebp
movw (%rcx,%r10,2), %r12w
movw %r12w, %r13w
subw %bp, %r13w
movw %r13w, (%rcx,%rbx,2)
addw %r12w, %bp
movw %bp, (%rcx,%r10,2)
incq %r10
L_poly_ntt$8:
cmpq %r11, %r10
jb L_poly_ntt$9
leaq (%r10,%r8), %r11
L_poly_ntt$6:
cmpq $256, %r11
jb L_poly_ntt$7
shrq $1, %r8
L_poly_ntt$4:
cmpq $2, %r8
jnb L_poly_ntt$5
movq $0, %rsi
jmp L_poly_ntt$2
L_poly_ntt$3:
movw (%rcx,%rsi,2), %di
movswl %di, %r8d
imull $20159, %r8d, %r8d
sarl $26, %r8d
imull $3329, %r8d, %r8d
subw %r8w, %di
movw %di, (%rcx,%rsi,2)
incq %rsi
L_poly_ntt$2:
cmpq $256, %rsi
jb L_poly_ntt$3
ret
L_poly_invntt$1:
leaq glob_data + 192(%rip), %rsi
movq $0, %rdi
movq $2, %r8
jmp L_poly_invntt$4
L_poly_invntt$5:
movq $0, %r11
jmp L_poly_invntt$6
L_poly_invntt$7:
movw (%rsi,%rdi,2), %r9w
incq %rdi
movq %r11, %r10
leaq (%r11,%r8), %r11
jmp L_poly_invntt$8
L_poly_invntt$9:
leaq (%r10,%r8), %rbx
movw (%rcx,%rbx,2), %bp
movw (%rcx,%r10,2), %r12w
movw %bp, %r13w
addw %r12w, %r13w
movswl %r13w, %r14d
imull $20159, %r14d, %r14d
sarl $26, %r14d
imull $3329, %r14d, %r14d
subw %r14w, %r13w
movw %r13w, (%rcx,%r10,2)
subw %bp, %r12w
movswl %r12w, %ebp
movswl %r9w, %r12d
imull %r12d, %ebp
imull $62209, %ebp, %r12d
shll $16, %r12d
sarl $16, %r12d
imull $3329, %r12d, %r12d
subl %r12d, %ebp
sarl $16, %ebp
movw %bp, (%rcx,%rbx,2)
incq %r10
L_poly_invntt$8:
cmpq %r11, %r10
jb L_poly_invntt$9
leaq (%r10,%r8), %r11
L_poly_invntt$6:
cmpq $256, %r11
jb L_poly_invntt$7
shlq $1, %r8
L_poly_invntt$4:
cmpq $128, %r8
jbe L_poly_invntt$5
movw 254(%rsi), %si
movq $0, %rdi
jmp L_poly_invntt$2
L_poly_invntt$3:
movw (%rcx,%rdi,2), %r8w
movswl %r8w, %r8d
movswl %si, %r9d
imull %r9d, %r8d
imull $62209, %r8d, %r9d
shll $16, %r9d
sarl $16, %r9d
imull $3329, %r9d, %r9d
subl %r9d, %r8d
sarl $16, %r8d
movw %r8w, (%rcx,%rdi,2)
incq %rdi
L_poly_invntt$2:
cmpq $256, %rdi
jb L_poly_invntt$3
ret
L_poly_getnoise$1:
movq %rdx, 8(%rsp)
movb (%rax), %dl
movb %dl, 16(%rsp)
movb 1(%rax), %dl
movb %dl, 17(%rsp)
movb 2(%rax), %dl
movb %dl, 18(%rsp)
movb 3(%rax), %dl
movb %dl, 19(%rsp)
movb 4(%rax), %dl
movb %dl, 20(%rsp)
movb 5(%rax), %dl
movb %dl, 21(%rsp)
movb 6(%rax), %dl
movb %dl, 22(%rsp)
movb 7(%rax), %dl
movb %dl, 23(%rsp)
movb 8(%rax), %dl
movb %dl, 24(%rsp)
movb 9(%rax), %dl
movb %dl, 25(%rsp)
movb 10(%rax), %dl
movb %dl, 26(%rsp)
movb 11(%rax), %dl
movb %dl, 27(%rsp)
movb 12(%rax), %dl
movb %dl, 28(%rsp)
movb 13(%rax), %dl
movb %dl, 29(%rsp)
movb 14(%rax), %dl
movb %dl, 30(%rsp)
movb 15(%rax), %dl
movb %dl, 31(%rsp)
movb 16(%rax), %dl
movb %dl, 32(%rsp)
movb 17(%rax), %dl
movb %dl, 33(%rsp)
movb 18(%rax), %dl
movb %dl, 34(%rsp)
movb 19(%rax), %dl
movb %dl, 35(%rsp)
movb 20(%rax), %dl
movb %dl, 36(%rsp)
movb 21(%rax), %dl
movb %dl, 37(%rsp)
movb 22(%rax), %dl
movb %dl, 38(%rsp)
movb 23(%rax), %dl
movb %dl, 39(%rsp)
movb 24(%rax), %dl
movb %dl, 40(%rsp)
movb 25(%rax), %dl
movb %dl, 41(%rsp)
movb 26(%rax), %dl
movb %dl, 42(%rsp)
movb 27(%rax), %dl
movb %dl, 43(%rsp)
movb 28(%rax), %dl
movb %dl, 44(%rsp)
movb 29(%rax), %dl
movb %dl, 45(%rsp)
movb 30(%rax), %dl
movb %dl, 46(%rsp)
movb 31(%rax), %dl
movb %dl, 47(%rsp)
movb %cl, 48(%rsp)
leaq 49(%rsp), %rcx
leaq 16(%rsp), %rdx
leaq -208(%rsp), %rsp
call L_shake256_128_33$1
L_poly_getnoise$4:
leaq 208(%rsp), %rsp
movq 8(%rsp), %rcx
movq $0, %rdx
movq $0, %rsi
jmp L_poly_getnoise$2
L_poly_getnoise$3:
movb 49(%rsp,%rdx), %dil
movb %dil, %r8b
andb $85, %r8b
shrb $1, %dil
andb $85, %dil
addb %r8b, %dil
movb %dil, %r8b
andb $3, %r8b
movb %dil, %r9b
shrb $2, %r9b
andb $3, %r9b
subb %r9b, %r8b
movsbw %r8b, %r8w
movw %r8w, (%rcx,%rsi,2)
movb %dil, %r8b
shrb $4, %r8b
andb $3, %r8b
shrb $6, %dil
andb $3, %dil
subb %dil, %r8b
movsbw %r8b, %di
incq %rsi
movw %di, (%rcx,%rsi,2)
incq %rdx
incq %rsi
L_poly_getnoise$2:
cmpq $128, %rdx
jb L_poly_getnoise$3
ret
L_i_poly_frommsg$1:
movb (%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, (%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 2(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 4(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 6(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 8(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 10(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 12(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 14(%rdx)
movb 1(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 16(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 18(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 20(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 22(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 24(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 26(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 28(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 30(%rdx)
movb 2(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 32(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 34(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 36(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 38(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 40(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 42(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 44(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 46(%rdx)
movb 3(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 48(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 50(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 52(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 54(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 56(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 58(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 60(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 62(%rdx)
movb 4(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 64(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 66(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 68(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 70(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 72(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 74(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 76(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 78(%rdx)
movb 5(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 80(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 82(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 84(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 86(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 88(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 90(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 92(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 94(%rdx)
movb 6(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 96(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 98(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 100(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 102(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 104(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 106(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 108(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 110(%rdx)
movb 7(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 112(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 114(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 116(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 118(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 120(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 122(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 124(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 126(%rdx)
movb 8(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 128(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 130(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 132(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 134(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 136(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 138(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 140(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 142(%rdx)
movb 9(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 144(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 146(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 148(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 150(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 152(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 154(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 156(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 158(%rdx)
movb 10(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 160(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 162(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 164(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 166(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 168(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 170(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 172(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 174(%rdx)
movb 11(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 176(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 178(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 180(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 182(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 184(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 186(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 188(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 190(%rdx)
movb 12(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 192(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 194(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 196(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 198(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 200(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 202(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 204(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 206(%rdx)
movb 13(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 208(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 210(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 212(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 214(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 216(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 218(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 220(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 222(%rdx)
movb 14(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 224(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 226(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 228(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 230(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 232(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 234(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 236(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 238(%rdx)
movb 15(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 240(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 242(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 244(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 246(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 248(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 250(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 252(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 254(%rdx)
movb 16(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 256(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 258(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 260(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 262(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 264(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 266(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 268(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 270(%rdx)
movb 17(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 272(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 274(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 276(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 278(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 280(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 282(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 284(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 286(%rdx)
movb 18(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 288(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 290(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 292(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 294(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 296(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 298(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 300(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 302(%rdx)
movb 19(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 304(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 306(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 308(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 310(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 312(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 314(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 316(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 318(%rdx)
movb 20(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 320(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 322(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 324(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 326(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 328(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 330(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 332(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 334(%rdx)
movb 21(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 336(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 338(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 340(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 342(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 344(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 346(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 348(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 350(%rdx)
movb 22(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 352(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 354(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 356(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 358(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 360(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 362(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 364(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 366(%rdx)
movb 23(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 368(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 370(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 372(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 374(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 376(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 378(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 380(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 382(%rdx)
movb 24(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 384(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 386(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 388(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 390(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 392(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 394(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 396(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 398(%rdx)
movb 25(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 400(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 402(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 404(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 406(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 408(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 410(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 412(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 414(%rdx)
movb 26(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 416(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 418(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 420(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 422(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 424(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 426(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 428(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 430(%rdx)
movb 27(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 432(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 434(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 436(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 438(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 440(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 442(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 444(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 446(%rdx)
movb 28(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 448(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 450(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 452(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 454(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 456(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 458(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 460(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 462(%rdx)
movb 29(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 464(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 466(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 468(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 470(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 472(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 474(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 476(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 478(%rdx)
movb 30(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 480(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 482(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 484(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 486(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 488(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 490(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 492(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 494(%rdx)
movb 31(%rcx), %cl
movzbw %cl, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 496(%rdx)
shrb $1, %cl
movzbw %cl, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 498(%rdx)
shrb $1, %cl
movzbw %cl, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 500(%rdx)
shrb $1, %cl
movzbw %cl, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 502(%rdx)
shrb $1, %cl
movzbw %cl, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 504(%rdx)
shrb $1, %cl
movzbw %cl, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 506(%rdx)
shrb $1, %cl
movzbw %cl, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 508(%rdx)
shrb $1, %cl
movzbw %cl, %cx
andw $1, %cx
imulw $1665, %cx, %cx
movw %cx, 510(%rdx)
ret
L_poly_frommont$1:
movw $1353, %cx
movq $0, %rdx
jmp L_poly_frommont$2
L_poly_frommont$3:
movw (%rax,%rdx,2), %si
movswl %si, %esi
movswl %cx, %edi
imull %edi, %esi
imull $62209, %esi, %edi
shll $16, %edi
sarl $16, %edi
imull $3329, %edi, %edi
subl %edi, %esi
sarl $16, %esi
movw %si, (%rax,%rdx,2)
incq %rdx
L_poly_frommont$2:
cmpq $256, %rdx
jb L_poly_frommont$3
ret
L_poly_frombytes$1:
movb (%rsi), %r8b
movb 1(%rsi), %r9b
movb 2(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, (%rdi)
movw %r10w, 2(%rdi)
movb 3(%rsi), %r8b
movb 4(%rsi), %r9b
movb 5(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 4(%rdi)
movw %r10w, 6(%rdi)
movb 6(%rsi), %r8b
movb 7(%rsi), %r9b
movb 8(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 8(%rdi)
movw %r10w, 10(%rdi)
movb 9(%rsi), %r8b
movb 10(%rsi), %r9b
movb 11(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 12(%rdi)
movw %r10w, 14(%rdi)
movb 12(%rsi), %r8b
movb 13(%rsi), %r9b
movb 14(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 16(%rdi)
movw %r10w, 18(%rdi)
movb 15(%rsi), %r8b
movb 16(%rsi), %r9b
movb 17(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 20(%rdi)
movw %r10w, 22(%rdi)
movb 18(%rsi), %r8b
movb 19(%rsi), %r9b
movb 20(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 24(%rdi)
movw %r10w, 26(%rdi)
movb 21(%rsi), %r8b
movb 22(%rsi), %r9b
movb 23(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 28(%rdi)
movw %r10w, 30(%rdi)
movb 24(%rsi), %r8b
movb 25(%rsi), %r9b
movb 26(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 32(%rdi)
movw %r10w, 34(%rdi)
movb 27(%rsi), %r8b
movb 28(%rsi), %r9b
movb 29(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 36(%rdi)
movw %r10w, 38(%rdi)
movb 30(%rsi), %r8b
movb 31(%rsi), %r9b
movb 32(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 40(%rdi)
movw %r10w, 42(%rdi)
movb 33(%rsi), %r8b
movb 34(%rsi), %r9b
movb 35(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 44(%rdi)
movw %r10w, 46(%rdi)
movb 36(%rsi), %r8b
movb 37(%rsi), %r9b
movb 38(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 48(%rdi)
movw %r10w, 50(%rdi)
movb 39(%rsi), %r8b
movb 40(%rsi), %r9b
movb 41(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 52(%rdi)
movw %r10w, 54(%rdi)
movb 42(%rsi), %r8b
movb 43(%rsi), %r9b
movb 44(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 56(%rdi)
movw %r10w, 58(%rdi)
movb 45(%rsi), %r8b
movb 46(%rsi), %r9b
movb 47(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 60(%rdi)
movw %r10w, 62(%rdi)
movb 48(%rsi), %r8b
movb 49(%rsi), %r9b
movb 50(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 64(%rdi)
movw %r10w, 66(%rdi)
movb 51(%rsi), %r8b
movb 52(%rsi), %r9b
movb 53(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 68(%rdi)
movw %r10w, 70(%rdi)
movb 54(%rsi), %r8b
movb 55(%rsi), %r9b
movb 56(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 72(%rdi)
movw %r10w, 74(%rdi)
movb 57(%rsi), %r8b
movb 58(%rsi), %r9b
movb 59(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 76(%rdi)
movw %r10w, 78(%rdi)
movb 60(%rsi), %r8b
movb 61(%rsi), %r9b
movb 62(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 80(%rdi)
movw %r10w, 82(%rdi)
movb 63(%rsi), %r8b
movb 64(%rsi), %r9b
movb 65(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 84(%rdi)
movw %r10w, 86(%rdi)
movb 66(%rsi), %r8b
movb 67(%rsi), %r9b
movb 68(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 88(%rdi)
movw %r10w, 90(%rdi)
movb 69(%rsi), %r8b
movb 70(%rsi), %r9b
movb 71(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 92(%rdi)
movw %r10w, 94(%rdi)
movb 72(%rsi), %r8b
movb 73(%rsi), %r9b
movb 74(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 96(%rdi)
movw %r10w, 98(%rdi)
movb 75(%rsi), %r8b
movb 76(%rsi), %r9b
movb 77(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 100(%rdi)
movw %r10w, 102(%rdi)
movb 78(%rsi), %r8b
movb 79(%rsi), %r9b
movb 80(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 104(%rdi)
movw %r10w, 106(%rdi)
movb 81(%rsi), %r8b
movb 82(%rsi), %r9b
movb 83(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 108(%rdi)
movw %r10w, 110(%rdi)
movb 84(%rsi), %r8b
movb 85(%rsi), %r9b
movb 86(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 112(%rdi)
movw %r10w, 114(%rdi)
movb 87(%rsi), %r8b
movb 88(%rsi), %r9b
movb 89(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 116(%rdi)
movw %r10w, 118(%rdi)
movb 90(%rsi), %r8b
movb 91(%rsi), %r9b
movb 92(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 120(%rdi)
movw %r10w, 122(%rdi)
movb 93(%rsi), %r8b
movb 94(%rsi), %r9b
movb 95(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 124(%rdi)
movw %r10w, 126(%rdi)
movb 96(%rsi), %r8b
movb 97(%rsi), %r9b
movb 98(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 128(%rdi)
movw %r10w, 130(%rdi)
movb 99(%rsi), %r8b
movb 100(%rsi), %r9b
movb 101(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 132(%rdi)
movw %r10w, 134(%rdi)
movb 102(%rsi), %r8b
movb 103(%rsi), %r9b
movb 104(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 136(%rdi)
movw %r10w, 138(%rdi)
movb 105(%rsi), %r8b
movb 106(%rsi), %r9b
movb 107(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 140(%rdi)
movw %r10w, 142(%rdi)
movb 108(%rsi), %r8b
movb 109(%rsi), %r9b
movb 110(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 144(%rdi)
movw %r10w, 146(%rdi)
movb 111(%rsi), %r8b
movb 112(%rsi), %r9b
movb 113(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 148(%rdi)
movw %r10w, 150(%rdi)
movb 114(%rsi), %r8b
movb 115(%rsi), %r9b
movb 116(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 152(%rdi)
movw %r10w, 154(%rdi)
movb 117(%rsi), %r8b
movb 118(%rsi), %r9b
movb 119(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 156(%rdi)
movw %r10w, 158(%rdi)
movb 120(%rsi), %r8b
movb 121(%rsi), %r9b
movb 122(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 160(%rdi)
movw %r10w, 162(%rdi)
movb 123(%rsi), %r8b
movb 124(%rsi), %r9b
movb 125(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 164(%rdi)
movw %r10w, 166(%rdi)
movb 126(%rsi), %r8b
movb 127(%rsi), %r9b
movb 128(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 168(%rdi)
movw %r10w, 170(%rdi)
movb 129(%rsi), %r8b
movb 130(%rsi), %r9b
movb 131(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 172(%rdi)
movw %r10w, 174(%rdi)
movb 132(%rsi), %r8b
movb 133(%rsi), %r9b
movb 134(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 176(%rdi)
movw %r10w, 178(%rdi)
movb 135(%rsi), %r8b
movb 136(%rsi), %r9b
movb 137(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 180(%rdi)
movw %r10w, 182(%rdi)
movb 138(%rsi), %r8b
movb 139(%rsi), %r9b
movb 140(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 184(%rdi)
movw %r10w, 186(%rdi)
movb 141(%rsi), %r8b
movb 142(%rsi), %r9b
movb 143(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 188(%rdi)
movw %r10w, 190(%rdi)
movb 144(%rsi), %r8b
movb 145(%rsi), %r9b
movb 146(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 192(%rdi)
movw %r10w, 194(%rdi)
movb 147(%rsi), %r8b
movb 148(%rsi), %r9b
movb 149(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 196(%rdi)
movw %r10w, 198(%rdi)
movb 150(%rsi), %r8b
movb 151(%rsi), %r9b
movb 152(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 200(%rdi)
movw %r10w, 202(%rdi)
movb 153(%rsi), %r8b
movb 154(%rsi), %r9b
movb 155(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 204(%rdi)
movw %r10w, 206(%rdi)
movb 156(%rsi), %r8b
movb 157(%rsi), %r9b
movb 158(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 208(%rdi)
movw %r10w, 210(%rdi)
movb 159(%rsi), %r8b
movb 160(%rsi), %r9b
movb 161(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 212(%rdi)
movw %r10w, 214(%rdi)
movb 162(%rsi), %r8b
movb 163(%rsi), %r9b
movb 164(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 216(%rdi)
movw %r10w, 218(%rdi)
movb 165(%rsi), %r8b
movb 166(%rsi), %r9b
movb 167(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 220(%rdi)
movw %r10w, 222(%rdi)
movb 168(%rsi), %r8b
movb 169(%rsi), %r9b
movb 170(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 224(%rdi)
movw %r10w, 226(%rdi)
movb 171(%rsi), %r8b
movb 172(%rsi), %r9b
movb 173(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 228(%rdi)
movw %r10w, 230(%rdi)
movb 174(%rsi), %r8b
movb 175(%rsi), %r9b
movb 176(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 232(%rdi)
movw %r10w, 234(%rdi)
movb 177(%rsi), %r8b
movb 178(%rsi), %r9b
movb 179(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 236(%rdi)
movw %r10w, 238(%rdi)
movb 180(%rsi), %r8b
movb 181(%rsi), %r9b
movb 182(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 240(%rdi)
movw %r10w, 242(%rdi)
movb 183(%rsi), %r8b
movb 184(%rsi), %r9b
movb 185(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 244(%rdi)
movw %r10w, 246(%rdi)
movb 186(%rsi), %r8b
movb 187(%rsi), %r9b
movb 188(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 248(%rdi)
movw %r10w, 250(%rdi)
movb 189(%rsi), %r8b
movb 190(%rsi), %r9b
movb 191(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 252(%rdi)
movw %r10w, 254(%rdi)
movb 192(%rsi), %r8b
movb 193(%rsi), %r9b
movb 194(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 256(%rdi)
movw %r10w, 258(%rdi)
movb 195(%rsi), %r8b
movb 196(%rsi), %r9b
movb 197(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 260(%rdi)
movw %r10w, 262(%rdi)
movb 198(%rsi), %r8b
movb 199(%rsi), %r9b
movb 200(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 264(%rdi)
movw %r10w, 266(%rdi)
movb 201(%rsi), %r8b
movb 202(%rsi), %r9b
movb 203(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 268(%rdi)
movw %r10w, 270(%rdi)
movb 204(%rsi), %r8b
movb 205(%rsi), %r9b
movb 206(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 272(%rdi)
movw %r10w, 274(%rdi)
movb 207(%rsi), %r8b
movb 208(%rsi), %r9b
movb 209(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 276(%rdi)
movw %r10w, 278(%rdi)
movb 210(%rsi), %r8b
movb 211(%rsi), %r9b
movb 212(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 280(%rdi)
movw %r10w, 282(%rdi)
movb 213(%rsi), %r8b
movb 214(%rsi), %r9b
movb 215(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 284(%rdi)
movw %r10w, 286(%rdi)
movb 216(%rsi), %r8b
movb 217(%rsi), %r9b
movb 218(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 288(%rdi)
movw %r10w, 290(%rdi)
movb 219(%rsi), %r8b
movb 220(%rsi), %r9b
movb 221(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 292(%rdi)
movw %r10w, 294(%rdi)
movb 222(%rsi), %r8b
movb 223(%rsi), %r9b
movb 224(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 296(%rdi)
movw %r10w, 298(%rdi)
movb 225(%rsi), %r8b
movb 226(%rsi), %r9b
movb 227(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 300(%rdi)
movw %r10w, 302(%rdi)
movb 228(%rsi), %r8b
movb 229(%rsi), %r9b
movb 230(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 304(%rdi)
movw %r10w, 306(%rdi)
movb 231(%rsi), %r8b
movb 232(%rsi), %r9b
movb 233(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 308(%rdi)
movw %r10w, 310(%rdi)
movb 234(%rsi), %r8b
movb 235(%rsi), %r9b
movb 236(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 312(%rdi)
movw %r10w, 314(%rdi)
movb 237(%rsi), %r8b
movb 238(%rsi), %r9b
movb 239(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 316(%rdi)
movw %r10w, 318(%rdi)
movb 240(%rsi), %r8b
movb 241(%rsi), %r9b
movb 242(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 320(%rdi)
movw %r10w, 322(%rdi)
movb 243(%rsi), %r8b
movb 244(%rsi), %r9b
movb 245(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 324(%rdi)
movw %r10w, 326(%rdi)
movb 246(%rsi), %r8b
movb 247(%rsi), %r9b
movb 248(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 328(%rdi)
movw %r10w, 330(%rdi)
movb 249(%rsi), %r8b
movb 250(%rsi), %r9b
movb 251(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 332(%rdi)
movw %r10w, 334(%rdi)
movb 252(%rsi), %r8b
movb 253(%rsi), %r9b
movb 254(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 336(%rdi)
movw %r10w, 338(%rdi)
movb 255(%rsi), %r8b
movb 256(%rsi), %r9b
movb 257(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 340(%rdi)
movw %r10w, 342(%rdi)
movb 258(%rsi), %r8b
movb 259(%rsi), %r9b
movb 260(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 344(%rdi)
movw %r10w, 346(%rdi)
movb 261(%rsi), %r8b
movb 262(%rsi), %r9b
movb 263(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 348(%rdi)
movw %r10w, 350(%rdi)
movb 264(%rsi), %r8b
movb 265(%rsi), %r9b
movb 266(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 352(%rdi)
movw %r10w, 354(%rdi)
movb 267(%rsi), %r8b
movb 268(%rsi), %r9b
movb 269(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 356(%rdi)
movw %r10w, 358(%rdi)
movb 270(%rsi), %r8b
movb 271(%rsi), %r9b
movb 272(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 360(%rdi)
movw %r10w, 362(%rdi)
movb 273(%rsi), %r8b
movb 274(%rsi), %r9b
movb 275(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 364(%rdi)
movw %r10w, 366(%rdi)
movb 276(%rsi), %r8b
movb 277(%rsi), %r9b
movb 278(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 368(%rdi)
movw %r10w, 370(%rdi)
movb 279(%rsi), %r8b
movb 280(%rsi), %r9b
movb 281(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 372(%rdi)
movw %r10w, 374(%rdi)
movb 282(%rsi), %r8b
movb 283(%rsi), %r9b
movb 284(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 376(%rdi)
movw %r10w, 378(%rdi)
movb 285(%rsi), %r8b
movb 286(%rsi), %r9b
movb 287(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 380(%rdi)
movw %r10w, 382(%rdi)
movb 288(%rsi), %r8b
movb 289(%rsi), %r9b
movb 290(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 384(%rdi)
movw %r10w, 386(%rdi)
movb 291(%rsi), %r8b
movb 292(%rsi), %r9b
movb 293(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 388(%rdi)
movw %r10w, 390(%rdi)
movb 294(%rsi), %r8b
movb 295(%rsi), %r9b
movb 296(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 392(%rdi)
movw %r10w, 394(%rdi)
movb 297(%rsi), %r8b
movb 298(%rsi), %r9b
movb 299(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 396(%rdi)
movw %r10w, 398(%rdi)
movb 300(%rsi), %r8b
movb 301(%rsi), %r9b
movb 302(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 400(%rdi)
movw %r10w, 402(%rdi)
movb 303(%rsi), %r8b
movb 304(%rsi), %r9b
movb 305(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 404(%rdi)
movw %r10w, 406(%rdi)
movb 306(%rsi), %r8b
movb 307(%rsi), %r9b
movb 308(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 408(%rdi)
movw %r10w, 410(%rdi)
movb 309(%rsi), %r8b
movb 310(%rsi), %r9b
movb 311(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 412(%rdi)
movw %r10w, 414(%rdi)
movb 312(%rsi), %r8b
movb 313(%rsi), %r9b
movb 314(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 416(%rdi)
movw %r10w, 418(%rdi)
movb 315(%rsi), %r8b
movb 316(%rsi), %r9b
movb 317(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 420(%rdi)
movw %r10w, 422(%rdi)
movb 318(%rsi), %r8b
movb 319(%rsi), %r9b
movb 320(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 424(%rdi)
movw %r10w, 426(%rdi)
movb 321(%rsi), %r8b
movb 322(%rsi), %r9b
movb 323(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 428(%rdi)
movw %r10w, 430(%rdi)
movb 324(%rsi), %r8b
movb 325(%rsi), %r9b
movb 326(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 432(%rdi)
movw %r10w, 434(%rdi)
movb 327(%rsi), %r8b
movb 328(%rsi), %r9b
movb 329(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 436(%rdi)
movw %r10w, 438(%rdi)
movb 330(%rsi), %r8b
movb 331(%rsi), %r9b
movb 332(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 440(%rdi)
movw %r10w, 442(%rdi)
movb 333(%rsi), %r8b
movb 334(%rsi), %r9b
movb 335(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 444(%rdi)
movw %r10w, 446(%rdi)
movb 336(%rsi), %r8b
movb 337(%rsi), %r9b
movb 338(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 448(%rdi)
movw %r10w, 450(%rdi)
movb 339(%rsi), %r8b
movb 340(%rsi), %r9b
movb 341(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 452(%rdi)
movw %r10w, 454(%rdi)
movb 342(%rsi), %r8b
movb 343(%rsi), %r9b
movb 344(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 456(%rdi)
movw %r10w, 458(%rdi)
movb 345(%rsi), %r8b
movb 346(%rsi), %r9b
movb 347(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 460(%rdi)
movw %r10w, 462(%rdi)
movb 348(%rsi), %r8b
movb 349(%rsi), %r9b
movb 350(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 464(%rdi)
movw %r10w, 466(%rdi)
movb 351(%rsi), %r8b
movb 352(%rsi), %r9b
movb 353(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 468(%rdi)
movw %r10w, 470(%rdi)
movb 354(%rsi), %r8b
movb 355(%rsi), %r9b
movb 356(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 472(%rdi)
movw %r10w, 474(%rdi)
movb 357(%rsi), %r8b
movb 358(%rsi), %r9b
movb 359(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 476(%rdi)
movw %r10w, 478(%rdi)
movb 360(%rsi), %r8b
movb 361(%rsi), %r9b
movb 362(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 480(%rdi)
movw %r10w, 482(%rdi)
movb 363(%rsi), %r8b
movb 364(%rsi), %r9b
movb 365(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 484(%rdi)
movw %r10w, 486(%rdi)
movb 366(%rsi), %r8b
movb 367(%rsi), %r9b
movb 368(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 488(%rdi)
movw %r10w, 490(%rdi)
movb 369(%rsi), %r8b
movb 370(%rsi), %r9b
movb 371(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 492(%rdi)
movw %r10w, 494(%rdi)
movb 372(%rsi), %r8b
movb 373(%rsi), %r9b
movb 374(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 496(%rdi)
movw %r10w, 498(%rdi)
movb 375(%rsi), %r8b
movb 376(%rsi), %r9b
movb 377(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 500(%rdi)
movw %r10w, 502(%rdi)
movb 378(%rsi), %r8b
movb 379(%rsi), %r9b
movb 380(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 504(%rdi)
movw %r10w, 506(%rdi)
movb 381(%rsi), %r8b
movb 382(%rsi), %r9b
movb 383(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 508(%rdi)
movw %r10w, 510(%rdi)
ret
L_poly_decompress$1:
movq $0, %rdi
movq $0, %r8
jmp L_poly_decompress$2
L_poly_decompress$3:
movb (%rsi,%rdi), %r9b
movzbw %r9b, %r10w
movzbw %r9b, %r9w
andw $15, %r10w
shrw $4, %r9w
imulw $3329, %r10w, %r10w
imulw $3329, %r9w, %r9w
addw $8, %r10w
addw $8, %r9w
shrw $4, %r10w
shrw $4, %r9w
movw %r10w, (%rcx,%r8,2)
incq %r8
movw %r9w, (%rcx,%r8,2)
incq %r8
incq %rdi
L_poly_decompress$2:
cmpq $128, %rdi
jb L_poly_decompress$3
ret
L_i_poly_compress$1:
call L_poly_csubq$1
L_i_poly_compress$4:
movq $0, %rdx
movq $0, %rsi
jmp L_i_poly_compress$2
L_i_poly_compress$3:
movw (%rcx,%rsi,2), %di
movzwl %di, %edi
shll $4, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $15, %edi
incq %rsi
movw (%rcx,%rsi,2), %r8w
movzwl %r8w, %r8d
shll $4, %r8d
addl $1665, %r8d
imull $80635, %r8d, %r8d
shrl $28, %r8d
andl $15, %r8d
shll $4, %r8d
orl %r8d, %edi
movb %dil, (%rax,%rdx)
incq %rdx
incq %rsi
L_i_poly_compress$2:
cmpq $128, %rdx
jb L_i_poly_compress$3
ret
L_poly_compress$1:
call L_poly_csubq$1
L_poly_compress$4:
movq $0, %rdx
movq $0, %rsi
jmp L_poly_compress$2
L_poly_compress$3:
movw (%rcx,%rsi,2), %di
movzwl %di, %edi
shll $4, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $15, %edi
incq %rsi
movw (%rcx,%rsi,2), %r8w
movzwl %r8w, %r8d
shll $4, %r8d
addl $1665, %r8d
imull $80635, %r8d, %r8d
shrl $28, %r8d
andl $15, %r8d
shll $4, %r8d
orl %r8d, %edi
movb %dil, (%rax,%rdx)
incq %rdx
incq %rsi
L_poly_compress$2:
cmpq $128, %rdx
jb L_poly_compress$3
ret
L_poly_basemul$1:
movq %rdi, 8(%rsp)
movq $64, %rdi
movq $0, %r8
jmp L_poly_basemul$2
L_poly_basemul$3:
leaq glob_data + 448(%rip), %r9
movw (%r9,%rdi,2), %r9w
incq %rdi
movw (%rcx,%r8,2), %r10w
movw (%rsi,%r8,2), %r11w
incq %r8
movw (%rcx,%r8,2), %bx
movw (%rsi,%r8,2), %bp
addq $-1, %r8
movswl %bx, %r12d
movswl %bp, %r13d
imull %r13d, %r12d
imull $62209, %r12d, %r13d
shll $16, %r13d
sarl $16, %r13d
imull $3329, %r13d, %r13d
subl %r13d, %r12d
sarl $16, %r12d
movswl %r12w, %r12d
movswl %r9w, %r13d
imull %r13d, %r12d
imull $62209, %r12d, %r13d
shll $16, %r13d
sarl $16, %r13d
imull $3329, %r13d, %r13d
subl %r13d, %r12d
sarl $16, %r12d
movswl %r10w, %r13d
movswl %r11w, %r14d
imull %r14d, %r13d
imull $62209, %r13d, %r14d
shll $16, %r14d
sarl $16, %r14d
imull $3329, %r14d, %r14d
subl %r14d, %r13d
sarl $16, %r13d
addw %r13w, %r12w
movswl %r10w, %r10d
movswl %bp, %ebp
imull %ebp, %r10d
imull $62209, %r10d, %ebp
shll $16, %ebp
sarl $16, %ebp
imull $3329, %ebp, %ebp
subl %ebp, %r10d
sarl $16, %r10d
movswl %bx, %ebx
movswl %r11w, %r11d
imull %r11d, %ebx
imull $62209, %ebx, %r11d
shll $16, %r11d
sarl $16, %r11d
imull $3329, %r11d, %r11d
subl %r11d, %ebx
sarl $16, %ebx
addw %bx, %r10w
movq 8(%rsp), %r11
movw %r12w, (%r11,%r8,2)
incq %r8
movw %r10w, (%r11,%r8,2)
movq %r11, 16(%rsp)
negw %r9w
incq %r8
movw (%rcx,%r8,2), %r10w
movw (%rsi,%r8,2), %r11w
incq %r8
movw (%rcx,%r8,2), %bx
movw (%rsi,%r8,2), %bp
addq $-1, %r8
movswl %bx, %r12d
movswl %bp, %r13d
imull %r13d, %r12d
imull $62209, %r12d, %r13d
shll $16, %r13d
sarl $16, %r13d
imull $3329, %r13d, %r13d
subl %r13d, %r12d
sarl $16, %r12d
movswl %r12w, %r12d
movswl %r9w, %r9d
imull %r9d, %r12d
imull $62209, %r12d, %r9d
shll $16, %r9d
sarl $16, %r9d
imull $3329, %r9d, %r9d
subl %r9d, %r12d
sarl $16, %r12d
movw %r12w, %r9w
movswl %r10w, %r12d
movswl %r11w, %r13d
imull %r13d, %r12d
imull $62209, %r12d, %r13d
shll $16, %r13d
sarl $16, %r13d
imull $3329, %r13d, %r13d
subl %r13d, %r12d
sarl $16, %r12d
addw %r12w, %r9w
movswl %r10w, %r10d
movswl %bp, %ebp
imull %ebp, %r10d
imull $62209, %r10d, %ebp
shll $16, %ebp
sarl $16, %ebp
imull $3329, %ebp, %ebp
subl %ebp, %r10d
sarl $16, %r10d
movswl %bx, %ebx
movswl %r11w, %r11d
imull %r11d, %ebx
imull $62209, %ebx, %r11d
shll $16, %r11d
sarl $16, %r11d
imull $3329, %r11d, %r11d
subl %r11d, %ebx
sarl $16, %ebx
addw %bx, %r10w
movq 16(%rsp), %r11
movw %r9w, (%r11,%r8,2)
incq %r8
movw %r10w, (%r11,%r8,2)
incq %r8
L_poly_basemul$2:
cmpq $256, %r8
jb L_poly_basemul$3
ret
L_poly_csubq$1:
movq $0, %r8
jmp L_poly_csubq$2
L_poly_csubq$3:
movw (%rcx,%r8,2), %r9w
addw $-3329, %r9w
movw %r9w, %r10w
sarw $15, %r10w
andw $3329, %r10w
addw %r10w, %r9w
movw %r9w, (%rcx,%r8,2)
incq %r8
L_poly_csubq$2:
cmpq $256, %r8
jb L_poly_csubq$3
ret
L_poly_add2$1:
movq $0, %rdi
jmp L_poly_add2$2
L_poly_add2$3:
movw (%rcx,%rdi,2), %r8w
movw (%rsi,%rdi,2), %r9w
addw %r9w, %r8w
movw %r8w, (%rcx,%rdi,2)
incq %rdi
L_poly_add2$2:
cmpq $256, %rdi
jb L_poly_add2$3
ret
L_shake256_64$1:
movq %rax, 8(%rsp)
movq %rcx, 16(%rsp)
leaq 24(%rsp), %rcx
xorq %rax, %rax
movq %rax, (%rcx)
movq %rax, 8(%rcx)
movq %rax, 16(%rcx)
movq %rax, 24(%rcx)
movq %rax, 32(%rcx)
movq %rax, 40(%rcx)
movq %rax, 48(%rcx)
movq %rax, 56(%rcx)
movq %rax, 64(%rcx)
movq %rax, 72(%rcx)
movq %rax, 80(%rcx)
movq %rax, 88(%rcx)
movq %rax, 96(%rcx)
movq %rax, 104(%rcx)
movq %rax, 112(%rcx)
movq %rax, 120(%rcx)
movq %rax, 128(%rcx)
movq %rax, 136(%rcx)
movq %rax, 144(%rcx)
movq %rax, 152(%rcx)
movq %rax, 160(%rcx)
movq %rax, 168(%rcx)
movq %rax, 176(%rcx)
movq %rax, 184(%rcx)
movq %rax, 192(%rcx)
movq (%rdx), %rax
xorq %rax, (%rcx)
movq 8(%rdx), %rax
xorq %rax, 8(%rcx)
movq 16(%rdx), %rax
xorq %rax, 16(%rcx)
movq 24(%rdx), %rax
xorq %rax, 24(%rcx)
movq 32(%rdx), %rax
xorq %rax, 32(%rcx)
movq 40(%rdx), %rax
xorq %rax, 40(%rcx)
movq 48(%rdx), %rax
xorq %rax, 48(%rcx)
movq 56(%rdx), %rax
xorq %rax, 56(%rcx)
xorb $31, 64(%rcx)
xorb $-128, 135(%rcx)
leaq -224(%rsp), %rsp
call L_keccakf1600_ref1$1
L_shake256_64$9:
leaq 224(%rsp), %rsp
movq 16(%rsp), %rax
movq 8(%rsp), %rdx
jmp L_shake256_64$6
L_shake256_64$7:
movq (%rcx), %rsi
movq %rsi, (%rdx)
movq 8(%rcx), %rsi
movq %rsi, 8(%rdx)
movq 16(%rcx), %rsi
movq %rsi, 16(%rdx)
movq 24(%rcx), %rsi
movq %rsi, 24(%rdx)
movq 32(%rcx), %rsi
movq %rsi, 32(%rdx)
movq 40(%rcx), %rsi
movq %rsi, 40(%rdx)
movq 48(%rcx), %rsi
movq %rsi, 48(%rdx)
movq 56(%rcx), %rsi
movq %rsi, 56(%rdx)
movq 64(%rcx), %rsi
movq %rsi, 64(%rdx)
movq 72(%rcx), %rsi
movq %rsi, 72(%rdx)
movq 80(%rcx), %rsi
movq %rsi, 80(%rdx)
movq 88(%rcx), %rsi
movq %rsi, 88(%rdx)
movq 96(%rcx), %rsi
movq %rsi, 96(%rdx)
movq 104(%rcx), %rsi
movq %rsi, 104(%rdx)
movq 112(%rcx), %rsi
movq %rsi, 112(%rdx)
movq 120(%rcx), %rsi
movq %rsi, 120(%rdx)
movq 128(%rcx), %rsi
movq %rsi, 128(%rdx)
addq $136, %rdx
addq $-136, %rax
movq %rdx, 8(%rsp)
movq %rax, 16(%rsp)
leaq -224(%rsp), %rsp
call L_keccakf1600_ref1$1
L_shake256_64$8:
leaq 224(%rsp), %rsp
movq 16(%rsp), %rax
movq 8(%rsp), %rdx
L_shake256_64$6:
cmpq $136, %rax
jnbe L_shake256_64$7
movq %rax, 8(%rsp)
shrq $3, %rax
movq $0, %rsi
jmp L_shake256_64$4
L_shake256_64$5:
movq (%rcx,%rsi,8), %rdi
movq %rdi, (%rdx,%rsi,8)
incq %rsi
L_shake256_64$4:
cmpq %rax, %rsi
jb L_shake256_64$5
shlq $3, %rsi
movq 8(%rsp), %rax
jmp L_shake256_64$2
L_shake256_64$3:
movb (%rcx,%rsi), %dil
movb %dil, (%rdx,%rsi)
incq %rsi
L_shake256_64$2:
cmpq %rax, %rsi
jb L_shake256_64$3
ret
L_sha3_512_64$1:
movq %rax, 8(%rsp)
leaq 16(%rsp), %rcx
xorq %rax, %rax
movq %rax, (%rcx)
movq %rax, 8(%rcx)
movq %rax, 16(%rcx)
movq %rax, 24(%rcx)
movq %rax, 32(%rcx)
movq %rax, 40(%rcx)
movq %rax, 48(%rcx)
movq %rax, 56(%rcx)
movq %rax, 64(%rcx)
movq %rax, 72(%rcx)
movq %rax, 80(%rcx)
movq %rax, 88(%rcx)
movq %rax, 96(%rcx)
movq %rax, 104(%rcx)
movq %rax, 112(%rcx)
movq %rax, 120(%rcx)
movq %rax, 128(%rcx)
movq %rax, 136(%rcx)
movq %rax, 144(%rcx)
movq %rax, 152(%rcx)
movq %rax, 160(%rcx)
movq %rax, 168(%rcx)
movq %rax, 176(%rcx)
movq %rax, 184(%rcx)
movq %rax, 192(%rcx)
movq (%rdx), %rax
xorq %rax, (%rcx)
movq 8(%rdx), %rax
xorq %rax, 8(%rcx)
movq 16(%rdx), %rax
xorq %rax, 16(%rcx)
movq 24(%rdx), %rax
xorq %rax, 24(%rcx)
movq 32(%rdx), %rax
xorq %rax, 32(%rcx)
movq 40(%rdx), %rax
xorq %rax, 40(%rcx)
movq 48(%rdx), %rax
xorq %rax, 48(%rcx)
movq 56(%rdx), %rax
xorq %rax, 56(%rcx)
xorb $6, 64(%rcx)
xorb $-128, 71(%rcx)
leaq -224(%rsp), %rsp
call L_keccakf1600_ref1$1
L_sha3_512_64$2:
leaq 224(%rsp), %rsp
movq 8(%rsp), %rax
movq (%rcx), %rdx
movq %rdx, (%rax)
movq 8(%rcx), %rdx
movq %rdx, 8(%rax)
movq 16(%rcx), %rdx
movq %rdx, 16(%rax)
movq 24(%rcx), %rdx
movq %rdx, 24(%rax)
movq 32(%rcx), %rdx
movq %rdx, 32(%rax)
movq 40(%rcx), %rdx
movq %rdx, 40(%rax)
movq 48(%rcx), %rdx
movq %rdx, 48(%rax)
movq 56(%rcx), %rcx
movq %rcx, 56(%rax)
ret
L_sha3_256_32$1:
movq %rax, 8(%rsp)
leaq 16(%rsp), %rcx
xorq %rax, %rax
movq %rax, (%rcx)
movq %rax, 8(%rcx)
movq %rax, 16(%rcx)
movq %rax, 24(%rcx)
movq %rax, 32(%rcx)
movq %rax, 40(%rcx)
movq %rax, 48(%rcx)
movq %rax, 56(%rcx)
movq %rax, 64(%rcx)
movq %rax, 72(%rcx)
movq %rax, 80(%rcx)
movq %rax, 88(%rcx)
movq %rax, 96(%rcx)
movq %rax, 104(%rcx)
movq %rax, 112(%rcx)
movq %rax, 120(%rcx)
movq %rax, 128(%rcx)
movq %rax, 136(%rcx)
movq %rax, 144(%rcx)
movq %rax, 152(%rcx)
movq %rax, 160(%rcx)
movq %rax, 168(%rcx)
movq %rax, 176(%rcx)
movq %rax, 184(%rcx)
movq %rax, 192(%rcx)
movq (%rdx), %rax
movq %rax, (%rcx)
movq 8(%rdx), %rax
movq %rax, 8(%rcx)
movq 16(%rdx), %rax
movq %rax, 16(%rcx)
movq 24(%rdx), %rax
movq %rax, 24(%rcx)
xorb $6, 32(%rcx)
movb $-128, 135(%rcx)
leaq -224(%rsp), %rsp
call L_keccakf1600_ref1$1
L_sha3_256_32$2:
leaq 224(%rsp), %rsp
movq 8(%rsp), %rax
movq (%rcx), %rdx
movq %rdx, (%rax)
movq 8(%rcx), %rdx
movq %rdx, 8(%rax)
movq 16(%rcx), %rdx
movq %rdx, 16(%rax)
movq 24(%rcx), %rcx
movq %rcx, 24(%rax)
ret
L_sha3_256$1:
movq %rcx, 8(%rsp)
leaq 40(%rsp), %rcx
xorq %rdx, %rdx
movq %rdx, (%rcx)
movq %rdx, 8(%rcx)
movq %rdx, 16(%rcx)
movq %rdx, 24(%rcx)
movq %rdx, 32(%rcx)
movq %rdx, 40(%rcx)
movq %rdx, 48(%rcx)
movq %rdx, 56(%rcx)
movq %rdx, 64(%rcx)
movq %rdx, 72(%rcx)
movq %rdx, 80(%rcx)
movq %rdx, 88(%rcx)
movq %rdx, 96(%rcx)
movq %rdx, 104(%rcx)
movq %rdx, 112(%rcx)
movq %rdx, 120(%rcx)
movq %rdx, 128(%rcx)
movq %rdx, 136(%rcx)
movq %rdx, 144(%rcx)
movq %rdx, 152(%rcx)
movq %rdx, 160(%rcx)
movq %rdx, 168(%rcx)
movq %rdx, 176(%rcx)
movq %rdx, 184(%rcx)
movq %rdx, 192(%rcx)
movq $136, %rdx
jmp L_sha3_256$7
L_sha3_256$8:
movq %rdx, %rdi
shrq $3, %rdi
movq $0, %r8
jmp L_sha3_256$10
L_sha3_256$11:
movq (%rsi,%r8,8), %r9
xorq %r9, (%rcx,%r8,8)
incq %r8
L_sha3_256$10:
cmpq %rdi, %r8
jb L_sha3_256$11
addq %rdx, %rsi
subq %rdx, %rax
movq %rsi, 16(%rsp)
movq %rax, 24(%rsp)
movq %rdx, 32(%rsp)
leaq -224(%rsp), %rsp
call L_keccakf1600_ref1$1
L_sha3_256$9:
leaq 224(%rsp), %rsp
movq 16(%rsp), %rsi
movq 24(%rsp), %rax
movq 32(%rsp), %rdx
L_sha3_256$7:
cmpq %rdx, %rax
jnb L_sha3_256$8
movb $6, %dil
movq %rax, %r8
shrq $3, %r8
movq $0, %r9
jmp L_sha3_256$5
L_sha3_256$6:
movq (%rsi,%r9,8), %r10
xorq %r10, (%rcx,%r9,8)
incq %r9
L_sha3_256$5:
cmpq %r8, %r9
jb L_sha3_256$6
shlq $3, %r9
jmp L_sha3_256$3
L_sha3_256$4:
movb (%rsi,%r9), %r8b
xorb %r8b, (%rcx,%r9)
incq %r9
L_sha3_256$3:
cmpq %rax, %r9
jb L_sha3_256$4
xorb %dil, (%rcx,%r9)
addq $-1, %rdx
xorb $-128, (%rcx,%rdx)
leaq -224(%rsp), %rsp
call L_keccakf1600_ref1$1
L_sha3_256$2:
leaq 224(%rsp), %rsp
movq 8(%rsp), %rax
movq (%rcx), %rdx
movq %rdx, (%rax)
movq 8(%rcx), %rdx
movq %rdx, 8(%rax)
movq 16(%rcx), %rdx
movq %rdx, 16(%rax)
movq 24(%rcx), %rcx
movq %rcx, 24(%rax)
ret
L_shake128_squeezeblock$1:
movq %rdx, 8(%rsp)
leaq -224(%rsp), %rsp
call L_keccakf1600_ref1$1
L_shake128_squeezeblock$2:
leaq 224(%rsp), %rsp
movq 8(%rsp), %rdx
movb (%rcx), %sil
movb %sil, (%rdx)
movb 1(%rcx), %sil
movb %sil, 1(%rdx)
movb 2(%rcx), %sil
movb %sil, 2(%rdx)
movb 3(%rcx), %sil
movb %sil, 3(%rdx)
movb 4(%rcx), %sil
movb %sil, 4(%rdx)
movb 5(%rcx), %sil
movb %sil, 5(%rdx)
movb 6(%rcx), %sil
movb %sil, 6(%rdx)
movb 7(%rcx), %sil
movb %sil, 7(%rdx)
movb 8(%rcx), %sil
movb %sil, 8(%rdx)
movb 9(%rcx), %sil
movb %sil, 9(%rdx)
movb 10(%rcx), %sil
movb %sil, 10(%rdx)
movb 11(%rcx), %sil
movb %sil, 11(%rdx)
movb 12(%rcx), %sil
movb %sil, 12(%rdx)
movb 13(%rcx), %sil
movb %sil, 13(%rdx)
movb 14(%rcx), %sil
movb %sil, 14(%rdx)
movb 15(%rcx), %sil
movb %sil, 15(%rdx)
movb 16(%rcx), %sil
movb %sil, 16(%rdx)
movb 17(%rcx), %sil
movb %sil, 17(%rdx)
movb 18(%rcx), %sil
movb %sil, 18(%rdx)
movb 19(%rcx), %sil
movb %sil, 19(%rdx)
movb 20(%rcx), %sil
movb %sil, 20(%rdx)
movb 21(%rcx), %sil
movb %sil, 21(%rdx)
movb 22(%rcx), %sil
movb %sil, 22(%rdx)
movb 23(%rcx), %sil
movb %sil, 23(%rdx)
movb 24(%rcx), %sil
movb %sil, 24(%rdx)
movb 25(%rcx), %sil
movb %sil, 25(%rdx)
movb 26(%rcx), %sil
movb %sil, 26(%rdx)
movb 27(%rcx), %sil
movb %sil, 27(%rdx)
movb 28(%rcx), %sil
movb %sil, 28(%rdx)
movb 29(%rcx), %sil
movb %sil, 29(%rdx)
movb 30(%rcx), %sil
movb %sil, 30(%rdx)
movb 31(%rcx), %sil
movb %sil, 31(%rdx)
movb 32(%rcx), %sil
movb %sil, 32(%rdx)
movb 33(%rcx), %sil
movb %sil, 33(%rdx)
movb 34(%rcx), %sil
movb %sil, 34(%rdx)
movb 35(%rcx), %sil
movb %sil, 35(%rdx)
movb 36(%rcx), %sil
movb %sil, 36(%rdx)
movb 37(%rcx), %sil
movb %sil, 37(%rdx)
movb 38(%rcx), %sil
movb %sil, 38(%rdx)
movb 39(%rcx), %sil
movb %sil, 39(%rdx)
movb 40(%rcx), %sil
movb %sil, 40(%rdx)
movb 41(%rcx), %sil
movb %sil, 41(%rdx)
movb 42(%rcx), %sil
movb %sil, 42(%rdx)
movb 43(%rcx), %sil
movb %sil, 43(%rdx)
movb 44(%rcx), %sil
movb %sil, 44(%rdx)
movb 45(%rcx), %sil
movb %sil, 45(%rdx)
movb 46(%rcx), %sil
movb %sil, 46(%rdx)
movb 47(%rcx), %sil
movb %sil, 47(%rdx)
movb 48(%rcx), %sil
movb %sil, 48(%rdx)
movb 49(%rcx), %sil
movb %sil, 49(%rdx)
movb 50(%rcx), %sil
movb %sil, 50(%rdx)
movb 51(%rcx), %sil
movb %sil, 51(%rdx)
movb 52(%rcx), %sil
movb %sil, 52(%rdx)
movb 53(%rcx), %sil
movb %sil, 53(%rdx)
movb 54(%rcx), %sil
movb %sil, 54(%rdx)
movb 55(%rcx), %sil
movb %sil, 55(%rdx)
movb 56(%rcx), %sil
movb %sil, 56(%rdx)
movb 57(%rcx), %sil
movb %sil, 57(%rdx)
movb 58(%rcx), %sil
movb %sil, 58(%rdx)
movb 59(%rcx), %sil
movb %sil, 59(%rdx)
movb 60(%rcx), %sil
movb %sil, 60(%rdx)
movb 61(%rcx), %sil
movb %sil, 61(%rdx)
movb 62(%rcx), %sil
movb %sil, 62(%rdx)
movb 63(%rcx), %sil
movb %sil, 63(%rdx)
movb 64(%rcx), %sil
movb %sil, 64(%rdx)
movb 65(%rcx), %sil
movb %sil, 65(%rdx)
movb 66(%rcx), %sil
movb %sil, 66(%rdx)
movb 67(%rcx), %sil
movb %sil, 67(%rdx)
movb 68(%rcx), %sil
movb %sil, 68(%rdx)
movb 69(%rcx), %sil
movb %sil, 69(%rdx)
movb 70(%rcx), %sil
movb %sil, 70(%rdx)
movb 71(%rcx), %sil
movb %sil, 71(%rdx)
movb 72(%rcx), %sil
movb %sil, 72(%rdx)
movb 73(%rcx), %sil
movb %sil, 73(%rdx)
movb 74(%rcx), %sil
movb %sil, 74(%rdx)
movb 75(%rcx), %sil
movb %sil, 75(%rdx)
movb 76(%rcx), %sil
movb %sil, 76(%rdx)
movb 77(%rcx), %sil
movb %sil, 77(%rdx)
movb 78(%rcx), %sil
movb %sil, 78(%rdx)
movb 79(%rcx), %sil
movb %sil, 79(%rdx)
movb 80(%rcx), %sil
movb %sil, 80(%rdx)
movb 81(%rcx), %sil
movb %sil, 81(%rdx)
movb 82(%rcx), %sil
movb %sil, 82(%rdx)
movb 83(%rcx), %sil
movb %sil, 83(%rdx)
movb 84(%rcx), %sil
movb %sil, 84(%rdx)
movb 85(%rcx), %sil
movb %sil, 85(%rdx)
movb 86(%rcx), %sil
movb %sil, 86(%rdx)
movb 87(%rcx), %sil
movb %sil, 87(%rdx)
movb 88(%rcx), %sil
movb %sil, 88(%rdx)
movb 89(%rcx), %sil
movb %sil, 89(%rdx)
movb 90(%rcx), %sil
movb %sil, 90(%rdx)
movb 91(%rcx), %sil
movb %sil, 91(%rdx)
movb 92(%rcx), %sil
movb %sil, 92(%rdx)
movb 93(%rcx), %sil
movb %sil, 93(%rdx)
movb 94(%rcx), %sil
movb %sil, 94(%rdx)
movb 95(%rcx), %sil
movb %sil, 95(%rdx)
movb 96(%rcx), %sil
movb %sil, 96(%rdx)
movb 97(%rcx), %sil
movb %sil, 97(%rdx)
movb 98(%rcx), %sil
movb %sil, 98(%rdx)
movb 99(%rcx), %sil
movb %sil, 99(%rdx)
movb 100(%rcx), %sil
movb %sil, 100(%rdx)
movb 101(%rcx), %sil
movb %sil, 101(%rdx)
movb 102(%rcx), %sil
movb %sil, 102(%rdx)
movb 103(%rcx), %sil
movb %sil, 103(%rdx)
movb 104(%rcx), %sil
movb %sil, 104(%rdx)
movb 105(%rcx), %sil
movb %sil, 105(%rdx)
movb 106(%rcx), %sil
movb %sil, 106(%rdx)
movb 107(%rcx), %sil
movb %sil, 107(%rdx)
movb 108(%rcx), %sil
movb %sil, 108(%rdx)
movb 109(%rcx), %sil
movb %sil, 109(%rdx)
movb 110(%rcx), %sil
movb %sil, 110(%rdx)
movb 111(%rcx), %sil
movb %sil, 111(%rdx)
movb 112(%rcx), %sil
movb %sil, 112(%rdx)
movb 113(%rcx), %sil
movb %sil, 113(%rdx)
movb 114(%rcx), %sil
movb %sil, 114(%rdx)
movb 115(%rcx), %sil
movb %sil, 115(%rdx)
movb 116(%rcx), %sil
movb %sil, 116(%rdx)
movb 117(%rcx), %sil
movb %sil, 117(%rdx)
movb 118(%rcx), %sil
movb %sil, 118(%rdx)
movb 119(%rcx), %sil
movb %sil, 119(%rdx)
movb 120(%rcx), %sil
movb %sil, 120(%rdx)
movb 121(%rcx), %sil
movb %sil, 121(%rdx)
movb 122(%rcx), %sil
movb %sil, 122(%rdx)
movb 123(%rcx), %sil
movb %sil, 123(%rdx)
movb 124(%rcx), %sil
movb %sil, 124(%rdx)
movb 125(%rcx), %sil
movb %sil, 125(%rdx)
movb 126(%rcx), %sil
movb %sil, 126(%rdx)
movb 127(%rcx), %sil
movb %sil, 127(%rdx)
movb 128(%rcx), %sil
movb %sil, 128(%rdx)
movb 129(%rcx), %sil
movb %sil, 129(%rdx)
movb 130(%rcx), %sil
movb %sil, 130(%rdx)
movb 131(%rcx), %sil
movb %sil, 131(%rdx)
movb 132(%rcx), %sil
movb %sil, 132(%rdx)
movb 133(%rcx), %sil
movb %sil, 133(%rdx)
movb 134(%rcx), %sil
movb %sil, 134(%rdx)
movb 135(%rcx), %sil
movb %sil, 135(%rdx)
movb 136(%rcx), %sil
movb %sil, 136(%rdx)
movb 137(%rcx), %sil
movb %sil, 137(%rdx)
movb 138(%rcx), %sil
movb %sil, 138(%rdx)
movb 139(%rcx), %sil
movb %sil, 139(%rdx)
movb 140(%rcx), %sil
movb %sil, 140(%rdx)
movb 141(%rcx), %sil
movb %sil, 141(%rdx)
movb 142(%rcx), %sil
movb %sil, 142(%rdx)
movb 143(%rcx), %sil
movb %sil, 143(%rdx)
movb 144(%rcx), %sil
movb %sil, 144(%rdx)
movb 145(%rcx), %sil
movb %sil, 145(%rdx)
movb 146(%rcx), %sil
movb %sil, 146(%rdx)
movb 147(%rcx), %sil
movb %sil, 147(%rdx)
movb 148(%rcx), %sil
movb %sil, 148(%rdx)
movb 149(%rcx), %sil
movb %sil, 149(%rdx)
movb 150(%rcx), %sil
movb %sil, 150(%rdx)
movb 151(%rcx), %sil
movb %sil, 151(%rdx)
movb 152(%rcx), %sil
movb %sil, 152(%rdx)
movb 153(%rcx), %sil
movb %sil, 153(%rdx)
movb 154(%rcx), %sil
movb %sil, 154(%rdx)
movb 155(%rcx), %sil
movb %sil, 155(%rdx)
movb 156(%rcx), %sil
movb %sil, 156(%rdx)
movb 157(%rcx), %sil
movb %sil, 157(%rdx)
movb 158(%rcx), %sil
movb %sil, 158(%rdx)
movb 159(%rcx), %sil
movb %sil, 159(%rdx)
movb 160(%rcx), %sil
movb %sil, 160(%rdx)
movb 161(%rcx), %sil
movb %sil, 161(%rdx)
movb 162(%rcx), %sil
movb %sil, 162(%rdx)
movb 163(%rcx), %sil
movb %sil, 163(%rdx)
movb 164(%rcx), %sil
movb %sil, 164(%rdx)
movb 165(%rcx), %sil
movb %sil, 165(%rdx)
movb 166(%rcx), %sil
movb %sil, 166(%rdx)
movb 167(%rcx), %cl
movb %cl, 167(%rdx)
ret
L_shake128_absorb34$1:
xorq %rsi, %rsi
movq %rsi, (%rcx)
movq %rsi, 8(%rcx)
movq %rsi, 16(%rcx)
movq %rsi, 24(%rcx)
movq %rsi, 32(%rcx)
movq %rsi, 40(%rcx)
movq %rsi, 48(%rcx)
movq %rsi, 56(%rcx)
movq %rsi, 64(%rcx)
movq %rsi, 72(%rcx)
movq %rsi, 80(%rcx)
movq %rsi, 88(%rcx)
movq %rsi, 96(%rcx)
movq %rsi, 104(%rcx)
movq %rsi, 112(%rcx)
movq %rsi, 120(%rcx)
movq %rsi, 128(%rcx)
movq %rsi, 136(%rcx)
movq %rsi, 144(%rcx)
movq %rsi, 152(%rcx)
movq %rsi, 160(%rcx)
movq %rsi, 168(%rcx)
movq %rsi, 176(%rcx)
movq %rsi, 184(%rcx)
movq %rsi, 192(%rcx)
movb (%rdx), %sil
xorb %sil, (%rcx)
movb 1(%rdx), %sil
xorb %sil, 1(%rcx)
movb 2(%rdx), %sil
xorb %sil, 2(%rcx)
movb 3(%rdx), %sil
xorb %sil, 3(%rcx)
movb 4(%rdx), %sil
xorb %sil, 4(%rcx)
movb 5(%rdx), %sil
xorb %sil, 5(%rcx)
movb 6(%rdx), %sil
xorb %sil, 6(%rcx)
movb 7(%rdx), %sil
xorb %sil, 7(%rcx)
movb 8(%rdx), %sil
xorb %sil, 8(%rcx)
movb 9(%rdx), %sil
xorb %sil, 9(%rcx)
movb 10(%rdx), %sil
xorb %sil, 10(%rcx)
movb 11(%rdx), %sil
xorb %sil, 11(%rcx)
movb 12(%rdx), %sil
xorb %sil, 12(%rcx)
movb 13(%rdx), %sil
xorb %sil, 13(%rcx)
movb 14(%rdx), %sil
xorb %sil, 14(%rcx)
movb 15(%rdx), %sil
xorb %sil, 15(%rcx)
movb 16(%rdx), %sil
xorb %sil, 16(%rcx)
movb 17(%rdx), %sil
xorb %sil, 17(%rcx)
movb 18(%rdx), %sil
xorb %sil, 18(%rcx)
movb 19(%rdx), %sil
xorb %sil, 19(%rcx)
movb 20(%rdx), %sil
xorb %sil, 20(%rcx)
movb 21(%rdx), %sil
xorb %sil, 21(%rcx)
movb 22(%rdx), %sil
xorb %sil, 22(%rcx)
movb 23(%rdx), %sil
xorb %sil, 23(%rcx)
movb 24(%rdx), %sil
xorb %sil, 24(%rcx)
movb 25(%rdx), %sil
xorb %sil, 25(%rcx)
movb 26(%rdx), %sil
xorb %sil, 26(%rcx)
movb 27(%rdx), %sil
xorb %sil, 27(%rcx)
movb 28(%rdx), %sil
xorb %sil, 28(%rcx)
movb 29(%rdx), %sil
xorb %sil, 29(%rcx)
movb 30(%rdx), %sil
xorb %sil, 30(%rcx)
movb 31(%rdx), %sil
xorb %sil, 31(%rcx)
movb 32(%rdx), %sil
xorb %sil, 32(%rcx)
movb 33(%rdx), %dl
xorb %dl, 33(%rcx)
xorb $31, 34(%rcx)
xorb $-128, 167(%rcx)
ret
L_sha3_512_32$1:
movq %rcx, 8(%rsp)
leaq 16(%rsp), %rcx
xorq %rdx, %rdx
movq %rdx, (%rcx)
movq %rdx, 8(%rcx)
movq %rdx, 16(%rcx)
movq %rdx, 24(%rcx)
movq %rdx, 32(%rcx)
movq %rdx, 40(%rcx)
movq %rdx, 48(%rcx)
movq %rdx, 56(%rcx)
movq %rdx, 64(%rcx)
movq %rdx, 72(%rcx)
movq %rdx, 80(%rcx)
movq %rdx, 88(%rcx)
movq %rdx, 96(%rcx)
movq %rdx, 104(%rcx)
movq %rdx, 112(%rcx)
movq %rdx, 120(%rcx)
movq %rdx, 128(%rcx)
movq %rdx, 136(%rcx)
movq %rdx, 144(%rcx)
movq %rdx, 152(%rcx)
movq %rdx, 160(%rcx)
movq %rdx, 168(%rcx)
movq %rdx, 176(%rcx)
movq %rdx, 184(%rcx)
movq %rdx, 192(%rcx)
movb (%rax), %dl
xorb %dl, (%rcx)
movb 1(%rax), %dl
xorb %dl, 1(%rcx)
movb 2(%rax), %dl
xorb %dl, 2(%rcx)
movb 3(%rax), %dl
xorb %dl, 3(%rcx)
movb 4(%rax), %dl
xorb %dl, 4(%rcx)
movb 5(%rax), %dl
xorb %dl, 5(%rcx)
movb 6(%rax), %dl
xorb %dl, 6(%rcx)
movb 7(%rax), %dl
xorb %dl, 7(%rcx)
movb 8(%rax), %dl
xorb %dl, 8(%rcx)
movb 9(%rax), %dl
xorb %dl, 9(%rcx)
movb 10(%rax), %dl
xorb %dl, 10(%rcx)
movb 11(%rax), %dl
xorb %dl, 11(%rcx)
movb 12(%rax), %dl
xorb %dl, 12(%rcx)
movb 13(%rax), %dl
xorb %dl, 13(%rcx)
movb 14(%rax), %dl
xorb %dl, 14(%rcx)
movb 15(%rax), %dl
xorb %dl, 15(%rcx)
movb 16(%rax), %dl
xorb %dl, 16(%rcx)
movb 17(%rax), %dl
xorb %dl, 17(%rcx)
movb 18(%rax), %dl
xorb %dl, 18(%rcx)
movb 19(%rax), %dl
xorb %dl, 19(%rcx)
movb 20(%rax), %dl
xorb %dl, 20(%rcx)
movb 21(%rax), %dl
xorb %dl, 21(%rcx)
movb 22(%rax), %dl
xorb %dl, 22(%rcx)
movb 23(%rax), %dl
xorb %dl, 23(%rcx)
movb 24(%rax), %dl
xorb %dl, 24(%rcx)
movb 25(%rax), %dl
xorb %dl, 25(%rcx)
movb 26(%rax), %dl
xorb %dl, 26(%rcx)
movb 27(%rax), %dl
xorb %dl, 27(%rcx)
movb 28(%rax), %dl
xorb %dl, 28(%rcx)
movb 29(%rax), %dl
xorb %dl, 29(%rcx)
movb 30(%rax), %dl
xorb %dl, 30(%rcx)
movb 31(%rax), %al
xorb %al, 31(%rcx)
xorb $6, 32(%rcx)
xorb $-128, 71(%rcx)
leaq -224(%rsp), %rsp
call L_keccakf1600_ref1$1
L_sha3_512_32$2:
leaq 224(%rsp), %rsp
movq 8(%rsp), %rax
movb (%rcx), %dl
movb %dl, (%rax)
movb 1(%rcx), %dl
movb %dl, 1(%rax)
movb 2(%rcx), %dl
movb %dl, 2(%rax)
movb 3(%rcx), %dl
movb %dl, 3(%rax)
movb 4(%rcx), %dl
movb %dl, 4(%rax)
movb 5(%rcx), %dl
movb %dl, 5(%rax)
movb 6(%rcx), %dl
movb %dl, 6(%rax)
movb 7(%rcx), %dl
movb %dl, 7(%rax)
movb 8(%rcx), %dl
movb %dl, 8(%rax)
movb 9(%rcx), %dl
movb %dl, 9(%rax)
movb 10(%rcx), %dl
movb %dl, 10(%rax)
movb 11(%rcx), %dl
movb %dl, 11(%rax)
movb 12(%rcx), %dl
movb %dl, 12(%rax)
movb 13(%rcx), %dl
movb %dl, 13(%rax)
movb 14(%rcx), %dl
movb %dl, 14(%rax)
movb 15(%rcx), %dl
movb %dl, 15(%rax)
movb 16(%rcx), %dl
movb %dl, 16(%rax)
movb 17(%rcx), %dl
movb %dl, 17(%rax)
movb 18(%rcx), %dl
movb %dl, 18(%rax)
movb 19(%rcx), %dl
movb %dl, 19(%rax)
movb 20(%rcx), %dl
movb %dl, 20(%rax)
movb 21(%rcx), %dl
movb %dl, 21(%rax)
movb 22(%rcx), %dl
movb %dl, 22(%rax)
movb 23(%rcx), %dl
movb %dl, 23(%rax)
movb 24(%rcx), %dl
movb %dl, 24(%rax)
movb 25(%rcx), %dl
movb %dl, 25(%rax)
movb 26(%rcx), %dl
movb %dl, 26(%rax)
movb 27(%rcx), %dl
movb %dl, 27(%rax)
movb 28(%rcx), %dl
movb %dl, 28(%rax)
movb 29(%rcx), %dl
movb %dl, 29(%rax)
movb 30(%rcx), %dl
movb %dl, 30(%rax)
movb 31(%rcx), %dl
movb %dl, 31(%rax)
movb 32(%rcx), %dl
movb %dl, 32(%rax)
movb 33(%rcx), %dl
movb %dl, 33(%rax)
movb 34(%rcx), %dl
movb %dl, 34(%rax)
movb 35(%rcx), %dl
movb %dl, 35(%rax)
movb 36(%rcx), %dl
movb %dl, 36(%rax)
movb 37(%rcx), %dl
movb %dl, 37(%rax)
movb 38(%rcx), %dl
movb %dl, 38(%rax)
movb 39(%rcx), %dl
movb %dl, 39(%rax)
movb 40(%rcx), %dl
movb %dl, 40(%rax)
movb 41(%rcx), %dl
movb %dl, 41(%rax)
movb 42(%rcx), %dl
movb %dl, 42(%rax)
movb 43(%rcx), %dl
movb %dl, 43(%rax)
movb 44(%rcx), %dl
movb %dl, 44(%rax)
movb 45(%rcx), %dl
movb %dl, 45(%rax)
movb 46(%rcx), %dl
movb %dl, 46(%rax)
movb 47(%rcx), %dl
movb %dl, 47(%rax)
movb 48(%rcx), %dl
movb %dl, 48(%rax)
movb 49(%rcx), %dl
movb %dl, 49(%rax)
movb 50(%rcx), %dl
movb %dl, 50(%rax)
movb 51(%rcx), %dl
movb %dl, 51(%rax)
movb 52(%rcx), %dl
movb %dl, 52(%rax)
movb 53(%rcx), %dl
movb %dl, 53(%rax)
movb 54(%rcx), %dl
movb %dl, 54(%rax)
movb 55(%rcx), %dl
movb %dl, 55(%rax)
movb 56(%rcx), %dl
movb %dl, 56(%rax)
movb 57(%rcx), %dl
movb %dl, 57(%rax)
movb 58(%rcx), %dl
movb %dl, 58(%rax)
movb 59(%rcx), %dl
movb %dl, 59(%rax)
movb 60(%rcx), %dl
movb %dl, 60(%rax)
movb 61(%rcx), %dl
movb %dl, 61(%rax)
movb 62(%rcx), %dl
movb %dl, 62(%rax)
movb 63(%rcx), %cl
movb %cl, 63(%rax)
ret
L_shake256_128_33$1:
movq %rcx, 8(%rsp)
leaq 16(%rsp), %rcx
xorq %rsi, %rsi
movq %rsi, (%rcx)
movq %rsi, 8(%rcx)
movq %rsi, 16(%rcx)
movq %rsi, 24(%rcx)
movq %rsi, 32(%rcx)
movq %rsi, 40(%rcx)
movq %rsi, 48(%rcx)
movq %rsi, 56(%rcx)
movq %rsi, 64(%rcx)
movq %rsi, 72(%rcx)
movq %rsi, 80(%rcx)
movq %rsi, 88(%rcx)
movq %rsi, 96(%rcx)
movq %rsi, 104(%rcx)
movq %rsi, 112(%rcx)
movq %rsi, 120(%rcx)
movq %rsi, 128(%rcx)
movq %rsi, 136(%rcx)
movq %rsi, 144(%rcx)
movq %rsi, 152(%rcx)
movq %rsi, 160(%rcx)
movq %rsi, 168(%rcx)
movq %rsi, 176(%rcx)
movq %rsi, 184(%rcx)
movq %rsi, 192(%rcx)
movb (%rdx), %sil
xorb %sil, (%rcx)
movb 1(%rdx), %sil
xorb %sil, 1(%rcx)
movb 2(%rdx), %sil
xorb %sil, 2(%rcx)
movb 3(%rdx), %sil
xorb %sil, 3(%rcx)
movb 4(%rdx), %sil
xorb %sil, 4(%rcx)
movb 5(%rdx), %sil
xorb %sil, 5(%rcx)
movb 6(%rdx), %sil
xorb %sil, 6(%rcx)
movb 7(%rdx), %sil
xorb %sil, 7(%rcx)
movb 8(%rdx), %sil
xorb %sil, 8(%rcx)
movb 9(%rdx), %sil
xorb %sil, 9(%rcx)
movb 10(%rdx), %sil
xorb %sil, 10(%rcx)
movb 11(%rdx), %sil
xorb %sil, 11(%rcx)
movb 12(%rdx), %sil
xorb %sil, 12(%rcx)
movb 13(%rdx), %sil
xorb %sil, 13(%rcx)
movb 14(%rdx), %sil
xorb %sil, 14(%rcx)
movb 15(%rdx), %sil
xorb %sil, 15(%rcx)
movb 16(%rdx), %sil
xorb %sil, 16(%rcx)
movb 17(%rdx), %sil
xorb %sil, 17(%rcx)
movb 18(%rdx), %sil
xorb %sil, 18(%rcx)
movb 19(%rdx), %sil
xorb %sil, 19(%rcx)
movb 20(%rdx), %sil
xorb %sil, 20(%rcx)
movb 21(%rdx), %sil
xorb %sil, 21(%rcx)
movb 22(%rdx), %sil
xorb %sil, 22(%rcx)
movb 23(%rdx), %sil
xorb %sil, 23(%rcx)
movb 24(%rdx), %sil
xorb %sil, 24(%rcx)
movb 25(%rdx), %sil
xorb %sil, 25(%rcx)
movb 26(%rdx), %sil
xorb %sil, 26(%rcx)
movb 27(%rdx), %sil
xorb %sil, 27(%rcx)
movb 28(%rdx), %sil
xorb %sil, 28(%rcx)
movb 29(%rdx), %sil
xorb %sil, 29(%rcx)
movb 30(%rdx), %sil
xorb %sil, 30(%rcx)
movb 31(%rdx), %sil
xorb %sil, 31(%rcx)
movb 32(%rdx), %dl
xorb %dl, 32(%rcx)
xorb $31, 33(%rcx)
xorb $-128, 135(%rcx)
leaq -224(%rsp), %rsp
call L_keccakf1600_ref1$1
L_shake256_128_33$2:
leaq 224(%rsp), %rsp
movq 8(%rsp), %rdx
movb (%rcx), %sil
movb %sil, (%rdx)
movb 1(%rcx), %sil
movb %sil, 1(%rdx)
movb 2(%rcx), %sil
movb %sil, 2(%rdx)
movb 3(%rcx), %sil
movb %sil, 3(%rdx)
movb 4(%rcx), %sil
movb %sil, 4(%rdx)
movb 5(%rcx), %sil
movb %sil, 5(%rdx)
movb 6(%rcx), %sil
movb %sil, 6(%rdx)
movb 7(%rcx), %sil
movb %sil, 7(%rdx)
movb 8(%rcx), %sil
movb %sil, 8(%rdx)
movb 9(%rcx), %sil
movb %sil, 9(%rdx)
movb 10(%rcx), %sil
movb %sil, 10(%rdx)
movb 11(%rcx), %sil
movb %sil, 11(%rdx)
movb 12(%rcx), %sil
movb %sil, 12(%rdx)
movb 13(%rcx), %sil
movb %sil, 13(%rdx)
movb 14(%rcx), %sil
movb %sil, 14(%rdx)
movb 15(%rcx), %sil
movb %sil, 15(%rdx)
movb 16(%rcx), %sil
movb %sil, 16(%rdx)
movb 17(%rcx), %sil
movb %sil, 17(%rdx)
movb 18(%rcx), %sil
movb %sil, 18(%rdx)
movb 19(%rcx), %sil
movb %sil, 19(%rdx)
movb 20(%rcx), %sil
movb %sil, 20(%rdx)
movb 21(%rcx), %sil
movb %sil, 21(%rdx)
movb 22(%rcx), %sil
movb %sil, 22(%rdx)
movb 23(%rcx), %sil
movb %sil, 23(%rdx)
movb 24(%rcx), %sil
movb %sil, 24(%rdx)
movb 25(%rcx), %sil
movb %sil, 25(%rdx)
movb 26(%rcx), %sil
movb %sil, 26(%rdx)
movb 27(%rcx), %sil
movb %sil, 27(%rdx)
movb 28(%rcx), %sil
movb %sil, 28(%rdx)
movb 29(%rcx), %sil
movb %sil, 29(%rdx)
movb 30(%rcx), %sil
movb %sil, 30(%rdx)
movb 31(%rcx), %sil
movb %sil, 31(%rdx)
movb 32(%rcx), %sil
movb %sil, 32(%rdx)
movb 33(%rcx), %sil
movb %sil, 33(%rdx)
movb 34(%rcx), %sil
movb %sil, 34(%rdx)
movb 35(%rcx), %sil
movb %sil, 35(%rdx)
movb 36(%rcx), %sil
movb %sil, 36(%rdx)
movb 37(%rcx), %sil
movb %sil, 37(%rdx)
movb 38(%rcx), %sil
movb %sil, 38(%rdx)
movb 39(%rcx), %sil
movb %sil, 39(%rdx)
movb 40(%rcx), %sil
movb %sil, 40(%rdx)
movb 41(%rcx), %sil
movb %sil, 41(%rdx)
movb 42(%rcx), %sil
movb %sil, 42(%rdx)
movb 43(%rcx), %sil
movb %sil, 43(%rdx)
movb 44(%rcx), %sil
movb %sil, 44(%rdx)
movb 45(%rcx), %sil
movb %sil, 45(%rdx)
movb 46(%rcx), %sil
movb %sil, 46(%rdx)
movb 47(%rcx), %sil
movb %sil, 47(%rdx)
movb 48(%rcx), %sil
movb %sil, 48(%rdx)
movb 49(%rcx), %sil
movb %sil, 49(%rdx)
movb 50(%rcx), %sil
movb %sil, 50(%rdx)
movb 51(%rcx), %sil
movb %sil, 51(%rdx)
movb 52(%rcx), %sil
movb %sil, 52(%rdx)
movb 53(%rcx), %sil
movb %sil, 53(%rdx)
movb 54(%rcx), %sil
movb %sil, 54(%rdx)
movb 55(%rcx), %sil
movb %sil, 55(%rdx)
movb 56(%rcx), %sil
movb %sil, 56(%rdx)
movb 57(%rcx), %sil
movb %sil, 57(%rdx)
movb 58(%rcx), %sil
movb %sil, 58(%rdx)
movb 59(%rcx), %sil
movb %sil, 59(%rdx)
movb 60(%rcx), %sil
movb %sil, 60(%rdx)
movb 61(%rcx), %sil
movb %sil, 61(%rdx)
movb 62(%rcx), %sil
movb %sil, 62(%rdx)
movb 63(%rcx), %sil
movb %sil, 63(%rdx)
movb 64(%rcx), %sil
movb %sil, 64(%rdx)
movb 65(%rcx), %sil
movb %sil, 65(%rdx)
movb 66(%rcx), %sil
movb %sil, 66(%rdx)
movb 67(%rcx), %sil
movb %sil, 67(%rdx)
movb 68(%rcx), %sil
movb %sil, 68(%rdx)
movb 69(%rcx), %sil
movb %sil, 69(%rdx)
movb 70(%rcx), %sil
movb %sil, 70(%rdx)
movb 71(%rcx), %sil
movb %sil, 71(%rdx)
movb 72(%rcx), %sil
movb %sil, 72(%rdx)
movb 73(%rcx), %sil
movb %sil, 73(%rdx)
movb 74(%rcx), %sil
movb %sil, 74(%rdx)
movb 75(%rcx), %sil
movb %sil, 75(%rdx)
movb 76(%rcx), %sil
movb %sil, 76(%rdx)
movb 77(%rcx), %sil
movb %sil, 77(%rdx)
movb 78(%rcx), %sil
movb %sil, 78(%rdx)
movb 79(%rcx), %sil
movb %sil, 79(%rdx)
movb 80(%rcx), %sil
movb %sil, 80(%rdx)
movb 81(%rcx), %sil
movb %sil, 81(%rdx)
movb 82(%rcx), %sil
movb %sil, 82(%rdx)
movb 83(%rcx), %sil
movb %sil, 83(%rdx)
movb 84(%rcx), %sil
movb %sil, 84(%rdx)
movb 85(%rcx), %sil
movb %sil, 85(%rdx)
movb 86(%rcx), %sil
movb %sil, 86(%rdx)
movb 87(%rcx), %sil
movb %sil, 87(%rdx)
movb 88(%rcx), %sil
movb %sil, 88(%rdx)
movb 89(%rcx), %sil
movb %sil, 89(%rdx)
movb 90(%rcx), %sil
movb %sil, 90(%rdx)
movb 91(%rcx), %sil
movb %sil, 91(%rdx)
movb 92(%rcx), %sil
movb %sil, 92(%rdx)
movb 93(%rcx), %sil
movb %sil, 93(%rdx)
movb 94(%rcx), %sil
movb %sil, 94(%rdx)
movb 95(%rcx), %sil
movb %sil, 95(%rdx)
movb 96(%rcx), %sil
movb %sil, 96(%rdx)
movb 97(%rcx), %sil
movb %sil, 97(%rdx)
movb 98(%rcx), %sil
movb %sil, 98(%rdx)
movb 99(%rcx), %sil
movb %sil, 99(%rdx)
movb 100(%rcx), %sil
movb %sil, 100(%rdx)
movb 101(%rcx), %sil
movb %sil, 101(%rdx)
movb 102(%rcx), %sil
movb %sil, 102(%rdx)
movb 103(%rcx), %sil
movb %sil, 103(%rdx)
movb 104(%rcx), %sil
movb %sil, 104(%rdx)
movb 105(%rcx), %sil
movb %sil, 105(%rdx)
movb 106(%rcx), %sil
movb %sil, 106(%rdx)
movb 107(%rcx), %sil
movb %sil, 107(%rdx)
movb 108(%rcx), %sil
movb %sil, 108(%rdx)
movb 109(%rcx), %sil
movb %sil, 109(%rdx)
movb 110(%rcx), %sil
movb %sil, 110(%rdx)
movb 111(%rcx), %sil
movb %sil, 111(%rdx)
movb 112(%rcx), %sil
movb %sil, 112(%rdx)
movb 113(%rcx), %sil
movb %sil, 113(%rdx)
movb 114(%rcx), %sil
movb %sil, 114(%rdx)
movb 115(%rcx), %sil
movb %sil, 115(%rdx)
movb 116(%rcx), %sil
movb %sil, 116(%rdx)
movb 117(%rcx), %sil
movb %sil, 117(%rdx)
movb 118(%rcx), %sil
movb %sil, 118(%rdx)
movb 119(%rcx), %sil
movb %sil, 119(%rdx)
movb 120(%rcx), %sil
movb %sil, 120(%rdx)
movb 121(%rcx), %sil
movb %sil, 121(%rdx)
movb 122(%rcx), %sil
movb %sil, 122(%rdx)
movb 123(%rcx), %sil
movb %sil, 123(%rdx)
movb 124(%rcx), %sil
movb %sil, 124(%rdx)
movb 125(%rcx), %sil
movb %sil, 125(%rdx)
movb 126(%rcx), %sil
movb %sil, 126(%rdx)
movb 127(%rcx), %cl
movb %cl, 127(%rdx)
ret
L_keccakf1600_ref1$1:
leaq glob_data + 0(%rip), %rdx
movq %rdx, 8(%rsp)
leaq 32(%rsp), %rdx
movq $0, %r11
jmp L_keccakf1600_ref1$2
L_keccakf1600_ref1$3:
movq %r11, 16(%rsp)
movq 8(%rsp), %rsi
movq (%rsi,%r11,8), %rsi
movq %rsi, 24(%rsp)
movq (%rcx), %r10
movq 8(%rcx), %r9
movq 16(%rcx), %rbx
movq 24(%rcx), %rbp
movq 32(%rcx), %r12
xorq 40(%rcx), %r10
xorq 48(%rcx), %r9
xorq 56(%rcx), %rbx
xorq 64(%rcx), %rbp
xorq 72(%rcx), %r12
xorq 80(%rcx), %r10
xorq 88(%rcx), %r9
xorq 96(%rcx), %rbx
xorq 104(%rcx), %rbp
xorq 112(%rcx), %r12
xorq 120(%rcx), %r10
xorq 128(%rcx), %r9
xorq 136(%rcx), %rbx
xorq 144(%rcx), %rbp
xorq 152(%rcx), %r12
xorq 160(%rcx), %r10
xorq 168(%rcx), %r9
xorq 176(%rcx), %rbx
xorq 184(%rcx), %rbp
xorq 192(%rcx), %r12
movq %r9, %rsi
rolq $1, %rsi
xorq %r12, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r10, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r9, %r8
movq %r12, %r9
rolq $1, %r9
xorq %rbx, %r9
rolq $1, %r10
xorq %rbp, %r10
movq (%rcx), %rbx
xorq %rsi, %rbx
movq 48(%rcx), %rbp
xorq %rdi, %rbp
rolq $44, %rbp
movq 96(%rcx), %r12
xorq %r8, %r12
rolq $43, %r12
movq 144(%rcx), %r13
xorq %r9, %r13
rolq $21, %r13
movq 192(%rcx), %r14
xorq %r10, %r14
rolq $14, %r14
movq %rbp, %r15
notq %r15
andq %r12, %r15
xorq %rbx, %r15
xorq 24(%rsp), %r15
movq %r15, (%rdx)
movq %r12, %r15
notq %r15
andq %r13, %r15
xorq %rbp, %r15
movq %r15, 8(%rdx)
movq %r13, %r15
notq %r15
andq %r14, %r15
xorq %r12, %r15
movq %r15, 16(%rdx)
movq %r14, %r12
notq %r12
andq %rbx, %r12
xorq %r13, %r12
movq %r12, 24(%rdx)
notq %rbx
andq %rbp, %rbx
xorq %r14, %rbx
movq %rbx, 32(%rdx)
movq 24(%rcx), %rbx
xorq %r9, %rbx
rolq $28, %rbx
movq 72(%rcx), %rbp
xorq %r10, %rbp
rolq $20, %rbp
movq 80(%rcx), %r12
xorq %rsi, %r12
rolq $3, %r12
movq 128(%rcx), %r13
xorq %rdi, %r13
rolq $45, %r13
movq 176(%rcx), %r14
xorq %r8, %r14
rolq $61, %r14
movq %rbp, %r15
notq %r15
andq %r12, %r15
xorq %rbx, %r15
movq %r15, 40(%rdx)
movq %r12, %r15
notq %r15
andq %r13, %r15
xorq %rbp, %r15
movq %r15, 48(%rdx)
movq %r13, %r15
notq %r15
andq %r14, %r15
xorq %r12, %r15
movq %r15, 56(%rdx)
movq %r14, %r12
notq %r12
andq %rbx, %r12
xorq %r13, %r12
movq %r12, 64(%rdx)
notq %rbx
andq %rbp, %rbx
xorq %r14, %rbx
movq %rbx, 72(%rdx)
movq 8(%rcx), %rbx
xorq %rdi, %rbx
rolq $1, %rbx
movq 56(%rcx), %rbp
xorq %r8, %rbp
rolq $6, %rbp
movq 104(%rcx), %r12
xorq %r9, %r12
rolq $25, %r12
movq 152(%rcx), %r13
xorq %r10, %r13
rolq $8, %r13
movq 160(%rcx), %r14
xorq %rsi, %r14
rolq $18, %r14
movq %rbp, %r15
notq %r15
andq %r12, %r15
xorq %rbx, %r15
movq %r15, 80(%rdx)
movq %r12, %r15
notq %r15
andq %r13, %r15
xorq %rbp, %r15
movq %r15, 88(%rdx)
movq %r13, %r15
notq %r15
andq %r14, %r15
xorq %r12, %r15
movq %r15, 96(%rdx)
movq %r14, %r12
notq %r12
andq %rbx, %r12
xorq %r13, %r12
movq %r12, 104(%rdx)
notq %rbx
andq %rbp, %rbx
xorq %r14, %rbx
movq %rbx, 112(%rdx)
movq 32(%rcx), %rbx
xorq %r10, %rbx
rolq $27, %rbx
movq 40(%rcx), %rbp
xorq %rsi, %rbp
rolq $36, %rbp
movq 88(%rcx), %r12
xorq %rdi, %r12
rolq $10, %r12
movq 136(%rcx), %r13
xorq %r8, %r13
rolq $15, %r13
movq 184(%rcx), %r14
xorq %r9, %r14
rolq $56, %r14
movq %rbp, %r15
notq %r15
andq %r12, %r15
xorq %rbx, %r15
movq %r15, 120(%rdx)
movq %r12, %r15
notq %r15
andq %r13, %r15
xorq %rbp, %r15
movq %r15, 128(%rdx)
movq %r13, %r15
notq %r15
andq %r14, %r15
xorq %r12, %r15
movq %r15, 136(%rdx)
movq %r14, %r12
notq %r12
andq %rbx, %r12
xorq %r13, %r12
movq %r12, 144(%rdx)
notq %rbx
andq %rbp, %rbx
xorq %r14, %rbx
movq %rbx, 152(%rdx)
movq 16(%rcx), %rbx
xorq %r8, %rbx
rolq $62, %rbx
movq 64(%rcx), %r8
xorq %r9, %r8
rolq $55, %r8
movq 112(%rcx), %r9
xorq %r10, %r9
rolq $39, %r9
movq 120(%rcx), %r10
xorq %rsi, %r10
rolq $41, %r10
movq 168(%rcx), %rsi
xorq %rdi, %rsi
rolq $2, %rsi
movq %r8, %rdi
notq %rdi
andq %r9, %rdi
xorq %rbx, %rdi
movq %rdi, 160(%rdx)
movq %r9, %rdi
notq %rdi
andq %r10, %rdi
xorq %r8, %rdi
movq %rdi, 168(%rdx)
movq %r10, %rdi
notq %rdi
andq %rsi, %rdi
xorq %r9, %rdi
movq %rdi, 176(%rdx)
movq %rsi, %rdi
notq %rdi
andq %rbx, %rdi
xorq %r10, %rdi
movq %rdi, 184(%rdx)
notq %rbx
andq %r8, %rbx
xorq %rsi, %rbx
movq %rbx, 192(%rdx)
movq 8(%rsp), %rsi
movq 8(%rsi,%r11,8), %rsi
movq %rsi, 24(%rsp)
movq (%rdx), %r10
movq 8(%rdx), %r9
movq 16(%rdx), %r11
movq 24(%rdx), %rbx
movq 32(%rdx), %rbp
xorq 40(%rdx), %r10
xorq 48(%rdx), %r9
xorq 56(%rdx), %r11
xorq 64(%rdx), %rbx
xorq 72(%rdx), %rbp
xorq 80(%rdx), %r10
xorq 88(%rdx), %r9
xorq 96(%rdx), %r11
xorq 104(%rdx), %rbx
xorq 112(%rdx), %rbp
xorq 120(%rdx), %r10
xorq 128(%rdx), %r9
xorq 136(%rdx), %r11
xorq 144(%rdx), %rbx
xorq 152(%rdx), %rbp
xorq 160(%rdx), %r10
xorq 168(%rdx), %r9
xorq 176(%rdx), %r11
xorq 184(%rdx), %rbx
xorq 192(%rdx), %rbp
movq %r9, %rsi
rolq $1, %rsi
xorq %rbp, %rsi
movq %r11, %rdi
rolq $1, %rdi
xorq %r10, %rdi
movq %rbx, %r8
rolq $1, %r8
xorq %r9, %r8
movq %rbp, %r9
rolq $1, %r9
xorq %r11, %r9
rolq $1, %r10
xorq %rbx, %r10
movq (%rdx), %r11
xorq %rsi, %r11
movq 48(%rdx), %rbx
xorq %rdi, %rbx
rolq $44, %rbx
movq 96(%rdx), %rbp
xorq %r8, %rbp
rolq $43, %rbp
movq 144(%rdx), %r12
xorq %r9, %r12
rolq $21, %r12
movq 192(%rdx), %r13
xorq %r10, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq 24(%rsp), %r14
movq %r14, (%rcx)
movq %rbp, %r14
notq %r14
andq %r12, %r14
xorq %rbx, %r14
movq %r14, 8(%rcx)
movq %r12, %r14
notq %r14
andq %r13, %r14
xorq %rbp, %r14
movq %r14, 16(%rcx)
movq %r13, %rbp
notq %rbp
andq %r11, %rbp
xorq %r12, %rbp
movq %rbp, 24(%rcx)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 32(%rcx)
movq 24(%rdx), %r11
xorq %r9, %r11
rolq $28, %r11
movq 72(%rdx), %rbx
xorq %r10, %rbx
rolq $20, %rbx
movq 80(%rdx), %rbp
xorq %rsi, %rbp
rolq $3, %rbp
movq 128(%rdx), %r12
xorq %rdi, %r12
rolq $45, %r12
movq 176(%rdx), %r13
xorq %r8, %r13
rolq $61, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
movq %r14, 40(%rcx)
movq %rbp, %r14
notq %r14
andq %r12, %r14
xorq %rbx, %r14
movq %r14, 48(%rcx)
movq %r12, %r14
notq %r14
andq %r13, %r14
xorq %rbp, %r14
movq %r14, 56(%rcx)
movq %r13, %rbp
notq %rbp
andq %r11, %rbp
xorq %r12, %rbp
movq %rbp, 64(%rcx)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 72(%rcx)
movq 8(%rdx), %r11
xorq %rdi, %r11
rolq $1, %r11
movq 56(%rdx), %rbx
xorq %r8, %rbx
rolq $6, %rbx
movq 104(%rdx), %rbp
xorq %r9, %rbp
rolq $25, %rbp
movq 152(%rdx), %r12
xorq %r10, %r12
rolq $8, %r12
movq 160(%rdx), %r13
xorq %rsi, %r13
rolq $18, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
movq %r14, 80(%rcx)
movq %rbp, %r14
notq %r14
andq %r12, %r14
xorq %rbx, %r14
movq %r14, 88(%rcx)
movq %r12, %r14
notq %r14
andq %r13, %r14
xorq %rbp, %r14
movq %r14, 96(%rcx)
movq %r13, %rbp
notq %rbp
andq %r11, %rbp
xorq %r12, %rbp
movq %rbp, 104(%rcx)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 112(%rcx)
movq 32(%rdx), %r11
xorq %r10, %r11
rolq $27, %r11
movq 40(%rdx), %rbx
xorq %rsi, %rbx
rolq $36, %rbx
movq 88(%rdx), %rbp
xorq %rdi, %rbp
rolq $10, %rbp
movq 136(%rdx), %r12
xorq %r8, %r12
rolq $15, %r12
movq 184(%rdx), %r13
xorq %r9, %r13
rolq $56, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
movq %r14, 120(%rcx)
movq %rbp, %r14
notq %r14
andq %r12, %r14
xorq %rbx, %r14
movq %r14, 128(%rcx)
movq %r12, %r14
notq %r14
andq %r13, %r14
xorq %rbp, %r14
movq %r14, 136(%rcx)
movq %r13, %rbp
notq %rbp
andq %r11, %rbp
xorq %r12, %rbp
movq %rbp, 144(%rcx)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 152(%rcx)
movq 16(%rdx), %r11
xorq %r8, %r11
rolq $62, %r11
movq 64(%rdx), %r8
xorq %r9, %r8
rolq $55, %r8
movq 112(%rdx), %r9
xorq %r10, %r9
rolq $39, %r9
movq 120(%rdx), %r10
xorq %rsi, %r10
rolq $41, %r10
movq 168(%rdx), %rsi
xorq %rdi, %rsi
rolq $2, %rsi
movq %r8, %rdi
notq %rdi
andq %r9, %rdi
xorq %r11, %rdi
movq %rdi, 160(%rcx)
movq %r9, %rdi
notq %rdi
andq %r10, %rdi
xorq %r8, %rdi
movq %rdi, 168(%rcx)
movq %r10, %rdi
notq %rdi
andq %rsi, %rdi
xorq %r9, %rdi
movq %rdi, 176(%rcx)
movq %rsi, %rdi
notq %rdi
andq %r11, %rdi
xorq %r10, %rdi
movq %rdi, 184(%rcx)
notq %r11
andq %r8, %r11
xorq %rsi, %r11
movq %r11, 192(%rcx)
movq 16(%rsp), %r11
addq $2, %r11
L_keccakf1600_ref1$2:
cmpq $23, %r11
jb L_keccakf1600_ref1$3
ret
.data
.p2align 5
_glob_data:
glob_data:
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -91
.byte 6
.byte 15
.byte 7
.byte -76
.byte 5
.byte 67
.byte 9
.byte 34
.byte 9
.byte 29
.byte 9
.byte 52
.byte 1
.byte 108
.byte 0
.byte 35
.byte 11
.byte 102
.byte 3
.byte 86
.byte 3
.byte -26
.byte 5
.byte -25
.byte 9
.byte -2
.byte 4
.byte -6
.byte 5
.byte -95
.byte 4
.byte 123
.byte 6
.byte -93
.byte 4
.byte 37
.byte 12
.byte 106
.byte 3
.byte 55
.byte 5
.byte 63
.byte 8
.byte -120
.byte 0
.byte -65
.byte 4
.byte -127
.byte 11
.byte -71
.byte 5
.byte 5
.byte 5
.byte -41
.byte 7
.byte -97
.byte 10
.byte -90
.byte 10
.byte -72
.byte 8
.byte -48
.byte 9
.byte 75
.byte 0
.byte -100
.byte 0
.byte -72
.byte 11
.byte 95
.byte 11
.byte -92
.byte 11
.byte 104
.byte 3
.byte 125
.byte 10
.byte 54
.byte 6
.byte -94
.byte 8
.byte 90
.byte 2
.byte 54
.byte 7
.byte 9
.byte 3
.byte -109
.byte 0
.byte 122
.byte 8
.byte -9
.byte 9
.byte -10
.byte 0
.byte -116
.byte 6
.byte -37
.byte 6
.byte -52
.byte 1
.byte 35
.byte 1
.byte -21
.byte 0
.byte 80
.byte 12
.byte -74
.byte 10
.byte 91
.byte 11
.byte -104
.byte 12
.byte -13
.byte 6
.byte -102
.byte 9
.byte -29
.byte 4
.byte -74
.byte 9
.byte -42
.byte 10
.byte 83
.byte 11
.byte 79
.byte 4
.byte -5
.byte 4
.byte 92
.byte 10
.byte 41
.byte 4
.byte 65
.byte 11
.byte -43
.byte 2
.byte -28
.byte 5
.byte 64
.byte 9
.byte -114
.byte 1
.byte -73
.byte 3
.byte -9
.byte 0
.byte -115
.byte 5
.byte -106
.byte 12
.byte -61
.byte 9
.byte 15
.byte 1
.byte 90
.byte 0
.byte 85
.byte 3
.byte 68
.byte 7
.byte -125
.byte 12
.byte -118
.byte 4
.byte 82
.byte 6
.byte -102
.byte 2
.byte 64
.byte 1
.byte 8
.byte 0
.byte -3
.byte 10
.byte 8
.byte 6
.byte 26
.byte 1
.byte 46
.byte 7
.byte 13
.byte 5
.byte 10
.byte 9
.byte 40
.byte 2
.byte 117
.byte 10
.byte 58
.byte 8
.byte 35
.byte 6
.byte -51
.byte 0
.byte 102
.byte 11
.byte 6
.byte 6
.byte -95
.byte 10
.byte 37
.byte 10
.byte 8
.byte 9
.byte -87
.byte 2
.byte -126
.byte 0
.byte 66
.byte 6
.byte 79
.byte 7
.byte 61
.byte 3
.byte -126
.byte 11
.byte -7
.byte 11
.byte 45
.byte 5
.byte -60
.byte 10
.byte 69
.byte 7
.byte -62
.byte 5
.byte -78
.byte 4
.byte 63
.byte 9
.byte 75
.byte 12
.byte -40
.byte 6
.byte -109
.byte 10
.byte -85
.byte 0
.byte 55
.byte 12
.byte -30
.byte 11
.byte 115
.byte 7
.byte 44
.byte 7
.byte -19
.byte 5
.byte 103
.byte 1
.byte -10
.byte 2
.byte -95
.byte 5
.byte -19
.byte 8
.byte 11
.byte 10
.byte -102
.byte 11
.byte 20
.byte 7
.byte -43
.byte 5
.byte -114
.byte 5
.byte 31
.byte 1
.byte -54
.byte 0
.byte 86
.byte 12
.byte 110
.byte 2
.byte 41
.byte 6
.byte -74
.byte 0
.byte -62
.byte 3
.byte 79
.byte 8
.byte 63
.byte 7
.byte -68
.byte 5
.byte 61
.byte 2
.byte -44
.byte 7
.byte 8
.byte 1
.byte 127
.byte 1
.byte -60
.byte 9
.byte -78
.byte 5
.byte -65
.byte 6
.byte 127
.byte 12
.byte 88
.byte 10
.byte -7
.byte 3
.byte -36
.byte 2
.byte 96
.byte 2
.byte -5
.byte 6
.byte -101
.byte 1
.byte 52
.byte 12
.byte -34
.byte 6
.byte -57
.byte 4
.byte -116
.byte 2
.byte -39
.byte 10
.byte -9
.byte 3
.byte -12
.byte 7
.byte -45
.byte 5
.byte -25
.byte 11
.byte -7
.byte 6
.byte 4
.byte 2
.byte -7
.byte 12
.byte -63
.byte 11
.byte 103
.byte 10
.byte -81
.byte 6
.byte 119
.byte 8
.byte 126
.byte 0
.byte -67
.byte 5
.byte -84
.byte 9
.byte -89
.byte 12
.byte -14
.byte 11
.byte 62
.byte 3
.byte 107
.byte 0
.byte 116
.byte 7
.byte 10
.byte 12
.byte 74
.byte 9
.byte 115
.byte 11
.byte -63
.byte 3
.byte 29
.byte 7
.byte 44
.byte 10
.byte -64
.byte 1
.byte -40
.byte 8
.byte -91
.byte 2
.byte 6
.byte 8
.byte -78
.byte 8
.byte -82
.byte 1
.byte 43
.byte 2
.byte 75
.byte 3
.byte 30
.byte 8
.byte 103
.byte 3
.byte 14
.byte 6
.byte 105
.byte 0
.byte -90
.byte 1
.byte 75
.byte 2
.byte -79
.byte 0
.byte 22
.byte 12
.byte -34
.byte 11
.byte 53
.byte 11
.byte 38
.byte 6
.byte 117
.byte 6
.byte 11
.byte 12
.byte 10
.byte 3
.byte -121
.byte 4
.byte 110
.byte 12
.byte -8
.byte 9
.byte -53
.byte 5
.byte -89
.byte 10
.byte 95
.byte 4
.byte -53
.byte 6
.byte -124
.byte 2
.byte -103
.byte 9
.byte 93
.byte 1
.byte -94
.byte 1
.byte 73
.byte 1
.byte 101
.byte 12
.byte -74
.byte 12
.byte 49
.byte 3
.byte 73
.byte 4
.byte 91
.byte 2
.byte 98
.byte 2
.byte 42
.byte 5
.byte -4
.byte 7
.byte 72
.byte 7
.byte -128
.byte 1
.byte 66
.byte 8
.byte 121
.byte 12
.byte -62
.byte 4
.byte -54
.byte 7
.byte -105
.byte 9
.byte -36
.byte 0
.byte 94
.byte 8
.byte -122
.byte 6
.byte 96
.byte 8
.byte 7
.byte 7
.byte 3
.byte 8
.byte 26
.byte 3
.byte 27
.byte 7
.byte -85
.byte 9
.byte -101
.byte 9
.byte -34
.byte 1
.byte -107
.byte 12
.byte -51
.byte 11
.byte -28
.byte 3
.byte -33
.byte 3
.byte -66
.byte 3
.byte 77
.byte 7
.byte -14
.byte 5
.byte 92
.byte 6
|
usenix-security-verdict/verdict
| 31,350
|
deps/libcrux/sys/libjade/jazz/sha3_384_ref.s
|
.att_syntax
.text
.p2align 5
.globl _jade_hash_sha3_384_amd64_ref
.globl jade_hash_sha3_384_amd64_ref
_jade_hash_sha3_384_amd64_ref:
jade_hash_sha3_384_amd64_ref:
movq %rsp, %rax
leaq -48(%rsp), %rsp
andq $-8, %rsp
movq %rax, 40(%rsp)
movq %rbx, (%rsp)
movq %rbp, 8(%rsp)
movq %r12, 16(%rsp)
movq %r13, 24(%rsp)
movq %r14, 32(%rsp)
movq $48, %rcx
movb $6, %r8b
movq $104, %rax
leaq -448(%rsp), %rsp
call L_keccak1600_ref$1
Ljade_hash_sha3_384_amd64_ref$1:
leaq 448(%rsp), %rsp
xorq %rax, %rax
movq (%rsp), %rbx
movq 8(%rsp), %rbp
movq 16(%rsp), %r12
movq 24(%rsp), %r13
movq 32(%rsp), %r14
movq 40(%rsp), %rsp
ret
L_keccak1600_ref$1:
movq %rdi, 8(%rsp)
movq %rcx, 16(%rsp)
movb %r8b, 448(%rsp)
xorq %rcx, %rcx
movq %rcx, 48(%rsp)
movq %rcx, 56(%rsp)
movq %rcx, 64(%rsp)
movq %rcx, 72(%rsp)
movq %rcx, 80(%rsp)
movq %rcx, 88(%rsp)
movq %rcx, 96(%rsp)
movq %rcx, 104(%rsp)
movq %rcx, 112(%rsp)
movq %rcx, 120(%rsp)
movq %rcx, 128(%rsp)
movq %rcx, 136(%rsp)
movq %rcx, 144(%rsp)
movq %rcx, 152(%rsp)
movq %rcx, 160(%rsp)
movq %rcx, 168(%rsp)
movq %rcx, 176(%rsp)
movq %rcx, 184(%rsp)
movq %rcx, 192(%rsp)
movq %rcx, 200(%rsp)
movq %rcx, 208(%rsp)
movq %rcx, 216(%rsp)
movq %rcx, 224(%rsp)
movq %rcx, 232(%rsp)
movq %rcx, 240(%rsp)
jmp L_keccak1600_ref$16
L_keccak1600_ref$17:
movq %rax, %rcx
shrq $3, %rcx
movq $0, %rdi
jmp L_keccak1600_ref$19
L_keccak1600_ref$20:
movq (%rsi,%rdi,8), %r8
xorq %r8, 48(%rsp,%rdi,8)
incq %rdi
L_keccak1600_ref$19:
cmpq %rcx, %rdi
jb L_keccak1600_ref$20
addq %rax, %rsi
subq %rax, %rdx
movq %rsi, 24(%rsp)
movq %rdx, 32(%rsp)
movq %rax, 40(%rsp)
leaq glob_data + 0(%rip), %rax
movq $0, %rcx
L_keccak1600_ref$18:
movq (%rax,%rcx,8), %r10
movq 48(%rsp), %r9
movq 56(%rsp), %r8
movq 64(%rsp), %r11
movq 72(%rsp), %rbx
movq 80(%rsp), %rbp
xorq 88(%rsp), %r9
xorq 96(%rsp), %r8
xorq 104(%rsp), %r11
xorq 112(%rsp), %rbx
xorq 120(%rsp), %rbp
xorq 128(%rsp), %r9
xorq 136(%rsp), %r8
xorq 144(%rsp), %r11
xorq 152(%rsp), %rbx
xorq 160(%rsp), %rbp
xorq 168(%rsp), %r9
xorq 176(%rsp), %r8
xorq 184(%rsp), %r11
xorq 192(%rsp), %rbx
xorq 200(%rsp), %rbp
xorq 208(%rsp), %r9
xorq 216(%rsp), %r8
xorq 224(%rsp), %r11
xorq 232(%rsp), %rbx
xorq 240(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 48(%rsp), %r11
xorq %rdx, %r11
movq 96(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 144(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 192(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 240(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 248(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 256(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 264(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 272(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 280(%rsp)
movq 72(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 120(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 128(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 176(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 224(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 288(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 296(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 304(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 312(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 320(%rsp)
movq 56(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 104(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 152(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 200(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 208(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 328(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 336(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 344(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 352(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 360(%rsp)
movq 80(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 88(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 136(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 184(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 232(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 368(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 376(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 384(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 392(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 400(%rsp)
movq 64(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 112(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 160(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 168(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 216(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 408(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 416(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 424(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 432(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 440(%rsp)
movq 8(%rax,%rcx,8), %r10
movq 248(%rsp), %r9
movq 256(%rsp), %r8
movq 264(%rsp), %r11
movq 272(%rsp), %rbx
movq 280(%rsp), %rbp
xorq 288(%rsp), %r9
xorq 296(%rsp), %r8
xorq 304(%rsp), %r11
xorq 312(%rsp), %rbx
xorq 320(%rsp), %rbp
xorq 328(%rsp), %r9
xorq 336(%rsp), %r8
xorq 344(%rsp), %r11
xorq 352(%rsp), %rbx
xorq 360(%rsp), %rbp
xorq 368(%rsp), %r9
xorq 376(%rsp), %r8
xorq 384(%rsp), %r11
xorq 392(%rsp), %rbx
xorq 400(%rsp), %rbp
xorq 408(%rsp), %r9
xorq 416(%rsp), %r8
xorq 424(%rsp), %r11
xorq 432(%rsp), %rbx
xorq 440(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 248(%rsp), %r11
xorq %rdx, %r11
movq 296(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 344(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 392(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 440(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 48(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 56(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 64(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 72(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 80(%rsp)
movq 272(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 320(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 328(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 376(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 424(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 88(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 96(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 104(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 112(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 120(%rsp)
movq 256(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 304(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 352(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 400(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 408(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 128(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 136(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 144(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 152(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 160(%rsp)
movq 280(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 288(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 336(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 384(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 432(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 168(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 176(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 184(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 192(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 200(%rsp)
movq 264(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 312(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 360(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 368(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 416(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 208(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 216(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 224(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 232(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 240(%rsp)
addq $2, %rcx
cmpq $23, %rcx
jb L_keccak1600_ref$18
movq 24(%rsp), %rsi
movq 32(%rsp), %rdx
movq 40(%rsp), %rax
L_keccak1600_ref$16:
cmpq %rax, %rdx
jnb L_keccak1600_ref$17
movb 448(%rsp), %cl
movq %rdx, %rdi
shrq $3, %rdi
movq $0, %r8
jmp L_keccak1600_ref$14
L_keccak1600_ref$15:
movq (%rsi,%r8,8), %r9
xorq %r9, 48(%rsp,%r8,8)
incq %r8
L_keccak1600_ref$14:
cmpq %rdi, %r8
jb L_keccak1600_ref$15
shlq $3, %r8
jmp L_keccak1600_ref$12
L_keccak1600_ref$13:
movb (%rsi,%r8), %dil
xorb %dil, 48(%rsp,%r8)
incq %r8
L_keccak1600_ref$12:
cmpq %rdx, %r8
jb L_keccak1600_ref$13
xorb %cl, 48(%rsp,%r8)
movq %rax, %rcx
addq $-1, %rcx
xorb $-128, 48(%rsp,%rcx)
movq 16(%rsp), %rdx
jmp L_keccak1600_ref$7
L_keccak1600_ref$8:
movq %rdx, 16(%rsp)
movq %rax, 40(%rsp)
leaq glob_data + 0(%rip), %rax
movq $0, %rcx
L_keccak1600_ref$11:
movq (%rax,%rcx,8), %r10
movq 48(%rsp), %r9
movq 56(%rsp), %r8
movq 64(%rsp), %r11
movq 72(%rsp), %rbx
movq 80(%rsp), %rbp
xorq 88(%rsp), %r9
xorq 96(%rsp), %r8
xorq 104(%rsp), %r11
xorq 112(%rsp), %rbx
xorq 120(%rsp), %rbp
xorq 128(%rsp), %r9
xorq 136(%rsp), %r8
xorq 144(%rsp), %r11
xorq 152(%rsp), %rbx
xorq 160(%rsp), %rbp
xorq 168(%rsp), %r9
xorq 176(%rsp), %r8
xorq 184(%rsp), %r11
xorq 192(%rsp), %rbx
xorq 200(%rsp), %rbp
xorq 208(%rsp), %r9
xorq 216(%rsp), %r8
xorq 224(%rsp), %r11
xorq 232(%rsp), %rbx
xorq 240(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 48(%rsp), %r11
xorq %rdx, %r11
movq 96(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 144(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 192(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 240(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 248(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 256(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 264(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 272(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 280(%rsp)
movq 72(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 120(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 128(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 176(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 224(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 288(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 296(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 304(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 312(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 320(%rsp)
movq 56(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 104(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 152(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 200(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 208(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 328(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 336(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 344(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 352(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 360(%rsp)
movq 80(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 88(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 136(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 184(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 232(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 368(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 376(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 384(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 392(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 400(%rsp)
movq 64(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 112(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 160(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 168(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 216(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 408(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 416(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 424(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 432(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 440(%rsp)
movq 8(%rax,%rcx,8), %r10
movq 248(%rsp), %r9
movq 256(%rsp), %r8
movq 264(%rsp), %r11
movq 272(%rsp), %rbx
movq 280(%rsp), %rbp
xorq 288(%rsp), %r9
xorq 296(%rsp), %r8
xorq 304(%rsp), %r11
xorq 312(%rsp), %rbx
xorq 320(%rsp), %rbp
xorq 328(%rsp), %r9
xorq 336(%rsp), %r8
xorq 344(%rsp), %r11
xorq 352(%rsp), %rbx
xorq 360(%rsp), %rbp
xorq 368(%rsp), %r9
xorq 376(%rsp), %r8
xorq 384(%rsp), %r11
xorq 392(%rsp), %rbx
xorq 400(%rsp), %rbp
xorq 408(%rsp), %r9
xorq 416(%rsp), %r8
xorq 424(%rsp), %r11
xorq 432(%rsp), %rbx
xorq 440(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 248(%rsp), %r11
xorq %rdx, %r11
movq 296(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 344(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 392(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 440(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 48(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 56(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 64(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 72(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 80(%rsp)
movq 272(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 320(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 328(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 376(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 424(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 88(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 96(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 104(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 112(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 120(%rsp)
movq 256(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 304(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 352(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 400(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 408(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 128(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 136(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 144(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 152(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 160(%rsp)
movq 280(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 288(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 336(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 384(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 432(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 168(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 176(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 184(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 192(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 200(%rsp)
movq 264(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 312(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 360(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 368(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 416(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 208(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 216(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 224(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 232(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 240(%rsp)
addq $2, %rcx
cmpq $23, %rcx
jb L_keccak1600_ref$11
movq 8(%rsp), %rcx
movq 16(%rsp), %rdx
movq 40(%rsp), %rax
movq %rax, %rsi
shrq $3, %rsi
movq $0, %rdi
jmp L_keccak1600_ref$9
L_keccak1600_ref$10:
movq 48(%rsp,%rdi,8), %r8
movq %r8, (%rcx,%rdi,8)
incq %rdi
L_keccak1600_ref$9:
cmpq %rsi, %rdi
jb L_keccak1600_ref$10
addq %rax, %rcx
subq %rax, %rdx
movq %rcx, 8(%rsp)
L_keccak1600_ref$7:
cmpq %rax, %rdx
jnbe L_keccak1600_ref$8
movq %rdx, 40(%rsp)
leaq glob_data + 0(%rip), %rax
movq $0, %rcx
L_keccak1600_ref$6:
movq (%rax,%rcx,8), %r10
movq 48(%rsp), %r9
movq 56(%rsp), %r8
movq 64(%rsp), %r11
movq 72(%rsp), %rbx
movq 80(%rsp), %rbp
xorq 88(%rsp), %r9
xorq 96(%rsp), %r8
xorq 104(%rsp), %r11
xorq 112(%rsp), %rbx
xorq 120(%rsp), %rbp
xorq 128(%rsp), %r9
xorq 136(%rsp), %r8
xorq 144(%rsp), %r11
xorq 152(%rsp), %rbx
xorq 160(%rsp), %rbp
xorq 168(%rsp), %r9
xorq 176(%rsp), %r8
xorq 184(%rsp), %r11
xorq 192(%rsp), %rbx
xorq 200(%rsp), %rbp
xorq 208(%rsp), %r9
xorq 216(%rsp), %r8
xorq 224(%rsp), %r11
xorq 232(%rsp), %rbx
xorq 240(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 48(%rsp), %r11
xorq %rdx, %r11
movq 96(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 144(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 192(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 240(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 248(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 256(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 264(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 272(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 280(%rsp)
movq 72(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 120(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 128(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 176(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 224(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 288(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 296(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 304(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 312(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 320(%rsp)
movq 56(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 104(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 152(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 200(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 208(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 328(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 336(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 344(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 352(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 360(%rsp)
movq 80(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 88(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 136(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 184(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 232(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 368(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 376(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 384(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 392(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 400(%rsp)
movq 64(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 112(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 160(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 168(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 216(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 408(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 416(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 424(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 432(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 440(%rsp)
movq 8(%rax,%rcx,8), %r10
movq 248(%rsp), %r9
movq 256(%rsp), %r8
movq 264(%rsp), %r11
movq 272(%rsp), %rbx
movq 280(%rsp), %rbp
xorq 288(%rsp), %r9
xorq 296(%rsp), %r8
xorq 304(%rsp), %r11
xorq 312(%rsp), %rbx
xorq 320(%rsp), %rbp
xorq 328(%rsp), %r9
xorq 336(%rsp), %r8
xorq 344(%rsp), %r11
xorq 352(%rsp), %rbx
xorq 360(%rsp), %rbp
xorq 368(%rsp), %r9
xorq 376(%rsp), %r8
xorq 384(%rsp), %r11
xorq 392(%rsp), %rbx
xorq 400(%rsp), %rbp
xorq 408(%rsp), %r9
xorq 416(%rsp), %r8
xorq 424(%rsp), %r11
xorq 432(%rsp), %rbx
xorq 440(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 248(%rsp), %r11
xorq %rdx, %r11
movq 296(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 344(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 392(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 440(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 48(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 56(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 64(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 72(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 80(%rsp)
movq 272(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 320(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 328(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 376(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 424(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 88(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 96(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 104(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 112(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 120(%rsp)
movq 256(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 304(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 352(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 400(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 408(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 128(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 136(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 144(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 152(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 160(%rsp)
movq 280(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 288(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 336(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 384(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 432(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 168(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 176(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 184(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 192(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 200(%rsp)
movq 264(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 312(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 360(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 368(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 416(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 208(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 216(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 224(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 232(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 240(%rsp)
addq $2, %rcx
cmpq $23, %rcx
jb L_keccak1600_ref$6
movq 8(%rsp), %rax
movq 40(%rsp), %rcx
movq %rcx, %rdx
shrq $3, %rdx
movq $0, %rsi
jmp L_keccak1600_ref$4
L_keccak1600_ref$5:
movq 48(%rsp,%rsi,8), %rdi
movq %rdi, (%rax,%rsi,8)
incq %rsi
L_keccak1600_ref$4:
cmpq %rdx, %rsi
jb L_keccak1600_ref$5
shlq $3, %rsi
jmp L_keccak1600_ref$2
L_keccak1600_ref$3:
movb 48(%rsp,%rsi), %dl
movb %dl, (%rax,%rsi)
incq %rsi
L_keccak1600_ref$2:
cmpq %rcx, %rsi
jb L_keccak1600_ref$3
ret
.data
.p2align 5
_glob_data:
glob_data:
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
|
usenix-security-verdict/verdict
| 34,209
|
deps/libcrux/sys/libjade/jazz/sha3_384_avx2.s
|
.att_syntax
.text
.p2align 5
.globl _jade_hash_sha3_384_amd64_avx2
.globl jade_hash_sha3_384_amd64_avx2
_jade_hash_sha3_384_amd64_avx2:
jade_hash_sha3_384_amd64_avx2:
movq %rsp, %rax
leaq -40(%rsp), %rsp
andq $-32, %rsp
movq %rax, 32(%rsp)
movq %rbx, (%rsp)
movq %rbp, 8(%rsp)
movq %r12, 16(%rsp)
movq %r13, 24(%rsp)
movq $48, %r9
movb $6, %al
movq $104, %rcx
leaq -224(%rsp), %rsp
leaq Ljade_hash_sha3_384_amd64_avx2$1(%rip), %r10
jmp L_keccak1600_avx2$1
Ljade_hash_sha3_384_amd64_avx2$1:
leaq 224(%rsp), %rsp
xorq %rax, %rax
movq (%rsp), %rbx
movq 8(%rsp), %rbp
movq 16(%rsp), %r12
movq 24(%rsp), %r13
movq 32(%rsp), %rsp
ret
L_keccak1600_avx2$1:
vpxor %ymm6, %ymm6, %ymm6
vpxor %ymm3, %ymm3, %ymm3
vpxor %ymm4, %ymm4, %ymm4
vpxor %ymm0, %ymm0, %ymm0
vpxor %ymm5, %ymm5, %ymm5
vpxor %ymm1, %ymm1, %ymm1
vpxor %ymm2, %ymm2, %ymm2
leaq glob_data + 1152(%rip), %r8
vpxor %ymm7, %ymm7, %ymm7
vmovdqu %ymm7, (%rsp)
vmovdqu %ymm7, 32(%rsp)
vmovdqu %ymm7, 64(%rsp)
vmovdqu %ymm7, 96(%rsp)
vmovdqu %ymm7, 128(%rsp)
vmovdqu %ymm7, 160(%rsp)
vmovdqu %ymm7, 192(%rsp)
jmp L_keccak1600_avx2$16
L_keccak1600_avx2$17:
movq %rcx, %r11
shrq $3, %r11
movq $0, %rbx
jmp L_keccak1600_avx2$19
L_keccak1600_avx2$20:
movq (%rsi,%rbx,8), %rbp
movq (%r8,%rbx,8), %r12
movq %rbp, (%rsp,%r12,8)
incq %rbx
L_keccak1600_avx2$19:
cmpq %r11, %rbx
jb L_keccak1600_avx2$20
movq (%rsp), %r11
movq %r11, 8(%rsp)
movq %r11, 16(%rsp)
movq %r11, 24(%rsp)
vpxor (%rsp), %ymm6, %ymm6
vpxor 32(%rsp), %ymm3, %ymm3
vpxor 64(%rsp), %ymm4, %ymm4
vpxor 96(%rsp), %ymm0, %ymm0
vpxor 128(%rsp), %ymm5, %ymm5
vpxor 160(%rsp), %ymm1, %ymm1
vpxor 192(%rsp), %ymm2, %ymm2
addq %rcx, %rsi
subq %rcx, %rdx
leaq glob_data + 384(%rip), %r11
movq $0, %rbx
leaq glob_data + 192(%rip), %rbp
leaq glob_data + 0(%rip), %r12
movq $24, %r13
L_keccak1600_avx2$18:
vpshufd $78, %ymm4, %ymm8
vpxor %ymm0, %ymm1, %ymm7
vpxor %ymm2, %ymm5, %ymm9
vpxor %ymm3, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm4, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm4, %ymm4
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rbp), %ymm4, %ymm7
vpsrlvq (%r12), %ymm4, %ymm4
vpor %ymm7, %ymm4, %ymm4
vpxor %ymm9, %ymm0, %ymm0
vpsllvq 64(%rbp), %ymm0, %ymm7
vpsrlvq 64(%r12), %ymm0, %ymm0
vpor %ymm7, %ymm0, %ymm0
vpxor %ymm9, %ymm5, %ymm5
vpsllvq 96(%rbp), %ymm5, %ymm7
vpsrlvq 96(%r12), %ymm5, %ymm5
vpor %ymm7, %ymm5, %ymm10
vpxor %ymm9, %ymm1, %ymm1
vpsllvq 128(%rbp), %ymm1, %ymm5
vpsrlvq 128(%r12), %ymm1, %ymm1
vpor %ymm5, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpermq $-115, %ymm4, %ymm5
vpermq $-115, %ymm0, %ymm7
vpsllvq 160(%rbp), %ymm2, %ymm0
vpsrlvq 160(%r12), %ymm2, %ymm2
vpor %ymm0, %ymm2, %ymm8
vpxor %ymm9, %ymm3, %ymm0
vpermq $27, %ymm10, %ymm3
vpermq $114, %ymm1, %ymm9
vpsllvq 32(%rbp), %ymm0, %ymm1
vpsrlvq 32(%r12), %ymm0, %ymm0
vpor %ymm1, %ymm0, %ymm10
vpsrldq $8, %ymm8, %ymm0
vpandn %ymm0, %ymm8, %ymm0
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm2
vpblendd $12, %ymm7, %ymm5, %ymm4
vpblendd $12, %ymm5, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm2, %ymm2
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm2, %ymm2
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm2, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm2
vpblendd $12, %ymm10, %ymm3, %ymm4
vpblendd $12, %ymm3, %ymm5, %ymm11
vpxor %ymm5, %ymm1, %ymm1
vpblendd $48, %ymm5, %ymm4, %ymm4
vpblendd $48, %ymm7, %ymm11, %ymm11
vpxor %ymm3, %ymm2, %ymm2
vpblendd $-64, %ymm7, %ymm4, %ymm4
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm4, %ymm4
vpxor %ymm9, %ymm4, %ymm12
vpermq $30, %ymm8, %ymm4
vpblendd $48, %ymm6, %ymm4, %ymm4
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm4, %ymm11, %ymm11
vpblendd $12, %ymm3, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm4, %ymm4
vpblendd $48, %ymm5, %ymm13, %ymm13
vpblendd $-64, %ymm5, %ymm4, %ymm4
vpblendd $-64, %ymm3, %ymm13, %ymm13
vpandn %ymm13, %ymm4, %ymm4
vpxor %ymm10, %ymm4, %ymm4
vpermq $0, %ymm0, %ymm13
vpermq $27, %ymm1, %ymm0
vpermq $-115, %ymm2, %ymm1
vpermq $114, %ymm12, %ymm2
vpblendd $12, %ymm5, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm3, %ymm9
vpblendd $48, %ymm3, %ymm12, %ymm3
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm3, %ymm3
vpblendd $-64, %ymm5, %ymm9, %ymm5
vpandn %ymm5, %ymm3, %ymm5
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm3
vpxor %ymm7, %ymm5, %ymm5
vpxor (%r11,%rbx), %ymm6, %ymm6
addq $32, %rbx
decq %r13
jne L_keccak1600_avx2$18
L_keccak1600_avx2$16:
cmpq %rcx, %rdx
jnb L_keccak1600_avx2$17
vpxor %ymm7, %ymm7, %ymm7
vmovdqu %ymm7, (%rsp)
vmovdqu %ymm7, 32(%rsp)
vmovdqu %ymm7, 64(%rsp)
vmovdqu %ymm7, 96(%rsp)
vmovdqu %ymm7, 128(%rsp)
vmovdqu %ymm7, 160(%rsp)
vmovdqu %ymm7, 192(%rsp)
movq %rdx, %r11
shrq $3, %r11
movq $0, %rbx
jmp L_keccak1600_avx2$14
L_keccak1600_avx2$15:
movq (%rsi,%rbx,8), %rbp
movq (%r8,%rbx,8), %r12
movq %rbp, (%rsp,%r12,8)
incq %rbx
L_keccak1600_avx2$14:
cmpq %r11, %rbx
jb L_keccak1600_avx2$15
movq (%r8,%rbx,8), %r11
shlq $3, %r11
shlq $3, %rbx
jmp L_keccak1600_avx2$12
L_keccak1600_avx2$13:
movb (%rsi,%rbx), %bpl
movb %bpl, (%rsp,%r11)
incq %rbx
incq %r11
L_keccak1600_avx2$12:
cmpq %rdx, %rbx
jb L_keccak1600_avx2$13
movb %al, (%rsp,%r11)
movq %rcx, %rax
addq $-1, %rax
shrq $3, %rax
movq (%r8,%rax,8), %rax
shlq $3, %rax
movq %rcx, %rdx
addq $-1, %rdx
andq $7, %rdx
addq %rdx, %rax
xorb $-128, (%rsp,%rax)
movq (%rsp), %rax
movq %rax, 8(%rsp)
movq %rax, 16(%rsp)
movq %rax, 24(%rsp)
vpxor (%rsp), %ymm6, %ymm6
vpxor 32(%rsp), %ymm3, %ymm3
vpxor 64(%rsp), %ymm4, %ymm4
vpxor 96(%rsp), %ymm0, %ymm0
vpxor 128(%rsp), %ymm5, %ymm5
vpxor 160(%rsp), %ymm1, %ymm1
vpxor 192(%rsp), %ymm2, %ymm2
leaq glob_data + 1152(%rip), %rax
jmp L_keccak1600_avx2$7
L_keccak1600_avx2$8:
leaq glob_data + 384(%rip), %rdx
movq $0, %rsi
leaq glob_data + 192(%rip), %r8
leaq glob_data + 0(%rip), %r11
movq $24, %rbx
L_keccak1600_avx2$11:
vpshufd $78, %ymm4, %ymm8
vpxor %ymm0, %ymm1, %ymm7
vpxor %ymm2, %ymm5, %ymm9
vpxor %ymm3, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm4, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm4, %ymm4
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%r8), %ymm4, %ymm7
vpsrlvq (%r11), %ymm4, %ymm4
vpor %ymm7, %ymm4, %ymm4
vpxor %ymm9, %ymm0, %ymm0
vpsllvq 64(%r8), %ymm0, %ymm7
vpsrlvq 64(%r11), %ymm0, %ymm0
vpor %ymm7, %ymm0, %ymm0
vpxor %ymm9, %ymm5, %ymm5
vpsllvq 96(%r8), %ymm5, %ymm7
vpsrlvq 96(%r11), %ymm5, %ymm5
vpor %ymm7, %ymm5, %ymm10
vpxor %ymm9, %ymm1, %ymm1
vpsllvq 128(%r8), %ymm1, %ymm5
vpsrlvq 128(%r11), %ymm1, %ymm1
vpor %ymm5, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpermq $-115, %ymm4, %ymm5
vpermq $-115, %ymm0, %ymm7
vpsllvq 160(%r8), %ymm2, %ymm0
vpsrlvq 160(%r11), %ymm2, %ymm2
vpor %ymm0, %ymm2, %ymm8
vpxor %ymm9, %ymm3, %ymm0
vpermq $27, %ymm10, %ymm3
vpermq $114, %ymm1, %ymm9
vpsllvq 32(%r8), %ymm0, %ymm1
vpsrlvq 32(%r11), %ymm0, %ymm0
vpor %ymm1, %ymm0, %ymm10
vpsrldq $8, %ymm8, %ymm0
vpandn %ymm0, %ymm8, %ymm0
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm2
vpblendd $12, %ymm7, %ymm5, %ymm4
vpblendd $12, %ymm5, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm2, %ymm2
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm2, %ymm2
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm2, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm2
vpblendd $12, %ymm10, %ymm3, %ymm4
vpblendd $12, %ymm3, %ymm5, %ymm11
vpxor %ymm5, %ymm1, %ymm1
vpblendd $48, %ymm5, %ymm4, %ymm4
vpblendd $48, %ymm7, %ymm11, %ymm11
vpxor %ymm3, %ymm2, %ymm2
vpblendd $-64, %ymm7, %ymm4, %ymm4
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm4, %ymm4
vpxor %ymm9, %ymm4, %ymm12
vpermq $30, %ymm8, %ymm4
vpblendd $48, %ymm6, %ymm4, %ymm4
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm4, %ymm11, %ymm11
vpblendd $12, %ymm3, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm4, %ymm4
vpblendd $48, %ymm5, %ymm13, %ymm13
vpblendd $-64, %ymm5, %ymm4, %ymm4
vpblendd $-64, %ymm3, %ymm13, %ymm13
vpandn %ymm13, %ymm4, %ymm4
vpxor %ymm10, %ymm4, %ymm4
vpermq $0, %ymm0, %ymm13
vpermq $27, %ymm1, %ymm0
vpermq $-115, %ymm2, %ymm1
vpermq $114, %ymm12, %ymm2
vpblendd $12, %ymm5, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm3, %ymm9
vpblendd $48, %ymm3, %ymm12, %ymm3
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm3, %ymm3
vpblendd $-64, %ymm5, %ymm9, %ymm5
vpandn %ymm5, %ymm3, %ymm5
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm3
vpxor %ymm7, %ymm5, %ymm5
vpxor (%rdx,%rsi), %ymm6, %ymm6
addq $32, %rsi
decq %rbx
jne L_keccak1600_avx2$11
vmovdqu %ymm6, (%rsp)
vmovdqu %ymm3, 32(%rsp)
vmovdqu %ymm4, 64(%rsp)
vmovdqu %ymm0, 96(%rsp)
vmovdqu %ymm5, 128(%rsp)
vmovdqu %ymm1, 160(%rsp)
vmovdqu %ymm2, 192(%rsp)
movq %rcx, %rdx
shrq $3, %rdx
movq $0, %rsi
jmp L_keccak1600_avx2$9
L_keccak1600_avx2$10:
movq (%rax,%rsi,8), %r8
movq (%rsp,%r8,8), %r8
movq %r8, (%rdi,%rsi,8)
incq %rsi
L_keccak1600_avx2$9:
cmpq %rdx, %rsi
jb L_keccak1600_avx2$10
addq %rcx, %rdi
subq %rcx, %r9
L_keccak1600_avx2$7:
cmpq %rcx, %r9
jnbe L_keccak1600_avx2$8
leaq glob_data + 384(%rip), %rcx
movq $0, %rdx
leaq glob_data + 192(%rip), %rsi
leaq glob_data + 0(%rip), %r8
movq $24, %r11
L_keccak1600_avx2$6:
vpshufd $78, %ymm4, %ymm8
vpxor %ymm0, %ymm1, %ymm7
vpxor %ymm2, %ymm5, %ymm9
vpxor %ymm3, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm4, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm4, %ymm4
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm4, %ymm7
vpsrlvq (%r8), %ymm4, %ymm4
vpor %ymm7, %ymm4, %ymm4
vpxor %ymm9, %ymm0, %ymm0
vpsllvq 64(%rsi), %ymm0, %ymm7
vpsrlvq 64(%r8), %ymm0, %ymm0
vpor %ymm7, %ymm0, %ymm0
vpxor %ymm9, %ymm5, %ymm5
vpsllvq 96(%rsi), %ymm5, %ymm7
vpsrlvq 96(%r8), %ymm5, %ymm5
vpor %ymm7, %ymm5, %ymm10
vpxor %ymm9, %ymm1, %ymm1
vpsllvq 128(%rsi), %ymm1, %ymm5
vpsrlvq 128(%r8), %ymm1, %ymm1
vpor %ymm5, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpermq $-115, %ymm4, %ymm5
vpermq $-115, %ymm0, %ymm7
vpsllvq 160(%rsi), %ymm2, %ymm0
vpsrlvq 160(%r8), %ymm2, %ymm2
vpor %ymm0, %ymm2, %ymm8
vpxor %ymm9, %ymm3, %ymm0
vpermq $27, %ymm10, %ymm3
vpermq $114, %ymm1, %ymm9
vpsllvq 32(%rsi), %ymm0, %ymm1
vpsrlvq 32(%r8), %ymm0, %ymm0
vpor %ymm1, %ymm0, %ymm10
vpsrldq $8, %ymm8, %ymm0
vpandn %ymm0, %ymm8, %ymm0
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm2
vpblendd $12, %ymm7, %ymm5, %ymm4
vpblendd $12, %ymm5, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm2, %ymm2
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm2, %ymm2
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm2, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm2
vpblendd $12, %ymm10, %ymm3, %ymm4
vpblendd $12, %ymm3, %ymm5, %ymm11
vpxor %ymm5, %ymm1, %ymm1
vpblendd $48, %ymm5, %ymm4, %ymm4
vpblendd $48, %ymm7, %ymm11, %ymm11
vpxor %ymm3, %ymm2, %ymm2
vpblendd $-64, %ymm7, %ymm4, %ymm4
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm4, %ymm4
vpxor %ymm9, %ymm4, %ymm12
vpermq $30, %ymm8, %ymm4
vpblendd $48, %ymm6, %ymm4, %ymm4
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm4, %ymm11, %ymm11
vpblendd $12, %ymm3, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm4, %ymm4
vpblendd $48, %ymm5, %ymm13, %ymm13
vpblendd $-64, %ymm5, %ymm4, %ymm4
vpblendd $-64, %ymm3, %ymm13, %ymm13
vpandn %ymm13, %ymm4, %ymm4
vpxor %ymm10, %ymm4, %ymm4
vpermq $0, %ymm0, %ymm13
vpermq $27, %ymm1, %ymm0
vpermq $-115, %ymm2, %ymm1
vpermq $114, %ymm12, %ymm2
vpblendd $12, %ymm5, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm3, %ymm9
vpblendd $48, %ymm3, %ymm12, %ymm3
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm3, %ymm3
vpblendd $-64, %ymm5, %ymm9, %ymm5
vpandn %ymm5, %ymm3, %ymm5
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm3
vpxor %ymm7, %ymm5, %ymm5
vpxor (%rcx,%rdx), %ymm6, %ymm6
addq $32, %rdx
decq %r11
jne L_keccak1600_avx2$6
vmovdqu %ymm6, (%rsp)
vmovdqu %ymm3, 32(%rsp)
vmovdqu %ymm4, 64(%rsp)
vmovdqu %ymm0, 96(%rsp)
vmovdqu %ymm5, 128(%rsp)
vmovdqu %ymm1, 160(%rsp)
vmovdqu %ymm2, 192(%rsp)
movq %r9, %rcx
shrq $3, %rcx
movq $0, %rdx
jmp L_keccak1600_avx2$4
L_keccak1600_avx2$5:
movq (%rax,%rdx,8), %rsi
movq (%rsp,%rsi,8), %rsi
movq %rsi, (%rdi,%rdx,8)
incq %rdx
L_keccak1600_avx2$4:
cmpq %rcx, %rdx
jb L_keccak1600_avx2$5
movq (%rax,%rdx,8), %rax
shlq $3, %rdx
shlq $3, %rax
jmp L_keccak1600_avx2$2
L_keccak1600_avx2$3:
movb (%rsp,%rax), %cl
movb %cl, (%rdi,%rdx)
incq %rdx
incq %rax
L_keccak1600_avx2$2:
cmpq %r9, %rdx
jb L_keccak1600_avx2$3
jmp *%r10
.data
.p2align 5
_glob_data:
glob_data:
.byte 61
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 46
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 28
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 23
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 63
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 2
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 36
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 37
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 19
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 58
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 25
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 54
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 3
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 56
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 62
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 49
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 39
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 44
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 20
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 21
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 43
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 50
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 3
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 18
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 36
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 41
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 62
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 28
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 27
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 45
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 6
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 56
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 39
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 61
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 55
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 2
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 15
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 25
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 20
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 44
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 43
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 21
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 14
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 4
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 5
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 6
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 7
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 24
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 13
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 18
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 23
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 16
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 25
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 22
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 15
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 11
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 12
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 21
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 26
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 19
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 20
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 17
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 14
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 27
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
|
usenix-security-verdict/verdict
| 85,265
|
deps/libcrux/sys/libjade/jazz/x25519_ref.s
|
.att_syntax
.text
.p2align 5
.globl _jade_scalarmult_curve25519_amd64_ref5_base
.globl jade_scalarmult_curve25519_amd64_ref5_base
.globl _jade_scalarmult_curve25519_amd64_ref5
.globl jade_scalarmult_curve25519_amd64_ref5
_jade_scalarmult_curve25519_amd64_ref5_base:
jade_scalarmult_curve25519_amd64_ref5_base:
movq %rsp, %rax
leaq -480(%rsp), %rsp
andq $-8, %rsp
movq %rax, 472(%rsp)
movq %rbx, 432(%rsp)
movq %rbp, 440(%rsp)
movq %r12, 448(%rsp)
movq %r13, 456(%rsp)
movq %r14, 464(%rsp)
movq %rdi, (%rsp)
movq (%rsi), %rax
movq %rax, 40(%rsp)
movq 8(%rsi), %rax
movq %rax, 48(%rsp)
movq 16(%rsi), %rax
movq %rax, 56(%rsp)
movq 24(%rsi), %rax
movq %rax, 64(%rsp)
andb $-8, 40(%rsp)
andb $127, 71(%rsp)
orb $64, 71(%rsp)
movq $9, %rcx
movq $0, %r8
movq $0, %r9
movq $0, %r10
movq $0, %r11
xorq %rbx, %rbx
movq $1, 72(%rsp)
movq $0, %rbp
movq %rcx, 112(%rsp)
movq %r8, 120(%rsp)
movq %r9, 128(%rsp)
movq %r10, 136(%rsp)
movq %r11, 144(%rsp)
movq $1, 152(%rsp)
movq %rbx, 80(%rsp)
movq %rbx, %rax
movq %rbx, 160(%rsp)
movq %rbx, 88(%rsp)
movq %rbx, %rdx
movq %rbx, 168(%rsp)
movq %rbx, 96(%rsp)
movq %rbx, %rsi
movq %rbx, 176(%rsp)
movq %rbx, 104(%rsp)
movq %rbx, %rdi
movq %rbx, 184(%rsp)
movq %rcx, 192(%rsp)
movq %r8, 200(%rsp)
movq %r9, 208(%rsp)
movq %r10, 216(%rsp)
movq %r11, 224(%rsp)
movq $255, %rcx
movq $0, 8(%rsp)
Ljade_scalarmult_curve25519_amd64_ref5_base$28:
addq $-1, %rcx
movq %rcx, 16(%rsp)
movq %rcx, %r8
shrq $3, %r8
movzbq 40(%rsp,%r8), %r8
andq $7, %rcx
shrq %cl, %r8
andq $1, %r8
movq 8(%rsp), %r9
xorq %r8, %r9
xorq %rcx, %rcx
subq %r9, %rcx
movq %rbp, %r11
movq %rax, %rbx
movq %rdx, %r12
movq %rsi, %r9
movq %rdi, %r10
xorq 152(%rsp), %r11
andq %rcx, %r11
xorq 160(%rsp), %rbx
andq %rcx, %rbx
xorq 168(%rsp), %r12
andq %rcx, %r12
xorq 176(%rsp), %r9
andq %rcx, %r9
xorq 184(%rsp), %r10
andq %rcx, %r10
xorq %r11, %rbp
movq 152(%rsp), %r13
xorq %r11, %r13
movq %r13, 152(%rsp)
xorq %rbx, %rax
movq 160(%rsp), %r11
xorq %rbx, %r11
movq %r11, 160(%rsp)
xorq %r12, %rdx
movq 168(%rsp), %r11
xorq %r12, %r11
movq %r11, 168(%rsp)
xorq %r9, %rsi
movq 176(%rsp), %r11
xorq %r9, %r11
movq %r11, 176(%rsp)
xorq %r10, %rdi
movq 184(%rsp), %r9
xorq %r10, %r9
movq %r9, 184(%rsp)
movq 112(%rsp), %r12
movq 120(%rsp), %r9
movq 128(%rsp), %r10
movq 136(%rsp), %r11
movq 144(%rsp), %rbx
movq 72(%rsp), %r13
movq %r12, %r14
xorq %r13, %r14
andq %rcx, %r14
xorq %r14, %r13
xorq %r14, %r12
movq %r13, 72(%rsp)
movq %r12, 112(%rsp)
movq 80(%rsp), %r12
movq %r9, %r13
xorq %r12, %r13
andq %rcx, %r13
xorq %r13, %r12
xorq %r13, %r9
movq %r12, 80(%rsp)
movq %r9, 120(%rsp)
movq 88(%rsp), %r9
movq %r10, %r12
xorq %r9, %r12
andq %rcx, %r12
xorq %r12, %r9
xorq %r12, %r10
movq %r9, 88(%rsp)
movq %r10, 128(%rsp)
movq 96(%rsp), %r9
movq %r11, %r10
xorq %r9, %r10
andq %rcx, %r10
xorq %r10, %r9
xorq %r10, %r11
movq %r9, 96(%rsp)
movq %r11, 136(%rsp)
movq 104(%rsp), %r9
movq %rbx, %r10
xorq %r9, %r10
andq %rcx, %r10
xorq %r10, %r9
xorq %r10, %rbx
movq %r9, 104(%rsp)
movq %rbx, 144(%rsp)
movq %r8, 8(%rsp)
movq $4503599627370458, %rcx
movq $4503599627370494, %r8
movq 72(%rsp), %r9
movq 80(%rsp), %r10
movq 88(%rsp), %r11
movq 96(%rsp), %rbx
movq 104(%rsp), %r12
addq %rcx, %r9
addq %r8, %r10
addq %r8, %r11
addq %r8, %rbx
addq %r8, %r12
subq %rbp, %r9
subq %rax, %r10
subq %rdx, %r11
subq %rsi, %rbx
subq %rdi, %r12
movq %r9, 232(%rsp)
movq %r10, 240(%rsp)
movq %r11, 248(%rsp)
movq %rbx, 256(%rsp)
movq %r12, 264(%rsp)
addq 72(%rsp), %rbp
addq 80(%rsp), %rax
addq 88(%rsp), %rdx
addq 96(%rsp), %rsi
addq 104(%rsp), %rdi
movq %rbp, 272(%rsp)
movq %rax, 280(%rsp)
movq %rdx, 288(%rsp)
movq %rsi, 296(%rsp)
movq %rdi, 304(%rsp)
movq 112(%rsp), %rax
movq 120(%rsp), %rcx
movq 128(%rsp), %rdx
movq 136(%rsp), %rsi
movq 144(%rsp), %rdi
movq $4503599627370458, %r8
movq $4503599627370494, %r9
addq %r8, %rax
addq %r9, %rcx
addq %r9, %rdx
addq %r9, %rsi
addq %r9, %rdi
subq 152(%rsp), %rax
subq 160(%rsp), %rcx
subq 168(%rsp), %rdx
subq 176(%rsp), %rsi
subq 184(%rsp), %rdi
movq %rax, 312(%rsp)
movq %rcx, 320(%rsp)
movq %rdx, 328(%rsp)
movq %rsi, 336(%rsp)
movq %rdi, 344(%rsp)
movq 112(%rsp), %rax
movq 120(%rsp), %rcx
movq 128(%rsp), %rdx
movq 136(%rsp), %rsi
movq 144(%rsp), %rdi
addq 152(%rsp), %rax
addq 160(%rsp), %rcx
addq 168(%rsp), %rdx
addq 176(%rsp), %rsi
addq 184(%rsp), %rdi
movq %rax, 352(%rsp)
movq %rcx, 360(%rsp)
movq %rdx, 368(%rsp)
movq %rsi, 376(%rsp)
movq %rdi, 384(%rsp)
movq 296(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 24(%rsp)
mulq 328(%rsp)
movq %rax, %r12
movq %rdx, %rdi
movq 304(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 32(%rsp)
mulq 320(%rsp)
addq %rax, %r12
adcq %rdx, %rdi
movq 272(%rsp), %rax
mulq 312(%rsp)
addq %rax, %r12
adcq %rdx, %rdi
movq 272(%rsp), %rax
mulq 320(%rsp)
movq %rax, %r10
movq %rdx, %rbx
movq 272(%rsp), %rax
mulq 328(%rsp)
movq %rax, %r8
movq %rdx, %r9
movq 272(%rsp), %rax
mulq 336(%rsp)
movq %rax, %rcx
movq %rdx, %r11
movq 272(%rsp), %rax
mulq 344(%rsp)
movq %rax, %rbp
movq %rdx, %rsi
movq 280(%rsp), %rax
mulq 312(%rsp)
addq %rax, %r10
adcq %rdx, %rbx
movq 280(%rsp), %rax
mulq 320(%rsp)
addq %rax, %r8
adcq %rdx, %r9
movq 280(%rsp), %rax
mulq 328(%rsp)
addq %rax, %rcx
adcq %rdx, %r11
movq 280(%rsp), %rax
mulq 336(%rsp)
addq %rax, %rbp
adcq %rdx, %rsi
movq 280(%rsp), %rax
imulq $19, %rax, %rax
mulq 344(%rsp)
addq %rax, %r12
adcq %rdx, %rdi
movq 288(%rsp), %rax
mulq 312(%rsp)
addq %rax, %r8
adcq %rdx, %r9
movq 288(%rsp), %rax
mulq 320(%rsp)
addq %rax, %rcx
adcq %rdx, %r11
movq 288(%rsp), %rax
mulq 328(%rsp)
addq %rax, %rbp
adcq %rdx, %rsi
movq 288(%rsp), %rax
imulq $19, %rax, %rax
mulq 336(%rsp)
addq %rax, %r12
adcq %rdx, %rdi
movq 288(%rsp), %rax
imulq $19, %rax, %rax
mulq 344(%rsp)
addq %rax, %r10
adcq %rdx, %rbx
movq 296(%rsp), %rax
mulq 312(%rsp)
addq %rax, %rcx
adcq %rdx, %r11
movq 296(%rsp), %rax
mulq 320(%rsp)
addq %rax, %rbp
adcq %rdx, %rsi
movq 24(%rsp), %rax
mulq 336(%rsp)
addq %rax, %r10
adcq %rdx, %rbx
movq 24(%rsp), %rax
mulq 344(%rsp)
addq %rax, %r8
adcq %rdx, %r9
movq 304(%rsp), %rax
mulq 312(%rsp)
addq %rax, %rbp
adcq %rdx, %rsi
movq 32(%rsp), %rax
mulq 328(%rsp)
addq %rax, %r10
adcq %rdx, %rbx
movq 32(%rsp), %rax
mulq 336(%rsp)
addq %rax, %r8
adcq %rdx, %r9
movq 32(%rsp), %rax
mulq 344(%rsp)
addq %rax, %rcx
adcq %rdx, %r11
movq $2251799813685247, %rax
shldq $13, %r12, %rdi
andq %rax, %r12
shldq $13, %r10, %rbx
andq %rax, %r10
addq %rdi, %r10
shldq $13, %r8, %r9
andq %rax, %r8
addq %rbx, %r8
shldq $13, %rcx, %r11
andq %rax, %rcx
addq %r9, %rcx
shldq $13, %rbp, %rsi
andq %rax, %rbp
addq %r11, %rbp
imulq $19, %rsi, %rdx
addq %rdx, %r12
movq %r12, %rdx
shrq $51, %rdx
addq %r10, %rdx
movq %rdx, %rsi
shrq $51, %rdx
andq %rax, %r12
addq %r8, %rdx
movq %rdx, %rdi
shrq $51, %rdx
andq %rax, %rsi
addq %rcx, %rdx
movq %rdx, %rcx
shrq $51, %rdx
andq %rax, %rdi
addq %rbp, %rdx
movq %rdx, %r8
shrq $51, %rdx
andq %rax, %rcx
imulq $19, %rdx, %rdx
addq %rdx, %r12
andq %rax, %r8
movq %r12, 312(%rsp)
movq %rsi, 320(%rsp)
movq %rdi, 328(%rsp)
movq %rcx, 336(%rsp)
movq %r8, 344(%rsp)
movq 376(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 32(%rsp)
mulq 248(%rsp)
movq %rax, %rsi
movq %rdx, %rbx
movq 384(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 24(%rsp)
mulq 240(%rsp)
addq %rax, %rsi
adcq %rdx, %rbx
movq 352(%rsp), %rax
mulq 232(%rsp)
addq %rax, %rsi
adcq %rdx, %rbx
movq 352(%rsp), %rax
mulq 240(%rsp)
movq %rax, %r10
movq %rdx, %r11
movq 352(%rsp), %rax
mulq 248(%rsp)
movq %rax, %rcx
movq %rdx, %rdi
movq 352(%rsp), %rax
mulq 256(%rsp)
movq %rax, %rbp
movq %rdx, %r8
movq 352(%rsp), %rax
mulq 264(%rsp)
movq %rax, %r9
movq %rdx, %r12
movq 360(%rsp), %rax
mulq 232(%rsp)
addq %rax, %r10
adcq %rdx, %r11
movq 360(%rsp), %rax
mulq 240(%rsp)
addq %rax, %rcx
adcq %rdx, %rdi
movq 360(%rsp), %rax
mulq 248(%rsp)
addq %rax, %rbp
adcq %rdx, %r8
movq 360(%rsp), %rax
mulq 256(%rsp)
addq %rax, %r9
adcq %rdx, %r12
movq 360(%rsp), %rax
imulq $19, %rax, %rax
mulq 264(%rsp)
addq %rax, %rsi
adcq %rdx, %rbx
movq 368(%rsp), %rax
mulq 232(%rsp)
addq %rax, %rcx
adcq %rdx, %rdi
movq 368(%rsp), %rax
mulq 240(%rsp)
addq %rax, %rbp
adcq %rdx, %r8
movq 368(%rsp), %rax
mulq 248(%rsp)
addq %rax, %r9
adcq %rdx, %r12
movq 368(%rsp), %rax
imulq $19, %rax, %rax
mulq 256(%rsp)
addq %rax, %rsi
adcq %rdx, %rbx
movq 368(%rsp), %rax
imulq $19, %rax, %rax
mulq 264(%rsp)
addq %rax, %r10
adcq %rdx, %r11
movq 376(%rsp), %rax
mulq 232(%rsp)
addq %rax, %rbp
adcq %rdx, %r8
movq 376(%rsp), %rax
mulq 240(%rsp)
addq %rax, %r9
adcq %rdx, %r12
movq 32(%rsp), %rax
mulq 256(%rsp)
addq %rax, %r10
adcq %rdx, %r11
movq 32(%rsp), %rax
mulq 264(%rsp)
addq %rax, %rcx
adcq %rdx, %rdi
movq 384(%rsp), %rax
mulq 232(%rsp)
addq %rax, %r9
adcq %rdx, %r12
movq 24(%rsp), %rax
mulq 248(%rsp)
addq %rax, %r10
adcq %rdx, %r11
movq 24(%rsp), %rax
mulq 256(%rsp)
addq %rax, %rcx
adcq %rdx, %rdi
movq 24(%rsp), %rax
mulq 264(%rsp)
addq %rax, %rbp
adcq %rdx, %r8
movq $2251799813685247, %rax
shldq $13, %rsi, %rbx
andq %rax, %rsi
shldq $13, %r10, %r11
andq %rax, %r10
addq %rbx, %r10
shldq $13, %rcx, %rdi
andq %rax, %rcx
addq %r11, %rcx
shldq $13, %rbp, %r8
andq %rax, %rbp
addq %rdi, %rbp
shldq $13, %r9, %r12
andq %rax, %r9
addq %r8, %r9
imulq $19, %r12, %rdx
addq %rdx, %rsi
movq %rsi, %rdx
shrq $51, %rdx
addq %r10, %rdx
movq %rdx, %rdi
shrq $51, %rdx
andq %rax, %rsi
addq %rcx, %rdx
movq %rdx, %rcx
shrq $51, %rdx
andq %rax, %rdi
addq %rbp, %rdx
movq %rdx, %r8
shrq $51, %rdx
andq %rax, %rcx
addq %r9, %rdx
movq %rdx, %r9
shrq $51, %rdx
andq %rax, %r8
imulq $19, %rdx, %rdx
addq %rdx, %rsi
andq %rax, %r9
movq %rsi, 352(%rsp)
movq %rdi, 360(%rsp)
movq %rcx, 368(%rsp)
movq %r8, 376(%rsp)
movq %r9, 384(%rsp)
movq 272(%rsp), %rax
mulq 272(%rsp)
movq %rax, %rcx
movq %rdx, %rsi
movq 272(%rsp), %rax
shlq $1, %rax
mulq 280(%rsp)
movq %rax, %rbx
movq %rdx, %r8
movq 272(%rsp), %rax
shlq $1, %rax
mulq 288(%rsp)
movq %rax, %r12
movq %rdx, %r9
movq 272(%rsp), %rax
shlq $1, %rax
mulq 296(%rsp)
movq %rax, %rdi
movq %rdx, %r11
movq 272(%rsp), %rax
shlq $1, %rax
mulq 304(%rsp)
movq %rax, %r10
movq %rdx, %rbp
movq 280(%rsp), %rax
mulq 280(%rsp)
addq %rax, %r12
adcq %rdx, %r9
movq 280(%rsp), %rax
shlq $1, %rax
mulq 288(%rsp)
addq %rax, %rdi
adcq %rdx, %r11
movq 280(%rsp), %rax
shlq $1, %rax
mulq 296(%rsp)
addq %rax, %r10
adcq %rdx, %rbp
movq 280(%rsp), %rax
imulq $38, %rax, %rax
mulq 304(%rsp)
addq %rax, %rcx
adcq %rdx, %rsi
movq 288(%rsp), %rax
mulq 288(%rsp)
addq %rax, %r10
adcq %rdx, %rbp
movq 288(%rsp), %rax
imulq $38, %rax, %rax
mulq 296(%rsp)
addq %rax, %rcx
adcq %rdx, %rsi
movq 288(%rsp), %rax
imulq $38, %rax, %rax
mulq 304(%rsp)
addq %rax, %rbx
adcq %rdx, %r8
movq 296(%rsp), %rax
imulq $19, %rax, %rax
mulq 296(%rsp)
addq %rax, %rbx
adcq %rdx, %r8
movq 296(%rsp), %rax
imulq $38, %rax, %rax
mulq 304(%rsp)
addq %rax, %r12
adcq %rdx, %r9
movq 304(%rsp), %rax
imulq $19, %rax, %rax
mulq 304(%rsp)
addq %rax, %rdi
adcq %rdx, %r11
movq $2251799813685247, %rax
shldq $13, %rcx, %rsi
andq %rax, %rcx
shldq $13, %rbx, %r8
andq %rax, %rbx
addq %rsi, %rbx
shldq $13, %r12, %r9
andq %rax, %r12
addq %r8, %r12
shldq $13, %rdi, %r11
andq %rax, %rdi
addq %r9, %rdi
shldq $13, %r10, %rbp
andq %rax, %r10
addq %r11, %r10
imulq $19, %rbp, %rdx
addq %rdx, %rcx
movq %rcx, %rdx
shrq $51, %rdx
addq %rbx, %rdx
andq %rax, %rcx
movq %rdx, %rsi
shrq $51, %rdx
addq %r12, %rdx
andq %rax, %rsi
movq %rdx, %r8
shrq $51, %rdx
addq %rdi, %rdx
andq %rax, %r8
movq %rdx, %rdi
shrq $51, %rdx
addq %r10, %rdx
andq %rax, %rdi
movq %rdx, %r9
shrq $51, %rdx
imulq $19, %rdx, %rdx
addq %rdx, %rcx
andq %rax, %r9
movq %rcx, 272(%rsp)
movq %rsi, 280(%rsp)
movq %r8, 288(%rsp)
movq %rdi, 296(%rsp)
movq %r9, 304(%rsp)
movq 232(%rsp), %rax
mulq 232(%rsp)
movq %rax, %r8
movq %rdx, %r11
movq 232(%rsp), %rax
shlq $1, %rax
mulq 240(%rsp)
movq %rax, %r9
movq %rdx, %rbp
movq 232(%rsp), %rax
shlq $1, %rax
mulq 248(%rsp)
movq %rax, %rdi
movq %rdx, %rbx
movq 232(%rsp), %rax
shlq $1, %rax
mulq 256(%rsp)
movq %rax, %rcx
movq %rdx, %r10
movq 232(%rsp), %rax
shlq $1, %rax
mulq 264(%rsp)
movq %rax, %r12
movq %rdx, %rsi
movq 240(%rsp), %rax
mulq 240(%rsp)
addq %rax, %rdi
adcq %rdx, %rbx
movq 240(%rsp), %rax
shlq $1, %rax
mulq 248(%rsp)
addq %rax, %rcx
adcq %rdx, %r10
movq 240(%rsp), %rax
shlq $1, %rax
mulq 256(%rsp)
addq %rax, %r12
adcq %rdx, %rsi
movq 240(%rsp), %rax
imulq $38, %rax, %rax
mulq 264(%rsp)
addq %rax, %r8
adcq %rdx, %r11
movq 248(%rsp), %rax
mulq 248(%rsp)
addq %rax, %r12
adcq %rdx, %rsi
movq 248(%rsp), %rax
imulq $38, %rax, %rax
mulq 256(%rsp)
addq %rax, %r8
adcq %rdx, %r11
movq 248(%rsp), %rax
imulq $38, %rax, %rax
mulq 264(%rsp)
addq %rax, %r9
adcq %rdx, %rbp
movq 256(%rsp), %rax
imulq $19, %rax, %rax
mulq 256(%rsp)
addq %rax, %r9
adcq %rdx, %rbp
movq 256(%rsp), %rax
imulq $38, %rax, %rax
mulq 264(%rsp)
addq %rax, %rdi
adcq %rdx, %rbx
movq 264(%rsp), %rax
imulq $19, %rax, %rax
mulq 264(%rsp)
addq %rax, %rcx
adcq %rdx, %r10
movq $2251799813685247, %rax
shldq $13, %r8, %r11
andq %rax, %r8
shldq $13, %r9, %rbp
andq %rax, %r9
addq %r11, %r9
shldq $13, %rdi, %rbx
andq %rax, %rdi
addq %rbp, %rdi
shldq $13, %rcx, %r10
andq %rax, %rcx
addq %rbx, %rcx
shldq $13, %r12, %rsi
andq %rax, %r12
addq %r10, %r12
imulq $19, %rsi, %rdx
addq %rdx, %r8
movq %r8, %rdx
shrq $51, %rdx
addq %r9, %rdx
andq %rax, %r8
movq %rdx, %rsi
shrq $51, %rdx
addq %rdi, %rdx
andq %rax, %rsi
movq %rdx, %rdi
shrq $51, %rdx
addq %rcx, %rdx
andq %rax, %rdi
movq %rdx, %rcx
shrq $51, %rdx
addq %r12, %rdx
andq %rax, %rcx
movq %rdx, %r9
shrq $51, %rdx
imulq $19, %rdx, %rdx
addq %rdx, %r8
andq %rax, %r9
movq %r8, 232(%rsp)
movq %rsi, 240(%rsp)
movq %rdi, 248(%rsp)
movq %rcx, 256(%rsp)
movq %r9, 264(%rsp)
movq 312(%rsp), %rax
movq 320(%rsp), %rcx
movq 328(%rsp), %rdx
movq 336(%rsp), %rsi
movq 344(%rsp), %rdi
addq 352(%rsp), %rax
addq 360(%rsp), %rcx
addq 368(%rsp), %rdx
addq 376(%rsp), %rsi
addq 384(%rsp), %rdi
movq %rax, 392(%rsp)
movq %rcx, 400(%rsp)
movq %rdx, 408(%rsp)
movq %rsi, 416(%rsp)
movq %rdi, 424(%rsp)
movq 312(%rsp), %rax
movq 320(%rsp), %rcx
movq 328(%rsp), %rdx
movq 336(%rsp), %rsi
movq 344(%rsp), %rdi
movq $4503599627370458, %r8
movq $4503599627370494, %r9
addq %r8, %rax
addq %r9, %rcx
addq %r9, %rdx
addq %r9, %rsi
addq %r9, %rdi
subq 352(%rsp), %rax
subq 360(%rsp), %rcx
subq 368(%rsp), %rdx
subq 376(%rsp), %rsi
subq 384(%rsp), %rdi
movq %rax, 352(%rsp)
movq %rcx, 360(%rsp)
movq %rdx, 368(%rsp)
movq %rsi, 376(%rsp)
movq %rdi, 384(%rsp)
movq 296(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 24(%rsp)
mulq 248(%rsp)
movq %rax, %r9
movq %rdx, %r12
movq 304(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 32(%rsp)
mulq 240(%rsp)
addq %rax, %r9
adcq %rdx, %r12
movq 272(%rsp), %rax
mulq 232(%rsp)
addq %rax, %r9
adcq %rdx, %r12
movq 272(%rsp), %rax
mulq 240(%rsp)
movq %rax, %rcx
movq %rdx, %rbx
movq 272(%rsp), %rax
mulq 248(%rsp)
movq %rax, %r8
movq %rdx, %rdi
movq 272(%rsp), %rax
mulq 256(%rsp)
movq %rax, %r11
movq %rdx, %rsi
movq 272(%rsp), %rax
mulq 264(%rsp)
movq %rax, %rbp
movq %rdx, %r10
movq 280(%rsp), %rax
mulq 232(%rsp)
addq %rax, %rcx
adcq %rdx, %rbx
movq 280(%rsp), %rax
mulq 240(%rsp)
addq %rax, %r8
adcq %rdx, %rdi
movq 280(%rsp), %rax
mulq 248(%rsp)
addq %rax, %r11
adcq %rdx, %rsi
movq 280(%rsp), %rax
mulq 256(%rsp)
addq %rax, %rbp
adcq %rdx, %r10
movq 280(%rsp), %rax
imulq $19, %rax, %rax
mulq 264(%rsp)
addq %rax, %r9
adcq %rdx, %r12
movq 288(%rsp), %rax
mulq 232(%rsp)
addq %rax, %r8
adcq %rdx, %rdi
movq 288(%rsp), %rax
mulq 240(%rsp)
addq %rax, %r11
adcq %rdx, %rsi
movq 288(%rsp), %rax
mulq 248(%rsp)
addq %rax, %rbp
adcq %rdx, %r10
movq 288(%rsp), %rax
imulq $19, %rax, %rax
mulq 256(%rsp)
addq %rax, %r9
adcq %rdx, %r12
movq 288(%rsp), %rax
imulq $19, %rax, %rax
mulq 264(%rsp)
addq %rax, %rcx
adcq %rdx, %rbx
movq 296(%rsp), %rax
mulq 232(%rsp)
addq %rax, %r11
adcq %rdx, %rsi
movq 296(%rsp), %rax
mulq 240(%rsp)
addq %rax, %rbp
adcq %rdx, %r10
movq 24(%rsp), %rax
mulq 256(%rsp)
addq %rax, %rcx
adcq %rdx, %rbx
movq 24(%rsp), %rax
mulq 264(%rsp)
addq %rax, %r8
adcq %rdx, %rdi
movq 304(%rsp), %rax
mulq 232(%rsp)
addq %rax, %rbp
adcq %rdx, %r10
movq 32(%rsp), %rax
mulq 248(%rsp)
addq %rax, %rcx
adcq %rdx, %rbx
movq 32(%rsp), %rax
mulq 256(%rsp)
addq %rax, %r8
adcq %rdx, %rdi
movq 32(%rsp), %rax
mulq 264(%rsp)
addq %rax, %r11
adcq %rdx, %rsi
movq $2251799813685247, %rax
shldq $13, %r9, %r12
andq %rax, %r9
shldq $13, %rcx, %rbx
andq %rax, %rcx
addq %r12, %rcx
shldq $13, %r8, %rdi
andq %rax, %r8
addq %rbx, %r8
shldq $13, %r11, %rsi
andq %rax, %r11
addq %rdi, %r11
shldq $13, %rbp, %r10
andq %rax, %rbp
addq %rsi, %rbp
imulq $19, %r10, %rdx
addq %rdx, %r9
movq %r9, %rdx
shrq $51, %rdx
addq %rcx, %rdx
movq %rdx, %rcx
shrq $51, %rdx
andq %rax, %r9
addq %r8, %rdx
movq %rdx, %rsi
shrq $51, %rdx
andq %rax, %rcx
addq %r11, %rdx
movq %rdx, %rdi
shrq $51, %rdx
andq %rax, %rsi
addq %rbp, %rdx
movq %rdx, %r8
shrq $51, %rdx
andq %rax, %rdi
imulq $19, %rdx, %rdx
addq %rdx, %r9
andq %rax, %r8
movq %r9, 72(%rsp)
movq %rcx, 80(%rsp)
movq %rsi, 88(%rsp)
movq %rdi, 96(%rsp)
movq %r8, 104(%rsp)
movq 272(%rsp), %rax
movq 280(%rsp), %rcx
movq 288(%rsp), %rdx
movq 296(%rsp), %rsi
movq 304(%rsp), %rdi
movq $4503599627370458, %r8
movq $4503599627370494, %r9
addq %r8, %rax
addq %r9, %rcx
addq %r9, %rdx
addq %r9, %rsi
addq %r9, %rdi
subq 232(%rsp), %rax
subq 240(%rsp), %rcx
subq 248(%rsp), %rdx
subq 256(%rsp), %rsi
subq 264(%rsp), %rdi
movq %rax, 232(%rsp)
movq %rcx, 240(%rsp)
movq %rdx, 248(%rsp)
movq %rsi, 256(%rsp)
movq %rdi, 264(%rsp)
movq 352(%rsp), %rax
mulq 352(%rsp)
movq %rax, %r11
movq %rdx, %rbx
movq 352(%rsp), %rax
shlq $1, %rax
mulq 360(%rsp)
movq %rax, %rbp
movq %rdx, %r10
movq 352(%rsp), %rax
shlq $1, %rax
mulq 368(%rsp)
movq %rax, %r8
movq %rdx, %r12
movq 352(%rsp), %rax
shlq $1, %rax
mulq 376(%rsp)
movq %rax, %rcx
movq %rdx, %rsi
movq 352(%rsp), %rax
shlq $1, %rax
mulq 384(%rsp)
movq %rax, %rdi
movq %rdx, %r9
movq 360(%rsp), %rax
mulq 360(%rsp)
addq %rax, %r8
adcq %rdx, %r12
movq 360(%rsp), %rax
shlq $1, %rax
mulq 368(%rsp)
addq %rax, %rcx
adcq %rdx, %rsi
movq 360(%rsp), %rax
shlq $1, %rax
mulq 376(%rsp)
addq %rax, %rdi
adcq %rdx, %r9
movq 360(%rsp), %rax
imulq $38, %rax, %rax
mulq 384(%rsp)
addq %rax, %r11
adcq %rdx, %rbx
movq 368(%rsp), %rax
mulq 368(%rsp)
addq %rax, %rdi
adcq %rdx, %r9
movq 368(%rsp), %rax
imulq $38, %rax, %rax
mulq 376(%rsp)
addq %rax, %r11
adcq %rdx, %rbx
movq 368(%rsp), %rax
imulq $38, %rax, %rax
mulq 384(%rsp)
addq %rax, %rbp
adcq %rdx, %r10
movq 376(%rsp), %rax
imulq $19, %rax, %rax
mulq 376(%rsp)
addq %rax, %rbp
adcq %rdx, %r10
movq 376(%rsp), %rax
imulq $38, %rax, %rax
mulq 384(%rsp)
addq %rax, %r8
adcq %rdx, %r12
movq 384(%rsp), %rax
imulq $19, %rax, %rax
mulq 384(%rsp)
addq %rax, %rcx
adcq %rdx, %rsi
movq $2251799813685247, %rax
shldq $13, %r11, %rbx
andq %rax, %r11
shldq $13, %rbp, %r10
andq %rax, %rbp
addq %rbx, %rbp
shldq $13, %r8, %r12
andq %rax, %r8
addq %r10, %r8
shldq $13, %rcx, %rsi
andq %rax, %rcx
addq %r12, %rcx
shldq $13, %rdi, %r9
andq %rax, %rdi
addq %rsi, %rdi
imulq $19, %r9, %rdx
addq %rdx, %r11
movq %r11, %rdx
shrq $51, %rdx
addq %rbp, %rdx
andq %rax, %r11
movq %rdx, %rsi
shrq $51, %rdx
addq %r8, %rdx
andq %rax, %rsi
movq %rdx, %r8
shrq $51, %rdx
addq %rcx, %rdx
andq %rax, %r8
movq %rdx, %rcx
shrq $51, %rdx
addq %rdi, %rdx
andq %rax, %rcx
movq %rdx, %rdi
shrq $51, %rdx
imulq $19, %rdx, %rdx
addq %rdx, %r11
andq %rax, %rdi
movq %r11, 352(%rsp)
movq %rsi, 360(%rsp)
movq %r8, 368(%rsp)
movq %rcx, 376(%rsp)
movq %rdi, 384(%rsp)
movq $996679680, %rcx
movq 232(%rsp), %rax
mulq %rcx
shrq $13, %rax
movq %rax, %rsi
movq %rdx, %rdi
movq 240(%rsp), %rax
mulq %rcx
shrq $13, %rax
addq %rax, %rdi
movq %rdx, %r8
movq 248(%rsp), %rax
mulq %rcx
shrq $13, %rax
addq %rax, %r8
movq %rdx, %r9
movq 256(%rsp), %rax
mulq %rcx
shrq $13, %rax
addq %rax, %r9
movq %rdx, %r10
movq 264(%rsp), %rax
mulq %rcx
shrq $13, %rax
addq %rax, %r10
imulq $19, %rdx, %rax
addq %rax, %rsi
addq 272(%rsp), %rsi
addq 280(%rsp), %rdi
addq 288(%rsp), %r8
addq 296(%rsp), %r9
addq 304(%rsp), %r10
movq %rsi, 272(%rsp)
movq %rdi, 280(%rsp)
movq %r8, 288(%rsp)
movq %r9, 296(%rsp)
movq %r10, 304(%rsp)
movq 392(%rsp), %rax
mulq 392(%rsp)
movq %rax, %rbx
movq %rdx, %r8
movq 392(%rsp), %rax
shlq $1, %rax
mulq 400(%rsp)
movq %rax, %r12
movq %rdx, %rsi
movq 392(%rsp), %rax
shlq $1, %rax
mulq 408(%rsp)
movq %rax, %rdi
movq %rdx, %rcx
movq 392(%rsp), %rax
shlq $1, %rax
mulq 416(%rsp)
movq %rax, %rbp
movq %rdx, %r11
movq 392(%rsp), %rax
shlq $1, %rax
mulq 424(%rsp)
movq %rax, %r10
movq %rdx, %r9
movq 400(%rsp), %rax
mulq 400(%rsp)
addq %rax, %rdi
adcq %rdx, %rcx
movq 400(%rsp), %rax
shlq $1, %rax
mulq 408(%rsp)
addq %rax, %rbp
adcq %rdx, %r11
movq 400(%rsp), %rax
shlq $1, %rax
mulq 416(%rsp)
addq %rax, %r10
adcq %rdx, %r9
movq 400(%rsp), %rax
imulq $38, %rax, %rax
mulq 424(%rsp)
addq %rax, %rbx
adcq %rdx, %r8
movq 408(%rsp), %rax
mulq 408(%rsp)
addq %rax, %r10
adcq %rdx, %r9
movq 408(%rsp), %rax
imulq $38, %rax, %rax
mulq 416(%rsp)
addq %rax, %rbx
adcq %rdx, %r8
movq 408(%rsp), %rax
imulq $38, %rax, %rax
mulq 424(%rsp)
addq %rax, %r12
adcq %rdx, %rsi
movq 416(%rsp), %rax
imulq $19, %rax, %rax
mulq 416(%rsp)
addq %rax, %r12
adcq %rdx, %rsi
movq 416(%rsp), %rax
imulq $38, %rax, %rax
mulq 424(%rsp)
addq %rax, %rdi
adcq %rdx, %rcx
movq 424(%rsp), %rax
imulq $19, %rax, %rax
mulq 424(%rsp)
addq %rax, %rbp
adcq %rdx, %r11
movq $2251799813685247, %rax
shldq $13, %rbx, %r8
andq %rax, %rbx
shldq $13, %r12, %rsi
andq %rax, %r12
addq %r8, %r12
shldq $13, %rdi, %rcx
andq %rax, %rdi
addq %rsi, %rdi
shldq $13, %rbp, %r11
andq %rax, %rbp
addq %rcx, %rbp
shldq $13, %r10, %r9
andq %rax, %r10
addq %r11, %r10
imulq $19, %r9, %rcx
addq %rcx, %rbx
movq %rbx, %rcx
shrq $51, %rcx
addq %r12, %rcx
andq %rax, %rbx
movq %rcx, %rdx
shrq $51, %rcx
addq %rdi, %rcx
andq %rax, %rdx
movq %rcx, %rsi
shrq $51, %rcx
addq %rbp, %rcx
andq %rax, %rsi
movq %rcx, %rdi
shrq $51, %rcx
addq %r10, %rcx
andq %rax, %rdi
movq %rcx, %r8
shrq $51, %rcx
imulq $19, %rcx, %rcx
addq %rcx, %rbx
andq %rax, %r8
movq %rbx, 112(%rsp)
movq %rdx, 120(%rsp)
movq %rsi, 128(%rsp)
movq %rdi, 136(%rsp)
movq %r8, 144(%rsp)
movq 216(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 32(%rsp)
mulq 368(%rsp)
movq %rax, %rdi
movq %rdx, %rsi
movq 224(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 24(%rsp)
mulq 360(%rsp)
addq %rax, %rdi
adcq %rdx, %rsi
movq 192(%rsp), %rax
mulq 352(%rsp)
addq %rax, %rdi
adcq %rdx, %rsi
movq 192(%rsp), %rax
mulq 360(%rsp)
movq %rax, %r11
movq %rdx, %rbx
movq 192(%rsp), %rax
mulq 368(%rsp)
movq %rax, %r8
movq %rdx, %r9
movq 192(%rsp), %rax
mulq 376(%rsp)
movq %rax, %r12
movq %rdx, %rcx
movq 192(%rsp), %rax
mulq 384(%rsp)
movq %rax, %rbp
movq %rdx, %r10
movq 200(%rsp), %rax
mulq 352(%rsp)
addq %rax, %r11
adcq %rdx, %rbx
movq 200(%rsp), %rax
mulq 360(%rsp)
addq %rax, %r8
adcq %rdx, %r9
movq 200(%rsp), %rax
mulq 368(%rsp)
addq %rax, %r12
adcq %rdx, %rcx
movq 200(%rsp), %rax
mulq 376(%rsp)
addq %rax, %rbp
adcq %rdx, %r10
movq 200(%rsp), %rax
imulq $19, %rax, %rax
mulq 384(%rsp)
addq %rax, %rdi
adcq %rdx, %rsi
movq 208(%rsp), %rax
mulq 352(%rsp)
addq %rax, %r8
adcq %rdx, %r9
movq 208(%rsp), %rax
mulq 360(%rsp)
addq %rax, %r12
adcq %rdx, %rcx
movq 208(%rsp), %rax
mulq 368(%rsp)
addq %rax, %rbp
adcq %rdx, %r10
movq 208(%rsp), %rax
imulq $19, %rax, %rax
mulq 376(%rsp)
addq %rax, %rdi
adcq %rdx, %rsi
movq 208(%rsp), %rax
imulq $19, %rax, %rax
mulq 384(%rsp)
addq %rax, %r11
adcq %rdx, %rbx
movq 216(%rsp), %rax
mulq 352(%rsp)
addq %rax, %r12
adcq %rdx, %rcx
movq 216(%rsp), %rax
mulq 360(%rsp)
addq %rax, %rbp
adcq %rdx, %r10
movq 32(%rsp), %rax
mulq 376(%rsp)
addq %rax, %r11
adcq %rdx, %rbx
movq 32(%rsp), %rax
mulq 384(%rsp)
addq %rax, %r8
adcq %rdx, %r9
movq 224(%rsp), %rax
mulq 352(%rsp)
addq %rax, %rbp
adcq %rdx, %r10
movq 24(%rsp), %rax
mulq 368(%rsp)
addq %rax, %r11
adcq %rdx, %rbx
movq 24(%rsp), %rax
mulq 376(%rsp)
addq %rax, %r8
adcq %rdx, %r9
movq 24(%rsp), %rax
mulq 384(%rsp)
addq %rax, %r12
adcq %rdx, %rcx
movq $2251799813685247, %rax
shldq $13, %rdi, %rsi
andq %rax, %rdi
shldq $13, %r11, %rbx
andq %rax, %r11
addq %rsi, %r11
shldq $13, %r8, %r9
andq %rax, %r8
addq %rbx, %r8
shldq $13, %r12, %rcx
andq %rax, %r12
addq %r9, %r12
shldq $13, %rbp, %r10
andq %rax, %rbp
addq %rcx, %rbp
imulq $19, %r10, %rcx
addq %rcx, %rdi
movq %rdi, %rcx
shrq $51, %rcx
addq %r11, %rcx
movq %rcx, %rdx
shrq $51, %rcx
andq %rax, %rdi
addq %r8, %rcx
movq %rcx, %rsi
shrq $51, %rcx
andq %rax, %rdx
addq %r12, %rcx
movq %rcx, %r8
shrq $51, %rcx
andq %rax, %rsi
addq %rbp, %rcx
movq %rcx, %r9
shrq $51, %rcx
andq %rax, %r8
imulq $19, %rcx, %rcx
addq %rcx, %rdi
andq %rax, %r9
movq %rdi, 152(%rsp)
movq %rdx, 160(%rsp)
movq %rsi, 168(%rsp)
movq %r8, 176(%rsp)
movq %r9, 184(%rsp)
movq 256(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 24(%rsp)
mulq 288(%rsp)
movq %rax, %rbp
movq %rdx, %rdi
movq 264(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 32(%rsp)
mulq 280(%rsp)
addq %rax, %rbp
adcq %rdx, %rdi
movq 232(%rsp), %rax
mulq 272(%rsp)
addq %rax, %rbp
adcq %rdx, %rdi
movq 232(%rsp), %rax
mulq 280(%rsp)
movq %rax, %rbx
movq %rdx, %r12
movq 232(%rsp), %rax
mulq 288(%rsp)
movq %rax, %rsi
movq %rdx, %r10
movq 232(%rsp), %rax
mulq 296(%rsp)
movq %rax, %r11
movq %rdx, %r8
movq 232(%rsp), %rax
mulq 304(%rsp)
movq %rax, %rcx
movq %rdx, %r9
movq 240(%rsp), %rax
mulq 272(%rsp)
addq %rax, %rbx
adcq %rdx, %r12
movq 240(%rsp), %rax
mulq 280(%rsp)
addq %rax, %rsi
adcq %rdx, %r10
movq 240(%rsp), %rax
mulq 288(%rsp)
addq %rax, %r11
adcq %rdx, %r8
movq 240(%rsp), %rax
mulq 296(%rsp)
addq %rax, %rcx
adcq %rdx, %r9
movq 240(%rsp), %rax
imulq $19, %rax, %rax
mulq 304(%rsp)
addq %rax, %rbp
adcq %rdx, %rdi
movq 248(%rsp), %rax
mulq 272(%rsp)
addq %rax, %rsi
adcq %rdx, %r10
movq 248(%rsp), %rax
mulq 280(%rsp)
addq %rax, %r11
adcq %rdx, %r8
movq 248(%rsp), %rax
mulq 288(%rsp)
addq %rax, %rcx
adcq %rdx, %r9
movq 248(%rsp), %rax
imulq $19, %rax, %rax
mulq 296(%rsp)
addq %rax, %rbp
adcq %rdx, %rdi
movq 248(%rsp), %rax
imulq $19, %rax, %rax
mulq 304(%rsp)
addq %rax, %rbx
adcq %rdx, %r12
movq 256(%rsp), %rax
mulq 272(%rsp)
addq %rax, %r11
adcq %rdx, %r8
movq 256(%rsp), %rax
mulq 280(%rsp)
addq %rax, %rcx
adcq %rdx, %r9
movq 24(%rsp), %rax
mulq 296(%rsp)
addq %rax, %rbx
adcq %rdx, %r12
movq 24(%rsp), %rax
mulq 304(%rsp)
addq %rax, %rsi
adcq %rdx, %r10
movq 264(%rsp), %rax
mulq 272(%rsp)
addq %rax, %rcx
adcq %rdx, %r9
movq 32(%rsp), %rax
mulq 288(%rsp)
addq %rax, %rbx
adcq %rdx, %r12
movq 32(%rsp), %rax
mulq 296(%rsp)
addq %rax, %rsi
adcq %rdx, %r10
movq 32(%rsp), %rax
mulq 304(%rsp)
addq %rax, %r11
adcq %rdx, %r8
movq $2251799813685247, %r13
shldq $13, %rbp, %rdi
andq %r13, %rbp
shldq $13, %rbx, %r12
andq %r13, %rbx
addq %rdi, %rbx
shldq $13, %rsi, %r10
andq %r13, %rsi
addq %r12, %rsi
shldq $13, %r11, %r8
andq %r13, %r11
addq %r10, %r11
shldq $13, %rcx, %r9
andq %r13, %rcx
addq %r8, %rcx
imulq $19, %r9, %rax
addq %rax, %rbp
movq %rbp, %r8
shrq $51, %r8
addq %rbx, %r8
movq %r8, %rax
shrq $51, %r8
andq %r13, %rbp
addq %rsi, %r8
movq %r8, %rdx
shrq $51, %r8
andq %r13, %rax
addq %r11, %r8
movq %r8, %rsi
shrq $51, %r8
andq %r13, %rdx
addq %rcx, %r8
movq %r8, %rdi
shrq $51, %r8
andq %r13, %rsi
imulq $19, %r8, %rcx
addq %rcx, %rbp
andq %r13, %rdi
movq 16(%rsp), %rcx
cmpq $0, %rcx
jnbe Ljade_scalarmult_curve25519_amd64_ref5_base$28
movq %rbp, 152(%rsp)
movq %rax, 160(%rsp)
movq %rdx, 168(%rsp)
movq %rsi, 176(%rsp)
movq %rdi, 184(%rsp)
movq 152(%rsp), %rax
movq %rax, 112(%rsp)
movq 160(%rsp), %rax
movq %rax, 120(%rsp)
movq 168(%rsp), %rax
movq %rax, 128(%rsp)
movq 176(%rsp), %rax
movq %rax, 136(%rsp)
movq 184(%rsp), %rax
movq %rax, 144(%rsp)
leaq 112(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$27(%rip), %rax
movq %rax, (%rsp)
jmp L_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5_base$27:
leaq 8(%rsp), %rsp
movq 112(%rsp), %rax
movq %rax, 192(%rsp)
movq 120(%rsp), %rax
movq %rax, 200(%rsp)
movq 128(%rsp), %rax
movq %rax, 208(%rsp)
movq 136(%rsp), %rax
movq %rax, 216(%rsp)
movq 144(%rsp), %rax
movq %rax, 224(%rsp)
leaq 192(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$26(%rip), %rax
movq %rax, (%rsp)
jmp L_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5_base$26:
leaq 8(%rsp), %rsp
leaq 192(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$25(%rip), %rax
movq %rax, (%rsp)
jmp L_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5_base$25:
leaq 8(%rsp), %rsp
leaq 192(%rsp), %r9
leaq 152(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$24(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5_base$24:
leaq 24(%rsp), %rsp
leaq 112(%rsp), %r9
leaq 192(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$23(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5_base$23:
leaq 24(%rsp), %rsp
movq 112(%rsp), %rax
movq %rax, 152(%rsp)
movq 120(%rsp), %rax
movq %rax, 160(%rsp)
movq 128(%rsp), %rax
movq %rax, 168(%rsp)
movq 136(%rsp), %rax
movq %rax, 176(%rsp)
movq 144(%rsp), %rax
movq %rax, 184(%rsp)
leaq 152(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$22(%rip), %rax
movq %rax, (%rsp)
jmp L_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5_base$22:
leaq 8(%rsp), %rsp
leaq 192(%rsp), %r9
leaq 152(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$21(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5_base$21:
leaq 24(%rsp), %rsp
movq 192(%rsp), %rax
movq %rax, 152(%rsp)
movq 200(%rsp), %rax
movq %rax, 160(%rsp)
movq 208(%rsp), %rax
movq %rax, 168(%rsp)
movq 216(%rsp), %rax
movq %rax, 176(%rsp)
movq 224(%rsp), %rax
movq %rax, 184(%rsp)
leaq 152(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$20(%rip), %rax
movq %rax, (%rsp)
jmp L_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5_base$20:
leaq 8(%rsp), %rsp
movl $4, %r13d
leaq 152(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$19(%rip), %rax
movq %rax, (%rsp)
jmp L_it_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5_base$19:
leaq 8(%rsp), %rsp
leaq 192(%rsp), %r9
leaq 152(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$18(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5_base$18:
leaq 24(%rsp), %rsp
movl $10, %r13d
movq 192(%rsp), %rax
movq %rax, 152(%rsp)
movq 200(%rsp), %rax
movq %rax, 160(%rsp)
movq 208(%rsp), %rax
movq %rax, 168(%rsp)
movq 216(%rsp), %rax
movq %rax, 176(%rsp)
movq 224(%rsp), %rax
movq %rax, 184(%rsp)
leaq 152(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$17(%rip), %rax
movq %rax, (%rsp)
jmp L_it_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5_base$17:
leaq 8(%rsp), %rsp
leaq 152(%rsp), %r9
leaq 192(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$16(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5_base$16:
leaq 24(%rsp), %rsp
movl $20, %r13d
movq 152(%rsp), %rax
movq %rax, 272(%rsp)
movq 160(%rsp), %rax
movq %rax, 280(%rsp)
movq 168(%rsp), %rax
movq %rax, 288(%rsp)
movq 176(%rsp), %rax
movq %rax, 296(%rsp)
movq 184(%rsp), %rax
movq %rax, 304(%rsp)
leaq 272(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$15(%rip), %rax
movq %rax, (%rsp)
jmp L_it_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5_base$15:
leaq 8(%rsp), %rsp
leaq 152(%rsp), %r9
leaq 272(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$14(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5_base$14:
leaq 24(%rsp), %rsp
movl $10, %r13d
leaq 152(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$13(%rip), %rax
movq %rax, (%rsp)
jmp L_it_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5_base$13:
leaq 8(%rsp), %rsp
leaq 192(%rsp), %r9
leaq 152(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$12(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5_base$12:
leaq 24(%rsp), %rsp
movl $50, %r13d
movq 192(%rsp), %rax
movq %rax, 152(%rsp)
movq 200(%rsp), %rax
movq %rax, 160(%rsp)
movq 208(%rsp), %rax
movq %rax, 168(%rsp)
movq 216(%rsp), %rax
movq %rax, 176(%rsp)
movq 224(%rsp), %rax
movq %rax, 184(%rsp)
leaq 152(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$11(%rip), %rax
movq %rax, (%rsp)
jmp L_it_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5_base$11:
leaq 8(%rsp), %rsp
leaq 152(%rsp), %r9
leaq 192(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$10(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5_base$10:
leaq 24(%rsp), %rsp
movl $100, %r13d
movq 152(%rsp), %rax
movq %rax, 272(%rsp)
movq 160(%rsp), %rax
movq %rax, 280(%rsp)
movq 168(%rsp), %rax
movq %rax, 288(%rsp)
movq 176(%rsp), %rax
movq %rax, 296(%rsp)
movq 184(%rsp), %rax
movq %rax, 304(%rsp)
leaq 272(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$9(%rip), %rax
movq %rax, (%rsp)
jmp L_it_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5_base$9:
leaq 8(%rsp), %rsp
leaq 152(%rsp), %r9
leaq 272(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$8(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5_base$8:
leaq 24(%rsp), %rsp
movl $50, %r13d
leaq 152(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$7(%rip), %rax
movq %rax, (%rsp)
jmp L_it_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5_base$7:
leaq 8(%rsp), %rsp
leaq 192(%rsp), %r9
leaq 152(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$6(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5_base$6:
leaq 24(%rsp), %rsp
movl $4, %r13d
leaq 192(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$5(%rip), %rax
movq %rax, (%rsp)
jmp L_it_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5_base$5:
leaq 8(%rsp), %rsp
leaq 192(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$4(%rip), %rax
movq %rax, (%rsp)
jmp L_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5_base$4:
leaq 8(%rsp), %rsp
leaq 192(%rsp), %r9
leaq 112(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$3(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5_base$3:
leaq 24(%rsp), %rsp
movq 96(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 8(%rsp)
mulq 208(%rsp)
movq %rax, %r9
movq %rdx, %r12
movq 104(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 16(%rsp)
mulq 200(%rsp)
addq %rax, %r9
adcq %rdx, %r12
movq 72(%rsp), %rax
mulq 192(%rsp)
addq %rax, %r9
adcq %rdx, %r12
movq 72(%rsp), %rax
mulq 200(%rsp)
movq %rax, %r11
movq %rdx, %rdi
movq 72(%rsp), %rax
mulq 208(%rsp)
movq %rax, %rsi
movq %rdx, %r10
movq 72(%rsp), %rax
mulq 216(%rsp)
movq %rax, %rcx
movq %rdx, %r8
movq 72(%rsp), %rax
mulq 224(%rsp)
movq %rax, %rbx
movq %rdx, %rbp
movq 80(%rsp), %rax
mulq 192(%rsp)
addq %rax, %r11
adcq %rdx, %rdi
movq 80(%rsp), %rax
mulq 200(%rsp)
addq %rax, %rsi
adcq %rdx, %r10
movq 80(%rsp), %rax
mulq 208(%rsp)
addq %rax, %rcx
adcq %rdx, %r8
movq 80(%rsp), %rax
mulq 216(%rsp)
addq %rax, %rbx
adcq %rdx, %rbp
movq 80(%rsp), %rax
imulq $19, %rax, %rax
mulq 224(%rsp)
addq %rax, %r9
adcq %rdx, %r12
movq 88(%rsp), %rax
mulq 192(%rsp)
addq %rax, %rsi
adcq %rdx, %r10
movq 88(%rsp), %rax
mulq 200(%rsp)
addq %rax, %rcx
adcq %rdx, %r8
movq 88(%rsp), %rax
mulq 208(%rsp)
addq %rax, %rbx
adcq %rdx, %rbp
movq 88(%rsp), %rax
imulq $19, %rax, %rax
mulq 216(%rsp)
addq %rax, %r9
adcq %rdx, %r12
movq 88(%rsp), %rax
imulq $19, %rax, %rax
mulq 224(%rsp)
addq %rax, %r11
adcq %rdx, %rdi
movq 96(%rsp), %rax
mulq 192(%rsp)
addq %rax, %rcx
adcq %rdx, %r8
movq 96(%rsp), %rax
mulq 200(%rsp)
addq %rax, %rbx
adcq %rdx, %rbp
movq 8(%rsp), %rax
mulq 216(%rsp)
addq %rax, %r11
adcq %rdx, %rdi
movq 8(%rsp), %rax
mulq 224(%rsp)
addq %rax, %rsi
adcq %rdx, %r10
movq 104(%rsp), %rax
mulq 192(%rsp)
addq %rax, %rbx
adcq %rdx, %rbp
movq 16(%rsp), %rax
mulq 208(%rsp)
addq %rax, %r11
adcq %rdx, %rdi
movq 16(%rsp), %rax
mulq 216(%rsp)
addq %rax, %rsi
adcq %rdx, %r10
movq 16(%rsp), %rax
mulq 224(%rsp)
addq %rax, %rcx
adcq %rdx, %r8
movq $2251799813685247, %rax
shldq $13, %r9, %r12
andq %rax, %r9
shldq $13, %r11, %rdi
andq %rax, %r11
addq %r12, %r11
shldq $13, %rsi, %r10
andq %rax, %rsi
addq %rdi, %rsi
shldq $13, %rcx, %r8
andq %rax, %rcx
addq %r10, %rcx
shldq $13, %rbx, %rbp
andq %rax, %rbx
addq %r8, %rbx
imulq $19, %rbp, %rdx
addq %rdx, %r9
movq %r9, %r8
shrq $51, %r8
addq %r11, %r8
movq %r8, %rdx
shrq $51, %r8
andq %rax, %r9
addq %rsi, %r8
movq %r8, %rsi
shrq $51, %r8
andq %rax, %rdx
addq %rcx, %r8
movq %r8, %rcx
shrq $51, %r8
andq %rax, %rsi
addq %rbx, %r8
movq %r8, %rdi
shrq $51, %r8
andq %rax, %rcx
imulq $19, %r8, %r8
addq %r8, %r9
andq %rax, %rdi
movq $2251799813685247, %rax
movq %rax, %r8
addq $-18, %r8
movq $3, %r10
jmp Ljade_scalarmult_curve25519_amd64_ref5_base$1
Ljade_scalarmult_curve25519_amd64_ref5_base$2:
movq %r9, %r11
shrq $51, %r11
andq %rax, %r9
addq %r11, %rdx
movq %rdx, %r11
shrq $51, %r11
andq %rax, %rdx
addq %r11, %rsi
movq %rsi, %r11
shrq $51, %r11
andq %rax, %rsi
addq %r11, %rcx
movq %rcx, %r11
shrq $51, %r11
andq %rax, %rcx
addq %r11, %rdi
movq %rdi, %r11
shrq $51, %r11
andq %rax, %rdi
imulq $19, %r11, %r11
addq %r11, %r9
addq $-1, %r10
Ljade_scalarmult_curve25519_amd64_ref5_base$1:
cmpq $0, %r10
jnbe Ljade_scalarmult_curve25519_amd64_ref5_base$2
movq $1, %r11
cmpq %r8, %r9
cmovl %r10, %r11
cmpq %rax, %rdx
cmovne %r10, %r11
cmpq %rax, %rsi
cmovne %r10, %r11
cmpq %rax, %rcx
cmovne %r10, %r11
cmpq %rax, %rdi
cmovne %r10, %r11
negq %r11
andq %r11, %rax
andq %r11, %r8
subq %r8, %r9
subq %rax, %rdx
subq %rax, %rsi
subq %rax, %rcx
subq %rax, %rdi
movq %rdx, %rax
shlq $51, %rax
orq %r9, %rax
movq %rsi, %r8
shlq $38, %r8
shrq $13, %rdx
orq %rdx, %r8
movq %rcx, %rdx
shlq $25, %rdx
shrq $26, %rsi
orq %rsi, %rdx
shlq $12, %rdi
shrq $39, %rcx
orq %rcx, %rdi
movq (%rsp), %rcx
movq %rax, (%rcx)
movq %r8, 8(%rcx)
movq %rdx, 16(%rcx)
movq %rdi, 24(%rcx)
xorq %rax, %rax
movq 432(%rsp), %rbx
movq 440(%rsp), %rbp
movq 448(%rsp), %r12
movq 456(%rsp), %r13
movq 464(%rsp), %r14
movq 472(%rsp), %rsp
ret
_jade_scalarmult_curve25519_amd64_ref5:
jade_scalarmult_curve25519_amd64_ref5:
movq %rsp, %rax
leaq -480(%rsp), %rsp
andq $-8, %rsp
movq %rax, 472(%rsp)
movq %rbx, 432(%rsp)
movq %rbp, 440(%rsp)
movq %r12, 448(%rsp)
movq %r13, 456(%rsp)
movq %r14, 464(%rsp)
movq %rdi, (%rsp)
movq (%rsi), %rax
movq %rax, 40(%rsp)
movq 8(%rsi), %rax
movq %rax, 48(%rsp)
movq 16(%rsi), %rax
movq %rax, 56(%rsp)
movq 24(%rsi), %rax
movq %rax, 64(%rsp)
andb $-8, 40(%rsp)
andb $127, 71(%rsp)
orb $64, 71(%rsp)
movq (%rdx), %rax
movq 8(%rdx), %rsi
movq 16(%rdx), %rdi
movq 24(%rdx), %rdx
movq $2251799813685247, %r9
movq %rax, %rcx
andq %r9, %rcx
movq %rsi, %r8
shlq $13, %r8
shrq $51, %rax
orq %rax, %r8
andq %r9, %r8
movq %rdi, %r10
shlq $26, %r10
shrq $38, %rsi
orq %rsi, %r10
andq %r9, %r10
movq %rdx, %r11
shlq $39, %r11
shrq $25, %rdi
orq %rdi, %r11
andq %r9, %r11
movq %rdx, %rbp
shrq $12, %rbp
andq %r9, %rbp
xorq %r9, %r9
movq $1, 72(%rsp)
movq $0, %rbx
movq %rcx, 112(%rsp)
movq %r8, 120(%rsp)
movq %r10, 128(%rsp)
movq %r11, 136(%rsp)
movq %rbp, 144(%rsp)
movq $1, 152(%rsp)
movq %r9, 80(%rsp)
movq %r9, %rax
movq %r9, 160(%rsp)
movq %r9, 88(%rsp)
movq %r9, %rdx
movq %r9, 168(%rsp)
movq %r9, 96(%rsp)
movq %r9, %rsi
movq %r9, 176(%rsp)
movq %r9, 104(%rsp)
movq %r9, %rdi
movq %r9, 184(%rsp)
movq %rcx, 192(%rsp)
movq %r8, 200(%rsp)
movq %r10, 208(%rsp)
movq %r11, 216(%rsp)
movq %rbp, 224(%rsp)
movq $255, %rcx
movq $0, 8(%rsp)
Ljade_scalarmult_curve25519_amd64_ref5$28:
addq $-1, %rcx
movq %rcx, 16(%rsp)
movq %rcx, %r8
shrq $3, %r8
movzbq 40(%rsp,%r8), %r8
andq $7, %rcx
shrq %cl, %r8
andq $1, %r8
movq 8(%rsp), %r9
xorq %r8, %r9
xorq %rcx, %rcx
subq %r9, %rcx
movq %rbx, %r11
movq %rax, %rbp
movq %rdx, %r12
movq %rsi, %r9
movq %rdi, %r10
xorq 152(%rsp), %r11
andq %rcx, %r11
xorq 160(%rsp), %rbp
andq %rcx, %rbp
xorq 168(%rsp), %r12
andq %rcx, %r12
xorq 176(%rsp), %r9
andq %rcx, %r9
xorq 184(%rsp), %r10
andq %rcx, %r10
xorq %r11, %rbx
movq 152(%rsp), %r13
xorq %r11, %r13
movq %r13, 152(%rsp)
xorq %rbp, %rax
movq 160(%rsp), %r11
xorq %rbp, %r11
movq %r11, 160(%rsp)
xorq %r12, %rdx
movq 168(%rsp), %r11
xorq %r12, %r11
movq %r11, 168(%rsp)
xorq %r9, %rsi
movq 176(%rsp), %r11
xorq %r9, %r11
movq %r11, 176(%rsp)
xorq %r10, %rdi
movq 184(%rsp), %r9
xorq %r10, %r9
movq %r9, 184(%rsp)
movq 112(%rsp), %r12
movq 120(%rsp), %r9
movq 128(%rsp), %r10
movq 136(%rsp), %r11
movq 144(%rsp), %rbp
movq 72(%rsp), %r13
movq %r12, %r14
xorq %r13, %r14
andq %rcx, %r14
xorq %r14, %r13
xorq %r14, %r12
movq %r13, 72(%rsp)
movq %r12, 112(%rsp)
movq 80(%rsp), %r12
movq %r9, %r13
xorq %r12, %r13
andq %rcx, %r13
xorq %r13, %r12
xorq %r13, %r9
movq %r12, 80(%rsp)
movq %r9, 120(%rsp)
movq 88(%rsp), %r9
movq %r10, %r12
xorq %r9, %r12
andq %rcx, %r12
xorq %r12, %r9
xorq %r12, %r10
movq %r9, 88(%rsp)
movq %r10, 128(%rsp)
movq 96(%rsp), %r9
movq %r11, %r10
xorq %r9, %r10
andq %rcx, %r10
xorq %r10, %r9
xorq %r10, %r11
movq %r9, 96(%rsp)
movq %r11, 136(%rsp)
movq 104(%rsp), %r9
movq %rbp, %r10
xorq %r9, %r10
andq %rcx, %r10
xorq %r10, %r9
xorq %r10, %rbp
movq %r9, 104(%rsp)
movq %rbp, 144(%rsp)
movq %r8, 8(%rsp)
movq $4503599627370458, %rcx
movq $4503599627370494, %r8
movq 72(%rsp), %r9
movq 80(%rsp), %r10
movq 88(%rsp), %r11
movq 96(%rsp), %rbp
movq 104(%rsp), %r12
addq %rcx, %r9
addq %r8, %r10
addq %r8, %r11
addq %r8, %rbp
addq %r8, %r12
subq %rbx, %r9
subq %rax, %r10
subq %rdx, %r11
subq %rsi, %rbp
subq %rdi, %r12
movq %r9, 232(%rsp)
movq %r10, 240(%rsp)
movq %r11, 248(%rsp)
movq %rbp, 256(%rsp)
movq %r12, 264(%rsp)
addq 72(%rsp), %rbx
addq 80(%rsp), %rax
addq 88(%rsp), %rdx
addq 96(%rsp), %rsi
addq 104(%rsp), %rdi
movq %rbx, 272(%rsp)
movq %rax, 280(%rsp)
movq %rdx, 288(%rsp)
movq %rsi, 296(%rsp)
movq %rdi, 304(%rsp)
movq 112(%rsp), %rax
movq 120(%rsp), %rcx
movq 128(%rsp), %rdx
movq 136(%rsp), %rsi
movq 144(%rsp), %rdi
movq $4503599627370458, %r8
movq $4503599627370494, %r9
addq %r8, %rax
addq %r9, %rcx
addq %r9, %rdx
addq %r9, %rsi
addq %r9, %rdi
subq 152(%rsp), %rax
subq 160(%rsp), %rcx
subq 168(%rsp), %rdx
subq 176(%rsp), %rsi
subq 184(%rsp), %rdi
movq %rax, 312(%rsp)
movq %rcx, 320(%rsp)
movq %rdx, 328(%rsp)
movq %rsi, 336(%rsp)
movq %rdi, 344(%rsp)
movq 112(%rsp), %rax
movq 120(%rsp), %rcx
movq 128(%rsp), %rdx
movq 136(%rsp), %rsi
movq 144(%rsp), %rdi
addq 152(%rsp), %rax
addq 160(%rsp), %rcx
addq 168(%rsp), %rdx
addq 176(%rsp), %rsi
addq 184(%rsp), %rdi
movq %rax, 352(%rsp)
movq %rcx, 360(%rsp)
movq %rdx, 368(%rsp)
movq %rsi, 376(%rsp)
movq %rdi, 384(%rsp)
movq 296(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 24(%rsp)
mulq 328(%rsp)
movq %rax, %r12
movq %rdx, %r9
movq 304(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 32(%rsp)
mulq 320(%rsp)
addq %rax, %r12
adcq %rdx, %r9
movq 272(%rsp), %rax
mulq 312(%rsp)
addq %rax, %r12
adcq %rdx, %r9
movq 272(%rsp), %rax
mulq 320(%rsp)
movq %rax, %rsi
movq %rdx, %rbx
movq 272(%rsp), %rax
mulq 328(%rsp)
movq %rax, %r10
movq %rdx, %r8
movq 272(%rsp), %rax
mulq 336(%rsp)
movq %rax, %rdi
movq %rdx, %rbp
movq 272(%rsp), %rax
mulq 344(%rsp)
movq %rax, %r11
movq %rdx, %rcx
movq 280(%rsp), %rax
mulq 312(%rsp)
addq %rax, %rsi
adcq %rdx, %rbx
movq 280(%rsp), %rax
mulq 320(%rsp)
addq %rax, %r10
adcq %rdx, %r8
movq 280(%rsp), %rax
mulq 328(%rsp)
addq %rax, %rdi
adcq %rdx, %rbp
movq 280(%rsp), %rax
mulq 336(%rsp)
addq %rax, %r11
adcq %rdx, %rcx
movq 280(%rsp), %rax
imulq $19, %rax, %rax
mulq 344(%rsp)
addq %rax, %r12
adcq %rdx, %r9
movq 288(%rsp), %rax
mulq 312(%rsp)
addq %rax, %r10
adcq %rdx, %r8
movq 288(%rsp), %rax
mulq 320(%rsp)
addq %rax, %rdi
adcq %rdx, %rbp
movq 288(%rsp), %rax
mulq 328(%rsp)
addq %rax, %r11
adcq %rdx, %rcx
movq 288(%rsp), %rax
imulq $19, %rax, %rax
mulq 336(%rsp)
addq %rax, %r12
adcq %rdx, %r9
movq 288(%rsp), %rax
imulq $19, %rax, %rax
mulq 344(%rsp)
addq %rax, %rsi
adcq %rdx, %rbx
movq 296(%rsp), %rax
mulq 312(%rsp)
addq %rax, %rdi
adcq %rdx, %rbp
movq 296(%rsp), %rax
mulq 320(%rsp)
addq %rax, %r11
adcq %rdx, %rcx
movq 24(%rsp), %rax
mulq 336(%rsp)
addq %rax, %rsi
adcq %rdx, %rbx
movq 24(%rsp), %rax
mulq 344(%rsp)
addq %rax, %r10
adcq %rdx, %r8
movq 304(%rsp), %rax
mulq 312(%rsp)
addq %rax, %r11
adcq %rdx, %rcx
movq 32(%rsp), %rax
mulq 328(%rsp)
addq %rax, %rsi
adcq %rdx, %rbx
movq 32(%rsp), %rax
mulq 336(%rsp)
addq %rax, %r10
adcq %rdx, %r8
movq 32(%rsp), %rax
mulq 344(%rsp)
addq %rax, %rdi
adcq %rdx, %rbp
movq $2251799813685247, %rax
shldq $13, %r12, %r9
andq %rax, %r12
shldq $13, %rsi, %rbx
andq %rax, %rsi
addq %r9, %rsi
shldq $13, %r10, %r8
andq %rax, %r10
addq %rbx, %r10
shldq $13, %rdi, %rbp
andq %rax, %rdi
addq %r8, %rdi
shldq $13, %r11, %rcx
andq %rax, %r11
addq %rbp, %r11
imulq $19, %rcx, %rcx
addq %rcx, %r12
movq %r12, %rcx
shrq $51, %rcx
addq %rsi, %rcx
movq %rcx, %rdx
shrq $51, %rcx
andq %rax, %r12
addq %r10, %rcx
movq %rcx, %rsi
shrq $51, %rcx
andq %rax, %rdx
addq %rdi, %rcx
movq %rcx, %rdi
shrq $51, %rcx
andq %rax, %rsi
addq %r11, %rcx
movq %rcx, %r8
shrq $51, %rcx
andq %rax, %rdi
imulq $19, %rcx, %rcx
addq %rcx, %r12
andq %rax, %r8
movq %r12, 312(%rsp)
movq %rdx, 320(%rsp)
movq %rsi, 328(%rsp)
movq %rdi, 336(%rsp)
movq %r8, 344(%rsp)
movq 376(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 32(%rsp)
mulq 248(%rsp)
movq %rax, %r10
movq %rdx, %r9
movq 384(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 24(%rsp)
mulq 240(%rsp)
addq %rax, %r10
adcq %rdx, %r9
movq 352(%rsp), %rax
mulq 232(%rsp)
addq %rax, %r10
adcq %rdx, %r9
movq 352(%rsp), %rax
mulq 240(%rsp)
movq %rax, %rdi
movq %rdx, %rbx
movq 352(%rsp), %rax
mulq 248(%rsp)
movq %rax, %rsi
movq %rdx, %rcx
movq 352(%rsp), %rax
mulq 256(%rsp)
movq %rax, %r12
movq %rdx, %r8
movq 352(%rsp), %rax
mulq 264(%rsp)
movq %rax, %r11
movq %rdx, %rbp
movq 360(%rsp), %rax
mulq 232(%rsp)
addq %rax, %rdi
adcq %rdx, %rbx
movq 360(%rsp), %rax
mulq 240(%rsp)
addq %rax, %rsi
adcq %rdx, %rcx
movq 360(%rsp), %rax
mulq 248(%rsp)
addq %rax, %r12
adcq %rdx, %r8
movq 360(%rsp), %rax
mulq 256(%rsp)
addq %rax, %r11
adcq %rdx, %rbp
movq 360(%rsp), %rax
imulq $19, %rax, %rax
mulq 264(%rsp)
addq %rax, %r10
adcq %rdx, %r9
movq 368(%rsp), %rax
mulq 232(%rsp)
addq %rax, %rsi
adcq %rdx, %rcx
movq 368(%rsp), %rax
mulq 240(%rsp)
addq %rax, %r12
adcq %rdx, %r8
movq 368(%rsp), %rax
mulq 248(%rsp)
addq %rax, %r11
adcq %rdx, %rbp
movq 368(%rsp), %rax
imulq $19, %rax, %rax
mulq 256(%rsp)
addq %rax, %r10
adcq %rdx, %r9
movq 368(%rsp), %rax
imulq $19, %rax, %rax
mulq 264(%rsp)
addq %rax, %rdi
adcq %rdx, %rbx
movq 376(%rsp), %rax
mulq 232(%rsp)
addq %rax, %r12
adcq %rdx, %r8
movq 376(%rsp), %rax
mulq 240(%rsp)
addq %rax, %r11
adcq %rdx, %rbp
movq 32(%rsp), %rax
mulq 256(%rsp)
addq %rax, %rdi
adcq %rdx, %rbx
movq 32(%rsp), %rax
mulq 264(%rsp)
addq %rax, %rsi
adcq %rdx, %rcx
movq 384(%rsp), %rax
mulq 232(%rsp)
addq %rax, %r11
adcq %rdx, %rbp
movq 24(%rsp), %rax
mulq 248(%rsp)
addq %rax, %rdi
adcq %rdx, %rbx
movq 24(%rsp), %rax
mulq 256(%rsp)
addq %rax, %rsi
adcq %rdx, %rcx
movq 24(%rsp), %rax
mulq 264(%rsp)
addq %rax, %r12
adcq %rdx, %r8
movq $2251799813685247, %rax
shldq $13, %r10, %r9
andq %rax, %r10
shldq $13, %rdi, %rbx
andq %rax, %rdi
addq %r9, %rdi
shldq $13, %rsi, %rcx
andq %rax, %rsi
addq %rbx, %rsi
shldq $13, %r12, %r8
andq %rax, %r12
addq %rcx, %r12
shldq $13, %r11, %rbp
andq %rax, %r11
addq %r8, %r11
imulq $19, %rbp, %rcx
addq %rcx, %r10
movq %r10, %rcx
shrq $51, %rcx
addq %rdi, %rcx
movq %rcx, %rdx
shrq $51, %rcx
andq %rax, %r10
addq %rsi, %rcx
movq %rcx, %rsi
shrq $51, %rcx
andq %rax, %rdx
addq %r12, %rcx
movq %rcx, %rdi
shrq $51, %rcx
andq %rax, %rsi
addq %r11, %rcx
movq %rcx, %r8
shrq $51, %rcx
andq %rax, %rdi
imulq $19, %rcx, %rcx
addq %rcx, %r10
andq %rax, %r8
movq %r10, 352(%rsp)
movq %rdx, 360(%rsp)
movq %rsi, 368(%rsp)
movq %rdi, 376(%rsp)
movq %r8, 384(%rsp)
movq 272(%rsp), %rax
mulq 272(%rsp)
movq %rax, %r11
movq %rdx, %rbx
movq 272(%rsp), %rax
shlq $1, %rax
mulq 280(%rsp)
movq %rax, %r12
movq %rdx, %r9
movq 272(%rsp), %rax
shlq $1, %rax
mulq 288(%rsp)
movq %rax, %rdi
movq %rdx, %rcx
movq 272(%rsp), %rax
shlq $1, %rax
mulq 296(%rsp)
movq %rax, %rsi
movq %rdx, %r10
movq 272(%rsp), %rax
shlq $1, %rax
mulq 304(%rsp)
movq %rax, %rbp
movq %rdx, %r8
movq 280(%rsp), %rax
mulq 280(%rsp)
addq %rax, %rdi
adcq %rdx, %rcx
movq 280(%rsp), %rax
shlq $1, %rax
mulq 288(%rsp)
addq %rax, %rsi
adcq %rdx, %r10
movq 280(%rsp), %rax
shlq $1, %rax
mulq 296(%rsp)
addq %rax, %rbp
adcq %rdx, %r8
movq 280(%rsp), %rax
imulq $38, %rax, %rax
mulq 304(%rsp)
addq %rax, %r11
adcq %rdx, %rbx
movq 288(%rsp), %rax
mulq 288(%rsp)
addq %rax, %rbp
adcq %rdx, %r8
movq 288(%rsp), %rax
imulq $38, %rax, %rax
mulq 296(%rsp)
addq %rax, %r11
adcq %rdx, %rbx
movq 288(%rsp), %rax
imulq $38, %rax, %rax
mulq 304(%rsp)
addq %rax, %r12
adcq %rdx, %r9
movq 296(%rsp), %rax
imulq $19, %rax, %rax
mulq 296(%rsp)
addq %rax, %r12
adcq %rdx, %r9
movq 296(%rsp), %rax
imulq $38, %rax, %rax
mulq 304(%rsp)
addq %rax, %rdi
adcq %rdx, %rcx
movq 304(%rsp), %rax
imulq $19, %rax, %rax
mulq 304(%rsp)
addq %rax, %rsi
adcq %rdx, %r10
movq $2251799813685247, %rax
shldq $13, %r11, %rbx
andq %rax, %r11
shldq $13, %r12, %r9
andq %rax, %r12
addq %rbx, %r12
shldq $13, %rdi, %rcx
andq %rax, %rdi
addq %r9, %rdi
shldq $13, %rsi, %r10
andq %rax, %rsi
addq %rcx, %rsi
shldq $13, %rbp, %r8
andq %rax, %rbp
addq %r10, %rbp
imulq $19, %r8, %rcx
addq %rcx, %r11
movq %r11, %rcx
shrq $51, %rcx
addq %r12, %rcx
andq %rax, %r11
movq %rcx, %rdx
shrq $51, %rcx
addq %rdi, %rcx
andq %rax, %rdx
movq %rcx, %rdi
shrq $51, %rcx
addq %rsi, %rcx
andq %rax, %rdi
movq %rcx, %rsi
shrq $51, %rcx
addq %rbp, %rcx
andq %rax, %rsi
movq %rcx, %r8
shrq $51, %rcx
imulq $19, %rcx, %rcx
addq %rcx, %r11
andq %rax, %r8
movq %r11, 272(%rsp)
movq %rdx, 280(%rsp)
movq %rdi, 288(%rsp)
movq %rsi, 296(%rsp)
movq %r8, 304(%rsp)
movq 232(%rsp), %rax
mulq 232(%rsp)
movq %rax, %rcx
movq %rdx, %rsi
movq 232(%rsp), %rax
shlq $1, %rax
mulq 240(%rsp)
movq %rax, %rbp
movq %rdx, %r10
movq 232(%rsp), %rax
shlq $1, %rax
mulq 248(%rsp)
movq %rax, %rdi
movq %rdx, %r11
movq 232(%rsp), %rax
shlq $1, %rax
mulq 256(%rsp)
movq %rax, %r12
movq %rdx, %r8
movq 232(%rsp), %rax
shlq $1, %rax
mulq 264(%rsp)
movq %rax, %rbx
movq %rdx, %r9
movq 240(%rsp), %rax
mulq 240(%rsp)
addq %rax, %rdi
adcq %rdx, %r11
movq 240(%rsp), %rax
shlq $1, %rax
mulq 248(%rsp)
addq %rax, %r12
adcq %rdx, %r8
movq 240(%rsp), %rax
shlq $1, %rax
mulq 256(%rsp)
addq %rax, %rbx
adcq %rdx, %r9
movq 240(%rsp), %rax
imulq $38, %rax, %rax
mulq 264(%rsp)
addq %rax, %rcx
adcq %rdx, %rsi
movq 248(%rsp), %rax
mulq 248(%rsp)
addq %rax, %rbx
adcq %rdx, %r9
movq 248(%rsp), %rax
imulq $38, %rax, %rax
mulq 256(%rsp)
addq %rax, %rcx
adcq %rdx, %rsi
movq 248(%rsp), %rax
imulq $38, %rax, %rax
mulq 264(%rsp)
addq %rax, %rbp
adcq %rdx, %r10
movq 256(%rsp), %rax
imulq $19, %rax, %rax
mulq 256(%rsp)
addq %rax, %rbp
adcq %rdx, %r10
movq 256(%rsp), %rax
imulq $38, %rax, %rax
mulq 264(%rsp)
addq %rax, %rdi
adcq %rdx, %r11
movq 264(%rsp), %rax
imulq $19, %rax, %rax
mulq 264(%rsp)
addq %rax, %r12
adcq %rdx, %r8
movq $2251799813685247, %rax
shldq $13, %rcx, %rsi
andq %rax, %rcx
shldq $13, %rbp, %r10
andq %rax, %rbp
addq %rsi, %rbp
shldq $13, %rdi, %r11
andq %rax, %rdi
addq %r10, %rdi
shldq $13, %r12, %r8
andq %rax, %r12
addq %r11, %r12
shldq $13, %rbx, %r9
andq %rax, %rbx
addq %r8, %rbx
imulq $19, %r9, %rdx
addq %rdx, %rcx
movq %rcx, %rdx
shrq $51, %rdx
addq %rbp, %rdx
andq %rax, %rcx
movq %rdx, %rsi
shrq $51, %rdx
addq %rdi, %rdx
andq %rax, %rsi
movq %rdx, %rdi
shrq $51, %rdx
addq %r12, %rdx
andq %rax, %rdi
movq %rdx, %r8
shrq $51, %rdx
addq %rbx, %rdx
andq %rax, %r8
movq %rdx, %r9
shrq $51, %rdx
imulq $19, %rdx, %rdx
addq %rdx, %rcx
andq %rax, %r9
movq %rcx, 232(%rsp)
movq %rsi, 240(%rsp)
movq %rdi, 248(%rsp)
movq %r8, 256(%rsp)
movq %r9, 264(%rsp)
movq 312(%rsp), %rax
movq 320(%rsp), %rcx
movq 328(%rsp), %rdx
movq 336(%rsp), %rsi
movq 344(%rsp), %rdi
addq 352(%rsp), %rax
addq 360(%rsp), %rcx
addq 368(%rsp), %rdx
addq 376(%rsp), %rsi
addq 384(%rsp), %rdi
movq %rax, 392(%rsp)
movq %rcx, 400(%rsp)
movq %rdx, 408(%rsp)
movq %rsi, 416(%rsp)
movq %rdi, 424(%rsp)
movq 312(%rsp), %rax
movq 320(%rsp), %rcx
movq 328(%rsp), %rdx
movq 336(%rsp), %rsi
movq 344(%rsp), %rdi
movq $4503599627370458, %r8
movq $4503599627370494, %r9
addq %r8, %rax
addq %r9, %rcx
addq %r9, %rdx
addq %r9, %rsi
addq %r9, %rdi
subq 352(%rsp), %rax
subq 360(%rsp), %rcx
subq 368(%rsp), %rdx
subq 376(%rsp), %rsi
subq 384(%rsp), %rdi
movq %rax, 352(%rsp)
movq %rcx, 360(%rsp)
movq %rdx, 368(%rsp)
movq %rsi, 376(%rsp)
movq %rdi, 384(%rsp)
movq 296(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 24(%rsp)
mulq 248(%rsp)
movq %rax, %r8
movq %rdx, %r11
movq 304(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 32(%rsp)
mulq 240(%rsp)
addq %rax, %r8
adcq %rdx, %r11
movq 272(%rsp), %rax
mulq 232(%rsp)
addq %rax, %r8
adcq %rdx, %r11
movq 272(%rsp), %rax
mulq 240(%rsp)
movq %rax, %r10
movq %rdx, %rbx
movq 272(%rsp), %rax
mulq 248(%rsp)
movq %rax, %rdi
movq %rdx, %rcx
movq 272(%rsp), %rax
mulq 256(%rsp)
movq %rax, %rsi
movq %rdx, %r12
movq 272(%rsp), %rax
mulq 264(%rsp)
movq %rax, %rbp
movq %rdx, %r9
movq 280(%rsp), %rax
mulq 232(%rsp)
addq %rax, %r10
adcq %rdx, %rbx
movq 280(%rsp), %rax
mulq 240(%rsp)
addq %rax, %rdi
adcq %rdx, %rcx
movq 280(%rsp), %rax
mulq 248(%rsp)
addq %rax, %rsi
adcq %rdx, %r12
movq 280(%rsp), %rax
mulq 256(%rsp)
addq %rax, %rbp
adcq %rdx, %r9
movq 280(%rsp), %rax
imulq $19, %rax, %rax
mulq 264(%rsp)
addq %rax, %r8
adcq %rdx, %r11
movq 288(%rsp), %rax
mulq 232(%rsp)
addq %rax, %rdi
adcq %rdx, %rcx
movq 288(%rsp), %rax
mulq 240(%rsp)
addq %rax, %rsi
adcq %rdx, %r12
movq 288(%rsp), %rax
mulq 248(%rsp)
addq %rax, %rbp
adcq %rdx, %r9
movq 288(%rsp), %rax
imulq $19, %rax, %rax
mulq 256(%rsp)
addq %rax, %r8
adcq %rdx, %r11
movq 288(%rsp), %rax
imulq $19, %rax, %rax
mulq 264(%rsp)
addq %rax, %r10
adcq %rdx, %rbx
movq 296(%rsp), %rax
mulq 232(%rsp)
addq %rax, %rsi
adcq %rdx, %r12
movq 296(%rsp), %rax
mulq 240(%rsp)
addq %rax, %rbp
adcq %rdx, %r9
movq 24(%rsp), %rax
mulq 256(%rsp)
addq %rax, %r10
adcq %rdx, %rbx
movq 24(%rsp), %rax
mulq 264(%rsp)
addq %rax, %rdi
adcq %rdx, %rcx
movq 304(%rsp), %rax
mulq 232(%rsp)
addq %rax, %rbp
adcq %rdx, %r9
movq 32(%rsp), %rax
mulq 248(%rsp)
addq %rax, %r10
adcq %rdx, %rbx
movq 32(%rsp), %rax
mulq 256(%rsp)
addq %rax, %rdi
adcq %rdx, %rcx
movq 32(%rsp), %rax
mulq 264(%rsp)
addq %rax, %rsi
adcq %rdx, %r12
movq $2251799813685247, %rax
shldq $13, %r8, %r11
andq %rax, %r8
shldq $13, %r10, %rbx
andq %rax, %r10
addq %r11, %r10
shldq $13, %rdi, %rcx
andq %rax, %rdi
addq %rbx, %rdi
shldq $13, %rsi, %r12
andq %rax, %rsi
addq %rcx, %rsi
shldq $13, %rbp, %r9
andq %rax, %rbp
addq %r12, %rbp
imulq $19, %r9, %rcx
addq %rcx, %r8
movq %r8, %rcx
shrq $51, %rcx
addq %r10, %rcx
movq %rcx, %rdx
shrq $51, %rcx
andq %rax, %r8
addq %rdi, %rcx
movq %rcx, %rdi
shrq $51, %rcx
andq %rax, %rdx
addq %rsi, %rcx
movq %rcx, %rsi
shrq $51, %rcx
andq %rax, %rdi
addq %rbp, %rcx
movq %rcx, %r9
shrq $51, %rcx
andq %rax, %rsi
imulq $19, %rcx, %rcx
addq %rcx, %r8
andq %rax, %r9
movq %r8, 72(%rsp)
movq %rdx, 80(%rsp)
movq %rdi, 88(%rsp)
movq %rsi, 96(%rsp)
movq %r9, 104(%rsp)
movq 272(%rsp), %rax
movq 280(%rsp), %rcx
movq 288(%rsp), %rdx
movq 296(%rsp), %rsi
movq 304(%rsp), %rdi
movq $4503599627370458, %r8
movq $4503599627370494, %r9
addq %r8, %rax
addq %r9, %rcx
addq %r9, %rdx
addq %r9, %rsi
addq %r9, %rdi
subq 232(%rsp), %rax
subq 240(%rsp), %rcx
subq 248(%rsp), %rdx
subq 256(%rsp), %rsi
subq 264(%rsp), %rdi
movq %rax, 232(%rsp)
movq %rcx, 240(%rsp)
movq %rdx, 248(%rsp)
movq %rsi, 256(%rsp)
movq %rdi, 264(%rsp)
movq 352(%rsp), %rax
mulq 352(%rsp)
movq %rax, %rcx
movq %rdx, %r8
movq 352(%rsp), %rax
shlq $1, %rax
mulq 360(%rsp)
movq %rax, %r9
movq %rdx, %r11
movq 352(%rsp), %rax
shlq $1, %rax
mulq 368(%rsp)
movq %rax, %rdi
movq %rdx, %r10
movq 352(%rsp), %rax
shlq $1, %rax
mulq 376(%rsp)
movq %rax, %rbx
movq %rdx, %rbp
movq 352(%rsp), %rax
shlq $1, %rax
mulq 384(%rsp)
movq %rax, %r12
movq %rdx, %rsi
movq 360(%rsp), %rax
mulq 360(%rsp)
addq %rax, %rdi
adcq %rdx, %r10
movq 360(%rsp), %rax
shlq $1, %rax
mulq 368(%rsp)
addq %rax, %rbx
adcq %rdx, %rbp
movq 360(%rsp), %rax
shlq $1, %rax
mulq 376(%rsp)
addq %rax, %r12
adcq %rdx, %rsi
movq 360(%rsp), %rax
imulq $38, %rax, %rax
mulq 384(%rsp)
addq %rax, %rcx
adcq %rdx, %r8
movq 368(%rsp), %rax
mulq 368(%rsp)
addq %rax, %r12
adcq %rdx, %rsi
movq 368(%rsp), %rax
imulq $38, %rax, %rax
mulq 376(%rsp)
addq %rax, %rcx
adcq %rdx, %r8
movq 368(%rsp), %rax
imulq $38, %rax, %rax
mulq 384(%rsp)
addq %rax, %r9
adcq %rdx, %r11
movq 376(%rsp), %rax
imulq $19, %rax, %rax
mulq 376(%rsp)
addq %rax, %r9
adcq %rdx, %r11
movq 376(%rsp), %rax
imulq $38, %rax, %rax
mulq 384(%rsp)
addq %rax, %rdi
adcq %rdx, %r10
movq 384(%rsp), %rax
imulq $19, %rax, %rax
mulq 384(%rsp)
addq %rax, %rbx
adcq %rdx, %rbp
movq $2251799813685247, %rax
shldq $13, %rcx, %r8
andq %rax, %rcx
shldq $13, %r9, %r11
andq %rax, %r9
addq %r8, %r9
shldq $13, %rdi, %r10
andq %rax, %rdi
addq %r11, %rdi
shldq $13, %rbx, %rbp
andq %rax, %rbx
addq %r10, %rbx
shldq $13, %r12, %rsi
andq %rax, %r12
addq %rbp, %r12
imulq $19, %rsi, %rdx
addq %rdx, %rcx
movq %rcx, %rdx
shrq $51, %rdx
addq %r9, %rdx
andq %rax, %rcx
movq %rdx, %rsi
shrq $51, %rdx
addq %rdi, %rdx
andq %rax, %rsi
movq %rdx, %rdi
shrq $51, %rdx
addq %rbx, %rdx
andq %rax, %rdi
movq %rdx, %r8
shrq $51, %rdx
addq %r12, %rdx
andq %rax, %r8
movq %rdx, %r9
shrq $51, %rdx
imulq $19, %rdx, %rdx
addq %rdx, %rcx
andq %rax, %r9
movq %rcx, 352(%rsp)
movq %rsi, 360(%rsp)
movq %rdi, 368(%rsp)
movq %r8, 376(%rsp)
movq %r9, 384(%rsp)
movq $996679680, %rcx
movq 232(%rsp), %rax
mulq %rcx
shrq $13, %rax
movq %rax, %rsi
movq %rdx, %rdi
movq 240(%rsp), %rax
mulq %rcx
shrq $13, %rax
addq %rax, %rdi
movq %rdx, %r8
movq 248(%rsp), %rax
mulq %rcx
shrq $13, %rax
addq %rax, %r8
movq %rdx, %r9
movq 256(%rsp), %rax
mulq %rcx
shrq $13, %rax
addq %rax, %r9
movq %rdx, %r10
movq 264(%rsp), %rax
mulq %rcx
shrq $13, %rax
addq %rax, %r10
imulq $19, %rdx, %rax
addq %rax, %rsi
addq 272(%rsp), %rsi
addq 280(%rsp), %rdi
addq 288(%rsp), %r8
addq 296(%rsp), %r9
addq 304(%rsp), %r10
movq %rsi, 272(%rsp)
movq %rdi, 280(%rsp)
movq %r8, 288(%rsp)
movq %r9, 296(%rsp)
movq %r10, 304(%rsp)
movq 392(%rsp), %rax
mulq 392(%rsp)
movq %rax, %rsi
movq %rdx, %r10
movq 392(%rsp), %rax
shlq $1, %rax
mulq 400(%rsp)
movq %rax, %rbx
movq %rdx, %rcx
movq 392(%rsp), %rax
shlq $1, %rax
mulq 408(%rsp)
movq %rax, %r11
movq %rdx, %rbp
movq 392(%rsp), %rax
shlq $1, %rax
mulq 416(%rsp)
movq %rax, %r12
movq %rdx, %r9
movq 392(%rsp), %rax
shlq $1, %rax
mulq 424(%rsp)
movq %rax, %rdi
movq %rdx, %r8
movq 400(%rsp), %rax
mulq 400(%rsp)
addq %rax, %r11
adcq %rdx, %rbp
movq 400(%rsp), %rax
shlq $1, %rax
mulq 408(%rsp)
addq %rax, %r12
adcq %rdx, %r9
movq 400(%rsp), %rax
shlq $1, %rax
mulq 416(%rsp)
addq %rax, %rdi
adcq %rdx, %r8
movq 400(%rsp), %rax
imulq $38, %rax, %rax
mulq 424(%rsp)
addq %rax, %rsi
adcq %rdx, %r10
movq 408(%rsp), %rax
mulq 408(%rsp)
addq %rax, %rdi
adcq %rdx, %r8
movq 408(%rsp), %rax
imulq $38, %rax, %rax
mulq 416(%rsp)
addq %rax, %rsi
adcq %rdx, %r10
movq 408(%rsp), %rax
imulq $38, %rax, %rax
mulq 424(%rsp)
addq %rax, %rbx
adcq %rdx, %rcx
movq 416(%rsp), %rax
imulq $19, %rax, %rax
mulq 416(%rsp)
addq %rax, %rbx
adcq %rdx, %rcx
movq 416(%rsp), %rax
imulq $38, %rax, %rax
mulq 424(%rsp)
addq %rax, %r11
adcq %rdx, %rbp
movq 424(%rsp), %rax
imulq $19, %rax, %rax
mulq 424(%rsp)
addq %rax, %r12
adcq %rdx, %r9
movq $2251799813685247, %rax
shldq $13, %rsi, %r10
andq %rax, %rsi
shldq $13, %rbx, %rcx
andq %rax, %rbx
addq %r10, %rbx
shldq $13, %r11, %rbp
andq %rax, %r11
addq %rcx, %r11
shldq $13, %r12, %r9
andq %rax, %r12
addq %rbp, %r12
shldq $13, %rdi, %r8
andq %rax, %rdi
addq %r9, %rdi
imulq $19, %r8, %rcx
addq %rcx, %rsi
movq %rsi, %rcx
shrq $51, %rcx
addq %rbx, %rcx
andq %rax, %rsi
movq %rcx, %rdx
shrq $51, %rcx
addq %r11, %rcx
andq %rax, %rdx
movq %rcx, %r8
shrq $51, %rcx
addq %r12, %rcx
andq %rax, %r8
movq %rcx, %r9
shrq $51, %rcx
addq %rdi, %rcx
andq %rax, %r9
movq %rcx, %rdi
shrq $51, %rcx
imulq $19, %rcx, %rcx
addq %rcx, %rsi
andq %rax, %rdi
movq %rsi, 112(%rsp)
movq %rdx, 120(%rsp)
movq %r8, 128(%rsp)
movq %r9, 136(%rsp)
movq %rdi, 144(%rsp)
movq 216(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 32(%rsp)
mulq 368(%rsp)
movq %rax, %r9
movq %rdx, %rsi
movq 224(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 24(%rsp)
mulq 360(%rsp)
addq %rax, %r9
adcq %rdx, %rsi
movq 192(%rsp), %rax
mulq 352(%rsp)
addq %rax, %r9
adcq %rdx, %rsi
movq 192(%rsp), %rax
mulq 360(%rsp)
movq %rax, %r10
movq %rdx, %rcx
movq 192(%rsp), %rax
mulq 368(%rsp)
movq %rax, %rbx
movq %rdx, %r12
movq 192(%rsp), %rax
mulq 376(%rsp)
movq %rax, %rdi
movq %rdx, %rbp
movq 192(%rsp), %rax
mulq 384(%rsp)
movq %rax, %r8
movq %rdx, %r11
movq 200(%rsp), %rax
mulq 352(%rsp)
addq %rax, %r10
adcq %rdx, %rcx
movq 200(%rsp), %rax
mulq 360(%rsp)
addq %rax, %rbx
adcq %rdx, %r12
movq 200(%rsp), %rax
mulq 368(%rsp)
addq %rax, %rdi
adcq %rdx, %rbp
movq 200(%rsp), %rax
mulq 376(%rsp)
addq %rax, %r8
adcq %rdx, %r11
movq 200(%rsp), %rax
imulq $19, %rax, %rax
mulq 384(%rsp)
addq %rax, %r9
adcq %rdx, %rsi
movq 208(%rsp), %rax
mulq 352(%rsp)
addq %rax, %rbx
adcq %rdx, %r12
movq 208(%rsp), %rax
mulq 360(%rsp)
addq %rax, %rdi
adcq %rdx, %rbp
movq 208(%rsp), %rax
mulq 368(%rsp)
addq %rax, %r8
adcq %rdx, %r11
movq 208(%rsp), %rax
imulq $19, %rax, %rax
mulq 376(%rsp)
addq %rax, %r9
adcq %rdx, %rsi
movq 208(%rsp), %rax
imulq $19, %rax, %rax
mulq 384(%rsp)
addq %rax, %r10
adcq %rdx, %rcx
movq 216(%rsp), %rax
mulq 352(%rsp)
addq %rax, %rdi
adcq %rdx, %rbp
movq 216(%rsp), %rax
mulq 360(%rsp)
addq %rax, %r8
adcq %rdx, %r11
movq 32(%rsp), %rax
mulq 376(%rsp)
addq %rax, %r10
adcq %rdx, %rcx
movq 32(%rsp), %rax
mulq 384(%rsp)
addq %rax, %rbx
adcq %rdx, %r12
movq 224(%rsp), %rax
mulq 352(%rsp)
addq %rax, %r8
adcq %rdx, %r11
movq 24(%rsp), %rax
mulq 368(%rsp)
addq %rax, %r10
adcq %rdx, %rcx
movq 24(%rsp), %rax
mulq 376(%rsp)
addq %rax, %rbx
adcq %rdx, %r12
movq 24(%rsp), %rax
mulq 384(%rsp)
addq %rax, %rdi
adcq %rdx, %rbp
movq $2251799813685247, %rax
shldq $13, %r9, %rsi
andq %rax, %r9
shldq $13, %r10, %rcx
andq %rax, %r10
addq %rsi, %r10
shldq $13, %rbx, %r12
andq %rax, %rbx
addq %rcx, %rbx
shldq $13, %rdi, %rbp
andq %rax, %rdi
addq %r12, %rdi
shldq $13, %r8, %r11
andq %rax, %r8
addq %rbp, %r8
imulq $19, %r11, %rcx
addq %rcx, %r9
movq %r9, %rcx
shrq $51, %rcx
addq %r10, %rcx
movq %rcx, %rdx
shrq $51, %rcx
andq %rax, %r9
addq %rbx, %rcx
movq %rcx, %rsi
shrq $51, %rcx
andq %rax, %rdx
addq %rdi, %rcx
movq %rcx, %rdi
shrq $51, %rcx
andq %rax, %rsi
addq %r8, %rcx
movq %rcx, %r8
shrq $51, %rcx
andq %rax, %rdi
imulq $19, %rcx, %rcx
addq %rcx, %r9
andq %rax, %r8
movq %r9, 152(%rsp)
movq %rdx, 160(%rsp)
movq %rsi, 168(%rsp)
movq %rdi, 176(%rsp)
movq %r8, 184(%rsp)
movq 256(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 24(%rsp)
mulq 288(%rsp)
movq %rax, %rbx
movq %rdx, %r12
movq 264(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 32(%rsp)
mulq 280(%rsp)
addq %rax, %rbx
adcq %rdx, %r12
movq 232(%rsp), %rax
mulq 272(%rsp)
addq %rax, %rbx
adcq %rdx, %r12
movq 232(%rsp), %rax
mulq 280(%rsp)
movq %rax, %r11
movq %rdx, %rsi
movq 232(%rsp), %rax
mulq 288(%rsp)
movq %rax, %r8
movq %rdx, %r9
movq 232(%rsp), %rax
mulq 296(%rsp)
movq %rax, %rcx
movq %rdx, %rdi
movq 232(%rsp), %rax
mulq 304(%rsp)
movq %rax, %r10
movq %rdx, %rbp
movq 240(%rsp), %rax
mulq 272(%rsp)
addq %rax, %r11
adcq %rdx, %rsi
movq 240(%rsp), %rax
mulq 280(%rsp)
addq %rax, %r8
adcq %rdx, %r9
movq 240(%rsp), %rax
mulq 288(%rsp)
addq %rax, %rcx
adcq %rdx, %rdi
movq 240(%rsp), %rax
mulq 296(%rsp)
addq %rax, %r10
adcq %rdx, %rbp
movq 240(%rsp), %rax
imulq $19, %rax, %rax
mulq 304(%rsp)
addq %rax, %rbx
adcq %rdx, %r12
movq 248(%rsp), %rax
mulq 272(%rsp)
addq %rax, %r8
adcq %rdx, %r9
movq 248(%rsp), %rax
mulq 280(%rsp)
addq %rax, %rcx
adcq %rdx, %rdi
movq 248(%rsp), %rax
mulq 288(%rsp)
addq %rax, %r10
adcq %rdx, %rbp
movq 248(%rsp), %rax
imulq $19, %rax, %rax
mulq 296(%rsp)
addq %rax, %rbx
adcq %rdx, %r12
movq 248(%rsp), %rax
imulq $19, %rax, %rax
mulq 304(%rsp)
addq %rax, %r11
adcq %rdx, %rsi
movq 256(%rsp), %rax
mulq 272(%rsp)
addq %rax, %rcx
adcq %rdx, %rdi
movq 256(%rsp), %rax
mulq 280(%rsp)
addq %rax, %r10
adcq %rdx, %rbp
movq 24(%rsp), %rax
mulq 296(%rsp)
addq %rax, %r11
adcq %rdx, %rsi
movq 24(%rsp), %rax
mulq 304(%rsp)
addq %rax, %r8
adcq %rdx, %r9
movq 264(%rsp), %rax
mulq 272(%rsp)
addq %rax, %r10
adcq %rdx, %rbp
movq 32(%rsp), %rax
mulq 288(%rsp)
addq %rax, %r11
adcq %rdx, %rsi
movq 32(%rsp), %rax
mulq 296(%rsp)
addq %rax, %r8
adcq %rdx, %r9
movq 32(%rsp), %rax
mulq 304(%rsp)
addq %rax, %rcx
adcq %rdx, %rdi
movq $2251799813685247, %r13
shldq $13, %rbx, %r12
andq %r13, %rbx
shldq $13, %r11, %rsi
andq %r13, %r11
addq %r12, %r11
shldq $13, %r8, %r9
andq %r13, %r8
addq %rsi, %r8
shldq $13, %rcx, %rdi
andq %r13, %rcx
addq %r9, %rcx
shldq $13, %r10, %rbp
andq %r13, %r10
addq %rdi, %r10
imulq $19, %rbp, %rax
addq %rax, %rbx
movq %rbx, %r9
shrq $51, %r9
addq %r11, %r9
movq %r9, %rax
shrq $51, %r9
andq %r13, %rbx
addq %r8, %r9
movq %r9, %rdx
shrq $51, %r9
andq %r13, %rax
addq %rcx, %r9
movq %r9, %rsi
shrq $51, %r9
andq %r13, %rdx
addq %r10, %r9
movq %r9, %rdi
shrq $51, %r9
andq %r13, %rsi
imulq $19, %r9, %rcx
addq %rcx, %rbx
andq %r13, %rdi
movq 16(%rsp), %rcx
cmpq $0, %rcx
jnbe Ljade_scalarmult_curve25519_amd64_ref5$28
movq %rbx, 152(%rsp)
movq %rax, 160(%rsp)
movq %rdx, 168(%rsp)
movq %rsi, 176(%rsp)
movq %rdi, 184(%rsp)
movq 152(%rsp), %rax
movq %rax, 112(%rsp)
movq 160(%rsp), %rax
movq %rax, 120(%rsp)
movq 168(%rsp), %rax
movq %rax, 128(%rsp)
movq 176(%rsp), %rax
movq %rax, 136(%rsp)
movq 184(%rsp), %rax
movq %rax, 144(%rsp)
leaq 112(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$27(%rip), %rax
movq %rax, (%rsp)
jmp L_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5$27:
leaq 8(%rsp), %rsp
movq 112(%rsp), %rax
movq %rax, 192(%rsp)
movq 120(%rsp), %rax
movq %rax, 200(%rsp)
movq 128(%rsp), %rax
movq %rax, 208(%rsp)
movq 136(%rsp), %rax
movq %rax, 216(%rsp)
movq 144(%rsp), %rax
movq %rax, 224(%rsp)
leaq 192(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$26(%rip), %rax
movq %rax, (%rsp)
jmp L_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5$26:
leaq 8(%rsp), %rsp
leaq 192(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$25(%rip), %rax
movq %rax, (%rsp)
jmp L_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5$25:
leaq 8(%rsp), %rsp
leaq 192(%rsp), %r9
leaq 152(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$24(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5$24:
leaq 24(%rsp), %rsp
leaq 112(%rsp), %r9
leaq 192(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$23(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5$23:
leaq 24(%rsp), %rsp
movq 112(%rsp), %rax
movq %rax, 152(%rsp)
movq 120(%rsp), %rax
movq %rax, 160(%rsp)
movq 128(%rsp), %rax
movq %rax, 168(%rsp)
movq 136(%rsp), %rax
movq %rax, 176(%rsp)
movq 144(%rsp), %rax
movq %rax, 184(%rsp)
leaq 152(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$22(%rip), %rax
movq %rax, (%rsp)
jmp L_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5$22:
leaq 8(%rsp), %rsp
leaq 192(%rsp), %r9
leaq 152(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$21(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5$21:
leaq 24(%rsp), %rsp
movq 192(%rsp), %rax
movq %rax, 152(%rsp)
movq 200(%rsp), %rax
movq %rax, 160(%rsp)
movq 208(%rsp), %rax
movq %rax, 168(%rsp)
movq 216(%rsp), %rax
movq %rax, 176(%rsp)
movq 224(%rsp), %rax
movq %rax, 184(%rsp)
leaq 152(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$20(%rip), %rax
movq %rax, (%rsp)
jmp L_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5$20:
leaq 8(%rsp), %rsp
movl $4, %r13d
leaq 152(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$19(%rip), %rax
movq %rax, (%rsp)
jmp L_it_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5$19:
leaq 8(%rsp), %rsp
leaq 192(%rsp), %r9
leaq 152(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$18(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5$18:
leaq 24(%rsp), %rsp
movl $10, %r13d
movq 192(%rsp), %rax
movq %rax, 152(%rsp)
movq 200(%rsp), %rax
movq %rax, 160(%rsp)
movq 208(%rsp), %rax
movq %rax, 168(%rsp)
movq 216(%rsp), %rax
movq %rax, 176(%rsp)
movq 224(%rsp), %rax
movq %rax, 184(%rsp)
leaq 152(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$17(%rip), %rax
movq %rax, (%rsp)
jmp L_it_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5$17:
leaq 8(%rsp), %rsp
leaq 152(%rsp), %r9
leaq 192(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$16(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5$16:
leaq 24(%rsp), %rsp
movl $20, %r13d
movq 152(%rsp), %rax
movq %rax, 272(%rsp)
movq 160(%rsp), %rax
movq %rax, 280(%rsp)
movq 168(%rsp), %rax
movq %rax, 288(%rsp)
movq 176(%rsp), %rax
movq %rax, 296(%rsp)
movq 184(%rsp), %rax
movq %rax, 304(%rsp)
leaq 272(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$15(%rip), %rax
movq %rax, (%rsp)
jmp L_it_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5$15:
leaq 8(%rsp), %rsp
leaq 152(%rsp), %r9
leaq 272(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$14(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5$14:
leaq 24(%rsp), %rsp
movl $10, %r13d
leaq 152(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$13(%rip), %rax
movq %rax, (%rsp)
jmp L_it_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5$13:
leaq 8(%rsp), %rsp
leaq 192(%rsp), %r9
leaq 152(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$12(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5$12:
leaq 24(%rsp), %rsp
movl $50, %r13d
movq 192(%rsp), %rax
movq %rax, 152(%rsp)
movq 200(%rsp), %rax
movq %rax, 160(%rsp)
movq 208(%rsp), %rax
movq %rax, 168(%rsp)
movq 216(%rsp), %rax
movq %rax, 176(%rsp)
movq 224(%rsp), %rax
movq %rax, 184(%rsp)
leaq 152(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$11(%rip), %rax
movq %rax, (%rsp)
jmp L_it_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5$11:
leaq 8(%rsp), %rsp
leaq 152(%rsp), %r9
leaq 192(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$10(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5$10:
leaq 24(%rsp), %rsp
movl $100, %r13d
movq 152(%rsp), %rax
movq %rax, 272(%rsp)
movq 160(%rsp), %rax
movq %rax, 280(%rsp)
movq 168(%rsp), %rax
movq %rax, 288(%rsp)
movq 176(%rsp), %rax
movq %rax, 296(%rsp)
movq 184(%rsp), %rax
movq %rax, 304(%rsp)
leaq 272(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$9(%rip), %rax
movq %rax, (%rsp)
jmp L_it_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5$9:
leaq 8(%rsp), %rsp
leaq 152(%rsp), %r9
leaq 272(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$8(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5$8:
leaq 24(%rsp), %rsp
movl $50, %r13d
leaq 152(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$7(%rip), %rax
movq %rax, (%rsp)
jmp L_it_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5$7:
leaq 8(%rsp), %rsp
leaq 192(%rsp), %r9
leaq 152(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$6(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5$6:
leaq 24(%rsp), %rsp
movl $4, %r13d
leaq 192(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$5(%rip), %rax
movq %rax, (%rsp)
jmp L_it_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5$5:
leaq 8(%rsp), %rsp
leaq 192(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$4(%rip), %rax
movq %rax, (%rsp)
jmp L_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5$4:
leaq 8(%rsp), %rsp
leaq 192(%rsp), %r9
leaq 112(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$3(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5$3:
leaq 24(%rsp), %rsp
movq 96(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 8(%rsp)
mulq 208(%rsp)
movq %rax, %r10
movq %rdx, %rsi
movq 104(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 16(%rsp)
mulq 200(%rsp)
addq %rax, %r10
adcq %rdx, %rsi
movq 72(%rsp), %rax
mulq 192(%rsp)
addq %rax, %r10
adcq %rdx, %rsi
movq 72(%rsp), %rax
mulq 200(%rsp)
movq %rax, %rbp
movq %rdx, %rdi
movq 72(%rsp), %rax
mulq 208(%rsp)
movq %rax, %rcx
movq %rdx, %r12
movq 72(%rsp), %rax
mulq 216(%rsp)
movq %rax, %r9
movq %rdx, %r11
movq 72(%rsp), %rax
mulq 224(%rsp)
movq %rax, %r8
movq %rdx, %rbx
movq 80(%rsp), %rax
mulq 192(%rsp)
addq %rax, %rbp
adcq %rdx, %rdi
movq 80(%rsp), %rax
mulq 200(%rsp)
addq %rax, %rcx
adcq %rdx, %r12
movq 80(%rsp), %rax
mulq 208(%rsp)
addq %rax, %r9
adcq %rdx, %r11
movq 80(%rsp), %rax
mulq 216(%rsp)
addq %rax, %r8
adcq %rdx, %rbx
movq 80(%rsp), %rax
imulq $19, %rax, %rax
mulq 224(%rsp)
addq %rax, %r10
adcq %rdx, %rsi
movq 88(%rsp), %rax
mulq 192(%rsp)
addq %rax, %rcx
adcq %rdx, %r12
movq 88(%rsp), %rax
mulq 200(%rsp)
addq %rax, %r9
adcq %rdx, %r11
movq 88(%rsp), %rax
mulq 208(%rsp)
addq %rax, %r8
adcq %rdx, %rbx
movq 88(%rsp), %rax
imulq $19, %rax, %rax
mulq 216(%rsp)
addq %rax, %r10
adcq %rdx, %rsi
movq 88(%rsp), %rax
imulq $19, %rax, %rax
mulq 224(%rsp)
addq %rax, %rbp
adcq %rdx, %rdi
movq 96(%rsp), %rax
mulq 192(%rsp)
addq %rax, %r9
adcq %rdx, %r11
movq 96(%rsp), %rax
mulq 200(%rsp)
addq %rax, %r8
adcq %rdx, %rbx
movq 8(%rsp), %rax
mulq 216(%rsp)
addq %rax, %rbp
adcq %rdx, %rdi
movq 8(%rsp), %rax
mulq 224(%rsp)
addq %rax, %rcx
adcq %rdx, %r12
movq 104(%rsp), %rax
mulq 192(%rsp)
addq %rax, %r8
adcq %rdx, %rbx
movq 16(%rsp), %rax
mulq 208(%rsp)
addq %rax, %rbp
adcq %rdx, %rdi
movq 16(%rsp), %rax
mulq 216(%rsp)
addq %rax, %rcx
adcq %rdx, %r12
movq 16(%rsp), %rax
mulq 224(%rsp)
addq %rax, %r9
adcq %rdx, %r11
movq $2251799813685247, %rax
shldq $13, %r10, %rsi
andq %rax, %r10
shldq $13, %rbp, %rdi
andq %rax, %rbp
addq %rsi, %rbp
shldq $13, %rcx, %r12
andq %rax, %rcx
addq %rdi, %rcx
shldq $13, %r9, %r11
andq %rax, %r9
addq %r12, %r9
shldq $13, %r8, %rbx
andq %rax, %r8
addq %r11, %r8
imulq $19, %rbx, %rdx
addq %rdx, %r10
movq %r10, %r11
shrq $51, %r11
addq %rbp, %r11
movq %r11, %rdx
shrq $51, %r11
andq %rax, %r10
addq %rcx, %r11
movq %r11, %rcx
shrq $51, %r11
andq %rax, %rdx
addq %r9, %r11
movq %r11, %rsi
shrq $51, %r11
andq %rax, %rcx
addq %r8, %r11
movq %r11, %rdi
shrq $51, %r11
andq %rax, %rsi
imulq $19, %r11, %r8
addq %r8, %r10
andq %rax, %rdi
movq $2251799813685247, %rax
movq %rax, %r8
addq $-18, %r8
movq $3, %r9
jmp Ljade_scalarmult_curve25519_amd64_ref5$1
Ljade_scalarmult_curve25519_amd64_ref5$2:
movq %r10, %r11
shrq $51, %r11
andq %rax, %r10
addq %r11, %rdx
movq %rdx, %r11
shrq $51, %r11
andq %rax, %rdx
addq %r11, %rcx
movq %rcx, %r11
shrq $51, %r11
andq %rax, %rcx
addq %r11, %rsi
movq %rsi, %r11
shrq $51, %r11
andq %rax, %rsi
addq %r11, %rdi
movq %rdi, %r11
shrq $51, %r11
andq %rax, %rdi
imulq $19, %r11, %r11
addq %r11, %r10
addq $-1, %r9
Ljade_scalarmult_curve25519_amd64_ref5$1:
cmpq $0, %r9
jnbe Ljade_scalarmult_curve25519_amd64_ref5$2
movq $1, %r11
cmpq %r8, %r10
cmovl %r9, %r11
cmpq %rax, %rdx
cmovne %r9, %r11
cmpq %rax, %rcx
cmovne %r9, %r11
cmpq %rax, %rsi
cmovne %r9, %r11
cmpq %rax, %rdi
cmovne %r9, %r11
negq %r11
andq %r11, %rax
andq %r11, %r8
subq %r8, %r10
subq %rax, %rdx
subq %rax, %rcx
subq %rax, %rsi
subq %rax, %rdi
movq %rdx, %rax
shlq $51, %rax
orq %r10, %rax
movq %rcx, %r8
shlq $38, %r8
shrq $13, %rdx
orq %rdx, %r8
movq %rsi, %rdx
shlq $25, %rdx
shrq $26, %rcx
orq %rcx, %rdx
shlq $12, %rdi
shrq $39, %rsi
orq %rsi, %rdi
movq (%rsp), %rcx
movq %rax, (%rcx)
movq %r8, 8(%rcx)
movq %rdx, 16(%rcx)
movq %rdi, 24(%rcx)
xorq %rax, %rax
movq 432(%rsp), %rbx
movq 440(%rsp), %rbp
movq 448(%rsp), %r12
movq 456(%rsp), %r13
movq 464(%rsp), %r14
movq 472(%rsp), %rsp
ret
L_it_sqr5_p$1:
L_it_sqr5_p$2:
leaq -8(%rsp), %rsp
leaq L_it_sqr5_p$3(%rip), %rax
movq %rax, (%rsp)
jmp L_sqr5_p$1
L_it_sqr5_p$3:
leaq 8(%rsp), %rsp
decl %r13d
jne L_it_sqr5_p$2
jmp *(%rsp)
L_sqr5_p$1:
movq (%rdi), %rax
mulq (%rdi)
movq %rax, %r8
movq %rdx, %rsi
movq (%rdi), %rax
shlq $1, %rax
mulq 8(%rdi)
movq %rax, %rbx
movq %rdx, %r11
movq (%rdi), %rax
shlq $1, %rax
mulq 16(%rdi)
movq %rax, %r10
movq %rdx, %r14
movq (%rdi), %rax
shlq $1, %rax
mulq 24(%rdi)
movq %rax, %rbp
movq %rdx, %r12
movq (%rdi), %rax
shlq $1, %rax
mulq 32(%rdi)
movq %rax, %rcx
movq %rdx, %r9
movq 8(%rdi), %rax
mulq 8(%rdi)
addq %rax, %r10
adcq %rdx, %r14
movq 8(%rdi), %rax
shlq $1, %rax
mulq 16(%rdi)
addq %rax, %rbp
adcq %rdx, %r12
movq 8(%rdi), %rax
shlq $1, %rax
mulq 24(%rdi)
addq %rax, %rcx
adcq %rdx, %r9
movq 8(%rdi), %rax
imulq $38, %rax, %rax
mulq 32(%rdi)
addq %rax, %r8
adcq %rdx, %rsi
movq 16(%rdi), %rax
mulq 16(%rdi)
addq %rax, %rcx
adcq %rdx, %r9
movq 16(%rdi), %rax
imulq $38, %rax, %rax
mulq 24(%rdi)
addq %rax, %r8
adcq %rdx, %rsi
movq 16(%rdi), %rax
imulq $38, %rax, %rax
mulq 32(%rdi)
addq %rax, %rbx
adcq %rdx, %r11
movq 24(%rdi), %rax
imulq $19, %rax, %rax
mulq 24(%rdi)
addq %rax, %rbx
adcq %rdx, %r11
movq 24(%rdi), %rax
imulq $38, %rax, %rax
mulq 32(%rdi)
addq %rax, %r10
adcq %rdx, %r14
movq 32(%rdi), %rax
imulq $19, %rax, %rax
mulq 32(%rdi)
addq %rax, %rbp
adcq %rdx, %r12
movq $2251799813685247, %rax
shldq $13, %r8, %rsi
andq %rax, %r8
shldq $13, %rbx, %r11
andq %rax, %rbx
addq %rsi, %rbx
shldq $13, %r10, %r14
andq %rax, %r10
addq %r11, %r10
shldq $13, %rbp, %r12
andq %rax, %rbp
addq %r14, %rbp
shldq $13, %rcx, %r9
andq %rax, %rcx
addq %r12, %rcx
imulq $19, %r9, %rdx
addq %rdx, %r8
movq %r8, %rdx
shrq $51, %rdx
addq %rbx, %rdx
andq %rax, %r8
movq %rdx, %rsi
shrq $51, %rdx
addq %r10, %rdx
andq %rax, %rsi
movq %rdx, %r9
shrq $51, %rdx
addq %rbp, %rdx
andq %rax, %r9
movq %rdx, %r10
shrq $51, %rdx
addq %rcx, %rdx
andq %rax, %r10
movq %rdx, %rcx
shrq $51, %rdx
imulq $19, %rdx, %rdx
addq %rdx, %r8
andq %rax, %rcx
movq %r8, (%rdi)
movq %rsi, 8(%rdi)
movq %r9, 16(%rdi)
movq %r10, 24(%rdi)
movq %rcx, 32(%rdi)
jmp *(%rsp)
L_mul5_pp$1:
movq 24(%r9), %rax
imulq $19, %rax, %rax
movq %rax, (%rsp)
mulq 16(%rbp)
movq %rax, %rdi
movq %rdx, %r8
movq 32(%r9), %rax
imulq $19, %rax, %rax
movq %rax, 8(%rsp)
mulq 8(%rbp)
addq %rax, %rdi
adcq %rdx, %r8
movq (%r9), %rax
mulq (%rbp)
addq %rax, %rdi
adcq %rdx, %r8
movq (%r9), %rax
mulq 8(%rbp)
movq %rax, %rbx
movq %rdx, %r14
movq (%r9), %rax
mulq 16(%rbp)
movq %rax, %r11
movq %rdx, %rcx
movq (%r9), %rax
mulq 24(%rbp)
movq %rax, %r10
movq %rdx, %r12
movq (%r9), %rax
mulq 32(%rbp)
movq %rax, %rsi
movq %rdx, %r13
movq 8(%r9), %rax
mulq (%rbp)
addq %rax, %rbx
adcq %rdx, %r14
movq 8(%r9), %rax
mulq 8(%rbp)
addq %rax, %r11
adcq %rdx, %rcx
movq 8(%r9), %rax
mulq 16(%rbp)
addq %rax, %r10
adcq %rdx, %r12
movq 8(%r9), %rax
mulq 24(%rbp)
addq %rax, %rsi
adcq %rdx, %r13
movq 8(%r9), %rax
imulq $19, %rax, %rax
mulq 32(%rbp)
addq %rax, %rdi
adcq %rdx, %r8
movq 16(%r9), %rax
mulq (%rbp)
addq %rax, %r11
adcq %rdx, %rcx
movq 16(%r9), %rax
mulq 8(%rbp)
addq %rax, %r10
adcq %rdx, %r12
movq 16(%r9), %rax
mulq 16(%rbp)
addq %rax, %rsi
adcq %rdx, %r13
movq 16(%r9), %rax
imulq $19, %rax, %rax
mulq 24(%rbp)
addq %rax, %rdi
adcq %rdx, %r8
movq 16(%r9), %rax
imulq $19, %rax, %rax
mulq 32(%rbp)
addq %rax, %rbx
adcq %rdx, %r14
movq 24(%r9), %rax
mulq (%rbp)
addq %rax, %r10
adcq %rdx, %r12
movq 24(%r9), %rax
mulq 8(%rbp)
addq %rax, %rsi
adcq %rdx, %r13
movq (%rsp), %rax
mulq 24(%rbp)
addq %rax, %rbx
adcq %rdx, %r14
movq (%rsp), %rax
mulq 32(%rbp)
addq %rax, %r11
adcq %rdx, %rcx
movq 32(%r9), %rax
mulq (%rbp)
addq %rax, %rsi
adcq %rdx, %r13
movq 8(%rsp), %rax
mulq 16(%rbp)
addq %rax, %rbx
adcq %rdx, %r14
movq 8(%rsp), %rax
mulq 24(%rbp)
addq %rax, %r11
adcq %rdx, %rcx
movq 8(%rsp), %rax
mulq 32(%rbp)
addq %rax, %r10
adcq %rdx, %r12
movq $2251799813685247, %rax
shldq $13, %rdi, %r8
andq %rax, %rdi
shldq $13, %rbx, %r14
andq %rax, %rbx
addq %r8, %rbx
shldq $13, %r11, %rcx
andq %rax, %r11
addq %r14, %r11
shldq $13, %r10, %r12
andq %rax, %r10
addq %rcx, %r10
shldq $13, %rsi, %r13
andq %rax, %rsi
addq %r12, %rsi
imulq $19, %r13, %rcx
addq %rcx, %rdi
movq %rdi, %rcx
shrq $51, %rcx
addq %rbx, %rcx
movq %rcx, %rdx
shrq $51, %rcx
andq %rax, %rdi
addq %r11, %rcx
movq %rcx, %r8
shrq $51, %rcx
andq %rax, %rdx
addq %r10, %rcx
movq %rcx, %r10
shrq $51, %rcx
andq %rax, %r8
addq %rsi, %rcx
movq %rcx, %rsi
shrq $51, %rcx
andq %rax, %r10
imulq $19, %rcx, %rcx
addq %rcx, %rdi
andq %rax, %rsi
movq %rdi, (%r9)
movq %rdx, 8(%r9)
movq %r8, 16(%r9)
movq %r10, 24(%r9)
movq %rsi, 32(%r9)
jmp *16(%rsp)
|
usenix-security-verdict/verdict
| 60,313
|
deps/libcrux/sys/libjade/jazz/chacha20_avx.s
|
.att_syntax
.text
.p2align 5
.globl _jade_stream_chacha_chacha20_ietf_amd64_avx
.globl jade_stream_chacha_chacha20_ietf_amd64_avx
.globl _jade_stream_chacha_chacha20_ietf_amd64_avx_xor
.globl jade_stream_chacha_chacha20_ietf_amd64_avx_xor
_jade_stream_chacha_chacha20_ietf_amd64_avx:
jade_stream_chacha_chacha20_ietf_amd64_avx:
movq %rsp, %r10
leaq -592(%rsp), %rsp
andq $-16, %rsp
cmpq $129, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$1
vmovdqu glob_data + 64(%rip), %xmm0
vmovdqu glob_data + 48(%rip), %xmm1
vmovdqu %xmm0, (%rsp)
vmovdqu %xmm1, 16(%rsp)
vmovdqu glob_data + 112(%rip), %xmm0
vmovdqu glob_data + 128(%rip), %xmm1
vmovdqu glob_data + 144(%rip), %xmm2
vmovdqu glob_data + 160(%rip), %xmm3
vpbroadcastd (%rcx), %xmm4
vpbroadcastd 4(%rcx), %xmm5
vpbroadcastd 8(%rcx), %xmm6
vpbroadcastd 12(%rcx), %xmm7
vpbroadcastd 16(%rcx), %xmm8
vpbroadcastd 20(%rcx), %xmm9
vpbroadcastd 24(%rcx), %xmm10
vpbroadcastd 28(%rcx), %xmm11
vmovdqu glob_data + 96(%rip), %xmm12
vpbroadcastd (%rdx), %xmm13
vpbroadcastd 4(%rdx), %xmm14
vpbroadcastd 8(%rdx), %xmm15
vmovdqu %xmm0, 336(%rsp)
vmovdqu %xmm1, 352(%rsp)
vmovdqu %xmm2, 368(%rsp)
vmovdqu %xmm3, 384(%rsp)
vmovdqu %xmm4, 400(%rsp)
vmovdqu %xmm5, 416(%rsp)
vmovdqu %xmm6, 432(%rsp)
vmovdqu %xmm7, 448(%rsp)
vmovdqu %xmm8, 464(%rsp)
vmovdqu %xmm9, 480(%rsp)
vmovdqu %xmm10, 496(%rsp)
vmovdqu %xmm11, 512(%rsp)
vmovdqu %xmm12, 528(%rsp)
vmovdqu %xmm13, 544(%rsp)
vmovdqu %xmm14, 560(%rsp)
vmovdqu %xmm15, 576(%rsp)
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx$29
Ljade_stream_chacha_chacha20_ietf_amd64_avx$30:
vmovdqu 336(%rsp), %xmm0
vmovdqu 352(%rsp), %xmm1
vmovdqu 368(%rsp), %xmm2
vmovdqu 384(%rsp), %xmm3
vmovdqu 400(%rsp), %xmm4
vmovdqu 416(%rsp), %xmm5
vmovdqu 432(%rsp), %xmm6
vmovdqu 448(%rsp), %xmm7
vmovdqu 464(%rsp), %xmm8
vmovdqu 480(%rsp), %xmm9
vmovdqu 496(%rsp), %xmm10
vmovdqu 512(%rsp), %xmm11
vmovdqu 528(%rsp), %xmm12
vmovdqu 544(%rsp), %xmm13
vmovdqu 560(%rsp), %xmm14
vmovdqu 576(%rsp), %xmm15
vmovdqu %xmm15, 32(%rsp)
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx$31:
vpaddd %xmm4, %xmm0, %xmm0
vpxor %xmm0, %xmm12, %xmm12
vpshufb (%rsp), %xmm12, %xmm12
vpaddd %xmm12, %xmm8, %xmm8
vpxor %xmm8, %xmm4, %xmm4
vpslld $12, %xmm4, %xmm15
vpsrld $20, %xmm4, %xmm4
vpxor %xmm15, %xmm4, %xmm4
vpaddd %xmm4, %xmm0, %xmm0
vpxor %xmm0, %xmm12, %xmm12
vpshufb 16(%rsp), %xmm12, %xmm12
vpaddd %xmm12, %xmm8, %xmm8
vpxor %xmm8, %xmm4, %xmm4
vpslld $7, %xmm4, %xmm15
vpsrld $25, %xmm4, %xmm4
vpxor %xmm15, %xmm4, %xmm4
vpaddd %xmm5, %xmm1, %xmm1
vpxor %xmm1, %xmm13, %xmm13
vpshufb (%rsp), %xmm13, %xmm13
vpaddd %xmm13, %xmm9, %xmm9
vpxor %xmm9, %xmm5, %xmm5
vpslld $12, %xmm5, %xmm15
vpsrld $20, %xmm5, %xmm5
vpxor %xmm15, %xmm5, %xmm5
vpaddd %xmm5, %xmm1, %xmm1
vpxor %xmm1, %xmm13, %xmm13
vpshufb 16(%rsp), %xmm13, %xmm13
vpaddd %xmm13, %xmm9, %xmm9
vpxor %xmm9, %xmm5, %xmm5
vpslld $7, %xmm5, %xmm15
vpsrld $25, %xmm5, %xmm5
vpxor %xmm15, %xmm5, %xmm5
vpaddd %xmm6, %xmm2, %xmm2
vpxor %xmm2, %xmm14, %xmm14
vpshufb (%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm10, %xmm10
vpxor %xmm10, %xmm6, %xmm6
vpslld $12, %xmm6, %xmm15
vpsrld $20, %xmm6, %xmm6
vpxor %xmm15, %xmm6, %xmm6
vpaddd %xmm6, %xmm2, %xmm2
vpxor %xmm2, %xmm14, %xmm14
vpshufb 16(%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm10, %xmm10
vpxor %xmm10, %xmm6, %xmm6
vpslld $7, %xmm6, %xmm15
vpsrld $25, %xmm6, %xmm6
vpxor %xmm15, %xmm6, %xmm6
vmovdqu %xmm14, 48(%rsp)
vmovdqu 32(%rsp), %xmm14
vpaddd %xmm7, %xmm3, %xmm3
vpxor %xmm3, %xmm14, %xmm14
vpshufb (%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm11, %xmm11
vpxor %xmm11, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm15
vpsrld $20, %xmm7, %xmm7
vpxor %xmm15, %xmm7, %xmm7
vpaddd %xmm7, %xmm3, %xmm3
vpxor %xmm3, %xmm14, %xmm14
vpshufb 16(%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm11, %xmm11
vpxor %xmm11, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm15
vpsrld $25, %xmm7, %xmm7
vpxor %xmm15, %xmm7, %xmm7
vmovdqu %xmm14, 64(%rsp)
vmovdqu 48(%rsp), %xmm14
vmovdqu %xmm14, 48(%rsp)
vmovdqu 64(%rsp), %xmm14
vpaddd %xmm5, %xmm0, %xmm0
vpxor %xmm0, %xmm14, %xmm14
vpshufb (%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm10, %xmm10
vpxor %xmm10, %xmm5, %xmm5
vpslld $12, %xmm5, %xmm15
vpsrld $20, %xmm5, %xmm5
vpxor %xmm15, %xmm5, %xmm5
vpaddd %xmm5, %xmm0, %xmm0
vpxor %xmm0, %xmm14, %xmm14
vpshufb 16(%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm10, %xmm10
vpxor %xmm10, %xmm5, %xmm5
vpslld $7, %xmm5, %xmm15
vpsrld $25, %xmm5, %xmm5
vpxor %xmm15, %xmm5, %xmm5
vmovdqu %xmm14, 32(%rsp)
vmovdqu 48(%rsp), %xmm14
vpaddd %xmm6, %xmm1, %xmm1
vpxor %xmm1, %xmm12, %xmm12
vpshufb (%rsp), %xmm12, %xmm12
vpaddd %xmm12, %xmm11, %xmm11
vpxor %xmm11, %xmm6, %xmm6
vpslld $12, %xmm6, %xmm15
vpsrld $20, %xmm6, %xmm6
vpxor %xmm15, %xmm6, %xmm6
vpaddd %xmm6, %xmm1, %xmm1
vpxor %xmm1, %xmm12, %xmm12
vpshufb 16(%rsp), %xmm12, %xmm12
vpaddd %xmm12, %xmm11, %xmm11
vpxor %xmm11, %xmm6, %xmm6
vpslld $7, %xmm6, %xmm15
vpsrld $25, %xmm6, %xmm6
vpxor %xmm15, %xmm6, %xmm6
vpaddd %xmm7, %xmm2, %xmm2
vpxor %xmm2, %xmm13, %xmm13
vpshufb (%rsp), %xmm13, %xmm13
vpaddd %xmm13, %xmm8, %xmm8
vpxor %xmm8, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm15
vpsrld $20, %xmm7, %xmm7
vpxor %xmm15, %xmm7, %xmm7
vpaddd %xmm7, %xmm2, %xmm2
vpxor %xmm2, %xmm13, %xmm13
vpshufb 16(%rsp), %xmm13, %xmm13
vpaddd %xmm13, %xmm8, %xmm8
vpxor %xmm8, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm15
vpsrld $25, %xmm7, %xmm7
vpxor %xmm15, %xmm7, %xmm7
vpaddd %xmm4, %xmm3, %xmm3
vpxor %xmm3, %xmm14, %xmm14
vpshufb (%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm9, %xmm9
vpxor %xmm9, %xmm4, %xmm4
vpslld $12, %xmm4, %xmm15
vpsrld $20, %xmm4, %xmm4
vpxor %xmm15, %xmm4, %xmm4
vpaddd %xmm4, %xmm3, %xmm3
vpxor %xmm3, %xmm14, %xmm14
vpshufb 16(%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm9, %xmm9
vpxor %xmm9, %xmm4, %xmm4
vpslld $7, %xmm4, %xmm15
vpsrld $25, %xmm4, %xmm4
vpxor %xmm15, %xmm4, %xmm4
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$31
vmovdqu 32(%rsp), %xmm15
vpaddd 336(%rsp), %xmm0, %xmm0
vpaddd 352(%rsp), %xmm1, %xmm1
vpaddd 368(%rsp), %xmm2, %xmm2
vpaddd 384(%rsp), %xmm3, %xmm3
vpaddd 400(%rsp), %xmm4, %xmm4
vpaddd 416(%rsp), %xmm5, %xmm5
vpaddd 432(%rsp), %xmm6, %xmm6
vpaddd 448(%rsp), %xmm7, %xmm7
vpaddd 464(%rsp), %xmm8, %xmm8
vpaddd 480(%rsp), %xmm9, %xmm9
vpaddd 496(%rsp), %xmm10, %xmm10
vpaddd 512(%rsp), %xmm11, %xmm11
vpaddd 528(%rsp), %xmm12, %xmm12
vpaddd 544(%rsp), %xmm13, %xmm13
vpaddd 560(%rsp), %xmm14, %xmm14
vpaddd 576(%rsp), %xmm15, %xmm15
vmovdqu %xmm8, 80(%rsp)
vmovdqu %xmm9, 96(%rsp)
vmovdqu %xmm10, 112(%rsp)
vmovdqu %xmm11, 128(%rsp)
vmovdqu %xmm12, 144(%rsp)
vmovdqu %xmm13, 160(%rsp)
vmovdqu %xmm14, 176(%rsp)
vmovdqu %xmm15, 192(%rsp)
vpunpckldq %xmm1, %xmm0, %xmm8
vpunpckhdq %xmm1, %xmm0, %xmm0
vpunpckldq %xmm3, %xmm2, %xmm1
vpunpckhdq %xmm3, %xmm2, %xmm2
vpunpckldq %xmm5, %xmm4, %xmm3
vpunpckhdq %xmm5, %xmm4, %xmm4
vpunpckldq %xmm7, %xmm6, %xmm5
vpunpckhdq %xmm7, %xmm6, %xmm6
vpunpcklqdq %xmm1, %xmm8, %xmm7
vpunpcklqdq %xmm5, %xmm3, %xmm9
vpunpckhqdq %xmm1, %xmm8, %xmm1
vpunpckhqdq %xmm5, %xmm3, %xmm3
vpunpcklqdq %xmm2, %xmm0, %xmm5
vpunpcklqdq %xmm6, %xmm4, %xmm8
vpunpckhqdq %xmm2, %xmm0, %xmm0
vpunpckhqdq %xmm6, %xmm4, %xmm2
vmovdqu %xmm7, (%rdi)
vmovdqu %xmm9, 16(%rdi)
vmovdqu %xmm1, 64(%rdi)
vmovdqu %xmm3, 80(%rdi)
vmovdqu %xmm5, 128(%rdi)
vmovdqu %xmm8, 144(%rdi)
vmovdqu %xmm0, 192(%rdi)
vmovdqu %xmm2, 208(%rdi)
vmovdqu 80(%rsp), %xmm0
vmovdqu 112(%rsp), %xmm1
vmovdqu 144(%rsp), %xmm2
vmovdqu 176(%rsp), %xmm3
vpunpckldq 96(%rsp), %xmm0, %xmm4
vpunpckhdq 96(%rsp), %xmm0, %xmm0
vpunpckldq 128(%rsp), %xmm1, %xmm5
vpunpckhdq 128(%rsp), %xmm1, %xmm1
vpunpckldq 160(%rsp), %xmm2, %xmm6
vpunpckhdq 160(%rsp), %xmm2, %xmm2
vpunpckldq 192(%rsp), %xmm3, %xmm7
vpunpckhdq 192(%rsp), %xmm3, %xmm3
vpunpcklqdq %xmm5, %xmm4, %xmm8
vpunpcklqdq %xmm7, %xmm6, %xmm9
vpunpckhqdq %xmm5, %xmm4, %xmm4
vpunpckhqdq %xmm7, %xmm6, %xmm5
vpunpcklqdq %xmm1, %xmm0, %xmm6
vpunpcklqdq %xmm3, %xmm2, %xmm7
vpunpckhqdq %xmm1, %xmm0, %xmm0
vpunpckhqdq %xmm3, %xmm2, %xmm1
vmovdqu %xmm8, 32(%rdi)
vmovdqu %xmm9, 48(%rdi)
vmovdqu %xmm4, 96(%rdi)
vmovdqu %xmm5, 112(%rdi)
vmovdqu %xmm6, 160(%rdi)
vmovdqu %xmm7, 176(%rdi)
vmovdqu %xmm0, 224(%rdi)
vmovdqu %xmm1, 240(%rdi)
addq $256, %rdi
addq $-256, %rsi
vmovdqu glob_data + 0(%rip), %xmm0
vpaddd 528(%rsp), %xmm0, %xmm0
vmovdqu %xmm0, 528(%rsp)
Ljade_stream_chacha_chacha20_ietf_amd64_avx$29:
cmpq $256, %rsi
jnb Ljade_stream_chacha_chacha20_ietf_amd64_avx$30
cmpq $0, %rsi
jbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$2
vmovdqu 336(%rsp), %xmm0
vmovdqu 352(%rsp), %xmm1
vmovdqu 368(%rsp), %xmm2
vmovdqu 384(%rsp), %xmm3
vmovdqu 400(%rsp), %xmm4
vmovdqu 416(%rsp), %xmm5
vmovdqu 432(%rsp), %xmm6
vmovdqu 448(%rsp), %xmm7
vmovdqu 464(%rsp), %xmm8
vmovdqu 480(%rsp), %xmm9
vmovdqu 496(%rsp), %xmm10
vmovdqu 512(%rsp), %xmm11
vmovdqu 528(%rsp), %xmm12
vmovdqu 544(%rsp), %xmm13
vmovdqu 560(%rsp), %xmm14
vmovdqu 576(%rsp), %xmm15
vmovdqu %xmm15, 32(%rsp)
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx$28:
vpaddd %xmm4, %xmm0, %xmm0
vpxor %xmm0, %xmm12, %xmm12
vpshufb (%rsp), %xmm12, %xmm12
vpaddd %xmm12, %xmm8, %xmm8
vpxor %xmm8, %xmm4, %xmm4
vpslld $12, %xmm4, %xmm15
vpsrld $20, %xmm4, %xmm4
vpxor %xmm15, %xmm4, %xmm4
vpaddd %xmm4, %xmm0, %xmm0
vpxor %xmm0, %xmm12, %xmm12
vpshufb 16(%rsp), %xmm12, %xmm12
vpaddd %xmm12, %xmm8, %xmm8
vpxor %xmm8, %xmm4, %xmm4
vpslld $7, %xmm4, %xmm15
vpsrld $25, %xmm4, %xmm4
vpxor %xmm15, %xmm4, %xmm4
vpaddd %xmm5, %xmm1, %xmm1
vpxor %xmm1, %xmm13, %xmm13
vpshufb (%rsp), %xmm13, %xmm13
vpaddd %xmm13, %xmm9, %xmm9
vpxor %xmm9, %xmm5, %xmm5
vpslld $12, %xmm5, %xmm15
vpsrld $20, %xmm5, %xmm5
vpxor %xmm15, %xmm5, %xmm5
vpaddd %xmm5, %xmm1, %xmm1
vpxor %xmm1, %xmm13, %xmm13
vpshufb 16(%rsp), %xmm13, %xmm13
vpaddd %xmm13, %xmm9, %xmm9
vpxor %xmm9, %xmm5, %xmm5
vpslld $7, %xmm5, %xmm15
vpsrld $25, %xmm5, %xmm5
vpxor %xmm15, %xmm5, %xmm5
vpaddd %xmm6, %xmm2, %xmm2
vpxor %xmm2, %xmm14, %xmm14
vpshufb (%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm10, %xmm10
vpxor %xmm10, %xmm6, %xmm6
vpslld $12, %xmm6, %xmm15
vpsrld $20, %xmm6, %xmm6
vpxor %xmm15, %xmm6, %xmm6
vpaddd %xmm6, %xmm2, %xmm2
vpxor %xmm2, %xmm14, %xmm14
vpshufb 16(%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm10, %xmm10
vpxor %xmm10, %xmm6, %xmm6
vpslld $7, %xmm6, %xmm15
vpsrld $25, %xmm6, %xmm6
vpxor %xmm15, %xmm6, %xmm6
vmovdqu %xmm14, 48(%rsp)
vmovdqu 32(%rsp), %xmm14
vpaddd %xmm7, %xmm3, %xmm3
vpxor %xmm3, %xmm14, %xmm14
vpshufb (%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm11, %xmm11
vpxor %xmm11, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm15
vpsrld $20, %xmm7, %xmm7
vpxor %xmm15, %xmm7, %xmm7
vpaddd %xmm7, %xmm3, %xmm3
vpxor %xmm3, %xmm14, %xmm14
vpshufb 16(%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm11, %xmm11
vpxor %xmm11, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm15
vpsrld $25, %xmm7, %xmm7
vpxor %xmm15, %xmm7, %xmm7
vmovdqu %xmm14, 64(%rsp)
vmovdqu 48(%rsp), %xmm14
vmovdqu %xmm14, 48(%rsp)
vmovdqu 64(%rsp), %xmm14
vpaddd %xmm5, %xmm0, %xmm0
vpxor %xmm0, %xmm14, %xmm14
vpshufb (%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm10, %xmm10
vpxor %xmm10, %xmm5, %xmm5
vpslld $12, %xmm5, %xmm15
vpsrld $20, %xmm5, %xmm5
vpxor %xmm15, %xmm5, %xmm5
vpaddd %xmm5, %xmm0, %xmm0
vpxor %xmm0, %xmm14, %xmm14
vpshufb 16(%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm10, %xmm10
vpxor %xmm10, %xmm5, %xmm5
vpslld $7, %xmm5, %xmm15
vpsrld $25, %xmm5, %xmm5
vpxor %xmm15, %xmm5, %xmm5
vmovdqu %xmm14, 32(%rsp)
vmovdqu 48(%rsp), %xmm14
vpaddd %xmm6, %xmm1, %xmm1
vpxor %xmm1, %xmm12, %xmm12
vpshufb (%rsp), %xmm12, %xmm12
vpaddd %xmm12, %xmm11, %xmm11
vpxor %xmm11, %xmm6, %xmm6
vpslld $12, %xmm6, %xmm15
vpsrld $20, %xmm6, %xmm6
vpxor %xmm15, %xmm6, %xmm6
vpaddd %xmm6, %xmm1, %xmm1
vpxor %xmm1, %xmm12, %xmm12
vpshufb 16(%rsp), %xmm12, %xmm12
vpaddd %xmm12, %xmm11, %xmm11
vpxor %xmm11, %xmm6, %xmm6
vpslld $7, %xmm6, %xmm15
vpsrld $25, %xmm6, %xmm6
vpxor %xmm15, %xmm6, %xmm6
vpaddd %xmm7, %xmm2, %xmm2
vpxor %xmm2, %xmm13, %xmm13
vpshufb (%rsp), %xmm13, %xmm13
vpaddd %xmm13, %xmm8, %xmm8
vpxor %xmm8, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm15
vpsrld $20, %xmm7, %xmm7
vpxor %xmm15, %xmm7, %xmm7
vpaddd %xmm7, %xmm2, %xmm2
vpxor %xmm2, %xmm13, %xmm13
vpshufb 16(%rsp), %xmm13, %xmm13
vpaddd %xmm13, %xmm8, %xmm8
vpxor %xmm8, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm15
vpsrld $25, %xmm7, %xmm7
vpxor %xmm15, %xmm7, %xmm7
vpaddd %xmm4, %xmm3, %xmm3
vpxor %xmm3, %xmm14, %xmm14
vpshufb (%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm9, %xmm9
vpxor %xmm9, %xmm4, %xmm4
vpslld $12, %xmm4, %xmm15
vpsrld $20, %xmm4, %xmm4
vpxor %xmm15, %xmm4, %xmm4
vpaddd %xmm4, %xmm3, %xmm3
vpxor %xmm3, %xmm14, %xmm14
vpshufb 16(%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm9, %xmm9
vpxor %xmm9, %xmm4, %xmm4
vpslld $7, %xmm4, %xmm15
vpsrld $25, %xmm4, %xmm4
vpxor %xmm15, %xmm4, %xmm4
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$28
vmovdqu 32(%rsp), %xmm15
vpaddd 336(%rsp), %xmm0, %xmm0
vpaddd 352(%rsp), %xmm1, %xmm1
vpaddd 368(%rsp), %xmm2, %xmm2
vpaddd 384(%rsp), %xmm3, %xmm3
vpaddd 400(%rsp), %xmm4, %xmm4
vpaddd 416(%rsp), %xmm5, %xmm5
vpaddd 432(%rsp), %xmm6, %xmm6
vpaddd 448(%rsp), %xmm7, %xmm7
vpaddd 464(%rsp), %xmm8, %xmm8
vpaddd 480(%rsp), %xmm9, %xmm9
vpaddd 496(%rsp), %xmm10, %xmm10
vpaddd 512(%rsp), %xmm11, %xmm11
vpaddd 528(%rsp), %xmm12, %xmm12
vpaddd 544(%rsp), %xmm13, %xmm13
vpaddd 560(%rsp), %xmm14, %xmm14
vpaddd 576(%rsp), %xmm15, %xmm15
vmovdqu %xmm8, 80(%rsp)
vmovdqu %xmm9, 96(%rsp)
vmovdqu %xmm10, 112(%rsp)
vmovdqu %xmm11, 128(%rsp)
vmovdqu %xmm12, 144(%rsp)
vmovdqu %xmm13, 160(%rsp)
vmovdqu %xmm14, 176(%rsp)
vmovdqu %xmm15, 192(%rsp)
vpunpckldq %xmm1, %xmm0, %xmm8
vpunpckhdq %xmm1, %xmm0, %xmm0
vpunpckldq %xmm3, %xmm2, %xmm1
vpunpckhdq %xmm3, %xmm2, %xmm2
vpunpckldq %xmm5, %xmm4, %xmm3
vpunpckhdq %xmm5, %xmm4, %xmm4
vpunpckldq %xmm7, %xmm6, %xmm5
vpunpckhdq %xmm7, %xmm6, %xmm6
vpunpcklqdq %xmm1, %xmm8, %xmm7
vpunpcklqdq %xmm5, %xmm3, %xmm9
vpunpckhqdq %xmm1, %xmm8, %xmm1
vpunpckhqdq %xmm5, %xmm3, %xmm3
vpunpcklqdq %xmm2, %xmm0, %xmm5
vpunpcklqdq %xmm6, %xmm4, %xmm8
vpunpckhqdq %xmm2, %xmm0, %xmm0
vpunpckhqdq %xmm6, %xmm4, %xmm2
vmovdqu %xmm7, 208(%rsp)
vmovdqu %xmm9, 224(%rsp)
vmovdqu %xmm1, 240(%rsp)
vmovdqu %xmm3, 256(%rsp)
vmovdqu %xmm5, 272(%rsp)
vmovdqu %xmm8, 288(%rsp)
vmovdqu %xmm0, 304(%rsp)
vmovdqu %xmm2, 320(%rsp)
vmovdqu 80(%rsp), %xmm0
vmovdqu 112(%rsp), %xmm1
vmovdqu 144(%rsp), %xmm2
vmovdqu 176(%rsp), %xmm3
vpunpckldq 96(%rsp), %xmm0, %xmm4
vpunpckhdq 96(%rsp), %xmm0, %xmm0
vpunpckldq 128(%rsp), %xmm1, %xmm5
vpunpckhdq 128(%rsp), %xmm1, %xmm1
vpunpckldq 160(%rsp), %xmm2, %xmm6
vpunpckhdq 160(%rsp), %xmm2, %xmm2
vpunpckldq 192(%rsp), %xmm3, %xmm7
vpunpckhdq 192(%rsp), %xmm3, %xmm3
vpunpcklqdq %xmm5, %xmm4, %xmm8
vpunpcklqdq %xmm7, %xmm6, %xmm9
vpunpckhqdq %xmm5, %xmm4, %xmm4
vpunpckhqdq %xmm7, %xmm6, %xmm5
vpunpcklqdq %xmm1, %xmm0, %xmm6
vpunpcklqdq %xmm3, %xmm2, %xmm7
vpunpckhqdq %xmm1, %xmm0, %xmm0
vpunpckhqdq %xmm3, %xmm2, %xmm1
vmovdqu 208(%rsp), %xmm13
vmovdqu 224(%rsp), %xmm12
vmovdqu %xmm8, %xmm11
vmovdqu %xmm9, %xmm10
vmovdqu 240(%rsp), %xmm9
vmovdqu 256(%rsp), %xmm8
vmovdqu %xmm4, %xmm3
vmovdqu %xmm5, %xmm2
cmpq $128, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$27
vmovdqu %xmm13, (%rdi)
vmovdqu %xmm12, 16(%rdi)
vmovdqu %xmm11, 32(%rdi)
vmovdqu %xmm10, 48(%rdi)
vmovdqu %xmm9, 64(%rdi)
vmovdqu %xmm8, 80(%rdi)
vmovdqu %xmm3, 96(%rdi)
vmovdqu %xmm2, 112(%rdi)
addq $128, %rdi
addq $-128, %rsi
vmovdqu 272(%rsp), %xmm13
vmovdqu 288(%rsp), %xmm12
vmovdqu %xmm6, %xmm11
vmovdqu %xmm7, %xmm10
vmovdqu 304(%rsp), %xmm9
vmovdqu 320(%rsp), %xmm8
vmovdqu %xmm0, %xmm3
vmovdqu %xmm1, %xmm2
Ljade_stream_chacha_chacha20_ietf_amd64_avx$27:
cmpq $64, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$26
vmovdqu %xmm13, (%rdi)
vmovdqu %xmm12, 16(%rdi)
vmovdqu %xmm11, 32(%rdi)
vmovdqu %xmm10, 48(%rdi)
addq $64, %rdi
addq $-64, %rsi
vmovdqu %xmm9, %xmm13
vmovdqu %xmm8, %xmm12
vmovdqu %xmm3, %xmm11
vmovdqu %xmm2, %xmm10
Ljade_stream_chacha_chacha20_ietf_amd64_avx$26:
cmpq $32, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$25
vmovdqu %xmm13, (%rdi)
vmovdqu %xmm12, 16(%rdi)
addq $32, %rdi
addq $-32, %rsi
vmovdqu %xmm11, %xmm13
vmovdqu %xmm10, %xmm12
Ljade_stream_chacha_chacha20_ietf_amd64_avx$25:
cmpq $16, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$24
vmovdqu %xmm13, (%rdi)
addq $16, %rdi
addq $-16, %rsi
vmovdqu %xmm12, %xmm13
Ljade_stream_chacha_chacha20_ietf_amd64_avx$24:
vpextrq $0, %xmm13, %rax
cmpq $8, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$21
movq %rax, (%rdi)
addq $8, %rdi
addq $-8, %rsi
vpextrq $1, %xmm13, %rax
Ljade_stream_chacha_chacha20_ietf_amd64_avx$23:
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx$21
Ljade_stream_chacha_chacha20_ietf_amd64_avx$22:
movb %al, %cl
movb %cl, (%rdi)
shrq $8, %rax
incq %rdi
addq $-1, %rsi
Ljade_stream_chacha_chacha20_ietf_amd64_avx$21:
cmpq $0, %rsi
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$22
Ljade_stream_chacha_chacha20_ietf_amd64_avx$20:
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx$2
Ljade_stream_chacha_chacha20_ietf_amd64_avx$1:
vmovdqu glob_data + 64(%rip), %xmm0
vmovdqu glob_data + 48(%rip), %xmm1
vmovdqu glob_data + 208(%rip), %xmm2
vmovdqu (%rcx), %xmm3
vmovdqu 16(%rcx), %xmm4
vpxor %xmm5, %xmm5, %xmm5
vpinsrd $1, (%rdx), %xmm5, %xmm5
vpinsrq $1, 4(%rdx), %xmm5, %xmm5
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx$17
Ljade_stream_chacha_chacha20_ietf_amd64_avx$18:
vmovdqu %xmm2, %xmm6
vmovdqu %xmm3, %xmm7
vmovdqu %xmm4, %xmm8
vmovdqu %xmm5, %xmm9
vmovdqu %xmm2, %xmm10
vmovdqu %xmm3, %xmm11
vmovdqu %xmm4, %xmm12
vmovdqu %xmm5, %xmm13
vpaddd glob_data + 32(%rip), %xmm13, %xmm13
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx$19:
vpaddd %xmm7, %xmm6, %xmm6
vpaddd %xmm11, %xmm10, %xmm10
vpxor %xmm6, %xmm9, %xmm9
vpxor %xmm10, %xmm13, %xmm13
vpshufb %xmm0, %xmm9, %xmm9
vpshufb %xmm0, %xmm13, %xmm13
vpaddd %xmm9, %xmm8, %xmm8
vpaddd %xmm13, %xmm12, %xmm12
vpxor %xmm8, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm14
vpsrld $20, %xmm7, %xmm7
vpxor %xmm12, %xmm11, %xmm11
vpxor %xmm14, %xmm7, %xmm7
vpslld $12, %xmm11, %xmm14
vpsrld $20, %xmm11, %xmm11
vpxor %xmm14, %xmm11, %xmm11
vpaddd %xmm7, %xmm6, %xmm6
vpaddd %xmm11, %xmm10, %xmm10
vpxor %xmm6, %xmm9, %xmm9
vpxor %xmm10, %xmm13, %xmm13
vpshufb %xmm1, %xmm9, %xmm9
vpshufb %xmm1, %xmm13, %xmm13
vpaddd %xmm9, %xmm8, %xmm8
vpaddd %xmm13, %xmm12, %xmm12
vpxor %xmm8, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm14
vpsrld $25, %xmm7, %xmm7
vpxor %xmm12, %xmm11, %xmm11
vpxor %xmm14, %xmm7, %xmm7
vpslld $7, %xmm11, %xmm14
vpsrld $25, %xmm11, %xmm11
vpxor %xmm14, %xmm11, %xmm11
vpshufd $57, %xmm7, %xmm7
vpshufd $78, %xmm8, %xmm8
vpshufd $-109, %xmm9, %xmm9
vpshufd $57, %xmm11, %xmm11
vpshufd $78, %xmm12, %xmm12
vpshufd $-109, %xmm13, %xmm13
vpaddd %xmm7, %xmm6, %xmm6
vpaddd %xmm11, %xmm10, %xmm10
vpxor %xmm6, %xmm9, %xmm9
vpxor %xmm10, %xmm13, %xmm13
vpshufb %xmm0, %xmm9, %xmm9
vpshufb %xmm0, %xmm13, %xmm13
vpaddd %xmm9, %xmm8, %xmm8
vpaddd %xmm13, %xmm12, %xmm12
vpxor %xmm8, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm14
vpsrld $20, %xmm7, %xmm7
vpxor %xmm12, %xmm11, %xmm11
vpxor %xmm14, %xmm7, %xmm7
vpslld $12, %xmm11, %xmm14
vpsrld $20, %xmm11, %xmm11
vpxor %xmm14, %xmm11, %xmm11
vpaddd %xmm7, %xmm6, %xmm6
vpaddd %xmm11, %xmm10, %xmm10
vpxor %xmm6, %xmm9, %xmm9
vpxor %xmm10, %xmm13, %xmm13
vpshufb %xmm1, %xmm9, %xmm9
vpshufb %xmm1, %xmm13, %xmm13
vpaddd %xmm9, %xmm8, %xmm8
vpaddd %xmm13, %xmm12, %xmm12
vpxor %xmm8, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm14
vpsrld $25, %xmm7, %xmm7
vpxor %xmm12, %xmm11, %xmm11
vpxor %xmm14, %xmm7, %xmm7
vpslld $7, %xmm11, %xmm14
vpsrld $25, %xmm11, %xmm11
vpxor %xmm14, %xmm11, %xmm11
vpshufd $-109, %xmm7, %xmm7
vpshufd $78, %xmm8, %xmm8
vpshufd $57, %xmm9, %xmm9
vpshufd $-109, %xmm11, %xmm11
vpshufd $78, %xmm12, %xmm12
vpshufd $57, %xmm13, %xmm13
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$19
vpaddd %xmm2, %xmm6, %xmm6
vpaddd %xmm3, %xmm7, %xmm7
vpaddd %xmm4, %xmm8, %xmm8
vpaddd %xmm5, %xmm9, %xmm9
vpaddd %xmm2, %xmm10, %xmm10
vpaddd %xmm3, %xmm11, %xmm11
vpaddd %xmm4, %xmm12, %xmm12
vpaddd %xmm5, %xmm13, %xmm13
vpaddd glob_data + 32(%rip), %xmm13, %xmm13
vmovdqu %xmm6, (%rdi)
vmovdqu %xmm7, 16(%rdi)
vmovdqu %xmm8, 32(%rdi)
vmovdqu %xmm9, 48(%rdi)
vmovdqu %xmm10, 64(%rdi)
vmovdqu %xmm11, 80(%rdi)
vmovdqu %xmm12, 96(%rdi)
vmovdqu %xmm13, 112(%rdi)
addq $128, %rdi
addq $-128, %rsi
vpaddd glob_data + 16(%rip), %xmm5, %xmm5
Ljade_stream_chacha_chacha20_ietf_amd64_avx$17:
cmpq $128, %rsi
jnb Ljade_stream_chacha_chacha20_ietf_amd64_avx$18
cmpq $64, %rsi
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$3
vmovdqu %xmm2, %xmm6
vmovdqu %xmm3, %xmm7
vmovdqu %xmm4, %xmm8
vmovdqu %xmm5, %xmm9
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx$16:
vpaddd %xmm7, %xmm6, %xmm6
vpxor %xmm6, %xmm9, %xmm9
vpshufb %xmm0, %xmm9, %xmm9
vpaddd %xmm9, %xmm8, %xmm8
vpxor %xmm8, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm10
vpsrld $20, %xmm7, %xmm7
vpxor %xmm10, %xmm7, %xmm7
vpaddd %xmm7, %xmm6, %xmm6
vpxor %xmm6, %xmm9, %xmm9
vpshufb %xmm1, %xmm9, %xmm9
vpaddd %xmm9, %xmm8, %xmm8
vpxor %xmm8, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm10
vpsrld $25, %xmm7, %xmm7
vpxor %xmm10, %xmm7, %xmm7
vpshufd $57, %xmm7, %xmm7
vpshufd $78, %xmm8, %xmm8
vpshufd $-109, %xmm9, %xmm9
vpaddd %xmm7, %xmm6, %xmm6
vpxor %xmm6, %xmm9, %xmm9
vpshufb %xmm0, %xmm9, %xmm9
vpaddd %xmm9, %xmm8, %xmm8
vpxor %xmm8, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm10
vpsrld $20, %xmm7, %xmm7
vpxor %xmm10, %xmm7, %xmm7
vpaddd %xmm7, %xmm6, %xmm6
vpxor %xmm6, %xmm9, %xmm9
vpshufb %xmm1, %xmm9, %xmm9
vpaddd %xmm9, %xmm8, %xmm8
vpxor %xmm8, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm10
vpsrld $25, %xmm7, %xmm7
vpxor %xmm10, %xmm7, %xmm7
vpshufd $-109, %xmm7, %xmm7
vpshufd $78, %xmm8, %xmm8
vpshufd $57, %xmm9, %xmm9
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$16
vpaddd %xmm2, %xmm6, %xmm6
vpaddd %xmm3, %xmm7, %xmm2
vpaddd %xmm4, %xmm8, %xmm0
vpaddd %xmm5, %xmm9, %xmm1
cmpq $32, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$15
vmovdqu %xmm6, (%rdi)
vmovdqu %xmm2, 16(%rdi)
addq $32, %rdi
addq $-32, %rsi
vmovdqu %xmm0, %xmm6
vmovdqu %xmm1, %xmm2
Ljade_stream_chacha_chacha20_ietf_amd64_avx$15:
cmpq $16, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$14
vmovdqu %xmm6, (%rdi)
addq $16, %rdi
addq $-16, %rsi
vmovdqu %xmm2, %xmm6
Ljade_stream_chacha_chacha20_ietf_amd64_avx$14:
vpextrq $0, %xmm6, %rax
cmpq $8, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$11
movq %rax, (%rdi)
addq $8, %rdi
addq $-8, %rsi
vpextrq $1, %xmm6, %rax
Ljade_stream_chacha_chacha20_ietf_amd64_avx$13:
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx$11
Ljade_stream_chacha_chacha20_ietf_amd64_avx$12:
movb %al, %cl
movb %cl, (%rdi)
shrq $8, %rax
incq %rdi
addq $-1, %rsi
Ljade_stream_chacha_chacha20_ietf_amd64_avx$11:
cmpq $0, %rsi
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$12
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx$2
Ljade_stream_chacha_chacha20_ietf_amd64_avx$3:
vmovdqu %xmm2, %xmm6
vmovdqu %xmm3, %xmm7
vmovdqu %xmm4, %xmm8
vmovdqu %xmm5, %xmm9
vmovdqu %xmm2, %xmm10
vmovdqu %xmm3, %xmm11
vmovdqu %xmm4, %xmm12
vmovdqu %xmm5, %xmm13
vpaddd glob_data + 32(%rip), %xmm13, %xmm13
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx$10:
vpaddd %xmm7, %xmm6, %xmm6
vpaddd %xmm11, %xmm10, %xmm10
vpxor %xmm6, %xmm9, %xmm9
vpxor %xmm10, %xmm13, %xmm13
vpshufb %xmm0, %xmm9, %xmm9
vpshufb %xmm0, %xmm13, %xmm13
vpaddd %xmm9, %xmm8, %xmm8
vpaddd %xmm13, %xmm12, %xmm12
vpxor %xmm8, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm14
vpsrld $20, %xmm7, %xmm7
vpxor %xmm12, %xmm11, %xmm11
vpxor %xmm14, %xmm7, %xmm7
vpslld $12, %xmm11, %xmm14
vpsrld $20, %xmm11, %xmm11
vpxor %xmm14, %xmm11, %xmm11
vpaddd %xmm7, %xmm6, %xmm6
vpaddd %xmm11, %xmm10, %xmm10
vpxor %xmm6, %xmm9, %xmm9
vpxor %xmm10, %xmm13, %xmm13
vpshufb %xmm1, %xmm9, %xmm9
vpshufb %xmm1, %xmm13, %xmm13
vpaddd %xmm9, %xmm8, %xmm8
vpaddd %xmm13, %xmm12, %xmm12
vpxor %xmm8, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm14
vpsrld $25, %xmm7, %xmm7
vpxor %xmm12, %xmm11, %xmm11
vpxor %xmm14, %xmm7, %xmm7
vpslld $7, %xmm11, %xmm14
vpsrld $25, %xmm11, %xmm11
vpxor %xmm14, %xmm11, %xmm11
vpshufd $57, %xmm7, %xmm7
vpshufd $78, %xmm8, %xmm8
vpshufd $-109, %xmm9, %xmm9
vpshufd $57, %xmm11, %xmm11
vpshufd $78, %xmm12, %xmm12
vpshufd $-109, %xmm13, %xmm13
vpaddd %xmm7, %xmm6, %xmm6
vpaddd %xmm11, %xmm10, %xmm10
vpxor %xmm6, %xmm9, %xmm9
vpxor %xmm10, %xmm13, %xmm13
vpshufb %xmm0, %xmm9, %xmm9
vpshufb %xmm0, %xmm13, %xmm13
vpaddd %xmm9, %xmm8, %xmm8
vpaddd %xmm13, %xmm12, %xmm12
vpxor %xmm8, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm14
vpsrld $20, %xmm7, %xmm7
vpxor %xmm12, %xmm11, %xmm11
vpxor %xmm14, %xmm7, %xmm7
vpslld $12, %xmm11, %xmm14
vpsrld $20, %xmm11, %xmm11
vpxor %xmm14, %xmm11, %xmm11
vpaddd %xmm7, %xmm6, %xmm6
vpaddd %xmm11, %xmm10, %xmm10
vpxor %xmm6, %xmm9, %xmm9
vpxor %xmm10, %xmm13, %xmm13
vpshufb %xmm1, %xmm9, %xmm9
vpshufb %xmm1, %xmm13, %xmm13
vpaddd %xmm9, %xmm8, %xmm8
vpaddd %xmm13, %xmm12, %xmm12
vpxor %xmm8, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm14
vpsrld $25, %xmm7, %xmm7
vpxor %xmm12, %xmm11, %xmm11
vpxor %xmm14, %xmm7, %xmm7
vpslld $7, %xmm11, %xmm14
vpsrld $25, %xmm11, %xmm11
vpxor %xmm14, %xmm11, %xmm11
vpshufd $-109, %xmm7, %xmm7
vpshufd $78, %xmm8, %xmm8
vpshufd $57, %xmm9, %xmm9
vpshufd $-109, %xmm11, %xmm11
vpshufd $78, %xmm12, %xmm12
vpshufd $57, %xmm13, %xmm13
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$10
vpaddd %xmm2, %xmm6, %xmm0
vpaddd %xmm3, %xmm7, %xmm1
vpaddd %xmm4, %xmm8, %xmm6
vpaddd %xmm5, %xmm9, %xmm7
vpaddd %xmm2, %xmm10, %xmm9
vpaddd %xmm3, %xmm11, %xmm8
vpaddd %xmm4, %xmm12, %xmm2
vpaddd %xmm5, %xmm13, %xmm3
vpaddd glob_data + 32(%rip), %xmm3, %xmm3
vmovdqu %xmm0, (%rdi)
vmovdqu %xmm1, 16(%rdi)
vmovdqu %xmm6, 32(%rdi)
vmovdqu %xmm7, 48(%rdi)
addq $64, %rdi
addq $-64, %rsi
cmpq $32, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$9
vmovdqu %xmm9, (%rdi)
vmovdqu %xmm8, 16(%rdi)
addq $32, %rdi
addq $-32, %rsi
vmovdqu %xmm2, %xmm9
vmovdqu %xmm3, %xmm8
Ljade_stream_chacha_chacha20_ietf_amd64_avx$9:
cmpq $16, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$8
vmovdqu %xmm9, (%rdi)
addq $16, %rdi
addq $-16, %rsi
vmovdqu %xmm8, %xmm9
Ljade_stream_chacha_chacha20_ietf_amd64_avx$8:
vpextrq $0, %xmm9, %rax
cmpq $8, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$5
movq %rax, (%rdi)
addq $8, %rdi
addq $-8, %rsi
vpextrq $1, %xmm9, %rax
Ljade_stream_chacha_chacha20_ietf_amd64_avx$7:
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx$5
Ljade_stream_chacha_chacha20_ietf_amd64_avx$6:
movb %al, %cl
movb %cl, (%rdi)
shrq $8, %rax
incq %rdi
addq $-1, %rsi
Ljade_stream_chacha_chacha20_ietf_amd64_avx$5:
cmpq $0, %rsi
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$6
Ljade_stream_chacha_chacha20_ietf_amd64_avx$4:
Ljade_stream_chacha_chacha20_ietf_amd64_avx$2:
xorq %rax, %rax
movq %r10, %rsp
ret
_jade_stream_chacha_chacha20_ietf_amd64_avx_xor:
jade_stream_chacha_chacha20_ietf_amd64_avx_xor:
movq %rsp, %r10
leaq -592(%rsp), %rsp
andq $-16, %rsp
cmpq $129, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$1
vmovdqu glob_data + 64(%rip), %xmm0
vmovdqu glob_data + 48(%rip), %xmm1
vmovdqu %xmm0, (%rsp)
vmovdqu %xmm1, 16(%rsp)
vmovdqu glob_data + 112(%rip), %xmm0
vmovdqu glob_data + 128(%rip), %xmm1
vmovdqu glob_data + 144(%rip), %xmm2
vmovdqu glob_data + 160(%rip), %xmm3
vpbroadcastd (%r8), %xmm4
vpbroadcastd 4(%r8), %xmm5
vpbroadcastd 8(%r8), %xmm6
vpbroadcastd 12(%r8), %xmm7
vpbroadcastd 16(%r8), %xmm8
vpbroadcastd 20(%r8), %xmm9
vpbroadcastd 24(%r8), %xmm10
vpbroadcastd 28(%r8), %xmm11
vmovdqu glob_data + 96(%rip), %xmm12
vpbroadcastd (%rcx), %xmm13
vpbroadcastd 4(%rcx), %xmm14
vpbroadcastd 8(%rcx), %xmm15
vmovdqu %xmm0, 336(%rsp)
vmovdqu %xmm1, 352(%rsp)
vmovdqu %xmm2, 368(%rsp)
vmovdqu %xmm3, 384(%rsp)
vmovdqu %xmm4, 400(%rsp)
vmovdqu %xmm5, 416(%rsp)
vmovdqu %xmm6, 432(%rsp)
vmovdqu %xmm7, 448(%rsp)
vmovdqu %xmm8, 464(%rsp)
vmovdqu %xmm9, 480(%rsp)
vmovdqu %xmm10, 496(%rsp)
vmovdqu %xmm11, 512(%rsp)
vmovdqu %xmm12, 528(%rsp)
vmovdqu %xmm13, 544(%rsp)
vmovdqu %xmm14, 560(%rsp)
vmovdqu %xmm15, 576(%rsp)
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$29
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$30:
vmovdqu 336(%rsp), %xmm0
vmovdqu 352(%rsp), %xmm1
vmovdqu 368(%rsp), %xmm2
vmovdqu 384(%rsp), %xmm3
vmovdqu 400(%rsp), %xmm4
vmovdqu 416(%rsp), %xmm5
vmovdqu 432(%rsp), %xmm6
vmovdqu 448(%rsp), %xmm7
vmovdqu 464(%rsp), %xmm8
vmovdqu 480(%rsp), %xmm9
vmovdqu 496(%rsp), %xmm10
vmovdqu 512(%rsp), %xmm11
vmovdqu 528(%rsp), %xmm12
vmovdqu 544(%rsp), %xmm13
vmovdqu 560(%rsp), %xmm14
vmovdqu 576(%rsp), %xmm15
vmovdqu %xmm15, 32(%rsp)
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$31:
vpaddd %xmm4, %xmm0, %xmm0
vpxor %xmm0, %xmm12, %xmm12
vpshufb (%rsp), %xmm12, %xmm12
vpaddd %xmm12, %xmm8, %xmm8
vpxor %xmm8, %xmm4, %xmm4
vpslld $12, %xmm4, %xmm15
vpsrld $20, %xmm4, %xmm4
vpxor %xmm15, %xmm4, %xmm4
vpaddd %xmm4, %xmm0, %xmm0
vpxor %xmm0, %xmm12, %xmm12
vpshufb 16(%rsp), %xmm12, %xmm12
vpaddd %xmm12, %xmm8, %xmm8
vpxor %xmm8, %xmm4, %xmm4
vpslld $7, %xmm4, %xmm15
vpsrld $25, %xmm4, %xmm4
vpxor %xmm15, %xmm4, %xmm4
vpaddd %xmm5, %xmm1, %xmm1
vpxor %xmm1, %xmm13, %xmm13
vpshufb (%rsp), %xmm13, %xmm13
vpaddd %xmm13, %xmm9, %xmm9
vpxor %xmm9, %xmm5, %xmm5
vpslld $12, %xmm5, %xmm15
vpsrld $20, %xmm5, %xmm5
vpxor %xmm15, %xmm5, %xmm5
vpaddd %xmm5, %xmm1, %xmm1
vpxor %xmm1, %xmm13, %xmm13
vpshufb 16(%rsp), %xmm13, %xmm13
vpaddd %xmm13, %xmm9, %xmm9
vpxor %xmm9, %xmm5, %xmm5
vpslld $7, %xmm5, %xmm15
vpsrld $25, %xmm5, %xmm5
vpxor %xmm15, %xmm5, %xmm5
vpaddd %xmm6, %xmm2, %xmm2
vpxor %xmm2, %xmm14, %xmm14
vpshufb (%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm10, %xmm10
vpxor %xmm10, %xmm6, %xmm6
vpslld $12, %xmm6, %xmm15
vpsrld $20, %xmm6, %xmm6
vpxor %xmm15, %xmm6, %xmm6
vpaddd %xmm6, %xmm2, %xmm2
vpxor %xmm2, %xmm14, %xmm14
vpshufb 16(%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm10, %xmm10
vpxor %xmm10, %xmm6, %xmm6
vpslld $7, %xmm6, %xmm15
vpsrld $25, %xmm6, %xmm6
vpxor %xmm15, %xmm6, %xmm6
vmovdqu %xmm14, 48(%rsp)
vmovdqu 32(%rsp), %xmm14
vpaddd %xmm7, %xmm3, %xmm3
vpxor %xmm3, %xmm14, %xmm14
vpshufb (%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm11, %xmm11
vpxor %xmm11, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm15
vpsrld $20, %xmm7, %xmm7
vpxor %xmm15, %xmm7, %xmm7
vpaddd %xmm7, %xmm3, %xmm3
vpxor %xmm3, %xmm14, %xmm14
vpshufb 16(%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm11, %xmm11
vpxor %xmm11, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm15
vpsrld $25, %xmm7, %xmm7
vpxor %xmm15, %xmm7, %xmm7
vmovdqu %xmm14, 64(%rsp)
vmovdqu 48(%rsp), %xmm14
vmovdqu %xmm14, 48(%rsp)
vmovdqu 64(%rsp), %xmm14
vpaddd %xmm5, %xmm0, %xmm0
vpxor %xmm0, %xmm14, %xmm14
vpshufb (%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm10, %xmm10
vpxor %xmm10, %xmm5, %xmm5
vpslld $12, %xmm5, %xmm15
vpsrld $20, %xmm5, %xmm5
vpxor %xmm15, %xmm5, %xmm5
vpaddd %xmm5, %xmm0, %xmm0
vpxor %xmm0, %xmm14, %xmm14
vpshufb 16(%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm10, %xmm10
vpxor %xmm10, %xmm5, %xmm5
vpslld $7, %xmm5, %xmm15
vpsrld $25, %xmm5, %xmm5
vpxor %xmm15, %xmm5, %xmm5
vmovdqu %xmm14, 32(%rsp)
vmovdqu 48(%rsp), %xmm14
vpaddd %xmm6, %xmm1, %xmm1
vpxor %xmm1, %xmm12, %xmm12
vpshufb (%rsp), %xmm12, %xmm12
vpaddd %xmm12, %xmm11, %xmm11
vpxor %xmm11, %xmm6, %xmm6
vpslld $12, %xmm6, %xmm15
vpsrld $20, %xmm6, %xmm6
vpxor %xmm15, %xmm6, %xmm6
vpaddd %xmm6, %xmm1, %xmm1
vpxor %xmm1, %xmm12, %xmm12
vpshufb 16(%rsp), %xmm12, %xmm12
vpaddd %xmm12, %xmm11, %xmm11
vpxor %xmm11, %xmm6, %xmm6
vpslld $7, %xmm6, %xmm15
vpsrld $25, %xmm6, %xmm6
vpxor %xmm15, %xmm6, %xmm6
vpaddd %xmm7, %xmm2, %xmm2
vpxor %xmm2, %xmm13, %xmm13
vpshufb (%rsp), %xmm13, %xmm13
vpaddd %xmm13, %xmm8, %xmm8
vpxor %xmm8, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm15
vpsrld $20, %xmm7, %xmm7
vpxor %xmm15, %xmm7, %xmm7
vpaddd %xmm7, %xmm2, %xmm2
vpxor %xmm2, %xmm13, %xmm13
vpshufb 16(%rsp), %xmm13, %xmm13
vpaddd %xmm13, %xmm8, %xmm8
vpxor %xmm8, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm15
vpsrld $25, %xmm7, %xmm7
vpxor %xmm15, %xmm7, %xmm7
vpaddd %xmm4, %xmm3, %xmm3
vpxor %xmm3, %xmm14, %xmm14
vpshufb (%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm9, %xmm9
vpxor %xmm9, %xmm4, %xmm4
vpslld $12, %xmm4, %xmm15
vpsrld $20, %xmm4, %xmm4
vpxor %xmm15, %xmm4, %xmm4
vpaddd %xmm4, %xmm3, %xmm3
vpxor %xmm3, %xmm14, %xmm14
vpshufb 16(%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm9, %xmm9
vpxor %xmm9, %xmm4, %xmm4
vpslld $7, %xmm4, %xmm15
vpsrld $25, %xmm4, %xmm4
vpxor %xmm15, %xmm4, %xmm4
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$31
vmovdqu 32(%rsp), %xmm15
vpaddd 336(%rsp), %xmm0, %xmm0
vpaddd 352(%rsp), %xmm1, %xmm1
vpaddd 368(%rsp), %xmm2, %xmm2
vpaddd 384(%rsp), %xmm3, %xmm3
vpaddd 400(%rsp), %xmm4, %xmm4
vpaddd 416(%rsp), %xmm5, %xmm5
vpaddd 432(%rsp), %xmm6, %xmm6
vpaddd 448(%rsp), %xmm7, %xmm7
vpaddd 464(%rsp), %xmm8, %xmm8
vpaddd 480(%rsp), %xmm9, %xmm9
vpaddd 496(%rsp), %xmm10, %xmm10
vpaddd 512(%rsp), %xmm11, %xmm11
vpaddd 528(%rsp), %xmm12, %xmm12
vpaddd 544(%rsp), %xmm13, %xmm13
vpaddd 560(%rsp), %xmm14, %xmm14
vpaddd 576(%rsp), %xmm15, %xmm15
vmovdqu %xmm8, 80(%rsp)
vmovdqu %xmm9, 96(%rsp)
vmovdqu %xmm10, 112(%rsp)
vmovdqu %xmm11, 128(%rsp)
vmovdqu %xmm12, 144(%rsp)
vmovdqu %xmm13, 160(%rsp)
vmovdqu %xmm14, 176(%rsp)
vmovdqu %xmm15, 192(%rsp)
vpunpckldq %xmm1, %xmm0, %xmm8
vpunpckhdq %xmm1, %xmm0, %xmm0
vpunpckldq %xmm3, %xmm2, %xmm1
vpunpckhdq %xmm3, %xmm2, %xmm2
vpunpckldq %xmm5, %xmm4, %xmm3
vpunpckhdq %xmm5, %xmm4, %xmm4
vpunpckldq %xmm7, %xmm6, %xmm5
vpunpckhdq %xmm7, %xmm6, %xmm6
vpunpcklqdq %xmm1, %xmm8, %xmm7
vpunpcklqdq %xmm5, %xmm3, %xmm9
vpunpckhqdq %xmm1, %xmm8, %xmm1
vpunpckhqdq %xmm5, %xmm3, %xmm3
vpunpcklqdq %xmm2, %xmm0, %xmm5
vpunpcklqdq %xmm6, %xmm4, %xmm8
vpunpckhqdq %xmm2, %xmm0, %xmm0
vpunpckhqdq %xmm6, %xmm4, %xmm2
vpxor (%rsi), %xmm7, %xmm4
vpxor 16(%rsi), %xmm9, %xmm6
vpxor 64(%rsi), %xmm1, %xmm1
vpxor 80(%rsi), %xmm3, %xmm3
vpxor 128(%rsi), %xmm5, %xmm5
vpxor 144(%rsi), %xmm8, %xmm7
vpxor 192(%rsi), %xmm0, %xmm0
vpxor 208(%rsi), %xmm2, %xmm2
vmovdqu %xmm4, (%rdi)
vmovdqu %xmm6, 16(%rdi)
vmovdqu %xmm1, 64(%rdi)
vmovdqu %xmm3, 80(%rdi)
vmovdqu %xmm5, 128(%rdi)
vmovdqu %xmm7, 144(%rdi)
vmovdqu %xmm0, 192(%rdi)
vmovdqu %xmm2, 208(%rdi)
vmovdqu 80(%rsp), %xmm0
vmovdqu 112(%rsp), %xmm1
vmovdqu 144(%rsp), %xmm2
vmovdqu 176(%rsp), %xmm3
vpunpckldq 96(%rsp), %xmm0, %xmm4
vpunpckhdq 96(%rsp), %xmm0, %xmm0
vpunpckldq 128(%rsp), %xmm1, %xmm5
vpunpckhdq 128(%rsp), %xmm1, %xmm1
vpunpckldq 160(%rsp), %xmm2, %xmm6
vpunpckhdq 160(%rsp), %xmm2, %xmm2
vpunpckldq 192(%rsp), %xmm3, %xmm7
vpunpckhdq 192(%rsp), %xmm3, %xmm3
vpunpcklqdq %xmm5, %xmm4, %xmm8
vpunpcklqdq %xmm7, %xmm6, %xmm9
vpunpckhqdq %xmm5, %xmm4, %xmm4
vpunpckhqdq %xmm7, %xmm6, %xmm5
vpunpcklqdq %xmm1, %xmm0, %xmm6
vpunpcklqdq %xmm3, %xmm2, %xmm7
vpunpckhqdq %xmm1, %xmm0, %xmm0
vpunpckhqdq %xmm3, %xmm2, %xmm1
vpxor 32(%rsi), %xmm8, %xmm2
vpxor 48(%rsi), %xmm9, %xmm3
vpxor 96(%rsi), %xmm4, %xmm4
vpxor 112(%rsi), %xmm5, %xmm5
vpxor 160(%rsi), %xmm6, %xmm6
vpxor 176(%rsi), %xmm7, %xmm7
vpxor 224(%rsi), %xmm0, %xmm0
vpxor 240(%rsi), %xmm1, %xmm1
vmovdqu %xmm2, 32(%rdi)
vmovdqu %xmm3, 48(%rdi)
vmovdqu %xmm4, 96(%rdi)
vmovdqu %xmm5, 112(%rdi)
vmovdqu %xmm6, 160(%rdi)
vmovdqu %xmm7, 176(%rdi)
vmovdqu %xmm0, 224(%rdi)
vmovdqu %xmm1, 240(%rdi)
addq $256, %rdi
addq $256, %rsi
addq $-256, %rdx
vmovdqu glob_data + 0(%rip), %xmm0
vpaddd 528(%rsp), %xmm0, %xmm0
vmovdqu %xmm0, 528(%rsp)
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$29:
cmpq $256, %rdx
jnb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$30
cmpq $0, %rdx
jbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$2
vmovdqu 336(%rsp), %xmm0
vmovdqu 352(%rsp), %xmm1
vmovdqu 368(%rsp), %xmm2
vmovdqu 384(%rsp), %xmm3
vmovdqu 400(%rsp), %xmm4
vmovdqu 416(%rsp), %xmm5
vmovdqu 432(%rsp), %xmm6
vmovdqu 448(%rsp), %xmm7
vmovdqu 464(%rsp), %xmm8
vmovdqu 480(%rsp), %xmm9
vmovdqu 496(%rsp), %xmm10
vmovdqu 512(%rsp), %xmm11
vmovdqu 528(%rsp), %xmm12
vmovdqu 544(%rsp), %xmm13
vmovdqu 560(%rsp), %xmm14
vmovdqu 576(%rsp), %xmm15
vmovdqu %xmm15, 32(%rsp)
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$28:
vpaddd %xmm4, %xmm0, %xmm0
vpxor %xmm0, %xmm12, %xmm12
vpshufb (%rsp), %xmm12, %xmm12
vpaddd %xmm12, %xmm8, %xmm8
vpxor %xmm8, %xmm4, %xmm4
vpslld $12, %xmm4, %xmm15
vpsrld $20, %xmm4, %xmm4
vpxor %xmm15, %xmm4, %xmm4
vpaddd %xmm4, %xmm0, %xmm0
vpxor %xmm0, %xmm12, %xmm12
vpshufb 16(%rsp), %xmm12, %xmm12
vpaddd %xmm12, %xmm8, %xmm8
vpxor %xmm8, %xmm4, %xmm4
vpslld $7, %xmm4, %xmm15
vpsrld $25, %xmm4, %xmm4
vpxor %xmm15, %xmm4, %xmm4
vpaddd %xmm5, %xmm1, %xmm1
vpxor %xmm1, %xmm13, %xmm13
vpshufb (%rsp), %xmm13, %xmm13
vpaddd %xmm13, %xmm9, %xmm9
vpxor %xmm9, %xmm5, %xmm5
vpslld $12, %xmm5, %xmm15
vpsrld $20, %xmm5, %xmm5
vpxor %xmm15, %xmm5, %xmm5
vpaddd %xmm5, %xmm1, %xmm1
vpxor %xmm1, %xmm13, %xmm13
vpshufb 16(%rsp), %xmm13, %xmm13
vpaddd %xmm13, %xmm9, %xmm9
vpxor %xmm9, %xmm5, %xmm5
vpslld $7, %xmm5, %xmm15
vpsrld $25, %xmm5, %xmm5
vpxor %xmm15, %xmm5, %xmm5
vpaddd %xmm6, %xmm2, %xmm2
vpxor %xmm2, %xmm14, %xmm14
vpshufb (%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm10, %xmm10
vpxor %xmm10, %xmm6, %xmm6
vpslld $12, %xmm6, %xmm15
vpsrld $20, %xmm6, %xmm6
vpxor %xmm15, %xmm6, %xmm6
vpaddd %xmm6, %xmm2, %xmm2
vpxor %xmm2, %xmm14, %xmm14
vpshufb 16(%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm10, %xmm10
vpxor %xmm10, %xmm6, %xmm6
vpslld $7, %xmm6, %xmm15
vpsrld $25, %xmm6, %xmm6
vpxor %xmm15, %xmm6, %xmm6
vmovdqu %xmm14, 48(%rsp)
vmovdqu 32(%rsp), %xmm14
vpaddd %xmm7, %xmm3, %xmm3
vpxor %xmm3, %xmm14, %xmm14
vpshufb (%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm11, %xmm11
vpxor %xmm11, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm15
vpsrld $20, %xmm7, %xmm7
vpxor %xmm15, %xmm7, %xmm7
vpaddd %xmm7, %xmm3, %xmm3
vpxor %xmm3, %xmm14, %xmm14
vpshufb 16(%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm11, %xmm11
vpxor %xmm11, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm15
vpsrld $25, %xmm7, %xmm7
vpxor %xmm15, %xmm7, %xmm7
vmovdqu %xmm14, 64(%rsp)
vmovdqu 48(%rsp), %xmm14
vmovdqu %xmm14, 48(%rsp)
vmovdqu 64(%rsp), %xmm14
vpaddd %xmm5, %xmm0, %xmm0
vpxor %xmm0, %xmm14, %xmm14
vpshufb (%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm10, %xmm10
vpxor %xmm10, %xmm5, %xmm5
vpslld $12, %xmm5, %xmm15
vpsrld $20, %xmm5, %xmm5
vpxor %xmm15, %xmm5, %xmm5
vpaddd %xmm5, %xmm0, %xmm0
vpxor %xmm0, %xmm14, %xmm14
vpshufb 16(%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm10, %xmm10
vpxor %xmm10, %xmm5, %xmm5
vpslld $7, %xmm5, %xmm15
vpsrld $25, %xmm5, %xmm5
vpxor %xmm15, %xmm5, %xmm5
vmovdqu %xmm14, 32(%rsp)
vmovdqu 48(%rsp), %xmm14
vpaddd %xmm6, %xmm1, %xmm1
vpxor %xmm1, %xmm12, %xmm12
vpshufb (%rsp), %xmm12, %xmm12
vpaddd %xmm12, %xmm11, %xmm11
vpxor %xmm11, %xmm6, %xmm6
vpslld $12, %xmm6, %xmm15
vpsrld $20, %xmm6, %xmm6
vpxor %xmm15, %xmm6, %xmm6
vpaddd %xmm6, %xmm1, %xmm1
vpxor %xmm1, %xmm12, %xmm12
vpshufb 16(%rsp), %xmm12, %xmm12
vpaddd %xmm12, %xmm11, %xmm11
vpxor %xmm11, %xmm6, %xmm6
vpslld $7, %xmm6, %xmm15
vpsrld $25, %xmm6, %xmm6
vpxor %xmm15, %xmm6, %xmm6
vpaddd %xmm7, %xmm2, %xmm2
vpxor %xmm2, %xmm13, %xmm13
vpshufb (%rsp), %xmm13, %xmm13
vpaddd %xmm13, %xmm8, %xmm8
vpxor %xmm8, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm15
vpsrld $20, %xmm7, %xmm7
vpxor %xmm15, %xmm7, %xmm7
vpaddd %xmm7, %xmm2, %xmm2
vpxor %xmm2, %xmm13, %xmm13
vpshufb 16(%rsp), %xmm13, %xmm13
vpaddd %xmm13, %xmm8, %xmm8
vpxor %xmm8, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm15
vpsrld $25, %xmm7, %xmm7
vpxor %xmm15, %xmm7, %xmm7
vpaddd %xmm4, %xmm3, %xmm3
vpxor %xmm3, %xmm14, %xmm14
vpshufb (%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm9, %xmm9
vpxor %xmm9, %xmm4, %xmm4
vpslld $12, %xmm4, %xmm15
vpsrld $20, %xmm4, %xmm4
vpxor %xmm15, %xmm4, %xmm4
vpaddd %xmm4, %xmm3, %xmm3
vpxor %xmm3, %xmm14, %xmm14
vpshufb 16(%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm9, %xmm9
vpxor %xmm9, %xmm4, %xmm4
vpslld $7, %xmm4, %xmm15
vpsrld $25, %xmm4, %xmm4
vpxor %xmm15, %xmm4, %xmm4
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$28
vmovdqu 32(%rsp), %xmm15
vpaddd 336(%rsp), %xmm0, %xmm0
vpaddd 352(%rsp), %xmm1, %xmm1
vpaddd 368(%rsp), %xmm2, %xmm2
vpaddd 384(%rsp), %xmm3, %xmm3
vpaddd 400(%rsp), %xmm4, %xmm4
vpaddd 416(%rsp), %xmm5, %xmm5
vpaddd 432(%rsp), %xmm6, %xmm6
vpaddd 448(%rsp), %xmm7, %xmm7
vpaddd 464(%rsp), %xmm8, %xmm8
vpaddd 480(%rsp), %xmm9, %xmm9
vpaddd 496(%rsp), %xmm10, %xmm10
vpaddd 512(%rsp), %xmm11, %xmm11
vpaddd 528(%rsp), %xmm12, %xmm12
vpaddd 544(%rsp), %xmm13, %xmm13
vpaddd 560(%rsp), %xmm14, %xmm14
vpaddd 576(%rsp), %xmm15, %xmm15
vmovdqu %xmm8, 80(%rsp)
vmovdqu %xmm9, 96(%rsp)
vmovdqu %xmm10, 112(%rsp)
vmovdqu %xmm11, 128(%rsp)
vmovdqu %xmm12, 144(%rsp)
vmovdqu %xmm13, 160(%rsp)
vmovdqu %xmm14, 176(%rsp)
vmovdqu %xmm15, 192(%rsp)
vpunpckldq %xmm1, %xmm0, %xmm8
vpunpckhdq %xmm1, %xmm0, %xmm0
vpunpckldq %xmm3, %xmm2, %xmm1
vpunpckhdq %xmm3, %xmm2, %xmm2
vpunpckldq %xmm5, %xmm4, %xmm3
vpunpckhdq %xmm5, %xmm4, %xmm4
vpunpckldq %xmm7, %xmm6, %xmm5
vpunpckhdq %xmm7, %xmm6, %xmm6
vpunpcklqdq %xmm1, %xmm8, %xmm7
vpunpcklqdq %xmm5, %xmm3, %xmm9
vpunpckhqdq %xmm1, %xmm8, %xmm1
vpunpckhqdq %xmm5, %xmm3, %xmm3
vpunpcklqdq %xmm2, %xmm0, %xmm5
vpunpcklqdq %xmm6, %xmm4, %xmm8
vpunpckhqdq %xmm2, %xmm0, %xmm0
vpunpckhqdq %xmm6, %xmm4, %xmm2
vmovdqu %xmm7, 208(%rsp)
vmovdqu %xmm9, 224(%rsp)
vmovdqu %xmm1, 240(%rsp)
vmovdqu %xmm3, 256(%rsp)
vmovdqu %xmm5, 272(%rsp)
vmovdqu %xmm8, 288(%rsp)
vmovdqu %xmm0, 304(%rsp)
vmovdqu %xmm2, 320(%rsp)
vmovdqu 80(%rsp), %xmm0
vmovdqu 112(%rsp), %xmm1
vmovdqu 144(%rsp), %xmm2
vmovdqu 176(%rsp), %xmm3
vpunpckldq 96(%rsp), %xmm0, %xmm4
vpunpckhdq 96(%rsp), %xmm0, %xmm0
vpunpckldq 128(%rsp), %xmm1, %xmm5
vpunpckhdq 128(%rsp), %xmm1, %xmm1
vpunpckldq 160(%rsp), %xmm2, %xmm6
vpunpckhdq 160(%rsp), %xmm2, %xmm2
vpunpckldq 192(%rsp), %xmm3, %xmm7
vpunpckhdq 192(%rsp), %xmm3, %xmm3
vpunpcklqdq %xmm5, %xmm4, %xmm8
vpunpcklqdq %xmm7, %xmm6, %xmm9
vpunpckhqdq %xmm5, %xmm4, %xmm4
vpunpckhqdq %xmm7, %xmm6, %xmm5
vpunpcklqdq %xmm1, %xmm0, %xmm6
vpunpcklqdq %xmm3, %xmm2, %xmm7
vpunpckhqdq %xmm1, %xmm0, %xmm0
vpunpckhqdq %xmm3, %xmm2, %xmm1
vmovdqu 208(%rsp), %xmm2
vmovdqu 224(%rsp), %xmm12
vmovdqu %xmm8, %xmm11
vmovdqu %xmm9, %xmm10
vmovdqu 240(%rsp), %xmm9
vmovdqu 256(%rsp), %xmm8
vmovdqu %xmm5, %xmm3
cmpq $128, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$27
vpxor (%rsi), %xmm2, %xmm2
vmovdqu %xmm2, (%rdi)
vpxor 16(%rsi), %xmm12, %xmm2
vmovdqu %xmm2, 16(%rdi)
vpxor 32(%rsi), %xmm11, %xmm2
vmovdqu %xmm2, 32(%rdi)
vpxor 48(%rsi), %xmm10, %xmm2
vmovdqu %xmm2, 48(%rdi)
vpxor 64(%rsi), %xmm9, %xmm2
vmovdqu %xmm2, 64(%rdi)
vpxor 80(%rsi), %xmm8, %xmm2
vmovdqu %xmm2, 80(%rdi)
vpxor 96(%rsi), %xmm4, %xmm2
vmovdqu %xmm2, 96(%rdi)
vpxor 112(%rsi), %xmm3, %xmm2
vmovdqu %xmm2, 112(%rdi)
addq $128, %rdi
addq $128, %rsi
addq $-128, %rdx
vmovdqu 272(%rsp), %xmm2
vmovdqu 288(%rsp), %xmm12
vmovdqu %xmm6, %xmm11
vmovdqu %xmm7, %xmm10
vmovdqu 304(%rsp), %xmm9
vmovdqu 320(%rsp), %xmm8
vmovdqu %xmm0, %xmm4
vmovdqu %xmm1, %xmm3
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$27:
cmpq $64, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$26
vpxor (%rsi), %xmm2, %xmm0
vmovdqu %xmm0, (%rdi)
vpxor 16(%rsi), %xmm12, %xmm0
vmovdqu %xmm0, 16(%rdi)
vpxor 32(%rsi), %xmm11, %xmm0
vmovdqu %xmm0, 32(%rdi)
vpxor 48(%rsi), %xmm10, %xmm0
vmovdqu %xmm0, 48(%rdi)
addq $64, %rdi
addq $64, %rsi
addq $-64, %rdx
vmovdqu %xmm9, %xmm2
vmovdqu %xmm8, %xmm12
vmovdqu %xmm4, %xmm11
vmovdqu %xmm3, %xmm10
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$26:
cmpq $32, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$25
vpxor (%rsi), %xmm2, %xmm0
vmovdqu %xmm0, (%rdi)
vpxor 16(%rsi), %xmm12, %xmm0
vmovdqu %xmm0, 16(%rdi)
addq $32, %rdi
addq $32, %rsi
addq $-32, %rdx
vmovdqu %xmm11, %xmm2
vmovdqu %xmm10, %xmm12
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$25:
cmpq $16, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$24
vpxor (%rsi), %xmm2, %xmm0
vmovdqu %xmm0, (%rdi)
addq $16, %rdi
addq $16, %rsi
addq $-16, %rdx
vmovdqu %xmm12, %xmm2
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$24:
vpextrq $0, %xmm2, %rax
cmpq $8, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$21
xorq (%rsi), %rax
movq %rax, (%rdi)
addq $8, %rdi
addq $8, %rsi
addq $-8, %rdx
vpextrq $1, %xmm2, %rax
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$23:
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$21
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$22:
movb %al, %cl
xorb (%rsi), %cl
movb %cl, (%rdi)
shrq $8, %rax
incq %rdi
incq %rsi
addq $-1, %rdx
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$21:
cmpq $0, %rdx
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$22
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$20:
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$2
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$1:
vmovdqu glob_data + 64(%rip), %xmm0
vmovdqu glob_data + 48(%rip), %xmm1
vmovdqu glob_data + 208(%rip), %xmm2
vmovdqu (%r8), %xmm3
vmovdqu 16(%r8), %xmm4
vpxor %xmm5, %xmm5, %xmm5
vpinsrd $1, (%rcx), %xmm5, %xmm5
vpinsrq $1, 4(%rcx), %xmm5, %xmm5
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$17
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$18:
vmovdqu %xmm2, %xmm6
vmovdqu %xmm3, %xmm7
vmovdqu %xmm4, %xmm8
vmovdqu %xmm5, %xmm9
vmovdqu %xmm2, %xmm10
vmovdqu %xmm3, %xmm11
vmovdqu %xmm4, %xmm12
vmovdqu %xmm5, %xmm13
vpaddd glob_data + 32(%rip), %xmm13, %xmm13
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$19:
vpaddd %xmm7, %xmm6, %xmm6
vpaddd %xmm11, %xmm10, %xmm10
vpxor %xmm6, %xmm9, %xmm9
vpxor %xmm10, %xmm13, %xmm13
vpshufb %xmm0, %xmm9, %xmm9
vpshufb %xmm0, %xmm13, %xmm13
vpaddd %xmm9, %xmm8, %xmm8
vpaddd %xmm13, %xmm12, %xmm12
vpxor %xmm8, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm14
vpsrld $20, %xmm7, %xmm7
vpxor %xmm12, %xmm11, %xmm11
vpxor %xmm14, %xmm7, %xmm7
vpslld $12, %xmm11, %xmm14
vpsrld $20, %xmm11, %xmm11
vpxor %xmm14, %xmm11, %xmm11
vpaddd %xmm7, %xmm6, %xmm6
vpaddd %xmm11, %xmm10, %xmm10
vpxor %xmm6, %xmm9, %xmm9
vpxor %xmm10, %xmm13, %xmm13
vpshufb %xmm1, %xmm9, %xmm9
vpshufb %xmm1, %xmm13, %xmm13
vpaddd %xmm9, %xmm8, %xmm8
vpaddd %xmm13, %xmm12, %xmm12
vpxor %xmm8, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm14
vpsrld $25, %xmm7, %xmm7
vpxor %xmm12, %xmm11, %xmm11
vpxor %xmm14, %xmm7, %xmm7
vpslld $7, %xmm11, %xmm14
vpsrld $25, %xmm11, %xmm11
vpxor %xmm14, %xmm11, %xmm11
vpshufd $57, %xmm7, %xmm7
vpshufd $78, %xmm8, %xmm8
vpshufd $-109, %xmm9, %xmm9
vpshufd $57, %xmm11, %xmm11
vpshufd $78, %xmm12, %xmm12
vpshufd $-109, %xmm13, %xmm13
vpaddd %xmm7, %xmm6, %xmm6
vpaddd %xmm11, %xmm10, %xmm10
vpxor %xmm6, %xmm9, %xmm9
vpxor %xmm10, %xmm13, %xmm13
vpshufb %xmm0, %xmm9, %xmm9
vpshufb %xmm0, %xmm13, %xmm13
vpaddd %xmm9, %xmm8, %xmm8
vpaddd %xmm13, %xmm12, %xmm12
vpxor %xmm8, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm14
vpsrld $20, %xmm7, %xmm7
vpxor %xmm12, %xmm11, %xmm11
vpxor %xmm14, %xmm7, %xmm7
vpslld $12, %xmm11, %xmm14
vpsrld $20, %xmm11, %xmm11
vpxor %xmm14, %xmm11, %xmm11
vpaddd %xmm7, %xmm6, %xmm6
vpaddd %xmm11, %xmm10, %xmm10
vpxor %xmm6, %xmm9, %xmm9
vpxor %xmm10, %xmm13, %xmm13
vpshufb %xmm1, %xmm9, %xmm9
vpshufb %xmm1, %xmm13, %xmm13
vpaddd %xmm9, %xmm8, %xmm8
vpaddd %xmm13, %xmm12, %xmm12
vpxor %xmm8, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm14
vpsrld $25, %xmm7, %xmm7
vpxor %xmm12, %xmm11, %xmm11
vpxor %xmm14, %xmm7, %xmm7
vpslld $7, %xmm11, %xmm14
vpsrld $25, %xmm11, %xmm11
vpxor %xmm14, %xmm11, %xmm11
vpshufd $-109, %xmm7, %xmm7
vpshufd $78, %xmm8, %xmm8
vpshufd $57, %xmm9, %xmm9
vpshufd $-109, %xmm11, %xmm11
vpshufd $78, %xmm12, %xmm12
vpshufd $57, %xmm13, %xmm13
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$19
vpaddd %xmm2, %xmm6, %xmm6
vpaddd %xmm3, %xmm7, %xmm7
vpaddd %xmm4, %xmm8, %xmm8
vpaddd %xmm5, %xmm9, %xmm9
vpaddd %xmm2, %xmm10, %xmm10
vpaddd %xmm3, %xmm11, %xmm11
vpaddd %xmm4, %xmm12, %xmm12
vpaddd %xmm5, %xmm13, %xmm13
vpaddd glob_data + 32(%rip), %xmm13, %xmm13
vpxor (%rsi), %xmm6, %xmm6
vmovdqu %xmm6, (%rdi)
vpxor 16(%rsi), %xmm7, %xmm6
vmovdqu %xmm6, 16(%rdi)
vpxor 32(%rsi), %xmm8, %xmm6
vmovdqu %xmm6, 32(%rdi)
vpxor 48(%rsi), %xmm9, %xmm6
vmovdqu %xmm6, 48(%rdi)
vpxor 64(%rsi), %xmm10, %xmm6
vmovdqu %xmm6, 64(%rdi)
vpxor 80(%rsi), %xmm11, %xmm6
vmovdqu %xmm6, 80(%rdi)
vpxor 96(%rsi), %xmm12, %xmm6
vmovdqu %xmm6, 96(%rdi)
vpxor 112(%rsi), %xmm13, %xmm6
vmovdqu %xmm6, 112(%rdi)
addq $128, %rdi
addq $128, %rsi
addq $-128, %rdx
vpaddd glob_data + 16(%rip), %xmm5, %xmm5
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$17:
cmpq $128, %rdx
jnb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$18
cmpq $64, %rdx
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$3
vmovdqu %xmm2, %xmm6
vmovdqu %xmm3, %xmm7
vmovdqu %xmm4, %xmm8
vmovdqu %xmm5, %xmm9
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$16:
vpaddd %xmm7, %xmm6, %xmm6
vpxor %xmm6, %xmm9, %xmm9
vpshufb %xmm0, %xmm9, %xmm9
vpaddd %xmm9, %xmm8, %xmm8
vpxor %xmm8, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm10
vpsrld $20, %xmm7, %xmm7
vpxor %xmm10, %xmm7, %xmm7
vpaddd %xmm7, %xmm6, %xmm6
vpxor %xmm6, %xmm9, %xmm9
vpshufb %xmm1, %xmm9, %xmm9
vpaddd %xmm9, %xmm8, %xmm8
vpxor %xmm8, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm10
vpsrld $25, %xmm7, %xmm7
vpxor %xmm10, %xmm7, %xmm7
vpshufd $57, %xmm7, %xmm7
vpshufd $78, %xmm8, %xmm8
vpshufd $-109, %xmm9, %xmm9
vpaddd %xmm7, %xmm6, %xmm6
vpxor %xmm6, %xmm9, %xmm9
vpshufb %xmm0, %xmm9, %xmm9
vpaddd %xmm9, %xmm8, %xmm8
vpxor %xmm8, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm10
vpsrld $20, %xmm7, %xmm7
vpxor %xmm10, %xmm7, %xmm7
vpaddd %xmm7, %xmm6, %xmm6
vpxor %xmm6, %xmm9, %xmm9
vpshufb %xmm1, %xmm9, %xmm9
vpaddd %xmm9, %xmm8, %xmm8
vpxor %xmm8, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm10
vpsrld $25, %xmm7, %xmm7
vpxor %xmm10, %xmm7, %xmm7
vpshufd $-109, %xmm7, %xmm7
vpshufd $78, %xmm8, %xmm8
vpshufd $57, %xmm9, %xmm9
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$16
vpaddd %xmm2, %xmm6, %xmm2
vpaddd %xmm3, %xmm7, %xmm3
vpaddd %xmm4, %xmm8, %xmm0
vpaddd %xmm5, %xmm9, %xmm1
cmpq $32, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$15
vpxor (%rsi), %xmm2, %xmm2
vmovdqu %xmm2, (%rdi)
vpxor 16(%rsi), %xmm3, %xmm2
vmovdqu %xmm2, 16(%rdi)
addq $32, %rdi
addq $32, %rsi
addq $-32, %rdx
vmovdqu %xmm0, %xmm2
vmovdqu %xmm1, %xmm3
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$15:
cmpq $16, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$14
vpxor (%rsi), %xmm2, %xmm0
vmovdqu %xmm0, (%rdi)
addq $16, %rdi
addq $16, %rsi
addq $-16, %rdx
vmovdqu %xmm3, %xmm2
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$14:
vpextrq $0, %xmm2, %rax
cmpq $8, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$11
xorq (%rsi), %rax
movq %rax, (%rdi)
addq $8, %rdi
addq $8, %rsi
addq $-8, %rdx
vpextrq $1, %xmm2, %rax
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$13:
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$11
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$12:
movb %al, %cl
xorb (%rsi), %cl
movb %cl, (%rdi)
shrq $8, %rax
incq %rdi
incq %rsi
addq $-1, %rdx
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$11:
cmpq $0, %rdx
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$12
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$2
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$3:
vmovdqu %xmm2, %xmm6
vmovdqu %xmm3, %xmm7
vmovdqu %xmm4, %xmm8
vmovdqu %xmm5, %xmm9
vmovdqu %xmm2, %xmm10
vmovdqu %xmm3, %xmm11
vmovdqu %xmm4, %xmm12
vmovdqu %xmm5, %xmm13
vpaddd glob_data + 32(%rip), %xmm13, %xmm13
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$10:
vpaddd %xmm7, %xmm6, %xmm6
vpaddd %xmm11, %xmm10, %xmm10
vpxor %xmm6, %xmm9, %xmm9
vpxor %xmm10, %xmm13, %xmm13
vpshufb %xmm0, %xmm9, %xmm9
vpshufb %xmm0, %xmm13, %xmm13
vpaddd %xmm9, %xmm8, %xmm8
vpaddd %xmm13, %xmm12, %xmm12
vpxor %xmm8, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm14
vpsrld $20, %xmm7, %xmm7
vpxor %xmm12, %xmm11, %xmm11
vpxor %xmm14, %xmm7, %xmm7
vpslld $12, %xmm11, %xmm14
vpsrld $20, %xmm11, %xmm11
vpxor %xmm14, %xmm11, %xmm11
vpaddd %xmm7, %xmm6, %xmm6
vpaddd %xmm11, %xmm10, %xmm10
vpxor %xmm6, %xmm9, %xmm9
vpxor %xmm10, %xmm13, %xmm13
vpshufb %xmm1, %xmm9, %xmm9
vpshufb %xmm1, %xmm13, %xmm13
vpaddd %xmm9, %xmm8, %xmm8
vpaddd %xmm13, %xmm12, %xmm12
vpxor %xmm8, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm14
vpsrld $25, %xmm7, %xmm7
vpxor %xmm12, %xmm11, %xmm11
vpxor %xmm14, %xmm7, %xmm7
vpslld $7, %xmm11, %xmm14
vpsrld $25, %xmm11, %xmm11
vpxor %xmm14, %xmm11, %xmm11
vpshufd $57, %xmm7, %xmm7
vpshufd $78, %xmm8, %xmm8
vpshufd $-109, %xmm9, %xmm9
vpshufd $57, %xmm11, %xmm11
vpshufd $78, %xmm12, %xmm12
vpshufd $-109, %xmm13, %xmm13
vpaddd %xmm7, %xmm6, %xmm6
vpaddd %xmm11, %xmm10, %xmm10
vpxor %xmm6, %xmm9, %xmm9
vpxor %xmm10, %xmm13, %xmm13
vpshufb %xmm0, %xmm9, %xmm9
vpshufb %xmm0, %xmm13, %xmm13
vpaddd %xmm9, %xmm8, %xmm8
vpaddd %xmm13, %xmm12, %xmm12
vpxor %xmm8, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm14
vpsrld $20, %xmm7, %xmm7
vpxor %xmm12, %xmm11, %xmm11
vpxor %xmm14, %xmm7, %xmm7
vpslld $12, %xmm11, %xmm14
vpsrld $20, %xmm11, %xmm11
vpxor %xmm14, %xmm11, %xmm11
vpaddd %xmm7, %xmm6, %xmm6
vpaddd %xmm11, %xmm10, %xmm10
vpxor %xmm6, %xmm9, %xmm9
vpxor %xmm10, %xmm13, %xmm13
vpshufb %xmm1, %xmm9, %xmm9
vpshufb %xmm1, %xmm13, %xmm13
vpaddd %xmm9, %xmm8, %xmm8
vpaddd %xmm13, %xmm12, %xmm12
vpxor %xmm8, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm14
vpsrld $25, %xmm7, %xmm7
vpxor %xmm12, %xmm11, %xmm11
vpxor %xmm14, %xmm7, %xmm7
vpslld $7, %xmm11, %xmm14
vpsrld $25, %xmm11, %xmm11
vpxor %xmm14, %xmm11, %xmm11
vpshufd $-109, %xmm7, %xmm7
vpshufd $78, %xmm8, %xmm8
vpshufd $57, %xmm9, %xmm9
vpshufd $-109, %xmm11, %xmm11
vpshufd $78, %xmm12, %xmm12
vpshufd $57, %xmm13, %xmm13
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$10
vpaddd %xmm2, %xmm6, %xmm0
vpaddd %xmm3, %xmm7, %xmm1
vpaddd %xmm4, %xmm8, %xmm6
vpaddd %xmm5, %xmm9, %xmm7
vpaddd %xmm2, %xmm10, %xmm9
vpaddd %xmm3, %xmm11, %xmm8
vpaddd %xmm4, %xmm12, %xmm2
vpaddd %xmm5, %xmm13, %xmm3
vpaddd glob_data + 32(%rip), %xmm3, %xmm3
vpxor (%rsi), %xmm0, %xmm0
vmovdqu %xmm0, (%rdi)
vpxor 16(%rsi), %xmm1, %xmm0
vmovdqu %xmm0, 16(%rdi)
vpxor 32(%rsi), %xmm6, %xmm0
vmovdqu %xmm0, 32(%rdi)
vpxor 48(%rsi), %xmm7, %xmm0
vmovdqu %xmm0, 48(%rdi)
addq $64, %rdi
addq $64, %rsi
addq $-64, %rdx
cmpq $32, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$9
vpxor (%rsi), %xmm9, %xmm0
vmovdqu %xmm0, (%rdi)
vpxor 16(%rsi), %xmm8, %xmm0
vmovdqu %xmm0, 16(%rdi)
addq $32, %rdi
addq $32, %rsi
addq $-32, %rdx
vmovdqu %xmm2, %xmm9
vmovdqu %xmm3, %xmm8
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$9:
cmpq $16, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$8
vpxor (%rsi), %xmm9, %xmm0
vmovdqu %xmm0, (%rdi)
addq $16, %rdi
addq $16, %rsi
addq $-16, %rdx
vmovdqu %xmm8, %xmm9
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$8:
vpextrq $0, %xmm9, %rax
cmpq $8, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$5
xorq (%rsi), %rax
movq %rax, (%rdi)
addq $8, %rdi
addq $8, %rsi
addq $-8, %rdx
vpextrq $1, %xmm9, %rax
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$7:
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$5
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$6:
movb %al, %cl
xorb (%rsi), %cl
movb %cl, (%rdi)
shrq $8, %rax
incq %rdi
incq %rsi
addq $-1, %rdx
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$5:
cmpq $0, %rdx
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$6
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$4:
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$2:
xorq %rax, %rax
movq %r10, %rsp
ret
.data
.p2align 5
_glob_data:
glob_data:
.byte 4
.byte 0
.byte 0
.byte 0
.byte 4
.byte 0
.byte 0
.byte 0
.byte 4
.byte 0
.byte 0
.byte 0
.byte 4
.byte 0
.byte 0
.byte 0
.byte 2
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 3
.byte 0
.byte 1
.byte 2
.byte 7
.byte 4
.byte 5
.byte 6
.byte 11
.byte 8
.byte 9
.byte 10
.byte 15
.byte 12
.byte 13
.byte 14
.byte 2
.byte 3
.byte 0
.byte 1
.byte 6
.byte 7
.byte 4
.byte 5
.byte 10
.byte 11
.byte 8
.byte 9
.byte 14
.byte 15
.byte 12
.byte 13
.byte 4
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 4
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 2
.byte 0
.byte 0
.byte 0
.byte 3
.byte 0
.byte 0
.byte 0
.byte 101
.byte 120
.byte 112
.byte 97
.byte 101
.byte 120
.byte 112
.byte 97
.byte 101
.byte 120
.byte 112
.byte 97
.byte 101
.byte 120
.byte 112
.byte 97
.byte 110
.byte 100
.byte 32
.byte 51
.byte 110
.byte 100
.byte 32
.byte 51
.byte 110
.byte 100
.byte 32
.byte 51
.byte 110
.byte 100
.byte 32
.byte 51
.byte 50
.byte 45
.byte 98
.byte 121
.byte 50
.byte 45
.byte 98
.byte 121
.byte 50
.byte 45
.byte 98
.byte 121
.byte 50
.byte 45
.byte 98
.byte 121
.byte 116
.byte 101
.byte 32
.byte 107
.byte 116
.byte 101
.byte 32
.byte 107
.byte 116
.byte 101
.byte 32
.byte 107
.byte 116
.byte 101
.byte 32
.byte 107
.byte 2
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 101
.byte 120
.byte 112
.byte 97
.byte 110
.byte 100
.byte 32
.byte 51
.byte 50
.byte 45
.byte 98
.byte 121
.byte 116
.byte 101
.byte 32
.byte 107
|
usenix-security-verdict/verdict
| 128,503
|
deps/libcrux/sys/libjade/jazz/x25519_mulx.s
|
.att_syntax
.text
.p2align 5
.globl _jade_scalarmult_curve25519_amd64_mulx_base
.globl jade_scalarmult_curve25519_amd64_mulx_base
.globl _jade_scalarmult_curve25519_amd64_mulx
.globl jade_scalarmult_curve25519_amd64_mulx
_jade_scalarmult_curve25519_amd64_mulx_base:
jade_scalarmult_curve25519_amd64_mulx_base:
movq %rsp, %rax
leaq -408(%rsp), %rsp
andq $-8, %rsp
movq %rax, 400(%rsp)
movq %rbx, 352(%rsp)
movq %rbp, 360(%rsp)
movq %r12, 368(%rsp)
movq %r13, 376(%rsp)
movq %r14, 384(%rsp)
movq %r15, 392(%rsp)
movq %rdi, (%rsp)
movq (%rsi), %rax
movq %rax, 24(%rsp)
movq 8(%rsi), %rax
movq %rax, 32(%rsp)
movq 16(%rsi), %rax
movq %rax, 40(%rsp)
movq 24(%rsi), %rax
movq %rax, 48(%rsp)
andb $-8, 24(%rsp)
andb $127, 55(%rsp)
orb $64, 55(%rsp)
movq $9, %rcx
movq $0, %rdx
movq $0, %r9
movq $0, %r10
xorq %r11, %r11
movq $1, 56(%rsp)
movq $0, %rax
movq %rcx, 88(%rsp)
movq %rdx, 96(%rsp)
movq %r9, 104(%rsp)
movq %r10, 112(%rsp)
movq $1, 120(%rsp)
movq %r11, 64(%rsp)
movq %r11, %r8
movq %r11, 128(%rsp)
movq %r11, 72(%rsp)
movq %r11, %rsi
movq %r11, 136(%rsp)
movq %r11, 80(%rsp)
movq %r11, %rdi
movq %r11, 144(%rsp)
movq %rcx, 152(%rsp)
movq %rdx, 160(%rsp)
movq %r9, 168(%rsp)
movq %r10, 176(%rsp)
movq $255, %rcx
movq $0, 8(%rsp)
Ljade_scalarmult_curve25519_amd64_mulx_base$9:
addq $-1, %rcx
movq %rcx, 16(%rsp)
movq %rcx, %rdx
shrq $3, %rdx
movzbq 24(%rsp,%rdx), %rdx
andq $7, %rcx
shrq %cl, %rdx
andq $1, %rdx
movq 8(%rsp), %r9
xorq %rdx, %r9
xorq %rcx, %rcx
subq %r9, %rcx
movq 120(%rsp), %r9
movq 128(%rsp), %r10
movq 136(%rsp), %r11
movq 144(%rsp), %rbx
movq %rax, %rbp
movq %r8, %r12
movq %rsi, %r13
movq %rdi, %r14
xorq %r9, %rbp
xorq %r10, %r12
xorq %r11, %r13
xorq %rbx, %r14
andq %rcx, %rbp
andq %rcx, %r12
andq %rcx, %r13
andq %rcx, %r14
xorq %rbp, %rax
xorq %rbp, %r9
movq %r9, 120(%rsp)
xorq %r12, %r8
xorq %r12, %r10
movq %r10, 128(%rsp)
xorq %r13, %rsi
xorq %r13, %r11
movq %r11, 136(%rsp)
xorq %r14, %rdi
xorq %r14, %rbx
movq %rbx, 144(%rsp)
movq 88(%rsp), %r11
movq 96(%rsp), %rbx
movq 104(%rsp), %r9
movq 112(%rsp), %r10
movq 56(%rsp), %rbp
movq %r11, %r12
xorq %rbp, %r12
andq %rcx, %r12
xorq %r12, %rbp
xorq %r12, %r11
movq %rbp, 56(%rsp)
movq %r11, 88(%rsp)
movq 64(%rsp), %r11
movq %rbx, %rbp
xorq %r11, %rbp
andq %rcx, %rbp
xorq %rbp, %r11
xorq %rbp, %rbx
movq %r11, 64(%rsp)
movq %rbx, 96(%rsp)
movq 72(%rsp), %r11
movq %r9, %rbx
xorq %r11, %rbx
andq %rcx, %rbx
xorq %rbx, %r11
xorq %rbx, %r9
movq %r11, 72(%rsp)
movq %r9, 104(%rsp)
movq 80(%rsp), %r9
movq %r10, %r11
xorq %r9, %r11
andq %rcx, %r11
xorq %r11, %r9
xorq %r11, %r10
movq %r9, 80(%rsp)
movq %r10, 112(%rsp)
movq %rdx, 8(%rsp)
xorq %rcx, %rcx
movq 56(%rsp), %rdx
movq 64(%rsp), %r9
movq 72(%rsp), %r10
movq 80(%rsp), %r11
subq %rax, %rdx
sbbq %r8, %r9
sbbq %rsi, %r10
sbbq %rdi, %r11
sbbq %rcx, %rcx
andq $38, %rcx
subq %rcx, %rdx
sbbq $0, %r9
sbbq $0, %r10
sbbq $0, %r11
sbbq %rcx, %rcx
andq $38, %rcx
subq %rcx, %rdx
movq %rdx, 184(%rsp)
movq %r9, 192(%rsp)
movq %r10, 200(%rsp)
movq %r11, 208(%rsp)
xorq %rcx, %rcx
addq 56(%rsp), %rax
adcq 64(%rsp), %r8
adcq 72(%rsp), %rsi
adcq 80(%rsp), %rdi
sbbq %rcx, %rcx
andq $38, %rcx
addq %rcx, %rax
adcq $0, %r8
adcq $0, %rsi
adcq $0, %rdi
sbbq %rcx, %rcx
andq $38, %rcx
addq %rcx, %rax
movq %rax, 216(%rsp)
movq %r8, 224(%rsp)
movq %rsi, 232(%rsp)
movq %rdi, 240(%rsp)
movq 88(%rsp), %rax
movq 96(%rsp), %rcx
movq 104(%rsp), %rdx
movq 112(%rsp), %rsi
xorq %rdi, %rdi
subq 120(%rsp), %rax
sbbq 128(%rsp), %rcx
sbbq 136(%rsp), %rdx
sbbq 144(%rsp), %rsi
sbbq %rdi, %rdi
andq $38, %rdi
subq %rdi, %rax
sbbq $0, %rcx
sbbq $0, %rdx
sbbq $0, %rsi
sbbq %rdi, %rdi
andq $38, %rdi
subq %rdi, %rax
movq %rax, 248(%rsp)
movq %rcx, 256(%rsp)
movq %rdx, 264(%rsp)
movq %rsi, 272(%rsp)
movq 88(%rsp), %rax
movq 96(%rsp), %rcx
movq 104(%rsp), %rdx
movq 112(%rsp), %rsi
xorq %rdi, %rdi
addq 120(%rsp), %rax
adcq 128(%rsp), %rcx
adcq 136(%rsp), %rdx
adcq 144(%rsp), %rsi
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %rax
adcq $0, %rcx
adcq $0, %rdx
adcq $0, %rsi
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %rax
movq %rax, 280(%rsp)
movq %rcx, 288(%rsp)
movq %rdx, 296(%rsp)
movq %rsi, 304(%rsp)
movq 248(%rsp), %r9
movq 256(%rsp), %r10
movq 264(%rsp), %r11
movq 272(%rsp), %rbx
xorq %rax, %rax
movq 216(%rsp), %rdx
MULXq %r9, %rsi, %rcx
MULXq %r10, %r8, %rdi
adcxq %r8, %rcx
MULXq %r11, %rbp, %r8
adcxq %rbp, %rdi
MULXq %rbx, %rdx, %rbp
adcxq %rdx, %r8
adcxq %rax, %rbp
movq 224(%rsp), %rdx
MULXq %r9, %r13, %r12
adoxq %r13, %rcx
adcxq %r12, %rdi
MULXq %r10, %r13, %r12
adoxq %r13, %rdi
adcxq %r12, %r8
MULXq %r11, %r13, %r12
adoxq %r13, %r8
adcxq %r12, %rbp
MULXq %rbx, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rax, %r12
adoxq %rax, %r12
movq 232(%rsp), %rdx
MULXq %r9, %r14, %r13
adoxq %r14, %rdi
adcxq %r13, %r8
MULXq %r10, %r14, %r13
adoxq %r14, %r8
adcxq %r13, %rbp
MULXq %r11, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %rbx, %rdx, %r13
adoxq %rdx, %r12
adcxq %rax, %r13
adoxq %rax, %r13
movq 240(%rsp), %rdx
MULXq %r9, %r14, %r9
adoxq %r14, %r8
adcxq %r9, %rbp
MULXq %r10, %r10, %r9
adoxq %r10, %rbp
adcxq %r9, %r12
MULXq %r11, %r10, %r9
adoxq %r10, %r12
adcxq %r9, %r13
MULXq %rbx, %rdx, %r9
adoxq %rdx, %r13
adcxq %rax, %r9
adoxq %rax, %r9
movq $38, %rdx
MULXq %rbp, %r11, %r10
adoxq %r11, %rsi
adcxq %r10, %rcx
MULXq %r12, %r11, %r10
adoxq %r11, %rcx
adcxq %r10, %rdi
MULXq %r13, %r11, %r10
adoxq %r11, %rdi
adcxq %r10, %r8
MULXq %r9, %r9, %rdx
adoxq %r9, %r8
adcxq %rax, %rdx
adoxq %rax, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rsi
adcq %rax, %rcx
adcq %rax, %rdi
adcq %rax, %r8
sbbq %rax, %rax
andq $38, %rax
addq %rax, %rsi
movq %rsi, 248(%rsp)
movq %rcx, 256(%rsp)
movq %rdi, 264(%rsp)
movq %r8, 272(%rsp)
movq 184(%rsp), %r9
movq 192(%rsp), %r10
movq 200(%rsp), %r11
movq 208(%rsp), %rbx
xorq %rax, %rax
movq 280(%rsp), %rdx
MULXq %r9, %rsi, %rcx
MULXq %r10, %r8, %rdi
adcxq %r8, %rcx
MULXq %r11, %rbp, %r8
adcxq %rbp, %rdi
MULXq %rbx, %rdx, %rbp
adcxq %rdx, %r8
adcxq %rax, %rbp
movq 288(%rsp), %rdx
MULXq %r9, %r13, %r12
adoxq %r13, %rcx
adcxq %r12, %rdi
MULXq %r10, %r13, %r12
adoxq %r13, %rdi
adcxq %r12, %r8
MULXq %r11, %r13, %r12
adoxq %r13, %r8
adcxq %r12, %rbp
MULXq %rbx, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rax, %r12
adoxq %rax, %r12
movq 296(%rsp), %rdx
MULXq %r9, %r14, %r13
adoxq %r14, %rdi
adcxq %r13, %r8
MULXq %r10, %r14, %r13
adoxq %r14, %r8
adcxq %r13, %rbp
MULXq %r11, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %rbx, %rdx, %r13
adoxq %rdx, %r12
adcxq %rax, %r13
adoxq %rax, %r13
movq 304(%rsp), %rdx
MULXq %r9, %r14, %r9
adoxq %r14, %r8
adcxq %r9, %rbp
MULXq %r10, %r10, %r9
adoxq %r10, %rbp
adcxq %r9, %r12
MULXq %r11, %r10, %r9
adoxq %r10, %r12
adcxq %r9, %r13
MULXq %rbx, %rdx, %r9
adoxq %rdx, %r13
adcxq %rax, %r9
adoxq %rax, %r9
movq $38, %rdx
MULXq %rbp, %r11, %r10
adoxq %r11, %rsi
adcxq %r10, %rcx
MULXq %r12, %r11, %r10
adoxq %r11, %rcx
adcxq %r10, %rdi
MULXq %r13, %r11, %r10
adoxq %r11, %rdi
adcxq %r10, %r8
MULXq %r9, %r9, %rdx
adoxq %r9, %r8
adcxq %rax, %rdx
adoxq %rax, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rsi
adcq %rax, %rcx
adcq %rax, %rdi
adcq %rax, %r8
sbbq %rax, %rax
andq $38, %rax
addq %rax, %rsi
movq %rsi, 280(%rsp)
movq %rcx, 288(%rsp)
movq %rdi, 296(%rsp)
movq %r8, 304(%rsp)
movq 216(%rsp), %rdx
movq 224(%rsp), %r11
movq 232(%rsp), %r13
movq 240(%rsp), %rbx
xorq %rax, %rax
MULXq %rdx, %rsi, %rcx
MULXq %r11, %r8, %rdi
MULXq %r13, %r10, %r9
adcxq %r10, %rdi
MULXq %rbx, %rdx, %r10
adcxq %rdx, %r9
movq %r11, %rdx
MULXq %r13, %rbp, %r11
adoxq %rbp, %r9
adcxq %r11, %r10
MULXq %rbx, %rbp, %r11
adoxq %rbp, %r10
MULXq %rdx, %r12, %rbp
movq %r13, %rdx
MULXq %rbx, %r14, %r13
adcxq %r14, %r11
adoxq %rax, %r11
adcxq %rax, %r13
adoxq %rax, %r13
MULXq %rdx, %r15, %r14
movq %rbx, %rdx
MULXq %rdx, %rdx, %rbx
adcxq %r8, %r8
adoxq %rcx, %r8
adcxq %rdi, %rdi
adoxq %r12, %rdi
adcxq %r9, %r9
adoxq %rbp, %r9
adcxq %r10, %r10
adoxq %r15, %r10
adcxq %r11, %r11
adoxq %r14, %r11
adcxq %r13, %r13
adoxq %rdx, %r13
adcxq %rax, %rbx
adoxq %rax, %rbx
movq $38, %rdx
MULXq %r10, %r10, %rcx
adoxq %r10, %rsi
adcxq %rcx, %r8
MULXq %r11, %r10, %rcx
adoxq %r10, %r8
adcxq %rcx, %rdi
MULXq %r13, %r10, %rcx
adoxq %r10, %rdi
adcxq %rcx, %r9
MULXq %rbx, %rdx, %rcx
adoxq %rdx, %r9
adcxq %rax, %rcx
adoxq %rax, %rcx
imulq $38, %rcx, %rcx
addq %rcx, %rsi
adcq %rax, %r8
adcq %rax, %rdi
adcq %rax, %r9
sbbq %rax, %rax
andq $38, %rax
addq %rax, %rsi
movq %rsi, 216(%rsp)
movq %r8, 224(%rsp)
movq %rdi, 232(%rsp)
movq %r9, 240(%rsp)
movq 184(%rsp), %rdx
movq 192(%rsp), %r11
movq 200(%rsp), %r13
movq 208(%rsp), %rbx
xorq %r8, %r8
MULXq %rdx, %rax, %r9
MULXq %r11, %rsi, %rcx
MULXq %r13, %r10, %rdi
adcxq %r10, %rcx
MULXq %rbx, %rdx, %r10
adcxq %rdx, %rdi
movq %r11, %rdx
MULXq %r13, %rbp, %r11
adoxq %rbp, %rdi
adcxq %r11, %r10
MULXq %rbx, %rbp, %r11
adoxq %rbp, %r10
MULXq %rdx, %r12, %rbp
movq %r13, %rdx
MULXq %rbx, %r14, %r13
adcxq %r14, %r11
adoxq %r8, %r11
adcxq %r8, %r13
adoxq %r8, %r13
MULXq %rdx, %r15, %r14
movq %rbx, %rdx
MULXq %rdx, %rdx, %rbx
adcxq %rsi, %rsi
adoxq %r9, %rsi
adcxq %rcx, %rcx
adoxq %r12, %rcx
adcxq %rdi, %rdi
adoxq %rbp, %rdi
adcxq %r10, %r10
adoxq %r15, %r10
adcxq %r11, %r11
adoxq %r14, %r11
adcxq %r13, %r13
adoxq %rdx, %r13
adcxq %r8, %rbx
adoxq %r8, %rbx
movq $38, %rdx
MULXq %r10, %r10, %r9
adoxq %r10, %rax
adcxq %r9, %rsi
MULXq %r11, %r10, %r9
adoxq %r10, %rsi
adcxq %r9, %rcx
MULXq %r13, %r10, %r9
adoxq %r10, %rcx
adcxq %r9, %rdi
MULXq %rbx, %r9, %rdx
adoxq %r9, %rdi
adcxq %r8, %rdx
adoxq %r8, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rax
adcq %r8, %rsi
adcq %r8, %rcx
adcq %r8, %rdi
sbbq %r8, %r8
andq $38, %r8
addq %r8, %rax
movq 248(%rsp), %rdx
movq 256(%rsp), %r8
movq 264(%rsp), %r9
movq 272(%rsp), %r10
xorq %r11, %r11
addq 280(%rsp), %rdx
adcq 288(%rsp), %r8
adcq 296(%rsp), %r9
adcq 304(%rsp), %r10
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rdx
adcq $0, %r8
adcq $0, %r9
adcq $0, %r10
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rdx
movq %rdx, 184(%rsp)
movq %r8, 192(%rsp)
movq %r9, 200(%rsp)
movq %r10, 208(%rsp)
movq 248(%rsp), %rdx
movq 256(%rsp), %r8
movq 264(%rsp), %r9
movq 272(%rsp), %r10
xorq %r11, %r11
subq 280(%rsp), %rdx
sbbq 288(%rsp), %r8
sbbq 296(%rsp), %r9
sbbq 304(%rsp), %r10
sbbq %r11, %r11
andq $38, %r11
subq %r11, %rdx
sbbq $0, %r8
sbbq $0, %r9
sbbq $0, %r10
sbbq %r11, %r11
andq $38, %r11
subq %r11, %rdx
movq %rdx, 280(%rsp)
movq %r8, 288(%rsp)
movq %r9, 296(%rsp)
movq %r10, 304(%rsp)
xorq %rdx, %rdx
movq 216(%rsp), %r8
movq 224(%rsp), %r9
movq 232(%rsp), %r10
movq 240(%rsp), %r11
subq %rax, %r8
sbbq %rsi, %r9
sbbq %rcx, %r10
sbbq %rdi, %r11
sbbq %rdx, %rdx
andq $38, %rdx
subq %rdx, %r8
sbbq $0, %r9
sbbq $0, %r10
sbbq $0, %r11
sbbq %rdx, %rdx
andq $38, %rdx
subq %rdx, %r8
movq %r8, 248(%rsp)
movq %r9, 256(%rsp)
movq %r10, 264(%rsp)
movq %r11, 272(%rsp)
xorq %r8, %r8
movq 216(%rsp), %rdx
MULXq %rax, %r10, %r9
MULXq %rsi, %rbx, %r11
adcxq %rbx, %r9
MULXq %rcx, %rbp, %rbx
adcxq %rbp, %r11
MULXq %rdi, %rdx, %rbp
adcxq %rdx, %rbx
adcxq %r8, %rbp
movq 224(%rsp), %rdx
MULXq %rax, %r13, %r12
adoxq %r13, %r9
adcxq %r12, %r11
MULXq %rsi, %r13, %r12
adoxq %r13, %r11
adcxq %r12, %rbx
MULXq %rcx, %r13, %r12
adoxq %r13, %rbx
adcxq %r12, %rbp
MULXq %rdi, %rdx, %r12
adoxq %rdx, %rbp
adcxq %r8, %r12
adoxq %r8, %r12
movq 232(%rsp), %rdx
MULXq %rax, %r14, %r13
adoxq %r14, %r11
adcxq %r13, %rbx
MULXq %rsi, %r14, %r13
adoxq %r14, %rbx
adcxq %r13, %rbp
MULXq %rcx, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %rdi, %rdx, %r13
adoxq %rdx, %r12
adcxq %r8, %r13
adoxq %r8, %r13
movq 240(%rsp), %rdx
MULXq %rax, %r14, %rax
adoxq %r14, %rbx
adcxq %rax, %rbp
MULXq %rsi, %rsi, %rax
adoxq %rsi, %rbp
adcxq %rax, %r12
MULXq %rcx, %rcx, %rax
adoxq %rcx, %r12
adcxq %rax, %r13
MULXq %rdi, %rcx, %rax
adoxq %rcx, %r13
adcxq %r8, %rax
adoxq %r8, %rax
movq $38, %rdx
MULXq %rbp, %rsi, %rcx
adoxq %rsi, %r10
adcxq %rcx, %r9
MULXq %r12, %rsi, %rcx
adoxq %rsi, %r9
adcxq %rcx, %r11
MULXq %r13, %rsi, %rcx
adoxq %rsi, %r11
adcxq %rcx, %rbx
MULXq %rax, %rcx, %rax
adoxq %rcx, %rbx
adcxq %r8, %rax
adoxq %r8, %rax
imulq $38, %rax, %rax
addq %rax, %r10
adcq %r8, %r9
adcq %r8, %r11
adcq %r8, %rbx
sbbq %r8, %r8
andq $38, %r8
addq %r8, %r10
movq %r10, 56(%rsp)
movq %r9, 64(%rsp)
movq %r11, 72(%rsp)
movq %rbx, 80(%rsp)
movq 280(%rsp), %rdx
movq 288(%rsp), %r11
movq 296(%rsp), %r13
movq 304(%rsp), %rbx
xorq %rax, %rax
MULXq %rdx, %rsi, %rcx
MULXq %r11, %r8, %rdi
MULXq %r13, %r10, %r9
adcxq %r10, %rdi
MULXq %rbx, %rdx, %r10
adcxq %rdx, %r9
movq %r11, %rdx
MULXq %r13, %rbp, %r11
adoxq %rbp, %r9
adcxq %r11, %r10
MULXq %rbx, %rbp, %r11
adoxq %rbp, %r10
MULXq %rdx, %r12, %rbp
movq %r13, %rdx
MULXq %rbx, %r14, %r13
adcxq %r14, %r11
adoxq %rax, %r11
adcxq %rax, %r13
adoxq %rax, %r13
MULXq %rdx, %r15, %r14
movq %rbx, %rdx
MULXq %rdx, %rdx, %rbx
adcxq %r8, %r8
adoxq %rcx, %r8
adcxq %rdi, %rdi
adoxq %r12, %rdi
adcxq %r9, %r9
adoxq %rbp, %r9
adcxq %r10, %r10
adoxq %r15, %r10
adcxq %r11, %r11
adoxq %r14, %r11
adcxq %r13, %r13
adoxq %rdx, %r13
adcxq %rax, %rbx
adoxq %rax, %rbx
movq $38, %rdx
MULXq %r10, %r10, %rcx
adoxq %r10, %rsi
adcxq %rcx, %r8
MULXq %r11, %r10, %rcx
adoxq %r10, %r8
adcxq %rcx, %rdi
MULXq %r13, %r10, %rcx
adoxq %r10, %rdi
adcxq %rcx, %r9
MULXq %rbx, %rdx, %rcx
adoxq %rdx, %r9
adcxq %rax, %rcx
adoxq %rax, %rcx
imulq $38, %rcx, %rcx
addq %rcx, %rsi
adcq %rax, %r8
adcq %rax, %rdi
adcq %rax, %r9
sbbq %rax, %rax
andq $38, %rax
addq %rax, %rsi
movq %rsi, 280(%rsp)
movq %r8, 288(%rsp)
movq %rdi, 296(%rsp)
movq %r9, 304(%rsp)
movq $121665, %rdx
MULXq 248(%rsp), %rcx, %rax
MULXq 256(%rsp), %rdi, %rsi
addq %rdi, %rax
MULXq 264(%rsp), %r8, %rdi
adcq %r8, %rsi
MULXq 272(%rsp), %r9, %r8
adcq %r9, %rdi
adcq $0, %r8
imulq $38, %r8, %r8
addq %r8, %rcx
adcq $0, %rax
adcq $0, %rsi
adcq $0, %rdi
sbbq %rdx, %rdx
andq $38, %rdx
addq %rdx, %rcx
movq %rcx, 312(%rsp)
movq %rax, 320(%rsp)
movq %rsi, 328(%rsp)
movq %rdi, 336(%rsp)
movq 184(%rsp), %rdx
movq 192(%rsp), %r11
movq 200(%rsp), %r13
movq 208(%rsp), %rbx
xorq %rax, %rax
MULXq %rdx, %rsi, %rcx
MULXq %r11, %r8, %rdi
MULXq %r13, %r10, %r9
adcxq %r10, %rdi
MULXq %rbx, %rdx, %r10
adcxq %rdx, %r9
movq %r11, %rdx
MULXq %r13, %rbp, %r11
adoxq %rbp, %r9
adcxq %r11, %r10
MULXq %rbx, %rbp, %r11
adoxq %rbp, %r10
MULXq %rdx, %r12, %rbp
movq %r13, %rdx
MULXq %rbx, %r14, %r13
adcxq %r14, %r11
adoxq %rax, %r11
adcxq %rax, %r13
adoxq %rax, %r13
MULXq %rdx, %r15, %r14
movq %rbx, %rdx
MULXq %rdx, %rdx, %rbx
adcxq %r8, %r8
adoxq %rcx, %r8
adcxq %rdi, %rdi
adoxq %r12, %rdi
adcxq %r9, %r9
adoxq %rbp, %r9
adcxq %r10, %r10
adoxq %r15, %r10
adcxq %r11, %r11
adoxq %r14, %r11
adcxq %r13, %r13
adoxq %rdx, %r13
adcxq %rax, %rbx
adoxq %rax, %rbx
movq $38, %rdx
MULXq %r10, %r10, %rcx
adoxq %r10, %rsi
adcxq %rcx, %r8
MULXq %r11, %r10, %rcx
adoxq %r10, %r8
adcxq %rcx, %rdi
MULXq %r13, %r10, %rcx
adoxq %r10, %rdi
adcxq %rcx, %r9
MULXq %rbx, %rdx, %rcx
adoxq %rdx, %r9
adcxq %rax, %rcx
adoxq %rax, %rcx
imulq $38, %rcx, %rcx
addq %rcx, %rsi
adcq %rax, %r8
adcq %rax, %rdi
adcq %rax, %r9
sbbq %rax, %rax
andq $38, %rax
addq %rax, %rsi
movq %rsi, 88(%rsp)
movq %r8, 96(%rsp)
movq %rdi, 104(%rsp)
movq %r9, 112(%rsp)
movq 216(%rsp), %rax
movq 224(%rsp), %rcx
movq 232(%rsp), %rdx
movq 240(%rsp), %rsi
xorq %rdi, %rdi
addq 312(%rsp), %rax
adcq 320(%rsp), %rcx
adcq 328(%rsp), %rdx
adcq 336(%rsp), %rsi
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %rax
adcq $0, %rcx
adcq $0, %rdx
adcq $0, %rsi
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %rax
movq %rax, 312(%rsp)
movq %rcx, 320(%rsp)
movq %rdx, 328(%rsp)
movq %rsi, 336(%rsp)
movq 280(%rsp), %r9
movq 288(%rsp), %r10
movq 296(%rsp), %r11
movq 304(%rsp), %rbx
xorq %rax, %rax
movq 152(%rsp), %rdx
MULXq %r9, %rsi, %rcx
MULXq %r10, %r8, %rdi
adcxq %r8, %rcx
MULXq %r11, %rbp, %r8
adcxq %rbp, %rdi
MULXq %rbx, %rdx, %rbp
adcxq %rdx, %r8
adcxq %rax, %rbp
movq 160(%rsp), %rdx
MULXq %r9, %r13, %r12
adoxq %r13, %rcx
adcxq %r12, %rdi
MULXq %r10, %r13, %r12
adoxq %r13, %rdi
adcxq %r12, %r8
MULXq %r11, %r13, %r12
adoxq %r13, %r8
adcxq %r12, %rbp
MULXq %rbx, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rax, %r12
adoxq %rax, %r12
movq 168(%rsp), %rdx
MULXq %r9, %r14, %r13
adoxq %r14, %rdi
adcxq %r13, %r8
MULXq %r10, %r14, %r13
adoxq %r14, %r8
adcxq %r13, %rbp
MULXq %r11, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %rbx, %rdx, %r13
adoxq %rdx, %r12
adcxq %rax, %r13
adoxq %rax, %r13
movq 176(%rsp), %rdx
MULXq %r9, %r14, %r9
adoxq %r14, %r8
adcxq %r9, %rbp
MULXq %r10, %r10, %r9
adoxq %r10, %rbp
adcxq %r9, %r12
MULXq %r11, %r10, %r9
adoxq %r10, %r12
adcxq %r9, %r13
MULXq %rbx, %rdx, %r9
adoxq %rdx, %r13
adcxq %rax, %r9
adoxq %rax, %r9
movq $38, %rdx
MULXq %rbp, %r11, %r10
adoxq %r11, %rsi
adcxq %r10, %rcx
MULXq %r12, %r11, %r10
adoxq %r11, %rcx
adcxq %r10, %rdi
MULXq %r13, %r11, %r10
adoxq %r11, %rdi
adcxq %r10, %r8
MULXq %r9, %r9, %rdx
adoxq %r9, %r8
adcxq %rax, %rdx
adoxq %rax, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rsi
adcq %rax, %rcx
adcq %rax, %rdi
adcq %rax, %r8
sbbq %rax, %rax
andq $38, %rax
addq %rax, %rsi
movq %rsi, 120(%rsp)
movq %rcx, 128(%rsp)
movq %rdi, 136(%rsp)
movq %r8, 144(%rsp)
movq 312(%rsp), %r9
movq 320(%rsp), %r10
movq 328(%rsp), %r11
movq 336(%rsp), %rbx
xorq %rcx, %rcx
movq 248(%rsp), %rdx
MULXq %r9, %rax, %r8
MULXq %r10, %rdi, %rsi
adcxq %rdi, %r8
MULXq %r11, %rbp, %rdi
adcxq %rbp, %rsi
MULXq %rbx, %rdx, %rbp
adcxq %rdx, %rdi
adcxq %rcx, %rbp
movq 256(%rsp), %rdx
MULXq %r9, %r13, %r12
adoxq %r13, %r8
adcxq %r12, %rsi
MULXq %r10, %r13, %r12
adoxq %r13, %rsi
adcxq %r12, %rdi
MULXq %r11, %r13, %r12
adoxq %r13, %rdi
adcxq %r12, %rbp
MULXq %rbx, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rcx, %r12
adoxq %rcx, %r12
movq 264(%rsp), %rdx
MULXq %r9, %r14, %r13
adoxq %r14, %rsi
adcxq %r13, %rdi
MULXq %r10, %r14, %r13
adoxq %r14, %rdi
adcxq %r13, %rbp
MULXq %r11, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %rbx, %rdx, %r13
adoxq %rdx, %r12
adcxq %rcx, %r13
adoxq %rcx, %r13
movq 272(%rsp), %rdx
MULXq %r9, %r14, %r9
adoxq %r14, %rdi
adcxq %r9, %rbp
MULXq %r10, %r10, %r9
adoxq %r10, %rbp
adcxq %r9, %r12
MULXq %r11, %r10, %r9
adoxq %r10, %r12
adcxq %r9, %r13
MULXq %rbx, %rdx, %r9
adoxq %rdx, %r13
adcxq %rcx, %r9
adoxq %rcx, %r9
movq $38, %rdx
MULXq %rbp, %r11, %r10
adoxq %r11, %rax
adcxq %r10, %r8
MULXq %r12, %r11, %r10
adoxq %r11, %r8
adcxq %r10, %rsi
MULXq %r13, %r11, %r10
adoxq %r11, %rsi
adcxq %r10, %rdi
MULXq %r9, %r9, %rdx
adoxq %r9, %rdi
adcxq %rcx, %rdx
adoxq %rcx, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rax
adcq %rcx, %r8
adcq %rcx, %rsi
adcq %rcx, %rdi
sbbq %rcx, %rcx
andq $38, %rcx
addq %rcx, %rax
movq 16(%rsp), %rcx
cmpq $0, %rcx
jnbe Ljade_scalarmult_curve25519_amd64_mulx_base$9
movq %rax, 120(%rsp)
movq %r8, 128(%rsp)
movq %rsi, 136(%rsp)
movq %rdi, 144(%rsp)
xorq %r9, %r9
movq %rax, %rdx
MULXq %rdx, %r10, %rbx
MULXq %r8, %r11, %rcx
MULXq %rsi, %rbp, %rax
adcxq %rbp, %rcx
MULXq %rdi, %rdx, %rbp
adcxq %rdx, %rax
movq %r8, %rdx
MULXq %rsi, %r12, %r8
adoxq %r12, %rax
adcxq %r8, %rbp
MULXq %rdi, %r12, %r8
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rsi, %rdx
MULXq %rdi, %r14, %rsi
adcxq %r14, %r8
adoxq %r9, %r8
adcxq %r9, %rsi
adoxq %r9, %rsi
MULXq %rdx, %r15, %r14
movq %rdi, %rdx
MULXq %rdx, %rdx, %rdi
adcxq %r11, %r11
adoxq %rbx, %r11
adcxq %rcx, %rcx
adoxq %r13, %rcx
adcxq %rax, %rax
adoxq %r12, %rax
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r8, %r8
adoxq %r14, %r8
adcxq %rsi, %rsi
adoxq %rdx, %rsi
adcxq %r9, %rdi
adoxq %r9, %rdi
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %r10
adcxq %rbx, %r11
MULXq %r8, %rbx, %r8
adoxq %rbx, %r11
adcxq %r8, %rcx
MULXq %rsi, %r8, %rsi
adoxq %r8, %rcx
adcxq %rsi, %rax
MULXq %rdi, %rsi, %rdx
adoxq %rsi, %rax
adcxq %r9, %rdx
adoxq %r9, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %r10
adcq %r9, %r11
adcq %r9, %rcx
adcq %r9, %rax
sbbq %r9, %r9
andq $38, %r9
addq %r9, %r10
movq %r10, 88(%rsp)
movq %r11, 96(%rsp)
movq %rcx, 104(%rsp)
movq %rax, 112(%rsp)
xorq %rsi, %rsi
movq %r10, %rdx
MULXq %rdx, %rdi, %rbx
MULXq %r11, %r10, %r9
MULXq %rcx, %rbp, %r8
adcxq %rbp, %r9
MULXq %rax, %rdx, %rbp
adcxq %rdx, %r8
movq %r11, %rdx
MULXq %rcx, %r12, %r11
adoxq %r12, %r8
adcxq %r11, %rbp
MULXq %rax, %r12, %r11
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rcx, %rdx
MULXq %rax, %r14, %rcx
adcxq %r14, %r11
adoxq %rsi, %r11
adcxq %rsi, %rcx
adoxq %rsi, %rcx
MULXq %rdx, %r15, %r14
movq %rax, %rdx
MULXq %rdx, %rdx, %rax
adcxq %r10, %r10
adoxq %rbx, %r10
adcxq %r9, %r9
adoxq %r13, %r9
adcxq %r8, %r8
adoxq %r12, %r8
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r11, %r11
adoxq %r14, %r11
adcxq %rcx, %rcx
adoxq %rdx, %rcx
adcxq %rsi, %rax
adoxq %rsi, %rax
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %rdi
adcxq %rbx, %r10
MULXq %r11, %rbx, %r11
adoxq %rbx, %r10
adcxq %r11, %r9
MULXq %rcx, %r11, %rcx
adoxq %r11, %r9
adcxq %rcx, %r8
MULXq %rax, %rcx, %rax
adoxq %rcx, %r8
adcxq %rsi, %rax
adoxq %rsi, %rax
imulq $38, %rax, %rax
addq %rax, %rdi
adcq %rsi, %r10
adcq %rsi, %r9
adcq %rsi, %r8
sbbq %rsi, %rsi
andq $38, %rsi
addq %rsi, %rdi
xorq %r11, %r11
movq %rdi, %rdx
MULXq %rdx, %rax, %rbx
MULXq %r10, %rsi, %rcx
MULXq %r9, %rbp, %rdi
adcxq %rbp, %rcx
MULXq %r8, %rdx, %rbp
adcxq %rdx, %rdi
movq %r10, %rdx
MULXq %r9, %r12, %r10
adoxq %r12, %rdi
adcxq %r10, %rbp
MULXq %r8, %r12, %r10
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %r9, %rdx
MULXq %r8, %r14, %r9
adcxq %r14, %r10
adoxq %r11, %r10
adcxq %r11, %r9
adoxq %r11, %r9
MULXq %rdx, %r15, %r14
movq %r8, %rdx
MULXq %rdx, %rdx, %r8
adcxq %rsi, %rsi
adoxq %rbx, %rsi
adcxq %rcx, %rcx
adoxq %r13, %rcx
adcxq %rdi, %rdi
adoxq %r12, %rdi
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r10, %r10
adoxq %r14, %r10
adcxq %r9, %r9
adoxq %rdx, %r9
adcxq %r11, %r8
adoxq %r11, %r8
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %rax
adcxq %rbx, %rsi
MULXq %r10, %rbx, %r10
adoxq %rbx, %rsi
adcxq %r10, %rcx
MULXq %r9, %r10, %r9
adoxq %r10, %rcx
adcxq %r9, %rdi
MULXq %r8, %r8, %rdx
adoxq %r8, %rdi
adcxq %r11, %rdx
adoxq %r11, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rax
adcq %r11, %rsi
adcq %r11, %rcx
adcq %r11, %rdi
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rax
xorq %r11, %r11
movq 120(%rsp), %rdx
MULXq %rax, %rbx, %r8
MULXq %rsi, %r10, %r9
adcxq %r10, %r8
MULXq %rcx, %rbp, %r10
adcxq %rbp, %r9
MULXq %rdi, %rdx, %rbp
adcxq %rdx, %r10
adcxq %r11, %rbp
movq 128(%rsp), %rdx
MULXq %rax, %r13, %r12
adoxq %r13, %r8
adcxq %r12, %r9
MULXq %rsi, %r13, %r12
adoxq %r13, %r9
adcxq %r12, %r10
MULXq %rcx, %r13, %r12
adoxq %r13, %r10
adcxq %r12, %rbp
MULXq %rdi, %rdx, %r12
adoxq %rdx, %rbp
adcxq %r11, %r12
adoxq %r11, %r12
movq 136(%rsp), %rdx
MULXq %rax, %r14, %r13
adoxq %r14, %r9
adcxq %r13, %r10
MULXq %rsi, %r14, %r13
adoxq %r14, %r10
adcxq %r13, %rbp
MULXq %rcx, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %rdi, %rdx, %r13
adoxq %rdx, %r12
adcxq %r11, %r13
adoxq %r11, %r13
movq 144(%rsp), %rdx
MULXq %rax, %r14, %rax
adoxq %r14, %r10
adcxq %rax, %rbp
MULXq %rsi, %rsi, %rax
adoxq %rsi, %rbp
adcxq %rax, %r12
MULXq %rcx, %rcx, %rax
adoxq %rcx, %r12
adcxq %rax, %r13
MULXq %rdi, %rcx, %rax
adoxq %rcx, %r13
adcxq %r11, %rax
adoxq %r11, %rax
movq $38, %rdx
MULXq %rbp, %rsi, %rcx
adoxq %rsi, %rbx
adcxq %rcx, %r8
MULXq %r12, %rsi, %rcx
adoxq %rsi, %r8
adcxq %rcx, %r9
MULXq %r13, %rsi, %rcx
adoxq %rsi, %r9
adcxq %rcx, %r10
MULXq %rax, %rcx, %rax
adoxq %rcx, %r10
adcxq %r11, %rax
adoxq %r11, %rax
imulq $38, %rax, %rax
addq %rax, %rbx
adcq %r11, %r8
adcq %r11, %r9
adcq %r11, %r10
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rbx
movq %rbx, 120(%rsp)
movq %r8, 128(%rsp)
movq %r9, 136(%rsp)
movq %r10, 144(%rsp)
xorq %rcx, %rcx
movq 88(%rsp), %rdx
MULXq %rbx, %rsi, %r11
MULXq %r8, %rax, %rbp
adcxq %rax, %r11
MULXq %r9, %rdi, %rax
adcxq %rdi, %rbp
MULXq %r10, %rdx, %rdi
adcxq %rdx, %rax
adcxq %rcx, %rdi
movq 96(%rsp), %rdx
MULXq %rbx, %r13, %r12
adoxq %r13, %r11
adcxq %r12, %rbp
MULXq %r8, %r13, %r12
adoxq %r13, %rbp
adcxq %r12, %rax
MULXq %r9, %r13, %r12
adoxq %r13, %rax
adcxq %r12, %rdi
MULXq %r10, %rdx, %r12
adoxq %rdx, %rdi
adcxq %rcx, %r12
adoxq %rcx, %r12
movq 104(%rsp), %rdx
MULXq %rbx, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %rax
MULXq %r8, %r14, %r13
adoxq %r14, %rax
adcxq %r13, %rdi
MULXq %r9, %r14, %r13
adoxq %r14, %rdi
adcxq %r13, %r12
MULXq %r10, %rdx, %r13
adoxq %rdx, %r12
adcxq %rcx, %r13
adoxq %rcx, %r13
movq 112(%rsp), %rdx
MULXq %rbx, %r14, %rbx
adoxq %r14, %rax
adcxq %rbx, %rdi
MULXq %r8, %rbx, %r8
adoxq %rbx, %rdi
adcxq %r8, %r12
MULXq %r9, %r9, %r8
adoxq %r9, %r12
adcxq %r8, %r13
MULXq %r10, %rdx, %r8
adoxq %rdx, %r13
adcxq %rcx, %r8
adoxq %rcx, %r8
movq $38, %rdx
MULXq %rdi, %r9, %rdi
adoxq %r9, %rsi
adcxq %rdi, %r11
MULXq %r12, %r9, %rdi
adoxq %r9, %r11
adcxq %rdi, %rbp
MULXq %r13, %r9, %rdi
adoxq %r9, %rbp
adcxq %rdi, %rax
MULXq %r8, %rdi, %rdx
adoxq %rdi, %rax
adcxq %rcx, %rdx
adoxq %rcx, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rsi
adcq %rcx, %r11
adcq %rcx, %rbp
adcq %rcx, %rax
sbbq %rcx, %rcx
andq $38, %rcx
addq %rcx, %rsi
movq %rsi, 88(%rsp)
movq %r11, 96(%rsp)
movq %rbp, 104(%rsp)
movq %rax, 112(%rsp)
xorq %r8, %r8
movq %rsi, %rdx
MULXq %rdx, %rcx, %r10
MULXq %r11, %rdi, %rsi
MULXq %rbp, %rbx, %r9
adcxq %rbx, %rsi
MULXq %rax, %rdx, %rbx
adcxq %rdx, %r9
movq %r11, %rdx
MULXq %rbp, %r12, %r11
adoxq %r12, %r9
adcxq %r11, %rbx
MULXq %rax, %r12, %r11
adoxq %r12, %rbx
MULXq %rdx, %r13, %r12
movq %rbp, %rdx
MULXq %rax, %r14, %rbp
adcxq %r14, %r11
adoxq %r8, %r11
adcxq %r8, %rbp
adoxq %r8, %rbp
MULXq %rdx, %r15, %r14
movq %rax, %rdx
MULXq %rdx, %rdx, %rax
adcxq %rdi, %rdi
adoxq %r10, %rdi
adcxq %rsi, %rsi
adoxq %r13, %rsi
adcxq %r9, %r9
adoxq %r12, %r9
adcxq %rbx, %rbx
adoxq %r15, %rbx
adcxq %r11, %r11
adoxq %r14, %r11
adcxq %rbp, %rbp
adoxq %rdx, %rbp
adcxq %r8, %rax
adoxq %r8, %rax
movq $38, %rdx
MULXq %rbx, %rbx, %r10
adoxq %rbx, %rcx
adcxq %r10, %rdi
MULXq %r11, %r11, %r10
adoxq %r11, %rdi
adcxq %r10, %rsi
MULXq %rbp, %r11, %r10
adoxq %r11, %rsi
adcxq %r10, %r9
MULXq %rax, %rdx, %rax
adoxq %rdx, %r9
adcxq %r8, %rax
adoxq %r8, %rax
imulq $38, %rax, %rax
addq %rax, %rcx
adcq %r8, %rdi
adcq %r8, %rsi
adcq %r8, %r9
sbbq %r8, %r8
andq $38, %r8
addq %r8, %rcx
xorq %rax, %rax
movq 120(%rsp), %rdx
MULXq %rcx, %rbx, %r10
MULXq %rdi, %r8, %r11
adcxq %r8, %r10
MULXq %rsi, %rbp, %r8
adcxq %rbp, %r11
MULXq %r9, %rdx, %rbp
adcxq %rdx, %r8
adcxq %rax, %rbp
movq 128(%rsp), %rdx
MULXq %rcx, %r13, %r12
adoxq %r13, %r10
adcxq %r12, %r11
MULXq %rdi, %r13, %r12
adoxq %r13, %r11
adcxq %r12, %r8
MULXq %rsi, %r13, %r12
adoxq %r13, %r8
adcxq %r12, %rbp
MULXq %r9, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rax, %r12
adoxq %rax, %r12
movq 136(%rsp), %rdx
MULXq %rcx, %r14, %r13
adoxq %r14, %r11
adcxq %r13, %r8
MULXq %rdi, %r14, %r13
adoxq %r14, %r8
adcxq %r13, %rbp
MULXq %rsi, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %r9, %rdx, %r13
adoxq %rdx, %r12
adcxq %rax, %r13
adoxq %rax, %r13
movq 144(%rsp), %rdx
MULXq %rcx, %r14, %rcx
adoxq %r14, %r8
adcxq %rcx, %rbp
MULXq %rdi, %rdi, %rcx
adoxq %rdi, %rbp
adcxq %rcx, %r12
MULXq %rsi, %rsi, %rcx
adoxq %rsi, %r12
adcxq %rcx, %r13
MULXq %r9, %rdx, %rcx
adoxq %rdx, %r13
adcxq %rax, %rcx
adoxq %rax, %rcx
movq $38, %rdx
MULXq %rbp, %rdi, %rsi
adoxq %rdi, %rbx
adcxq %rsi, %r10
MULXq %r12, %rdi, %rsi
adoxq %rdi, %r10
adcxq %rsi, %r11
MULXq %r13, %rdi, %rsi
adoxq %rdi, %r11
adcxq %rsi, %r8
MULXq %rcx, %rdx, %rcx
adoxq %rdx, %r8
adcxq %rax, %rcx
adoxq %rax, %rcx
imulq $38, %rcx, %rcx
addq %rcx, %rbx
adcq %rax, %r10
adcq %rax, %r11
adcq %rax, %r8
sbbq %rax, %rax
andq $38, %rax
addq %rax, %rbx
movq %rbx, 120(%rsp)
movq %r10, 128(%rsp)
movq %r11, 136(%rsp)
movq %r8, 144(%rsp)
xorq %r9, %r9
movq %rbx, %rdx
MULXq %rdx, %rdi, %rbx
MULXq %r10, %rsi, %rax
MULXq %r11, %rbp, %rcx
adcxq %rbp, %rax
MULXq %r8, %rdx, %rbp
adcxq %rdx, %rcx
movq %r10, %rdx
MULXq %r11, %r12, %r10
adoxq %r12, %rcx
adcxq %r10, %rbp
MULXq %r8, %r12, %r10
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %r11, %rdx
MULXq %r8, %r14, %r11
adcxq %r14, %r10
adoxq %r9, %r10
adcxq %r9, %r11
adoxq %r9, %r11
MULXq %rdx, %r15, %r14
movq %r8, %rdx
MULXq %rdx, %rdx, %r8
adcxq %rsi, %rsi
adoxq %rbx, %rsi
adcxq %rax, %rax
adoxq %r13, %rax
adcxq %rcx, %rcx
adoxq %r12, %rcx
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r10, %r10
adoxq %r14, %r10
adcxq %r11, %r11
adoxq %rdx, %r11
adcxq %r9, %r8
adoxq %r9, %r8
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %rdi
adcxq %rbx, %rsi
MULXq %r10, %rbx, %r10
adoxq %rbx, %rsi
adcxq %r10, %rax
MULXq %r11, %r11, %r10
adoxq %r11, %rax
adcxq %r10, %rcx
MULXq %r8, %r8, %rdx
adoxq %r8, %rcx
adcxq %r9, %rdx
adoxq %r9, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rdi
adcq %r9, %rsi
adcq %r9, %rax
adcq %r9, %rcx
sbbq %r9, %r9
andq $38, %r9
addq %r9, %rdi
movl $2, %edx
Ljade_scalarmult_curve25519_amd64_mulx_base$8:
movl %edx, 344(%rsp)
xorq %r11, %r11
movq %rdi, %rdx
MULXq %rdx, %rdi, %rbx
MULXq %rsi, %r9, %r8
MULXq %rax, %rbp, %r10
adcxq %rbp, %r8
MULXq %rcx, %rdx, %rbp
adcxq %rdx, %r10
movq %rsi, %rdx
MULXq %rax, %r12, %rsi
adoxq %r12, %r10
adcxq %rsi, %rbp
MULXq %rcx, %r12, %rsi
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rax, %rdx
MULXq %rcx, %r14, %rax
adcxq %r14, %rsi
adoxq %r11, %rsi
adcxq %r11, %rax
adoxq %r11, %rax
MULXq %rdx, %r15, %r14
movq %rcx, %rdx
MULXq %rdx, %rdx, %rcx
adcxq %r9, %r9
adoxq %rbx, %r9
adcxq %r8, %r8
adoxq %r13, %r8
adcxq %r10, %r10
adoxq %r12, %r10
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %rsi, %rsi
adoxq %r14, %rsi
adcxq %rax, %rax
adoxq %rdx, %rax
adcxq %r11, %rcx
adoxq %r11, %rcx
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %rdi
adcxq %rbx, %r9
MULXq %rsi, %rbx, %rsi
adoxq %rbx, %r9
adcxq %rsi, %r8
MULXq %rax, %rsi, %rax
adoxq %rsi, %r8
adcxq %rax, %r10
MULXq %rcx, %rcx, %rax
adoxq %rcx, %r10
adcxq %r11, %rax
adoxq %r11, %rax
imulq $38, %rax, %rax
addq %rax, %rdi
adcq %r11, %r9
adcq %r11, %r8
adcq %r11, %r10
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rdi
xorq %r11, %r11
movq %rdi, %rdx
MULXq %rdx, %rdi, %rbx
MULXq %r9, %rsi, %rax
MULXq %r8, %rbp, %rcx
adcxq %rbp, %rax
MULXq %r10, %rdx, %rbp
adcxq %rdx, %rcx
movq %r9, %rdx
MULXq %r8, %r12, %r9
adoxq %r12, %rcx
adcxq %r9, %rbp
MULXq %r10, %r12, %r9
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %r8, %rdx
MULXq %r10, %r14, %r8
adcxq %r14, %r9
adoxq %r11, %r9
adcxq %r11, %r8
adoxq %r11, %r8
MULXq %rdx, %r15, %r14
movq %r10, %rdx
MULXq %rdx, %rdx, %r10
adcxq %rsi, %rsi
adoxq %rbx, %rsi
adcxq %rax, %rax
adoxq %r13, %rax
adcxq %rcx, %rcx
adoxq %r12, %rcx
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r9, %r9
adoxq %r14, %r9
adcxq %r8, %r8
adoxq %rdx, %r8
adcxq %r11, %r10
adoxq %r11, %r10
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %rdi
adcxq %rbx, %rsi
MULXq %r9, %rbx, %r9
adoxq %rbx, %rsi
adcxq %r9, %rax
MULXq %r8, %r9, %r8
adoxq %r9, %rax
adcxq %r8, %rcx
MULXq %r10, %r8, %rdx
adoxq %r8, %rcx
adcxq %r11, %rdx
adoxq %r11, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rdi
adcq %r11, %rsi
adcq %r11, %rax
adcq %r11, %rcx
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rdi
movl 344(%rsp), %edx
decl %edx
jne Ljade_scalarmult_curve25519_amd64_mulx_base$8
xorq %r10, %r10
movq 120(%rsp), %rdx
MULXq %rdi, %r12, %r8
MULXq %rsi, %r9, %r11
adcxq %r9, %r8
MULXq %rax, %rbx, %r9
adcxq %rbx, %r11
MULXq %rcx, %rdx, %rbx
adcxq %rdx, %r9
adcxq %r10, %rbx
movq 128(%rsp), %rdx
MULXq %rdi, %r13, %rbp
adoxq %r13, %r8
adcxq %rbp, %r11
MULXq %rsi, %r13, %rbp
adoxq %r13, %r11
adcxq %rbp, %r9
MULXq %rax, %r13, %rbp
adoxq %r13, %r9
adcxq %rbp, %rbx
MULXq %rcx, %rdx, %rbp
adoxq %rdx, %rbx
adcxq %r10, %rbp
adoxq %r10, %rbp
movq 136(%rsp), %rdx
MULXq %rdi, %r14, %r13
adoxq %r14, %r11
adcxq %r13, %r9
MULXq %rsi, %r14, %r13
adoxq %r14, %r9
adcxq %r13, %rbx
MULXq %rax, %r14, %r13
adoxq %r14, %rbx
adcxq %r13, %rbp
MULXq %rcx, %rdx, %r13
adoxq %rdx, %rbp
adcxq %r10, %r13
adoxq %r10, %r13
movq 144(%rsp), %rdx
MULXq %rdi, %r14, %rdi
adoxq %r14, %r9
adcxq %rdi, %rbx
MULXq %rsi, %rdi, %rsi
adoxq %rdi, %rbx
adcxq %rsi, %rbp
MULXq %rax, %rsi, %rax
adoxq %rsi, %rbp
adcxq %rax, %r13
MULXq %rcx, %rcx, %rax
adoxq %rcx, %r13
adcxq %r10, %rax
adoxq %r10, %rax
movq $38, %rdx
MULXq %rbx, %rsi, %rcx
adoxq %rsi, %r12
adcxq %rcx, %r8
MULXq %rbp, %rsi, %rcx
adoxq %rsi, %r8
adcxq %rcx, %r11
MULXq %r13, %rsi, %rcx
adoxq %rsi, %r11
adcxq %rcx, %r9
MULXq %rax, %rcx, %rax
adoxq %rcx, %r9
adcxq %r10, %rax
adoxq %r10, %rax
imulq $38, %rax, %rax
addq %rax, %r12
adcq %r10, %r8
adcq %r10, %r11
adcq %r10, %r9
sbbq %r10, %r10
andq $38, %r10
addq %r10, %r12
movq %r12, 120(%rsp)
movq %r8, 128(%rsp)
movq %r11, 136(%rsp)
movq %r9, 144(%rsp)
movl $5, %eax
Ljade_scalarmult_curve25519_amd64_mulx_base$7:
movl %eax, 344(%rsp)
xorq %rdi, %rdi
movq %r12, %rdx
MULXq %rdx, %r10, %rbx
MULXq %r8, %rcx, %rax
MULXq %r11, %rbp, %rsi
adcxq %rbp, %rax
MULXq %r9, %rdx, %rbp
adcxq %rdx, %rsi
movq %r8, %rdx
MULXq %r11, %r12, %r8
adoxq %r12, %rsi
adcxq %r8, %rbp
MULXq %r9, %r12, %r8
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %r11, %rdx
MULXq %r9, %r14, %r11
adcxq %r14, %r8
adoxq %rdi, %r8
adcxq %rdi, %r11
adoxq %rdi, %r11
MULXq %rdx, %r15, %r14
movq %r9, %rdx
MULXq %rdx, %rdx, %r9
adcxq %rcx, %rcx
adoxq %rbx, %rcx
adcxq %rax, %rax
adoxq %r13, %rax
adcxq %rsi, %rsi
adoxq %r12, %rsi
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r8, %r8
adoxq %r14, %r8
adcxq %r11, %r11
adoxq %rdx, %r11
adcxq %rdi, %r9
adoxq %rdi, %r9
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %r10
adcxq %rbx, %rcx
MULXq %r8, %rbx, %r8
adoxq %rbx, %rcx
adcxq %r8, %rax
MULXq %r11, %r11, %r8
adoxq %r11, %rax
adcxq %r8, %rsi
MULXq %r9, %r8, %rdx
adoxq %r8, %rsi
adcxq %rdi, %rdx
adoxq %rdi, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %r10
adcq %rdi, %rcx
adcq %rdi, %rax
adcq %rdi, %rsi
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %r10
xorq %rdi, %rdi
movq %r10, %rdx
MULXq %rdx, %r12, %r10
MULXq %rcx, %r8, %r11
MULXq %rax, %rbx, %r9
adcxq %rbx, %r11
MULXq %rsi, %rdx, %rbx
adcxq %rdx, %r9
movq %rcx, %rdx
MULXq %rax, %rbp, %rcx
adoxq %rbp, %r9
adcxq %rcx, %rbx
MULXq %rsi, %rbp, %rcx
adoxq %rbp, %rbx
MULXq %rdx, %r13, %rbp
movq %rax, %rdx
MULXq %rsi, %r14, %rax
adcxq %r14, %rcx
adoxq %rdi, %rcx
adcxq %rdi, %rax
adoxq %rdi, %rax
MULXq %rdx, %r15, %r14
movq %rsi, %rdx
MULXq %rdx, %rdx, %rsi
adcxq %r8, %r8
adoxq %r10, %r8
adcxq %r11, %r11
adoxq %r13, %r11
adcxq %r9, %r9
adoxq %rbp, %r9
adcxq %rbx, %rbx
adoxq %r15, %rbx
adcxq %rcx, %rcx
adoxq %r14, %rcx
adcxq %rax, %rax
adoxq %rdx, %rax
adcxq %rdi, %rsi
adoxq %rdi, %rsi
movq $38, %rdx
MULXq %rbx, %rbx, %r10
adoxq %rbx, %r12
adcxq %r10, %r8
MULXq %rcx, %r10, %rcx
adoxq %r10, %r8
adcxq %rcx, %r11
MULXq %rax, %rcx, %rax
adoxq %rcx, %r11
adcxq %rax, %r9
MULXq %rsi, %rcx, %rax
adoxq %rcx, %r9
adcxq %rdi, %rax
adoxq %rdi, %rax
imulq $38, %rax, %rax
addq %rax, %r12
adcq %rdi, %r8
adcq %rdi, %r11
adcq %rdi, %r9
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %r12
movl 344(%rsp), %eax
decl %eax
jne Ljade_scalarmult_curve25519_amd64_mulx_base$7
xorq %rax, %rax
movq 120(%rsp), %rdx
MULXq %r12, %rbp, %rbx
MULXq %r8, %rcx, %r10
adcxq %rcx, %rbx
MULXq %r11, %rsi, %rcx
adcxq %rsi, %r10
MULXq %r9, %rdx, %rsi
adcxq %rdx, %rcx
adcxq %rax, %rsi
movq 128(%rsp), %rdx
MULXq %r12, %r13, %rdi
adoxq %r13, %rbx
adcxq %rdi, %r10
MULXq %r8, %r13, %rdi
adoxq %r13, %r10
adcxq %rdi, %rcx
MULXq %r11, %r13, %rdi
adoxq %r13, %rcx
adcxq %rdi, %rsi
MULXq %r9, %rdx, %rdi
adoxq %rdx, %rsi
adcxq %rax, %rdi
adoxq %rax, %rdi
movq 136(%rsp), %rdx
MULXq %r12, %r14, %r13
adoxq %r14, %r10
adcxq %r13, %rcx
MULXq %r8, %r14, %r13
adoxq %r14, %rcx
adcxq %r13, %rsi
MULXq %r11, %r14, %r13
adoxq %r14, %rsi
adcxq %r13, %rdi
MULXq %r9, %rdx, %r13
adoxq %rdx, %rdi
adcxq %rax, %r13
adoxq %rax, %r13
movq 144(%rsp), %rdx
MULXq %r12, %r14, %r12
adoxq %r14, %rcx
adcxq %r12, %rsi
MULXq %r8, %r12, %r8
adoxq %r12, %rsi
adcxq %r8, %rdi
MULXq %r11, %r11, %r8
adoxq %r11, %rdi
adcxq %r8, %r13
MULXq %r9, %rdx, %r8
adoxq %rdx, %r13
adcxq %rax, %r8
adoxq %rax, %r8
movq $38, %rdx
MULXq %rsi, %r9, %rsi
adoxq %r9, %rbp
adcxq %rsi, %rbx
MULXq %rdi, %rdi, %rsi
adoxq %rdi, %rbx
adcxq %rsi, %r10
MULXq %r13, %rdi, %rsi
adoxq %rdi, %r10
adcxq %rsi, %rcx
MULXq %r8, %rsi, %rdx
adoxq %rsi, %rcx
adcxq %rax, %rdx
adoxq %rax, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rbp
adcq %rax, %rbx
adcq %rax, %r10
adcq %rax, %rcx
sbbq %rax, %rax
andq $38, %rax
addq %rax, %rbp
movq %rbp, 152(%rsp)
movq %rbx, 160(%rsp)
movq %r10, 168(%rsp)
movq %rcx, 176(%rsp)
movl $10, %eax
Ljade_scalarmult_curve25519_amd64_mulx_base$6:
movl %eax, 344(%rsp)
xorq %r8, %r8
movq %rbp, %rdx
MULXq %rdx, %r9, %r11
MULXq %rbx, %rsi, %rax
MULXq %r10, %rbp, %rdi
adcxq %rbp, %rax
MULXq %rcx, %rdx, %rbp
adcxq %rdx, %rdi
movq %rbx, %rdx
MULXq %r10, %r12, %rbx
adoxq %r12, %rdi
adcxq %rbx, %rbp
MULXq %rcx, %r12, %rbx
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %r10, %rdx
MULXq %rcx, %r14, %r10
adcxq %r14, %rbx
adoxq %r8, %rbx
adcxq %r8, %r10
adoxq %r8, %r10
MULXq %rdx, %r15, %r14
movq %rcx, %rdx
MULXq %rdx, %rdx, %rcx
adcxq %rsi, %rsi
adoxq %r11, %rsi
adcxq %rax, %rax
adoxq %r13, %rax
adcxq %rdi, %rdi
adoxq %r12, %rdi
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %rbx, %rbx
adoxq %r14, %rbx
adcxq %r10, %r10
adoxq %rdx, %r10
adcxq %r8, %rcx
adoxq %r8, %rcx
movq $38, %rdx
MULXq %rbp, %rbp, %r11
adoxq %rbp, %r9
adcxq %r11, %rsi
MULXq %rbx, %rbx, %r11
adoxq %rbx, %rsi
adcxq %r11, %rax
MULXq %r10, %r11, %r10
adoxq %r11, %rax
adcxq %r10, %rdi
MULXq %rcx, %rdx, %rcx
adoxq %rdx, %rdi
adcxq %r8, %rcx
adoxq %r8, %rcx
imulq $38, %rcx, %rcx
addq %rcx, %r9
adcq %r8, %rsi
adcq %r8, %rax
adcq %r8, %rdi
sbbq %r8, %r8
andq $38, %r8
addq %r8, %r9
xorq %r8, %r8
movq %r9, %rdx
MULXq %rdx, %rbp, %r9
MULXq %rsi, %rbx, %r10
MULXq %rax, %r11, %rcx
adcxq %r11, %r10
MULXq %rdi, %rdx, %r11
adcxq %rdx, %rcx
movq %rsi, %rdx
MULXq %rax, %r12, %rsi
adoxq %r12, %rcx
adcxq %rsi, %r11
MULXq %rdi, %r12, %rsi
adoxq %r12, %r11
MULXq %rdx, %r13, %r12
movq %rax, %rdx
MULXq %rdi, %r14, %rax
adcxq %r14, %rsi
adoxq %r8, %rsi
adcxq %r8, %rax
adoxq %r8, %rax
MULXq %rdx, %r15, %r14
movq %rdi, %rdx
MULXq %rdx, %rdx, %rdi
adcxq %rbx, %rbx
adoxq %r9, %rbx
adcxq %r10, %r10
adoxq %r13, %r10
adcxq %rcx, %rcx
adoxq %r12, %rcx
adcxq %r11, %r11
adoxq %r15, %r11
adcxq %rsi, %rsi
adoxq %r14, %rsi
adcxq %rax, %rax
adoxq %rdx, %rax
adcxq %r8, %rdi
adoxq %r8, %rdi
movq $38, %rdx
MULXq %r11, %r11, %r9
adoxq %r11, %rbp
adcxq %r9, %rbx
MULXq %rsi, %r9, %rsi
adoxq %r9, %rbx
adcxq %rsi, %r10
MULXq %rax, %rsi, %rax
adoxq %rsi, %r10
adcxq %rax, %rcx
MULXq %rdi, %rdx, %rax
adoxq %rdx, %rcx
adcxq %r8, %rax
adoxq %r8, %rax
imulq $38, %rax, %rax
addq %rax, %rbp
adcq %r8, %rbx
adcq %r8, %r10
adcq %r8, %rcx
sbbq %r8, %r8
andq $38, %r8
addq %r8, %rbp
movl 344(%rsp), %eax
decl %eax
jne Ljade_scalarmult_curve25519_amd64_mulx_base$6
xorq %r9, %r9
movq 152(%rsp), %rdx
MULXq %rbp, %rdi, %rax
MULXq %rbx, %r8, %rsi
adcxq %r8, %rax
MULXq %r10, %r11, %r8
adcxq %r11, %rsi
MULXq %rcx, %rdx, %r11
adcxq %rdx, %r8
adcxq %r9, %r11
movq 160(%rsp), %rdx
MULXq %rbp, %r13, %r12
adoxq %r13, %rax
adcxq %r12, %rsi
MULXq %rbx, %r13, %r12
adoxq %r13, %rsi
adcxq %r12, %r8
MULXq %r10, %r13, %r12
adoxq %r13, %r8
adcxq %r12, %r11
MULXq %rcx, %rdx, %r12
adoxq %rdx, %r11
adcxq %r9, %r12
adoxq %r9, %r12
movq 168(%rsp), %rdx
MULXq %rbp, %r14, %r13
adoxq %r14, %rsi
adcxq %r13, %r8
MULXq %rbx, %r14, %r13
adoxq %r14, %r8
adcxq %r13, %r11
MULXq %r10, %r14, %r13
adoxq %r14, %r11
adcxq %r13, %r12
MULXq %rcx, %rdx, %r13
adoxq %rdx, %r12
adcxq %r9, %r13
adoxq %r9, %r13
movq 176(%rsp), %rdx
MULXq %rbp, %r14, %rbp
adoxq %r14, %r8
adcxq %rbp, %r11
MULXq %rbx, %rbp, %rbx
adoxq %rbp, %r11
adcxq %rbx, %r12
MULXq %r10, %rbx, %r10
adoxq %rbx, %r12
adcxq %r10, %r13
MULXq %rcx, %rdx, %rcx
adoxq %rdx, %r13
adcxq %r9, %rcx
adoxq %r9, %rcx
movq $38, %rdx
MULXq %r11, %r11, %r10
adoxq %r11, %rdi
adcxq %r10, %rax
MULXq %r12, %r11, %r10
adoxq %r11, %rax
adcxq %r10, %rsi
MULXq %r13, %r11, %r10
adoxq %r11, %rsi
adcxq %r10, %r8
MULXq %rcx, %rdx, %rcx
adoxq %rdx, %r8
adcxq %r9, %rcx
adoxq %r9, %rcx
imulq $38, %rcx, %rcx
addq %rcx, %rdi
adcq %r9, %rax
adcq %r9, %rsi
adcq %r9, %r8
sbbq %r9, %r9
andq $38, %r9
addq %r9, %rdi
movl $5, %ecx
Ljade_scalarmult_curve25519_amd64_mulx_base$5:
movl %ecx, 344(%rsp)
xorq %r11, %r11
movq %rdi, %rdx
MULXq %rdx, %rdi, %rbx
MULXq %rax, %r9, %rcx
MULXq %rsi, %rbp, %r10
adcxq %rbp, %rcx
MULXq %r8, %rdx, %rbp
adcxq %rdx, %r10
movq %rax, %rdx
MULXq %rsi, %r12, %rax
adoxq %r12, %r10
adcxq %rax, %rbp
MULXq %r8, %r12, %rax
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rsi, %rdx
MULXq %r8, %r14, %rsi
adcxq %r14, %rax
adoxq %r11, %rax
adcxq %r11, %rsi
adoxq %r11, %rsi
MULXq %rdx, %r15, %r14
movq %r8, %rdx
MULXq %rdx, %rdx, %r8
adcxq %r9, %r9
adoxq %rbx, %r9
adcxq %rcx, %rcx
adoxq %r13, %rcx
adcxq %r10, %r10
adoxq %r12, %r10
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %rax, %rax
adoxq %r14, %rax
adcxq %rsi, %rsi
adoxq %rdx, %rsi
adcxq %r11, %r8
adoxq %r11, %r8
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %rdi
adcxq %rbx, %r9
MULXq %rax, %rbx, %rax
adoxq %rbx, %r9
adcxq %rax, %rcx
MULXq %rsi, %rsi, %rax
adoxq %rsi, %rcx
adcxq %rax, %r10
MULXq %r8, %rdx, %rax
adoxq %rdx, %r10
adcxq %r11, %rax
adoxq %r11, %rax
imulq $38, %rax, %rax
addq %rax, %rdi
adcq %r11, %r9
adcq %r11, %rcx
adcq %r11, %r10
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rdi
xorq %r11, %r11
movq %rdi, %rdx
MULXq %rdx, %rdi, %rbx
MULXq %r9, %rax, %rsi
MULXq %rcx, %rbp, %r8
adcxq %rbp, %rsi
MULXq %r10, %rdx, %rbp
adcxq %rdx, %r8
movq %r9, %rdx
MULXq %rcx, %r12, %r9
adoxq %r12, %r8
adcxq %r9, %rbp
MULXq %r10, %r12, %r9
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rcx, %rdx
MULXq %r10, %r14, %rcx
adcxq %r14, %r9
adoxq %r11, %r9
adcxq %r11, %rcx
adoxq %r11, %rcx
MULXq %rdx, %r15, %r14
movq %r10, %rdx
MULXq %rdx, %rdx, %r10
adcxq %rax, %rax
adoxq %rbx, %rax
adcxq %rsi, %rsi
adoxq %r13, %rsi
adcxq %r8, %r8
adoxq %r12, %r8
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r9, %r9
adoxq %r14, %r9
adcxq %rcx, %rcx
adoxq %rdx, %rcx
adcxq %r11, %r10
adoxq %r11, %r10
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %rdi
adcxq %rbx, %rax
MULXq %r9, %rbx, %r9
adoxq %rbx, %rax
adcxq %r9, %rsi
MULXq %rcx, %r9, %rcx
adoxq %r9, %rsi
adcxq %rcx, %r8
MULXq %r10, %rdx, %rcx
adoxq %rdx, %r8
adcxq %r11, %rcx
adoxq %r11, %rcx
imulq $38, %rcx, %rcx
addq %rcx, %rdi
adcq %r11, %rax
adcq %r11, %rsi
adcq %r11, %r8
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rdi
movl 344(%rsp), %ecx
decl %ecx
jne Ljade_scalarmult_curve25519_amd64_mulx_base$5
xorq %rcx, %rcx
movq 120(%rsp), %rdx
MULXq %rdi, %rbx, %r9
MULXq %rax, %r11, %r10
adcxq %r11, %r9
MULXq %rsi, %rbp, %r11
adcxq %rbp, %r10
MULXq %r8, %rdx, %rbp
adcxq %rdx, %r11
adcxq %rcx, %rbp
movq 128(%rsp), %rdx
MULXq %rdi, %r13, %r12
adoxq %r13, %r9
adcxq %r12, %r10
MULXq %rax, %r13, %r12
adoxq %r13, %r10
adcxq %r12, %r11
MULXq %rsi, %r13, %r12
adoxq %r13, %r11
adcxq %r12, %rbp
MULXq %r8, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rcx, %r12
adoxq %rcx, %r12
movq 136(%rsp), %rdx
MULXq %rdi, %r14, %r13
adoxq %r14, %r10
adcxq %r13, %r11
MULXq %rax, %r14, %r13
adoxq %r14, %r11
adcxq %r13, %rbp
MULXq %rsi, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %r8, %rdx, %r13
adoxq %rdx, %r12
adcxq %rcx, %r13
adoxq %rcx, %r13
movq 144(%rsp), %rdx
MULXq %rdi, %r14, %rdi
adoxq %r14, %r11
adcxq %rdi, %rbp
MULXq %rax, %rdi, %rax
adoxq %rdi, %rbp
adcxq %rax, %r12
MULXq %rsi, %rsi, %rax
adoxq %rsi, %r12
adcxq %rax, %r13
MULXq %r8, %rdx, %rax
adoxq %rdx, %r13
adcxq %rcx, %rax
adoxq %rcx, %rax
movq $38, %rdx
MULXq %rbp, %rdi, %rsi
adoxq %rdi, %rbx
adcxq %rsi, %r9
MULXq %r12, %rdi, %rsi
adoxq %rdi, %r9
adcxq %rsi, %r10
MULXq %r13, %rdi, %rsi
adoxq %rdi, %r10
adcxq %rsi, %r11
MULXq %rax, %rdx, %rax
adoxq %rdx, %r11
adcxq %rcx, %rax
adoxq %rcx, %rax
imulq $38, %rax, %rax
addq %rax, %rbx
adcq %rcx, %r9
adcq %rcx, %r10
adcq %rcx, %r11
sbbq %rcx, %rcx
andq $38, %rcx
addq %rcx, %rbx
movq %rbx, 120(%rsp)
movq %r9, 128(%rsp)
movq %r10, 136(%rsp)
movq %r11, 144(%rsp)
movl $25, %eax
Ljade_scalarmult_curve25519_amd64_mulx_base$4:
movl %eax, 344(%rsp)
xorq %rdi, %rdi
movq %rbx, %rdx
MULXq %rdx, %r8, %rbx
MULXq %r9, %rcx, %rax
MULXq %r10, %rbp, %rsi
adcxq %rbp, %rax
MULXq %r11, %rdx, %rbp
adcxq %rdx, %rsi
movq %r9, %rdx
MULXq %r10, %r12, %r9
adoxq %r12, %rsi
adcxq %r9, %rbp
MULXq %r11, %r12, %r9
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %r10, %rdx
MULXq %r11, %r14, %r10
adcxq %r14, %r9
adoxq %rdi, %r9
adcxq %rdi, %r10
adoxq %rdi, %r10
MULXq %rdx, %r15, %r14
movq %r11, %rdx
MULXq %rdx, %rdx, %r11
adcxq %rcx, %rcx
adoxq %rbx, %rcx
adcxq %rax, %rax
adoxq %r13, %rax
adcxq %rsi, %rsi
adoxq %r12, %rsi
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r9, %r9
adoxq %r14, %r9
adcxq %r10, %r10
adoxq %rdx, %r10
adcxq %rdi, %r11
adoxq %rdi, %r11
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %r8
adcxq %rbx, %rcx
MULXq %r9, %rbx, %r9
adoxq %rbx, %rcx
adcxq %r9, %rax
MULXq %r10, %r10, %r9
adoxq %r10, %rax
adcxq %r9, %rsi
MULXq %r11, %r9, %rdx
adoxq %r9, %rsi
adcxq %rdi, %rdx
adoxq %rdi, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %r8
adcq %rdi, %rcx
adcq %rdi, %rax
adcq %rdi, %rsi
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %r8
xorq %rdi, %rdi
movq %r8, %rdx
MULXq %rdx, %rbx, %r8
MULXq %rcx, %r9, %r10
MULXq %rax, %rbp, %r11
adcxq %rbp, %r10
MULXq %rsi, %rdx, %rbp
adcxq %rdx, %r11
movq %rcx, %rdx
MULXq %rax, %r12, %rcx
adoxq %r12, %r11
adcxq %rcx, %rbp
MULXq %rsi, %r12, %rcx
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rax, %rdx
MULXq %rsi, %r14, %rax
adcxq %r14, %rcx
adoxq %rdi, %rcx
adcxq %rdi, %rax
adoxq %rdi, %rax
MULXq %rdx, %r15, %r14
movq %rsi, %rdx
MULXq %rdx, %rdx, %rsi
adcxq %r9, %r9
adoxq %r8, %r9
adcxq %r10, %r10
adoxq %r13, %r10
adcxq %r11, %r11
adoxq %r12, %r11
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %rcx, %rcx
adoxq %r14, %rcx
adcxq %rax, %rax
adoxq %rdx, %rax
adcxq %rdi, %rsi
adoxq %rdi, %rsi
movq $38, %rdx
MULXq %rbp, %rbp, %r8
adoxq %rbp, %rbx
adcxq %r8, %r9
MULXq %rcx, %r8, %rcx
adoxq %r8, %r9
adcxq %rcx, %r10
MULXq %rax, %rcx, %rax
adoxq %rcx, %r10
adcxq %rax, %r11
MULXq %rsi, %rcx, %rax
adoxq %rcx, %r11
adcxq %rdi, %rax
adoxq %rdi, %rax
imulq $38, %rax, %rax
addq %rax, %rbx
adcq %rdi, %r9
adcq %rdi, %r10
adcq %rdi, %r11
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %rbx
movl 344(%rsp), %eax
decl %eax
jne Ljade_scalarmult_curve25519_amd64_mulx_base$4
xorq %r8, %r8
movq 120(%rsp), %rdx
MULXq %rbx, %rdi, %rsi
MULXq %r9, %rax, %rcx
adcxq %rax, %rsi
MULXq %r10, %rbp, %rax
adcxq %rbp, %rcx
MULXq %r11, %rdx, %rbp
adcxq %rdx, %rax
adcxq %r8, %rbp
movq 128(%rsp), %rdx
MULXq %rbx, %r13, %r12
adoxq %r13, %rsi
adcxq %r12, %rcx
MULXq %r9, %r13, %r12
adoxq %r13, %rcx
adcxq %r12, %rax
MULXq %r10, %r13, %r12
adoxq %r13, %rax
adcxq %r12, %rbp
MULXq %r11, %rdx, %r12
adoxq %rdx, %rbp
adcxq %r8, %r12
adoxq %r8, %r12
movq 136(%rsp), %rdx
MULXq %rbx, %r14, %r13
adoxq %r14, %rcx
adcxq %r13, %rax
MULXq %r9, %r14, %r13
adoxq %r14, %rax
adcxq %r13, %rbp
MULXq %r10, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %r11, %rdx, %r13
adoxq %rdx, %r12
adcxq %r8, %r13
adoxq %r8, %r13
movq 144(%rsp), %rdx
MULXq %rbx, %r14, %rbx
adoxq %r14, %rax
adcxq %rbx, %rbp
MULXq %r9, %rbx, %r9
adoxq %rbx, %rbp
adcxq %r9, %r12
MULXq %r10, %r10, %r9
adoxq %r10, %r12
adcxq %r9, %r13
MULXq %r11, %rdx, %r9
adoxq %rdx, %r13
adcxq %r8, %r9
adoxq %r8, %r9
movq $38, %rdx
MULXq %rbp, %r11, %r10
adoxq %r11, %rdi
adcxq %r10, %rsi
MULXq %r12, %r11, %r10
adoxq %r11, %rsi
adcxq %r10, %rcx
MULXq %r13, %r11, %r10
adoxq %r11, %rcx
adcxq %r10, %rax
MULXq %r9, %r9, %rdx
adoxq %r9, %rax
adcxq %r8, %rdx
adoxq %r8, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rdi
adcq %r8, %rsi
adcq %r8, %rcx
adcq %r8, %rax
sbbq %r8, %r8
andq $38, %r8
addq %r8, %rdi
movq %rdi, 152(%rsp)
movq %rsi, 160(%rsp)
movq %rcx, 168(%rsp)
movq %rax, 176(%rsp)
movl $50, %edx
Ljade_scalarmult_curve25519_amd64_mulx_base$3:
movl %edx, 344(%rsp)
xorq %r11, %r11
movq %rdi, %rdx
MULXq %rdx, %rdi, %rbx
MULXq %rsi, %r9, %r8
MULXq %rcx, %rbp, %r10
adcxq %rbp, %r8
MULXq %rax, %rdx, %rbp
adcxq %rdx, %r10
movq %rsi, %rdx
MULXq %rcx, %r12, %rsi
adoxq %r12, %r10
adcxq %rsi, %rbp
MULXq %rax, %r12, %rsi
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rcx, %rdx
MULXq %rax, %r14, %rcx
adcxq %r14, %rsi
adoxq %r11, %rsi
adcxq %r11, %rcx
adoxq %r11, %rcx
MULXq %rdx, %r15, %r14
movq %rax, %rdx
MULXq %rdx, %rdx, %rax
adcxq %r9, %r9
adoxq %rbx, %r9
adcxq %r8, %r8
adoxq %r13, %r8
adcxq %r10, %r10
adoxq %r12, %r10
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %rsi, %rsi
adoxq %r14, %rsi
adcxq %rcx, %rcx
adoxq %rdx, %rcx
adcxq %r11, %rax
adoxq %r11, %rax
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %rdi
adcxq %rbx, %r9
MULXq %rsi, %rbx, %rsi
adoxq %rbx, %r9
adcxq %rsi, %r8
MULXq %rcx, %rsi, %rcx
adoxq %rsi, %r8
adcxq %rcx, %r10
MULXq %rax, %rcx, %rax
adoxq %rcx, %r10
adcxq %r11, %rax
adoxq %r11, %rax
imulq $38, %rax, %rax
addq %rax, %rdi
adcq %r11, %r9
adcq %r11, %r8
adcq %r11, %r10
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rdi
xorq %r11, %r11
movq %rdi, %rdx
MULXq %rdx, %rdi, %rbx
MULXq %r9, %rsi, %rcx
MULXq %r8, %rbp, %rax
adcxq %rbp, %rcx
MULXq %r10, %rdx, %rbp
adcxq %rdx, %rax
movq %r9, %rdx
MULXq %r8, %r12, %r9
adoxq %r12, %rax
adcxq %r9, %rbp
MULXq %r10, %r12, %r9
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %r8, %rdx
MULXq %r10, %r14, %r8
adcxq %r14, %r9
adoxq %r11, %r9
adcxq %r11, %r8
adoxq %r11, %r8
MULXq %rdx, %r15, %r14
movq %r10, %rdx
MULXq %rdx, %rdx, %r10
adcxq %rsi, %rsi
adoxq %rbx, %rsi
adcxq %rcx, %rcx
adoxq %r13, %rcx
adcxq %rax, %rax
adoxq %r12, %rax
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r9, %r9
adoxq %r14, %r9
adcxq %r8, %r8
adoxq %rdx, %r8
adcxq %r11, %r10
adoxq %r11, %r10
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %rdi
adcxq %rbx, %rsi
MULXq %r9, %rbx, %r9
adoxq %rbx, %rsi
adcxq %r9, %rcx
MULXq %r8, %r9, %r8
adoxq %r9, %rcx
adcxq %r8, %rax
MULXq %r10, %r8, %rdx
adoxq %r8, %rax
adcxq %r11, %rdx
adoxq %r11, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rdi
adcq %r11, %rsi
adcq %r11, %rcx
adcq %r11, %rax
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rdi
movl 344(%rsp), %edx
decl %edx
jne Ljade_scalarmult_curve25519_amd64_mulx_base$3
xorq %rbx, %rbx
movq 152(%rsp), %rdx
MULXq %rdi, %r9, %r8
MULXq %rsi, %r11, %r10
adcxq %r11, %r8
MULXq %rcx, %rbp, %r11
adcxq %rbp, %r10
MULXq %rax, %rdx, %rbp
adcxq %rdx, %r11
adcxq %rbx, %rbp
movq 160(%rsp), %rdx
MULXq %rdi, %r13, %r12
adoxq %r13, %r8
adcxq %r12, %r10
MULXq %rsi, %r13, %r12
adoxq %r13, %r10
adcxq %r12, %r11
MULXq %rcx, %r13, %r12
adoxq %r13, %r11
adcxq %r12, %rbp
MULXq %rax, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rbx, %r12
adoxq %rbx, %r12
movq 168(%rsp), %rdx
MULXq %rdi, %r14, %r13
adoxq %r14, %r10
adcxq %r13, %r11
MULXq %rsi, %r14, %r13
adoxq %r14, %r11
adcxq %r13, %rbp
MULXq %rcx, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %rax, %rdx, %r13
adoxq %rdx, %r12
adcxq %rbx, %r13
adoxq %rbx, %r13
movq 176(%rsp), %rdx
MULXq %rdi, %r14, %rdi
adoxq %r14, %r11
adcxq %rdi, %rbp
MULXq %rsi, %rdi, %rsi
adoxq %rdi, %rbp
adcxq %rsi, %r12
MULXq %rcx, %rsi, %rcx
adoxq %rsi, %r12
adcxq %rcx, %r13
MULXq %rax, %rcx, %rax
adoxq %rcx, %r13
adcxq %rbx, %rax
adoxq %rbx, %rax
movq $38, %rdx
MULXq %rbp, %rsi, %rcx
adoxq %rsi, %r9
adcxq %rcx, %r8
MULXq %r12, %rsi, %rcx
adoxq %rsi, %r8
adcxq %rcx, %r10
MULXq %r13, %rsi, %rcx
adoxq %rsi, %r10
adcxq %rcx, %r11
MULXq %rax, %rcx, %rax
adoxq %rcx, %r11
adcxq %rbx, %rax
adoxq %rbx, %rax
imulq $38, %rax, %rax
addq %rax, %r9
adcq %rbx, %r8
adcq %rbx, %r10
adcq %rbx, %r11
sbbq %rbx, %rbx
andq $38, %rbx
addq %rbx, %r9
movl $25, %eax
Ljade_scalarmult_curve25519_amd64_mulx_base$2:
movl %eax, 344(%rsp)
xorq %rdi, %rdi
movq %r9, %rdx
MULXq %rdx, %r9, %rbx
MULXq %r8, %rcx, %rax
MULXq %r10, %rbp, %rsi
adcxq %rbp, %rax
MULXq %r11, %rdx, %rbp
adcxq %rdx, %rsi
movq %r8, %rdx
MULXq %r10, %r12, %r8
adoxq %r12, %rsi
adcxq %r8, %rbp
MULXq %r11, %r12, %r8
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %r10, %rdx
MULXq %r11, %r14, %r10
adcxq %r14, %r8
adoxq %rdi, %r8
adcxq %rdi, %r10
adoxq %rdi, %r10
MULXq %rdx, %r15, %r14
movq %r11, %rdx
MULXq %rdx, %rdx, %r11
adcxq %rcx, %rcx
adoxq %rbx, %rcx
adcxq %rax, %rax
adoxq %r13, %rax
adcxq %rsi, %rsi
adoxq %r12, %rsi
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r8, %r8
adoxq %r14, %r8
adcxq %r10, %r10
adoxq %rdx, %r10
adcxq %rdi, %r11
adoxq %rdi, %r11
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %r9
adcxq %rbx, %rcx
MULXq %r8, %rbx, %r8
adoxq %rbx, %rcx
adcxq %r8, %rax
MULXq %r10, %r10, %r8
adoxq %r10, %rax
adcxq %r8, %rsi
MULXq %r11, %r8, %rdx
adoxq %r8, %rsi
adcxq %rdi, %rdx
adoxq %rdi, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %r9
adcq %rdi, %rcx
adcq %rdi, %rax
adcq %rdi, %rsi
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %r9
xorq %rdi, %rdi
movq %r9, %rdx
MULXq %rdx, %r9, %rbx
MULXq %rcx, %r8, %r10
MULXq %rax, %rbp, %r11
adcxq %rbp, %r10
MULXq %rsi, %rdx, %rbp
adcxq %rdx, %r11
movq %rcx, %rdx
MULXq %rax, %r12, %rcx
adoxq %r12, %r11
adcxq %rcx, %rbp
MULXq %rsi, %r12, %rcx
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rax, %rdx
MULXq %rsi, %r14, %rax
adcxq %r14, %rcx
adoxq %rdi, %rcx
adcxq %rdi, %rax
adoxq %rdi, %rax
MULXq %rdx, %r15, %r14
movq %rsi, %rdx
MULXq %rdx, %rdx, %rsi
adcxq %r8, %r8
adoxq %rbx, %r8
adcxq %r10, %r10
adoxq %r13, %r10
adcxq %r11, %r11
adoxq %r12, %r11
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %rcx, %rcx
adoxq %r14, %rcx
adcxq %rax, %rax
adoxq %rdx, %rax
adcxq %rdi, %rsi
adoxq %rdi, %rsi
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %r9
adcxq %rbx, %r8
MULXq %rcx, %rbx, %rcx
adoxq %rbx, %r8
adcxq %rcx, %r10
MULXq %rax, %rcx, %rax
adoxq %rcx, %r10
adcxq %rax, %r11
MULXq %rsi, %rcx, %rax
adoxq %rcx, %r11
adcxq %rdi, %rax
adoxq %rdi, %rax
imulq $38, %rax, %rax
addq %rax, %r9
adcq %rdi, %r8
adcq %rdi, %r10
adcq %rdi, %r11
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %r9
movl 344(%rsp), %eax
decl %eax
jne Ljade_scalarmult_curve25519_amd64_mulx_base$2
xorq %rdi, %rdi
movq 120(%rsp), %rdx
MULXq %r9, %rsi, %rcx
MULXq %r8, %rax, %rbx
adcxq %rax, %rcx
MULXq %r10, %rbp, %rax
adcxq %rbp, %rbx
MULXq %r11, %rdx, %rbp
adcxq %rdx, %rax
adcxq %rdi, %rbp
movq 128(%rsp), %rdx
MULXq %r9, %r13, %r12
adoxq %r13, %rcx
adcxq %r12, %rbx
MULXq %r8, %r13, %r12
adoxq %r13, %rbx
adcxq %r12, %rax
MULXq %r10, %r13, %r12
adoxq %r13, %rax
adcxq %r12, %rbp
MULXq %r11, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rdi, %r12
adoxq %rdi, %r12
movq 136(%rsp), %rdx
MULXq %r9, %r14, %r13
adoxq %r14, %rbx
adcxq %r13, %rax
MULXq %r8, %r14, %r13
adoxq %r14, %rax
adcxq %r13, %rbp
MULXq %r10, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %r11, %rdx, %r13
adoxq %rdx, %r12
adcxq %rdi, %r13
adoxq %rdi, %r13
movq 144(%rsp), %rdx
MULXq %r9, %r14, %r9
adoxq %r14, %rax
adcxq %r9, %rbp
MULXq %r8, %r9, %r8
adoxq %r9, %rbp
adcxq %r8, %r12
MULXq %r10, %r9, %r8
adoxq %r9, %r12
adcxq %r8, %r13
MULXq %r11, %rdx, %r8
adoxq %rdx, %r13
adcxq %rdi, %r8
adoxq %rdi, %r8
movq $38, %rdx
MULXq %rbp, %r10, %r9
adoxq %r10, %rsi
adcxq %r9, %rcx
MULXq %r12, %r10, %r9
adoxq %r10, %rcx
adcxq %r9, %rbx
MULXq %r13, %r10, %r9
adoxq %r10, %rbx
adcxq %r9, %rax
MULXq %r8, %r8, %rdx
adoxq %r8, %rax
adcxq %rdi, %rdx
adoxq %rdi, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rsi
adcq %rdi, %rcx
adcq %rdi, %rbx
adcq %rdi, %rax
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %rsi
movl $2, %edx
Ljade_scalarmult_curve25519_amd64_mulx_base$1:
movl %edx, 344(%rsp)
xorq %r10, %r10
movq %rsi, %rdx
MULXq %rdx, %rsi, %r11
MULXq %rcx, %r8, %rdi
MULXq %rbx, %rbp, %r9
adcxq %rbp, %rdi
MULXq %rax, %rdx, %rbp
adcxq %rdx, %r9
movq %rcx, %rdx
MULXq %rbx, %r12, %rcx
adoxq %r12, %r9
adcxq %rcx, %rbp
MULXq %rax, %r12, %rcx
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rbx, %rdx
MULXq %rax, %r14, %rbx
adcxq %r14, %rcx
adoxq %r10, %rcx
adcxq %r10, %rbx
adoxq %r10, %rbx
MULXq %rdx, %r15, %r14
movq %rax, %rdx
MULXq %rdx, %rdx, %rax
adcxq %r8, %r8
adoxq %r11, %r8
adcxq %rdi, %rdi
adoxq %r13, %rdi
adcxq %r9, %r9
adoxq %r12, %r9
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %rcx, %rcx
adoxq %r14, %rcx
adcxq %rbx, %rbx
adoxq %rdx, %rbx
adcxq %r10, %rax
adoxq %r10, %rax
movq $38, %rdx
MULXq %rbp, %rbp, %r11
adoxq %rbp, %rsi
adcxq %r11, %r8
MULXq %rcx, %r11, %rcx
adoxq %r11, %r8
adcxq %rcx, %rdi
MULXq %rbx, %r11, %rcx
adoxq %r11, %rdi
adcxq %rcx, %r9
MULXq %rax, %rcx, %rax
adoxq %rcx, %r9
adcxq %r10, %rax
adoxq %r10, %rax
imulq $38, %rax, %rax
addq %rax, %rsi
adcq %r10, %r8
adcq %r10, %rdi
adcq %r10, %r9
sbbq %r10, %r10
andq $38, %r10
addq %r10, %rsi
xorq %r10, %r10
movq %rsi, %rdx
MULXq %rdx, %rsi, %r11
MULXq %r8, %rcx, %rbx
MULXq %rdi, %rbp, %rax
adcxq %rbp, %rbx
MULXq %r9, %rdx, %rbp
adcxq %rdx, %rax
movq %r8, %rdx
MULXq %rdi, %r12, %r8
adoxq %r12, %rax
adcxq %r8, %rbp
MULXq %r9, %r12, %r8
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rdi, %rdx
MULXq %r9, %r14, %rdi
adcxq %r14, %r8
adoxq %r10, %r8
adcxq %r10, %rdi
adoxq %r10, %rdi
MULXq %rdx, %r15, %r14
movq %r9, %rdx
MULXq %rdx, %rdx, %r9
adcxq %rcx, %rcx
adoxq %r11, %rcx
adcxq %rbx, %rbx
adoxq %r13, %rbx
adcxq %rax, %rax
adoxq %r12, %rax
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r8, %r8
adoxq %r14, %r8
adcxq %rdi, %rdi
adoxq %rdx, %rdi
adcxq %r10, %r9
adoxq %r10, %r9
movq $38, %rdx
MULXq %rbp, %rbp, %r11
adoxq %rbp, %rsi
adcxq %r11, %rcx
MULXq %r8, %r11, %r8
adoxq %r11, %rcx
adcxq %r8, %rbx
MULXq %rdi, %r8, %rdi
adoxq %r8, %rbx
adcxq %rdi, %rax
MULXq %r9, %rdi, %rdx
adoxq %rdi, %rax
adcxq %r10, %rdx
adoxq %r10, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rsi
adcq %r10, %rcx
adcq %r10, %rbx
adcq %r10, %rax
sbbq %r10, %r10
andq $38, %r10
addq %r10, %rsi
movl 344(%rsp), %edx
decl %edx
jne Ljade_scalarmult_curve25519_amd64_mulx_base$1
xorq %r8, %r8
movq %rsi, %rdx
MULXq %rdx, %rsi, %r9
MULXq %rcx, %r10, %rdi
MULXq %rbx, %rbp, %r11
adcxq %rbp, %rdi
MULXq %rax, %rdx, %rbp
adcxq %rdx, %r11
movq %rcx, %rdx
MULXq %rbx, %r12, %rcx
adoxq %r12, %r11
adcxq %rcx, %rbp
MULXq %rax, %r12, %rcx
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rbx, %rdx
MULXq %rax, %r14, %rbx
adcxq %r14, %rcx
adoxq %r8, %rcx
adcxq %r8, %rbx
adoxq %r8, %rbx
MULXq %rdx, %r15, %r14
movq %rax, %rdx
MULXq %rdx, %rdx, %rax
adcxq %r10, %r10
adoxq %r9, %r10
adcxq %rdi, %rdi
adoxq %r13, %rdi
adcxq %r11, %r11
adoxq %r12, %r11
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %rcx, %rcx
adoxq %r14, %rcx
adcxq %rbx, %rbx
adoxq %rdx, %rbx
adcxq %r8, %rax
adoxq %r8, %rax
movq $38, %rdx
MULXq %rbp, %rbp, %r9
adoxq %rbp, %rsi
adcxq %r9, %r10
MULXq %rcx, %r9, %rcx
adoxq %r9, %r10
adcxq %rcx, %rdi
MULXq %rbx, %r9, %rcx
adoxq %r9, %rdi
adcxq %rcx, %r11
MULXq %rax, %rcx, %rax
adoxq %rcx, %r11
adcxq %r8, %rax
adoxq %r8, %rax
imulq $38, %rax, %rax
addq %rax, %rsi
adcq %r8, %r10
adcq %r8, %rdi
adcq %r8, %r11
sbbq %r8, %r8
andq $38, %r8
addq %r8, %rsi
xorq %rbx, %rbx
movq 88(%rsp), %rdx
MULXq %rsi, %rcx, %rax
MULXq %r10, %r9, %r8
adcxq %r9, %rax
MULXq %rdi, %rbp, %r9
adcxq %rbp, %r8
MULXq %r11, %rdx, %rbp
adcxq %rdx, %r9
adcxq %rbx, %rbp
movq 96(%rsp), %rdx
MULXq %rsi, %r13, %r12
adoxq %r13, %rax
adcxq %r12, %r8
MULXq %r10, %r13, %r12
adoxq %r13, %r8
adcxq %r12, %r9
MULXq %rdi, %r13, %r12
adoxq %r13, %r9
adcxq %r12, %rbp
MULXq %r11, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rbx, %r12
adoxq %rbx, %r12
movq 104(%rsp), %rdx
MULXq %rsi, %r14, %r13
adoxq %r14, %r8
adcxq %r13, %r9
MULXq %r10, %r14, %r13
adoxq %r14, %r9
adcxq %r13, %rbp
MULXq %rdi, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %r11, %rdx, %r13
adoxq %rdx, %r12
adcxq %rbx, %r13
adoxq %rbx, %r13
movq 112(%rsp), %rdx
MULXq %rsi, %r14, %rsi
adoxq %r14, %r9
adcxq %rsi, %rbp
MULXq %r10, %r10, %rsi
adoxq %r10, %rbp
adcxq %rsi, %r12
MULXq %rdi, %rdi, %rsi
adoxq %rdi, %r12
adcxq %rsi, %r13
MULXq %r11, %rdx, %rsi
adoxq %rdx, %r13
adcxq %rbx, %rsi
adoxq %rbx, %rsi
movq $38, %rdx
MULXq %rbp, %r10, %rdi
adoxq %r10, %rcx
adcxq %rdi, %rax
MULXq %r12, %r10, %rdi
adoxq %r10, %rax
adcxq %rdi, %r8
MULXq %r13, %r10, %rdi
adoxq %r10, %r8
adcxq %rdi, %r9
MULXq %rsi, %rsi, %rdx
adoxq %rsi, %r9
adcxq %rbx, %rdx
adoxq %rbx, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rcx
adcq %rbx, %rax
adcq %rbx, %r8
adcq %rbx, %r9
sbbq %rbx, %rbx
andq $38, %rbx
addq %rbx, %rcx
xorq %rsi, %rsi
movq 56(%rsp), %rdx
MULXq %rcx, %r10, %rdi
MULXq %rax, %rbx, %r11
adcxq %rbx, %rdi
MULXq %r8, %rbp, %rbx
adcxq %rbp, %r11
MULXq %r9, %rdx, %rbp
adcxq %rdx, %rbx
adcxq %rsi, %rbp
movq 64(%rsp), %rdx
MULXq %rcx, %r13, %r12
adoxq %r13, %rdi
adcxq %r12, %r11
MULXq %rax, %r13, %r12
adoxq %r13, %r11
adcxq %r12, %rbx
MULXq %r8, %r13, %r12
adoxq %r13, %rbx
adcxq %r12, %rbp
MULXq %r9, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rsi, %r12
adoxq %rsi, %r12
movq 72(%rsp), %rdx
MULXq %rcx, %r14, %r13
adoxq %r14, %r11
adcxq %r13, %rbx
MULXq %rax, %r14, %r13
adoxq %r14, %rbx
adcxq %r13, %rbp
MULXq %r8, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %r9, %rdx, %r13
adoxq %rdx, %r12
adcxq %rsi, %r13
adoxq %rsi, %r13
movq 80(%rsp), %rdx
MULXq %rcx, %r14, %rcx
adoxq %r14, %rbx
adcxq %rcx, %rbp
MULXq %rax, %rcx, %rax
adoxq %rcx, %rbp
adcxq %rax, %r12
MULXq %r8, %rcx, %rax
adoxq %rcx, %r12
adcxq %rax, %r13
MULXq %r9, %rcx, %rax
adoxq %rcx, %r13
adcxq %rsi, %rax
adoxq %rsi, %rax
movq $38, %rdx
MULXq %rbp, %r8, %rcx
adoxq %r8, %r10
adcxq %rcx, %rdi
MULXq %r12, %r8, %rcx
adoxq %r8, %rdi
adcxq %rcx, %r11
MULXq %r13, %r8, %rcx
adoxq %r8, %r11
adcxq %rcx, %rbx
MULXq %rax, %rcx, %rax
adoxq %rcx, %rbx
adcxq %rsi, %rax
adoxq %rsi, %rax
imulq $38, %rax, %rax
addq %rax, %r10
adcq %rsi, %rdi
adcq %rsi, %r11
adcq %rsi, %rbx
sbbq %rsi, %rsi
andq $38, %rsi
addq %rsi, %r10
leaq (%rbx,%rbx), %rax
sarq $63, %rbx
shrq $1, %rax
andq $19, %rbx
addq $19, %rbx
addq %rbx, %r10
adcq $0, %rdi
adcq $0, %r11
adcq $0, %rax
leaq (%rax,%rax), %rcx
sarq $63, %rax
shrq $1, %rcx
notq %rax
andq $19, %rax
subq %rax, %r10
sbbq $0, %rdi
sbbq $0, %r11
sbbq $0, %rcx
movq (%rsp), %rax
movq %r10, (%rax)
movq %rdi, 8(%rax)
movq %r11, 16(%rax)
movq %rcx, 24(%rax)
xorq %rax, %rax
movq 352(%rsp), %rbx
movq 360(%rsp), %rbp
movq 368(%rsp), %r12
movq 376(%rsp), %r13
movq 384(%rsp), %r14
movq 392(%rsp), %r15
movq 400(%rsp), %rsp
ret
_jade_scalarmult_curve25519_amd64_mulx:
jade_scalarmult_curve25519_amd64_mulx:
movq %rsp, %rax
leaq -408(%rsp), %rsp
andq $-8, %rsp
movq %rax, 400(%rsp)
movq %rbx, 352(%rsp)
movq %rbp, 360(%rsp)
movq %r12, 368(%rsp)
movq %r13, 376(%rsp)
movq %r14, 384(%rsp)
movq %r15, 392(%rsp)
movq %rdi, (%rsp)
movq (%rsi), %rax
movq %rax, 24(%rsp)
movq 8(%rsi), %rax
movq %rax, 32(%rsp)
movq 16(%rsi), %rax
movq %rax, 40(%rsp)
movq 24(%rsi), %rax
movq %rax, 48(%rsp)
andb $-8, 24(%rsp)
andb $127, 55(%rsp)
orb $64, 55(%rsp)
movq (%rdx), %rcx
movq 8(%rdx), %r8
movq 16(%rdx), %r10
movq 24(%rdx), %rdx
movq $9223372036854775807, %rax
andq %rax, %rdx
xorq %r11, %r11
movq $1, 56(%rsp)
movq $0, %rdi
movq %rcx, 88(%rsp)
movq %r8, 96(%rsp)
movq %r10, 104(%rsp)
movq %rdx, 112(%rsp)
movq $1, 120(%rsp)
movq %r11, 64(%rsp)
movq %r11, %r9
movq %r11, 128(%rsp)
movq %r11, 72(%rsp)
movq %r11, %rax
movq %r11, 136(%rsp)
movq %r11, 80(%rsp)
movq %r11, %rsi
movq %r11, 144(%rsp)
movq %rcx, 152(%rsp)
movq %r8, 160(%rsp)
movq %r10, 168(%rsp)
movq %rdx, 176(%rsp)
movq $255, %rcx
movq $0, 8(%rsp)
Ljade_scalarmult_curve25519_amd64_mulx$9:
addq $-1, %rcx
movq %rcx, 16(%rsp)
movq %rcx, %rdx
shrq $3, %rdx
movzbq 24(%rsp,%rdx), %rdx
andq $7, %rcx
shrq %cl, %rdx
andq $1, %rdx
movq 8(%rsp), %r8
xorq %rdx, %r8
xorq %rcx, %rcx
subq %r8, %rcx
movq 120(%rsp), %r8
movq 128(%rsp), %r10
movq 136(%rsp), %r11
movq 144(%rsp), %rbx
movq %rdi, %rbp
movq %r9, %r12
movq %rax, %r13
movq %rsi, %r14
xorq %r8, %rbp
xorq %r10, %r12
xorq %r11, %r13
xorq %rbx, %r14
andq %rcx, %rbp
andq %rcx, %r12
andq %rcx, %r13
andq %rcx, %r14
xorq %rbp, %rdi
xorq %rbp, %r8
movq %r8, 120(%rsp)
xorq %r12, %r9
xorq %r12, %r10
movq %r10, 128(%rsp)
xorq %r13, %rax
xorq %r13, %r11
movq %r11, 136(%rsp)
xorq %r14, %rsi
xorq %r14, %rbx
movq %rbx, 144(%rsp)
movq 88(%rsp), %r11
movq 96(%rsp), %rbx
movq 104(%rsp), %r8
movq 112(%rsp), %r10
movq 56(%rsp), %rbp
movq %r11, %r12
xorq %rbp, %r12
andq %rcx, %r12
xorq %r12, %rbp
xorq %r12, %r11
movq %rbp, 56(%rsp)
movq %r11, 88(%rsp)
movq 64(%rsp), %r11
movq %rbx, %rbp
xorq %r11, %rbp
andq %rcx, %rbp
xorq %rbp, %r11
xorq %rbp, %rbx
movq %r11, 64(%rsp)
movq %rbx, 96(%rsp)
movq 72(%rsp), %r11
movq %r8, %rbx
xorq %r11, %rbx
andq %rcx, %rbx
xorq %rbx, %r11
xorq %rbx, %r8
movq %r11, 72(%rsp)
movq %r8, 104(%rsp)
movq 80(%rsp), %r8
movq %r10, %r11
xorq %r8, %r11
andq %rcx, %r11
xorq %r11, %r8
xorq %r11, %r10
movq %r8, 80(%rsp)
movq %r10, 112(%rsp)
movq %rdx, 8(%rsp)
xorq %rcx, %rcx
movq 56(%rsp), %rdx
movq 64(%rsp), %r8
movq 72(%rsp), %r10
movq 80(%rsp), %r11
subq %rdi, %rdx
sbbq %r9, %r8
sbbq %rax, %r10
sbbq %rsi, %r11
sbbq %rcx, %rcx
andq $38, %rcx
subq %rcx, %rdx
sbbq $0, %r8
sbbq $0, %r10
sbbq $0, %r11
sbbq %rcx, %rcx
andq $38, %rcx
subq %rcx, %rdx
movq %rdx, 184(%rsp)
movq %r8, 192(%rsp)
movq %r10, 200(%rsp)
movq %r11, 208(%rsp)
xorq %rcx, %rcx
addq 56(%rsp), %rdi
adcq 64(%rsp), %r9
adcq 72(%rsp), %rax
adcq 80(%rsp), %rsi
sbbq %rcx, %rcx
andq $38, %rcx
addq %rcx, %rdi
adcq $0, %r9
adcq $0, %rax
adcq $0, %rsi
sbbq %rcx, %rcx
andq $38, %rcx
addq %rcx, %rdi
movq %rdi, 216(%rsp)
movq %r9, 224(%rsp)
movq %rax, 232(%rsp)
movq %rsi, 240(%rsp)
movq 88(%rsp), %rax
movq 96(%rsp), %rcx
movq 104(%rsp), %rdx
movq 112(%rsp), %rsi
xorq %rdi, %rdi
subq 120(%rsp), %rax
sbbq 128(%rsp), %rcx
sbbq 136(%rsp), %rdx
sbbq 144(%rsp), %rsi
sbbq %rdi, %rdi
andq $38, %rdi
subq %rdi, %rax
sbbq $0, %rcx
sbbq $0, %rdx
sbbq $0, %rsi
sbbq %rdi, %rdi
andq $38, %rdi
subq %rdi, %rax
movq %rax, 248(%rsp)
movq %rcx, 256(%rsp)
movq %rdx, 264(%rsp)
movq %rsi, 272(%rsp)
movq 88(%rsp), %rax
movq 96(%rsp), %rcx
movq 104(%rsp), %rdx
movq 112(%rsp), %rsi
xorq %rdi, %rdi
addq 120(%rsp), %rax
adcq 128(%rsp), %rcx
adcq 136(%rsp), %rdx
adcq 144(%rsp), %rsi
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %rax
adcq $0, %rcx
adcq $0, %rdx
adcq $0, %rsi
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %rax
movq %rax, 280(%rsp)
movq %rcx, 288(%rsp)
movq %rdx, 296(%rsp)
movq %rsi, 304(%rsp)
movq 248(%rsp), %r9
movq 256(%rsp), %r10
movq 264(%rsp), %r11
movq 272(%rsp), %rbx
xorq %rax, %rax
movq 216(%rsp), %rdx
MULXq %r9, %rsi, %rcx
MULXq %r10, %r8, %rdi
adcxq %r8, %rcx
MULXq %r11, %rbp, %r8
adcxq %rbp, %rdi
MULXq %rbx, %rdx, %rbp
adcxq %rdx, %r8
adcxq %rax, %rbp
movq 224(%rsp), %rdx
MULXq %r9, %r13, %r12
adoxq %r13, %rcx
adcxq %r12, %rdi
MULXq %r10, %r13, %r12
adoxq %r13, %rdi
adcxq %r12, %r8
MULXq %r11, %r13, %r12
adoxq %r13, %r8
adcxq %r12, %rbp
MULXq %rbx, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rax, %r12
adoxq %rax, %r12
movq 232(%rsp), %rdx
MULXq %r9, %r14, %r13
adoxq %r14, %rdi
adcxq %r13, %r8
MULXq %r10, %r14, %r13
adoxq %r14, %r8
adcxq %r13, %rbp
MULXq %r11, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %rbx, %rdx, %r13
adoxq %rdx, %r12
adcxq %rax, %r13
adoxq %rax, %r13
movq 240(%rsp), %rdx
MULXq %r9, %r14, %r9
adoxq %r14, %r8
adcxq %r9, %rbp
MULXq %r10, %r10, %r9
adoxq %r10, %rbp
adcxq %r9, %r12
MULXq %r11, %r10, %r9
adoxq %r10, %r12
adcxq %r9, %r13
MULXq %rbx, %rdx, %r9
adoxq %rdx, %r13
adcxq %rax, %r9
adoxq %rax, %r9
movq $38, %rdx
MULXq %rbp, %r11, %r10
adoxq %r11, %rsi
adcxq %r10, %rcx
MULXq %r12, %r11, %r10
adoxq %r11, %rcx
adcxq %r10, %rdi
MULXq %r13, %r11, %r10
adoxq %r11, %rdi
adcxq %r10, %r8
MULXq %r9, %r9, %rdx
adoxq %r9, %r8
adcxq %rax, %rdx
adoxq %rax, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rsi
adcq %rax, %rcx
adcq %rax, %rdi
adcq %rax, %r8
sbbq %rax, %rax
andq $38, %rax
addq %rax, %rsi
movq %rsi, 248(%rsp)
movq %rcx, 256(%rsp)
movq %rdi, 264(%rsp)
movq %r8, 272(%rsp)
movq 184(%rsp), %r9
movq 192(%rsp), %r10
movq 200(%rsp), %r11
movq 208(%rsp), %rbx
xorq %rax, %rax
movq 280(%rsp), %rdx
MULXq %r9, %rsi, %rcx
MULXq %r10, %r8, %rdi
adcxq %r8, %rcx
MULXq %r11, %rbp, %r8
adcxq %rbp, %rdi
MULXq %rbx, %rdx, %rbp
adcxq %rdx, %r8
adcxq %rax, %rbp
movq 288(%rsp), %rdx
MULXq %r9, %r13, %r12
adoxq %r13, %rcx
adcxq %r12, %rdi
MULXq %r10, %r13, %r12
adoxq %r13, %rdi
adcxq %r12, %r8
MULXq %r11, %r13, %r12
adoxq %r13, %r8
adcxq %r12, %rbp
MULXq %rbx, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rax, %r12
adoxq %rax, %r12
movq 296(%rsp), %rdx
MULXq %r9, %r14, %r13
adoxq %r14, %rdi
adcxq %r13, %r8
MULXq %r10, %r14, %r13
adoxq %r14, %r8
adcxq %r13, %rbp
MULXq %r11, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %rbx, %rdx, %r13
adoxq %rdx, %r12
adcxq %rax, %r13
adoxq %rax, %r13
movq 304(%rsp), %rdx
MULXq %r9, %r14, %r9
adoxq %r14, %r8
adcxq %r9, %rbp
MULXq %r10, %r10, %r9
adoxq %r10, %rbp
adcxq %r9, %r12
MULXq %r11, %r10, %r9
adoxq %r10, %r12
adcxq %r9, %r13
MULXq %rbx, %rdx, %r9
adoxq %rdx, %r13
adcxq %rax, %r9
adoxq %rax, %r9
movq $38, %rdx
MULXq %rbp, %r11, %r10
adoxq %r11, %rsi
adcxq %r10, %rcx
MULXq %r12, %r11, %r10
adoxq %r11, %rcx
adcxq %r10, %rdi
MULXq %r13, %r11, %r10
adoxq %r11, %rdi
adcxq %r10, %r8
MULXq %r9, %r9, %rdx
adoxq %r9, %r8
adcxq %rax, %rdx
adoxq %rax, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rsi
adcq %rax, %rcx
adcq %rax, %rdi
adcq %rax, %r8
sbbq %rax, %rax
andq $38, %rax
addq %rax, %rsi
movq %rsi, 280(%rsp)
movq %rcx, 288(%rsp)
movq %rdi, 296(%rsp)
movq %r8, 304(%rsp)
movq 216(%rsp), %rdx
movq 224(%rsp), %r11
movq 232(%rsp), %r13
movq 240(%rsp), %rbx
xorq %rax, %rax
MULXq %rdx, %rsi, %rcx
MULXq %r11, %r8, %rdi
MULXq %r13, %r10, %r9
adcxq %r10, %rdi
MULXq %rbx, %rdx, %r10
adcxq %rdx, %r9
movq %r11, %rdx
MULXq %r13, %rbp, %r11
adoxq %rbp, %r9
adcxq %r11, %r10
MULXq %rbx, %rbp, %r11
adoxq %rbp, %r10
MULXq %rdx, %r12, %rbp
movq %r13, %rdx
MULXq %rbx, %r14, %r13
adcxq %r14, %r11
adoxq %rax, %r11
adcxq %rax, %r13
adoxq %rax, %r13
MULXq %rdx, %r15, %r14
movq %rbx, %rdx
MULXq %rdx, %rdx, %rbx
adcxq %r8, %r8
adoxq %rcx, %r8
adcxq %rdi, %rdi
adoxq %r12, %rdi
adcxq %r9, %r9
adoxq %rbp, %r9
adcxq %r10, %r10
adoxq %r15, %r10
adcxq %r11, %r11
adoxq %r14, %r11
adcxq %r13, %r13
adoxq %rdx, %r13
adcxq %rax, %rbx
adoxq %rax, %rbx
movq $38, %rdx
MULXq %r10, %r10, %rcx
adoxq %r10, %rsi
adcxq %rcx, %r8
MULXq %r11, %r10, %rcx
adoxq %r10, %r8
adcxq %rcx, %rdi
MULXq %r13, %r10, %rcx
adoxq %r10, %rdi
adcxq %rcx, %r9
MULXq %rbx, %rdx, %rcx
adoxq %rdx, %r9
adcxq %rax, %rcx
adoxq %rax, %rcx
imulq $38, %rcx, %rcx
addq %rcx, %rsi
adcq %rax, %r8
adcq %rax, %rdi
adcq %rax, %r9
sbbq %rax, %rax
andq $38, %rax
addq %rax, %rsi
movq %rsi, 216(%rsp)
movq %r8, 224(%rsp)
movq %rdi, 232(%rsp)
movq %r9, 240(%rsp)
movq 184(%rsp), %rdx
movq 192(%rsp), %r11
movq 200(%rsp), %r13
movq 208(%rsp), %rbx
xorq %r8, %r8
MULXq %rdx, %rax, %r9
MULXq %r11, %rsi, %rcx
MULXq %r13, %r10, %rdi
adcxq %r10, %rcx
MULXq %rbx, %rdx, %r10
adcxq %rdx, %rdi
movq %r11, %rdx
MULXq %r13, %rbp, %r11
adoxq %rbp, %rdi
adcxq %r11, %r10
MULXq %rbx, %rbp, %r11
adoxq %rbp, %r10
MULXq %rdx, %r12, %rbp
movq %r13, %rdx
MULXq %rbx, %r14, %r13
adcxq %r14, %r11
adoxq %r8, %r11
adcxq %r8, %r13
adoxq %r8, %r13
MULXq %rdx, %r15, %r14
movq %rbx, %rdx
MULXq %rdx, %rdx, %rbx
adcxq %rsi, %rsi
adoxq %r9, %rsi
adcxq %rcx, %rcx
adoxq %r12, %rcx
adcxq %rdi, %rdi
adoxq %rbp, %rdi
adcxq %r10, %r10
adoxq %r15, %r10
adcxq %r11, %r11
adoxq %r14, %r11
adcxq %r13, %r13
adoxq %rdx, %r13
adcxq %r8, %rbx
adoxq %r8, %rbx
movq $38, %rdx
MULXq %r10, %r10, %r9
adoxq %r10, %rax
adcxq %r9, %rsi
MULXq %r11, %r10, %r9
adoxq %r10, %rsi
adcxq %r9, %rcx
MULXq %r13, %r10, %r9
adoxq %r10, %rcx
adcxq %r9, %rdi
MULXq %rbx, %r9, %rdx
adoxq %r9, %rdi
adcxq %r8, %rdx
adoxq %r8, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rax
adcq %r8, %rsi
adcq %r8, %rcx
adcq %r8, %rdi
sbbq %r8, %r8
andq $38, %r8
addq %r8, %rax
movq 248(%rsp), %rdx
movq 256(%rsp), %r8
movq 264(%rsp), %r9
movq 272(%rsp), %r10
xorq %r11, %r11
addq 280(%rsp), %rdx
adcq 288(%rsp), %r8
adcq 296(%rsp), %r9
adcq 304(%rsp), %r10
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rdx
adcq $0, %r8
adcq $0, %r9
adcq $0, %r10
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rdx
movq %rdx, 184(%rsp)
movq %r8, 192(%rsp)
movq %r9, 200(%rsp)
movq %r10, 208(%rsp)
movq 248(%rsp), %rdx
movq 256(%rsp), %r8
movq 264(%rsp), %r9
movq 272(%rsp), %r10
xorq %r11, %r11
subq 280(%rsp), %rdx
sbbq 288(%rsp), %r8
sbbq 296(%rsp), %r9
sbbq 304(%rsp), %r10
sbbq %r11, %r11
andq $38, %r11
subq %r11, %rdx
sbbq $0, %r8
sbbq $0, %r9
sbbq $0, %r10
sbbq %r11, %r11
andq $38, %r11
subq %r11, %rdx
movq %rdx, 280(%rsp)
movq %r8, 288(%rsp)
movq %r9, 296(%rsp)
movq %r10, 304(%rsp)
xorq %rdx, %rdx
movq 216(%rsp), %r8
movq 224(%rsp), %r9
movq 232(%rsp), %r10
movq 240(%rsp), %r11
subq %rax, %r8
sbbq %rsi, %r9
sbbq %rcx, %r10
sbbq %rdi, %r11
sbbq %rdx, %rdx
andq $38, %rdx
subq %rdx, %r8
sbbq $0, %r9
sbbq $0, %r10
sbbq $0, %r11
sbbq %rdx, %rdx
andq $38, %rdx
subq %rdx, %r8
movq %r8, 248(%rsp)
movq %r9, 256(%rsp)
movq %r10, 264(%rsp)
movq %r11, 272(%rsp)
xorq %r8, %r8
movq 216(%rsp), %rdx
MULXq %rax, %r10, %r9
MULXq %rsi, %rbx, %r11
adcxq %rbx, %r9
MULXq %rcx, %rbp, %rbx
adcxq %rbp, %r11
MULXq %rdi, %rdx, %rbp
adcxq %rdx, %rbx
adcxq %r8, %rbp
movq 224(%rsp), %rdx
MULXq %rax, %r13, %r12
adoxq %r13, %r9
adcxq %r12, %r11
MULXq %rsi, %r13, %r12
adoxq %r13, %r11
adcxq %r12, %rbx
MULXq %rcx, %r13, %r12
adoxq %r13, %rbx
adcxq %r12, %rbp
MULXq %rdi, %rdx, %r12
adoxq %rdx, %rbp
adcxq %r8, %r12
adoxq %r8, %r12
movq 232(%rsp), %rdx
MULXq %rax, %r14, %r13
adoxq %r14, %r11
adcxq %r13, %rbx
MULXq %rsi, %r14, %r13
adoxq %r14, %rbx
adcxq %r13, %rbp
MULXq %rcx, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %rdi, %rdx, %r13
adoxq %rdx, %r12
adcxq %r8, %r13
adoxq %r8, %r13
movq 240(%rsp), %rdx
MULXq %rax, %r14, %rax
adoxq %r14, %rbx
adcxq %rax, %rbp
MULXq %rsi, %rsi, %rax
adoxq %rsi, %rbp
adcxq %rax, %r12
MULXq %rcx, %rcx, %rax
adoxq %rcx, %r12
adcxq %rax, %r13
MULXq %rdi, %rcx, %rax
adoxq %rcx, %r13
adcxq %r8, %rax
adoxq %r8, %rax
movq $38, %rdx
MULXq %rbp, %rsi, %rcx
adoxq %rsi, %r10
adcxq %rcx, %r9
MULXq %r12, %rsi, %rcx
adoxq %rsi, %r9
adcxq %rcx, %r11
MULXq %r13, %rsi, %rcx
adoxq %rsi, %r11
adcxq %rcx, %rbx
MULXq %rax, %rcx, %rax
adoxq %rcx, %rbx
adcxq %r8, %rax
adoxq %r8, %rax
imulq $38, %rax, %rax
addq %rax, %r10
adcq %r8, %r9
adcq %r8, %r11
adcq %r8, %rbx
sbbq %r8, %r8
andq $38, %r8
addq %r8, %r10
movq %r10, 56(%rsp)
movq %r9, 64(%rsp)
movq %r11, 72(%rsp)
movq %rbx, 80(%rsp)
movq 280(%rsp), %rdx
movq 288(%rsp), %r11
movq 296(%rsp), %r13
movq 304(%rsp), %rbx
xorq %rax, %rax
MULXq %rdx, %rsi, %rcx
MULXq %r11, %r8, %rdi
MULXq %r13, %r10, %r9
adcxq %r10, %rdi
MULXq %rbx, %rdx, %r10
adcxq %rdx, %r9
movq %r11, %rdx
MULXq %r13, %rbp, %r11
adoxq %rbp, %r9
adcxq %r11, %r10
MULXq %rbx, %rbp, %r11
adoxq %rbp, %r10
MULXq %rdx, %r12, %rbp
movq %r13, %rdx
MULXq %rbx, %r14, %r13
adcxq %r14, %r11
adoxq %rax, %r11
adcxq %rax, %r13
adoxq %rax, %r13
MULXq %rdx, %r15, %r14
movq %rbx, %rdx
MULXq %rdx, %rdx, %rbx
adcxq %r8, %r8
adoxq %rcx, %r8
adcxq %rdi, %rdi
adoxq %r12, %rdi
adcxq %r9, %r9
adoxq %rbp, %r9
adcxq %r10, %r10
adoxq %r15, %r10
adcxq %r11, %r11
adoxq %r14, %r11
adcxq %r13, %r13
adoxq %rdx, %r13
adcxq %rax, %rbx
adoxq %rax, %rbx
movq $38, %rdx
MULXq %r10, %r10, %rcx
adoxq %r10, %rsi
adcxq %rcx, %r8
MULXq %r11, %r10, %rcx
adoxq %r10, %r8
adcxq %rcx, %rdi
MULXq %r13, %r10, %rcx
adoxq %r10, %rdi
adcxq %rcx, %r9
MULXq %rbx, %rdx, %rcx
adoxq %rdx, %r9
adcxq %rax, %rcx
adoxq %rax, %rcx
imulq $38, %rcx, %rcx
addq %rcx, %rsi
adcq %rax, %r8
adcq %rax, %rdi
adcq %rax, %r9
sbbq %rax, %rax
andq $38, %rax
addq %rax, %rsi
movq %rsi, 280(%rsp)
movq %r8, 288(%rsp)
movq %rdi, 296(%rsp)
movq %r9, 304(%rsp)
movq $121665, %rdx
MULXq 248(%rsp), %rcx, %rax
MULXq 256(%rsp), %rdi, %rsi
addq %rdi, %rax
MULXq 264(%rsp), %r8, %rdi
adcq %r8, %rsi
MULXq 272(%rsp), %r9, %r8
adcq %r9, %rdi
adcq $0, %r8
imulq $38, %r8, %r8
addq %r8, %rcx
adcq $0, %rax
adcq $0, %rsi
adcq $0, %rdi
sbbq %rdx, %rdx
andq $38, %rdx
addq %rdx, %rcx
movq %rcx, 312(%rsp)
movq %rax, 320(%rsp)
movq %rsi, 328(%rsp)
movq %rdi, 336(%rsp)
movq 184(%rsp), %rdx
movq 192(%rsp), %r11
movq 200(%rsp), %r13
movq 208(%rsp), %rbx
xorq %rax, %rax
MULXq %rdx, %rsi, %rcx
MULXq %r11, %r8, %rdi
MULXq %r13, %r10, %r9
adcxq %r10, %rdi
MULXq %rbx, %rdx, %r10
adcxq %rdx, %r9
movq %r11, %rdx
MULXq %r13, %rbp, %r11
adoxq %rbp, %r9
adcxq %r11, %r10
MULXq %rbx, %rbp, %r11
adoxq %rbp, %r10
MULXq %rdx, %r12, %rbp
movq %r13, %rdx
MULXq %rbx, %r14, %r13
adcxq %r14, %r11
adoxq %rax, %r11
adcxq %rax, %r13
adoxq %rax, %r13
MULXq %rdx, %r15, %r14
movq %rbx, %rdx
MULXq %rdx, %rdx, %rbx
adcxq %r8, %r8
adoxq %rcx, %r8
adcxq %rdi, %rdi
adoxq %r12, %rdi
adcxq %r9, %r9
adoxq %rbp, %r9
adcxq %r10, %r10
adoxq %r15, %r10
adcxq %r11, %r11
adoxq %r14, %r11
adcxq %r13, %r13
adoxq %rdx, %r13
adcxq %rax, %rbx
adoxq %rax, %rbx
movq $38, %rdx
MULXq %r10, %r10, %rcx
adoxq %r10, %rsi
adcxq %rcx, %r8
MULXq %r11, %r10, %rcx
adoxq %r10, %r8
adcxq %rcx, %rdi
MULXq %r13, %r10, %rcx
adoxq %r10, %rdi
adcxq %rcx, %r9
MULXq %rbx, %rdx, %rcx
adoxq %rdx, %r9
adcxq %rax, %rcx
adoxq %rax, %rcx
imulq $38, %rcx, %rcx
addq %rcx, %rsi
adcq %rax, %r8
adcq %rax, %rdi
adcq %rax, %r9
sbbq %rax, %rax
andq $38, %rax
addq %rax, %rsi
movq %rsi, 88(%rsp)
movq %r8, 96(%rsp)
movq %rdi, 104(%rsp)
movq %r9, 112(%rsp)
movq 216(%rsp), %rax
movq 224(%rsp), %rcx
movq 232(%rsp), %rdx
movq 240(%rsp), %rsi
xorq %rdi, %rdi
addq 312(%rsp), %rax
adcq 320(%rsp), %rcx
adcq 328(%rsp), %rdx
adcq 336(%rsp), %rsi
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %rax
adcq $0, %rcx
adcq $0, %rdx
adcq $0, %rsi
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %rax
movq %rax, 312(%rsp)
movq %rcx, 320(%rsp)
movq %rdx, 328(%rsp)
movq %rsi, 336(%rsp)
movq 280(%rsp), %r9
movq 288(%rsp), %r10
movq 296(%rsp), %r11
movq 304(%rsp), %rbx
xorq %rax, %rax
movq 152(%rsp), %rdx
MULXq %r9, %rsi, %rcx
MULXq %r10, %r8, %rdi
adcxq %r8, %rcx
MULXq %r11, %rbp, %r8
adcxq %rbp, %rdi
MULXq %rbx, %rdx, %rbp
adcxq %rdx, %r8
adcxq %rax, %rbp
movq 160(%rsp), %rdx
MULXq %r9, %r13, %r12
adoxq %r13, %rcx
adcxq %r12, %rdi
MULXq %r10, %r13, %r12
adoxq %r13, %rdi
adcxq %r12, %r8
MULXq %r11, %r13, %r12
adoxq %r13, %r8
adcxq %r12, %rbp
MULXq %rbx, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rax, %r12
adoxq %rax, %r12
movq 168(%rsp), %rdx
MULXq %r9, %r14, %r13
adoxq %r14, %rdi
adcxq %r13, %r8
MULXq %r10, %r14, %r13
adoxq %r14, %r8
adcxq %r13, %rbp
MULXq %r11, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %rbx, %rdx, %r13
adoxq %rdx, %r12
adcxq %rax, %r13
adoxq %rax, %r13
movq 176(%rsp), %rdx
MULXq %r9, %r14, %r9
adoxq %r14, %r8
adcxq %r9, %rbp
MULXq %r10, %r10, %r9
adoxq %r10, %rbp
adcxq %r9, %r12
MULXq %r11, %r10, %r9
adoxq %r10, %r12
adcxq %r9, %r13
MULXq %rbx, %rdx, %r9
adoxq %rdx, %r13
adcxq %rax, %r9
adoxq %rax, %r9
movq $38, %rdx
MULXq %rbp, %r11, %r10
adoxq %r11, %rsi
adcxq %r10, %rcx
MULXq %r12, %r11, %r10
adoxq %r11, %rcx
adcxq %r10, %rdi
MULXq %r13, %r11, %r10
adoxq %r11, %rdi
adcxq %r10, %r8
MULXq %r9, %r9, %rdx
adoxq %r9, %r8
adcxq %rax, %rdx
adoxq %rax, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rsi
adcq %rax, %rcx
adcq %rax, %rdi
adcq %rax, %r8
sbbq %rax, %rax
andq $38, %rax
addq %rax, %rsi
movq %rsi, 120(%rsp)
movq %rcx, 128(%rsp)
movq %rdi, 136(%rsp)
movq %r8, 144(%rsp)
movq 312(%rsp), %r8
movq 320(%rsp), %r10
movq 328(%rsp), %r11
movq 336(%rsp), %rbx
xorq %rcx, %rcx
movq 248(%rsp), %rdx
MULXq %r8, %rdi, %r9
MULXq %r10, %rsi, %rax
adcxq %rsi, %r9
MULXq %r11, %rbp, %rsi
adcxq %rbp, %rax
MULXq %rbx, %rdx, %rbp
adcxq %rdx, %rsi
adcxq %rcx, %rbp
movq 256(%rsp), %rdx
MULXq %r8, %r13, %r12
adoxq %r13, %r9
adcxq %r12, %rax
MULXq %r10, %r13, %r12
adoxq %r13, %rax
adcxq %r12, %rsi
MULXq %r11, %r13, %r12
adoxq %r13, %rsi
adcxq %r12, %rbp
MULXq %rbx, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rcx, %r12
adoxq %rcx, %r12
movq 264(%rsp), %rdx
MULXq %r8, %r14, %r13
adoxq %r14, %rax
adcxq %r13, %rsi
MULXq %r10, %r14, %r13
adoxq %r14, %rsi
adcxq %r13, %rbp
MULXq %r11, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %rbx, %rdx, %r13
adoxq %rdx, %r12
adcxq %rcx, %r13
adoxq %rcx, %r13
movq 272(%rsp), %rdx
MULXq %r8, %r14, %r8
adoxq %r14, %rsi
adcxq %r8, %rbp
MULXq %r10, %r10, %r8
adoxq %r10, %rbp
adcxq %r8, %r12
MULXq %r11, %r10, %r8
adoxq %r10, %r12
adcxq %r8, %r13
MULXq %rbx, %rdx, %r8
adoxq %rdx, %r13
adcxq %rcx, %r8
adoxq %rcx, %r8
movq $38, %rdx
MULXq %rbp, %r11, %r10
adoxq %r11, %rdi
adcxq %r10, %r9
MULXq %r12, %r11, %r10
adoxq %r11, %r9
adcxq %r10, %rax
MULXq %r13, %r11, %r10
adoxq %r11, %rax
adcxq %r10, %rsi
MULXq %r8, %r8, %rdx
adoxq %r8, %rsi
adcxq %rcx, %rdx
adoxq %rcx, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rdi
adcq %rcx, %r9
adcq %rcx, %rax
adcq %rcx, %rsi
sbbq %rcx, %rcx
andq $38, %rcx
addq %rcx, %rdi
movq 16(%rsp), %rcx
cmpq $0, %rcx
jnbe Ljade_scalarmult_curve25519_amd64_mulx$9
movq %rdi, 120(%rsp)
movq %r9, 128(%rsp)
movq %rax, 136(%rsp)
movq %rsi, 144(%rsp)
xorq %r10, %r10
movq %rdi, %rdx
MULXq %rdx, %r11, %rbx
MULXq %r9, %r8, %rdi
MULXq %rax, %rbp, %rcx
adcxq %rbp, %rdi
MULXq %rsi, %rdx, %rbp
adcxq %rdx, %rcx
movq %r9, %rdx
MULXq %rax, %r12, %r9
adoxq %r12, %rcx
adcxq %r9, %rbp
MULXq %rsi, %r12, %r9
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rax, %rdx
MULXq %rsi, %r14, %rax
adcxq %r14, %r9
adoxq %r10, %r9
adcxq %r10, %rax
adoxq %r10, %rax
MULXq %rdx, %r15, %r14
movq %rsi, %rdx
MULXq %rdx, %rdx, %rsi
adcxq %r8, %r8
adoxq %rbx, %r8
adcxq %rdi, %rdi
adoxq %r13, %rdi
adcxq %rcx, %rcx
adoxq %r12, %rcx
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r9, %r9
adoxq %r14, %r9
adcxq %rax, %rax
adoxq %rdx, %rax
adcxq %r10, %rsi
adoxq %r10, %rsi
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %r11
adcxq %rbx, %r8
MULXq %r9, %rbx, %r9
adoxq %rbx, %r8
adcxq %r9, %rdi
MULXq %rax, %r9, %rax
adoxq %r9, %rdi
adcxq %rax, %rcx
MULXq %rsi, %rdx, %rax
adoxq %rdx, %rcx
adcxq %r10, %rax
adoxq %r10, %rax
imulq $38, %rax, %rax
addq %rax, %r11
adcq %r10, %r8
adcq %r10, %rdi
adcq %r10, %rcx
sbbq %r10, %r10
andq $38, %r10
addq %r10, %r11
movq %r11, 88(%rsp)
movq %r8, 96(%rsp)
movq %rdi, 104(%rsp)
movq %rcx, 112(%rsp)
xorq %rsi, %rsi
movq %r11, %rdx
MULXq %rdx, %r9, %rbx
MULXq %r8, %r11, %r10
MULXq %rdi, %rbp, %rax
adcxq %rbp, %r10
MULXq %rcx, %rdx, %rbp
adcxq %rdx, %rax
movq %r8, %rdx
MULXq %rdi, %r12, %r8
adoxq %r12, %rax
adcxq %r8, %rbp
MULXq %rcx, %r12, %r8
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rdi, %rdx
MULXq %rcx, %r14, %rdi
adcxq %r14, %r8
adoxq %rsi, %r8
adcxq %rsi, %rdi
adoxq %rsi, %rdi
MULXq %rdx, %r15, %r14
movq %rcx, %rdx
MULXq %rdx, %rdx, %rcx
adcxq %r11, %r11
adoxq %rbx, %r11
adcxq %r10, %r10
adoxq %r13, %r10
adcxq %rax, %rax
adoxq %r12, %rax
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r8, %r8
adoxq %r14, %r8
adcxq %rdi, %rdi
adoxq %rdx, %rdi
adcxq %rsi, %rcx
adoxq %rsi, %rcx
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %r9
adcxq %rbx, %r11
MULXq %r8, %rbx, %r8
adoxq %rbx, %r11
adcxq %r8, %r10
MULXq %rdi, %r8, %rdi
adoxq %r8, %r10
adcxq %rdi, %rax
MULXq %rcx, %rdx, %rcx
adoxq %rdx, %rax
adcxq %rsi, %rcx
adoxq %rsi, %rcx
imulq $38, %rcx, %rcx
addq %rcx, %r9
adcq %rsi, %r11
adcq %rsi, %r10
adcq %rsi, %rax
sbbq %rsi, %rsi
andq $38, %rsi
addq %rsi, %r9
xorq %rcx, %rcx
movq %r9, %rdx
MULXq %rdx, %rsi, %rbx
MULXq %r11, %r8, %rdi
MULXq %r10, %rbp, %r9
adcxq %rbp, %rdi
MULXq %rax, %rdx, %rbp
adcxq %rdx, %r9
movq %r11, %rdx
MULXq %r10, %r12, %r11
adoxq %r12, %r9
adcxq %r11, %rbp
MULXq %rax, %r12, %r11
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %r10, %rdx
MULXq %rax, %r14, %r10
adcxq %r14, %r11
adoxq %rcx, %r11
adcxq %rcx, %r10
adoxq %rcx, %r10
MULXq %rdx, %r15, %r14
movq %rax, %rdx
MULXq %rdx, %rdx, %rax
adcxq %r8, %r8
adoxq %rbx, %r8
adcxq %rdi, %rdi
adoxq %r13, %rdi
adcxq %r9, %r9
adoxq %r12, %r9
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r11, %r11
adoxq %r14, %r11
adcxq %r10, %r10
adoxq %rdx, %r10
adcxq %rcx, %rax
adoxq %rcx, %rax
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %rsi
adcxq %rbx, %r8
MULXq %r11, %rbx, %r11
adoxq %rbx, %r8
adcxq %r11, %rdi
MULXq %r10, %r11, %r10
adoxq %r11, %rdi
adcxq %r10, %r9
MULXq %rax, %rdx, %rax
adoxq %rdx, %r9
adcxq %rcx, %rax
adoxq %rcx, %rax
imulq $38, %rax, %rax
addq %rax, %rsi
adcq %rcx, %r8
adcq %rcx, %rdi
adcq %rcx, %r9
sbbq %rcx, %rcx
andq $38, %rcx
addq %rcx, %rsi
xorq %r10, %r10
movq 120(%rsp), %rdx
MULXq %rsi, %rbx, %r11
MULXq %r8, %rcx, %rax
adcxq %rcx, %r11
MULXq %rdi, %rbp, %rcx
adcxq %rbp, %rax
MULXq %r9, %rdx, %rbp
adcxq %rdx, %rcx
adcxq %r10, %rbp
movq 128(%rsp), %rdx
MULXq %rsi, %r13, %r12
adoxq %r13, %r11
adcxq %r12, %rax
MULXq %r8, %r13, %r12
adoxq %r13, %rax
adcxq %r12, %rcx
MULXq %rdi, %r13, %r12
adoxq %r13, %rcx
adcxq %r12, %rbp
MULXq %r9, %rdx, %r12
adoxq %rdx, %rbp
adcxq %r10, %r12
adoxq %r10, %r12
movq 136(%rsp), %rdx
MULXq %rsi, %r14, %r13
adoxq %r14, %rax
adcxq %r13, %rcx
MULXq %r8, %r14, %r13
adoxq %r14, %rcx
adcxq %r13, %rbp
MULXq %rdi, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %r9, %rdx, %r13
adoxq %rdx, %r12
adcxq %r10, %r13
adoxq %r10, %r13
movq 144(%rsp), %rdx
MULXq %rsi, %r14, %rsi
adoxq %r14, %rcx
adcxq %rsi, %rbp
MULXq %r8, %r8, %rsi
adoxq %r8, %rbp
adcxq %rsi, %r12
MULXq %rdi, %rdi, %rsi
adoxq %rdi, %r12
adcxq %rsi, %r13
MULXq %r9, %rdx, %rsi
adoxq %rdx, %r13
adcxq %r10, %rsi
adoxq %r10, %rsi
movq $38, %rdx
MULXq %rbp, %r8, %rdi
adoxq %r8, %rbx
adcxq %rdi, %r11
MULXq %r12, %r8, %rdi
adoxq %r8, %r11
adcxq %rdi, %rax
MULXq %r13, %r8, %rdi
adoxq %r8, %rax
adcxq %rdi, %rcx
MULXq %rsi, %rsi, %rdx
adoxq %rsi, %rcx
adcxq %r10, %rdx
adoxq %r10, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rbx
adcq %r10, %r11
adcq %r10, %rax
adcq %r10, %rcx
sbbq %r10, %r10
andq $38, %r10
addq %r10, %rbx
movq %rbx, 120(%rsp)
movq %r11, 128(%rsp)
movq %rax, 136(%rsp)
movq %rcx, 144(%rsp)
xorq %rsi, %rsi
movq 88(%rsp), %rdx
MULXq %rbx, %rdi, %r10
MULXq %r11, %r8, %r9
adcxq %r8, %r10
MULXq %rax, %rbp, %r8
adcxq %rbp, %r9
MULXq %rcx, %rdx, %rbp
adcxq %rdx, %r8
adcxq %rsi, %rbp
movq 96(%rsp), %rdx
MULXq %rbx, %r13, %r12
adoxq %r13, %r10
adcxq %r12, %r9
MULXq %r11, %r13, %r12
adoxq %r13, %r9
adcxq %r12, %r8
MULXq %rax, %r13, %r12
adoxq %r13, %r8
adcxq %r12, %rbp
MULXq %rcx, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rsi, %r12
adoxq %rsi, %r12
movq 104(%rsp), %rdx
MULXq %rbx, %r14, %r13
adoxq %r14, %r9
adcxq %r13, %r8
MULXq %r11, %r14, %r13
adoxq %r14, %r8
adcxq %r13, %rbp
MULXq %rax, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %rcx, %rdx, %r13
adoxq %rdx, %r12
adcxq %rsi, %r13
adoxq %rsi, %r13
movq 112(%rsp), %rdx
MULXq %rbx, %r14, %rbx
adoxq %r14, %r8
adcxq %rbx, %rbp
MULXq %r11, %rbx, %r11
adoxq %rbx, %rbp
adcxq %r11, %r12
MULXq %rax, %r11, %rax
adoxq %r11, %r12
adcxq %rax, %r13
MULXq %rcx, %rcx, %rax
adoxq %rcx, %r13
adcxq %rsi, %rax
adoxq %rsi, %rax
movq $38, %rdx
MULXq %rbp, %r11, %rcx
adoxq %r11, %rdi
adcxq %rcx, %r10
MULXq %r12, %r11, %rcx
adoxq %r11, %r10
adcxq %rcx, %r9
MULXq %r13, %r11, %rcx
adoxq %r11, %r9
adcxq %rcx, %r8
MULXq %rax, %rcx, %rax
adoxq %rcx, %r8
adcxq %rsi, %rax
adoxq %rsi, %rax
imulq $38, %rax, %rax
addq %rax, %rdi
adcq %rsi, %r10
adcq %rsi, %r9
adcq %rsi, %r8
sbbq %rsi, %rsi
andq $38, %rsi
addq %rsi, %rdi
movq %rdi, 88(%rsp)
movq %r10, 96(%rsp)
movq %r9, 104(%rsp)
movq %r8, 112(%rsp)
xorq %r11, %r11
movq %rdi, %rdx
MULXq %rdx, %rax, %rbx
MULXq %r10, %rsi, %rcx
MULXq %r9, %rbp, %rdi
adcxq %rbp, %rcx
MULXq %r8, %rdx, %rbp
adcxq %rdx, %rdi
movq %r10, %rdx
MULXq %r9, %r12, %r10
adoxq %r12, %rdi
adcxq %r10, %rbp
MULXq %r8, %r12, %r10
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %r9, %rdx
MULXq %r8, %r14, %r9
adcxq %r14, %r10
adoxq %r11, %r10
adcxq %r11, %r9
adoxq %r11, %r9
MULXq %rdx, %r15, %r14
movq %r8, %rdx
MULXq %rdx, %rdx, %r8
adcxq %rsi, %rsi
adoxq %rbx, %rsi
adcxq %rcx, %rcx
adoxq %r13, %rcx
adcxq %rdi, %rdi
adoxq %r12, %rdi
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r10, %r10
adoxq %r14, %r10
adcxq %r9, %r9
adoxq %rdx, %r9
adcxq %r11, %r8
adoxq %r11, %r8
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %rax
adcxq %rbx, %rsi
MULXq %r10, %rbx, %r10
adoxq %rbx, %rsi
adcxq %r10, %rcx
MULXq %r9, %r10, %r9
adoxq %r10, %rcx
adcxq %r9, %rdi
MULXq %r8, %r8, %rdx
adoxq %r8, %rdi
adcxq %r11, %rdx
adoxq %r11, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rax
adcq %r11, %rsi
adcq %r11, %rcx
adcq %r11, %rdi
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rax
xorq %r11, %r11
movq 120(%rsp), %rdx
MULXq %rax, %rbx, %r10
MULXq %rsi, %r9, %r8
adcxq %r9, %r10
MULXq %rcx, %rbp, %r9
adcxq %rbp, %r8
MULXq %rdi, %rdx, %rbp
adcxq %rdx, %r9
adcxq %r11, %rbp
movq 128(%rsp), %rdx
MULXq %rax, %r13, %r12
adoxq %r13, %r10
adcxq %r12, %r8
MULXq %rsi, %r13, %r12
adoxq %r13, %r8
adcxq %r12, %r9
MULXq %rcx, %r13, %r12
adoxq %r13, %r9
adcxq %r12, %rbp
MULXq %rdi, %rdx, %r12
adoxq %rdx, %rbp
adcxq %r11, %r12
adoxq %r11, %r12
movq 136(%rsp), %rdx
MULXq %rax, %r14, %r13
adoxq %r14, %r8
adcxq %r13, %r9
MULXq %rsi, %r14, %r13
adoxq %r14, %r9
adcxq %r13, %rbp
MULXq %rcx, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %rdi, %rdx, %r13
adoxq %rdx, %r12
adcxq %r11, %r13
adoxq %r11, %r13
movq 144(%rsp), %rdx
MULXq %rax, %r14, %rax
adoxq %r14, %r9
adcxq %rax, %rbp
MULXq %rsi, %rsi, %rax
adoxq %rsi, %rbp
adcxq %rax, %r12
MULXq %rcx, %rcx, %rax
adoxq %rcx, %r12
adcxq %rax, %r13
MULXq %rdi, %rcx, %rax
adoxq %rcx, %r13
adcxq %r11, %rax
adoxq %r11, %rax
movq $38, %rdx
MULXq %rbp, %rsi, %rcx
adoxq %rsi, %rbx
adcxq %rcx, %r10
MULXq %r12, %rsi, %rcx
adoxq %rsi, %r10
adcxq %rcx, %r8
MULXq %r13, %rsi, %rcx
adoxq %rsi, %r8
adcxq %rcx, %r9
MULXq %rax, %rcx, %rax
adoxq %rcx, %r9
adcxq %r11, %rax
adoxq %r11, %rax
imulq $38, %rax, %rax
addq %rax, %rbx
adcq %r11, %r10
adcq %r11, %r8
adcq %r11, %r9
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rbx
movq %rbx, 120(%rsp)
movq %r10, 128(%rsp)
movq %r8, 136(%rsp)
movq %r9, 144(%rsp)
xorq %r11, %r11
movq %rbx, %rdx
MULXq %rdx, %rdi, %rbx
MULXq %r10, %rax, %rsi
MULXq %r8, %rbp, %rcx
adcxq %rbp, %rsi
MULXq %r9, %rdx, %rbp
adcxq %rdx, %rcx
movq %r10, %rdx
MULXq %r8, %r12, %r10
adoxq %r12, %rcx
adcxq %r10, %rbp
MULXq %r9, %r12, %r10
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %r8, %rdx
MULXq %r9, %r14, %r8
adcxq %r14, %r10
adoxq %r11, %r10
adcxq %r11, %r8
adoxq %r11, %r8
MULXq %rdx, %r15, %r14
movq %r9, %rdx
MULXq %rdx, %rdx, %r9
adcxq %rax, %rax
adoxq %rbx, %rax
adcxq %rsi, %rsi
adoxq %r13, %rsi
adcxq %rcx, %rcx
adoxq %r12, %rcx
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r10, %r10
adoxq %r14, %r10
adcxq %r8, %r8
adoxq %rdx, %r8
adcxq %r11, %r9
adoxq %r11, %r9
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %rdi
adcxq %rbx, %rax
MULXq %r10, %rbx, %r10
adoxq %rbx, %rax
adcxq %r10, %rsi
MULXq %r8, %r10, %r8
adoxq %r10, %rsi
adcxq %r8, %rcx
MULXq %r9, %r8, %rdx
adoxq %r8, %rcx
adcxq %r11, %rdx
adoxq %r11, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rdi
adcq %r11, %rax
adcq %r11, %rsi
adcq %r11, %rcx
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rdi
movl $2, %edx
Ljade_scalarmult_curve25519_amd64_mulx$8:
movl %edx, 344(%rsp)
xorq %r11, %r11
movq %rdi, %rdx
MULXq %rdx, %rdi, %rbx
MULXq %rax, %r9, %r8
MULXq %rsi, %rbp, %r10
adcxq %rbp, %r8
MULXq %rcx, %rdx, %rbp
adcxq %rdx, %r10
movq %rax, %rdx
MULXq %rsi, %r12, %rax
adoxq %r12, %r10
adcxq %rax, %rbp
MULXq %rcx, %r12, %rax
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rsi, %rdx
MULXq %rcx, %r14, %rsi
adcxq %r14, %rax
adoxq %r11, %rax
adcxq %r11, %rsi
adoxq %r11, %rsi
MULXq %rdx, %r15, %r14
movq %rcx, %rdx
MULXq %rdx, %rdx, %rcx
adcxq %r9, %r9
adoxq %rbx, %r9
adcxq %r8, %r8
adoxq %r13, %r8
adcxq %r10, %r10
adoxq %r12, %r10
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %rax, %rax
adoxq %r14, %rax
adcxq %rsi, %rsi
adoxq %rdx, %rsi
adcxq %r11, %rcx
adoxq %r11, %rcx
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %rdi
adcxq %rbx, %r9
MULXq %rax, %rbx, %rax
adoxq %rbx, %r9
adcxq %rax, %r8
MULXq %rsi, %rsi, %rax
adoxq %rsi, %r8
adcxq %rax, %r10
MULXq %rcx, %rcx, %rax
adoxq %rcx, %r10
adcxq %r11, %rax
adoxq %r11, %rax
imulq $38, %rax, %rax
addq %rax, %rdi
adcq %r11, %r9
adcq %r11, %r8
adcq %r11, %r10
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rdi
xorq %r11, %r11
movq %rdi, %rdx
MULXq %rdx, %rdi, %rbx
MULXq %r9, %rax, %rsi
MULXq %r8, %rbp, %rcx
adcxq %rbp, %rsi
MULXq %r10, %rdx, %rbp
adcxq %rdx, %rcx
movq %r9, %rdx
MULXq %r8, %r12, %r9
adoxq %r12, %rcx
adcxq %r9, %rbp
MULXq %r10, %r12, %r9
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %r8, %rdx
MULXq %r10, %r14, %r8
adcxq %r14, %r9
adoxq %r11, %r9
adcxq %r11, %r8
adoxq %r11, %r8
MULXq %rdx, %r15, %r14
movq %r10, %rdx
MULXq %rdx, %rdx, %r10
adcxq %rax, %rax
adoxq %rbx, %rax
adcxq %rsi, %rsi
adoxq %r13, %rsi
adcxq %rcx, %rcx
adoxq %r12, %rcx
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r9, %r9
adoxq %r14, %r9
adcxq %r8, %r8
adoxq %rdx, %r8
adcxq %r11, %r10
adoxq %r11, %r10
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %rdi
adcxq %rbx, %rax
MULXq %r9, %rbx, %r9
adoxq %rbx, %rax
adcxq %r9, %rsi
MULXq %r8, %r9, %r8
adoxq %r9, %rsi
adcxq %r8, %rcx
MULXq %r10, %r8, %rdx
adoxq %r8, %rcx
adcxq %r11, %rdx
adoxq %r11, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rdi
adcq %r11, %rax
adcq %r11, %rsi
adcq %r11, %rcx
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rdi
movl 344(%rsp), %edx
decl %edx
jne Ljade_scalarmult_curve25519_amd64_mulx$8
xorq %rbx, %rbx
movq 120(%rsp), %rdx
MULXq %rdi, %r8, %r11
MULXq %rax, %r10, %r9
adcxq %r10, %r11
MULXq %rsi, %rbp, %r10
adcxq %rbp, %r9
MULXq %rcx, %rdx, %rbp
adcxq %rdx, %r10
adcxq %rbx, %rbp
movq 128(%rsp), %rdx
MULXq %rdi, %r13, %r12
adoxq %r13, %r11
adcxq %r12, %r9
MULXq %rax, %r13, %r12
adoxq %r13, %r9
adcxq %r12, %r10
MULXq %rsi, %r13, %r12
adoxq %r13, %r10
adcxq %r12, %rbp
MULXq %rcx, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rbx, %r12
adoxq %rbx, %r12
movq 136(%rsp), %rdx
MULXq %rdi, %r14, %r13
adoxq %r14, %r9
adcxq %r13, %r10
MULXq %rax, %r14, %r13
adoxq %r14, %r10
adcxq %r13, %rbp
MULXq %rsi, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %rcx, %rdx, %r13
adoxq %rdx, %r12
adcxq %rbx, %r13
adoxq %rbx, %r13
movq 144(%rsp), %rdx
MULXq %rdi, %r14, %rdi
adoxq %r14, %r10
adcxq %rdi, %rbp
MULXq %rax, %rdi, %rax
adoxq %rdi, %rbp
adcxq %rax, %r12
MULXq %rsi, %rsi, %rax
adoxq %rsi, %r12
adcxq %rax, %r13
MULXq %rcx, %rcx, %rax
adoxq %rcx, %r13
adcxq %rbx, %rax
adoxq %rbx, %rax
movq $38, %rdx
MULXq %rbp, %rsi, %rcx
adoxq %rsi, %r8
adcxq %rcx, %r11
MULXq %r12, %rsi, %rcx
adoxq %rsi, %r11
adcxq %rcx, %r9
MULXq %r13, %rsi, %rcx
adoxq %rsi, %r9
adcxq %rcx, %r10
MULXq %rax, %rcx, %rax
adoxq %rcx, %r10
adcxq %rbx, %rax
adoxq %rbx, %rax
imulq $38, %rax, %rax
addq %rax, %r8
adcq %rbx, %r11
adcq %rbx, %r9
adcq %rbx, %r10
sbbq %rbx, %rbx
andq $38, %rbx
addq %rbx, %r8
movq %r8, 120(%rsp)
movq %r11, 128(%rsp)
movq %r9, 136(%rsp)
movq %r10, 144(%rsp)
movl $5, %eax
Ljade_scalarmult_curve25519_amd64_mulx$7:
movl %eax, 344(%rsp)
xorq %rdi, %rdi
movq %r8, %rdx
MULXq %rdx, %r8, %rbx
MULXq %r11, %rcx, %rax
MULXq %r9, %rbp, %rsi
adcxq %rbp, %rax
MULXq %r10, %rdx, %rbp
adcxq %rdx, %rsi
movq %r11, %rdx
MULXq %r9, %r12, %r11
adoxq %r12, %rsi
adcxq %r11, %rbp
MULXq %r10, %r12, %r11
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %r9, %rdx
MULXq %r10, %r14, %r9
adcxq %r14, %r11
adoxq %rdi, %r11
adcxq %rdi, %r9
adoxq %rdi, %r9
MULXq %rdx, %r15, %r14
movq %r10, %rdx
MULXq %rdx, %rdx, %r10
adcxq %rcx, %rcx
adoxq %rbx, %rcx
adcxq %rax, %rax
adoxq %r13, %rax
adcxq %rsi, %rsi
adoxq %r12, %rsi
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r11, %r11
adoxq %r14, %r11
adcxq %r9, %r9
adoxq %rdx, %r9
adcxq %rdi, %r10
adoxq %rdi, %r10
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %r8
adcxq %rbx, %rcx
MULXq %r11, %rbx, %r11
adoxq %rbx, %rcx
adcxq %r11, %rax
MULXq %r9, %r11, %r9
adoxq %r11, %rax
adcxq %r9, %rsi
MULXq %r10, %r9, %rdx
adoxq %r9, %rsi
adcxq %rdi, %rdx
adoxq %rdi, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %r8
adcq %rdi, %rcx
adcq %rdi, %rax
adcq %rdi, %rsi
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %r8
xorq %rdi, %rdi
movq %r8, %rdx
MULXq %rdx, %r8, %rbx
MULXq %rcx, %r11, %r9
MULXq %rax, %rbp, %r10
adcxq %rbp, %r9
MULXq %rsi, %rdx, %rbp
adcxq %rdx, %r10
movq %rcx, %rdx
MULXq %rax, %r12, %rcx
adoxq %r12, %r10
adcxq %rcx, %rbp
MULXq %rsi, %r12, %rcx
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rax, %rdx
MULXq %rsi, %r14, %rax
adcxq %r14, %rcx
adoxq %rdi, %rcx
adcxq %rdi, %rax
adoxq %rdi, %rax
MULXq %rdx, %r15, %r14
movq %rsi, %rdx
MULXq %rdx, %rdx, %rsi
adcxq %r11, %r11
adoxq %rbx, %r11
adcxq %r9, %r9
adoxq %r13, %r9
adcxq %r10, %r10
adoxq %r12, %r10
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %rcx, %rcx
adoxq %r14, %rcx
adcxq %rax, %rax
adoxq %rdx, %rax
adcxq %rdi, %rsi
adoxq %rdi, %rsi
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %r8
adcxq %rbx, %r11
MULXq %rcx, %rbx, %rcx
adoxq %rbx, %r11
adcxq %rcx, %r9
MULXq %rax, %rcx, %rax
adoxq %rcx, %r9
adcxq %rax, %r10
MULXq %rsi, %rcx, %rax
adoxq %rcx, %r10
adcxq %rdi, %rax
adoxq %rdi, %rax
imulq $38, %rax, %rax
addq %rax, %r8
adcq %rdi, %r11
adcq %rdi, %r9
adcq %rdi, %r10
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %r8
movl 344(%rsp), %eax
decl %eax
jne Ljade_scalarmult_curve25519_amd64_mulx$7
xorq %rbx, %rbx
movq 120(%rsp), %rdx
MULXq %r8, %rax, %rcx
MULXq %r11, %rsi, %rdi
adcxq %rsi, %rcx
MULXq %r9, %rbp, %rsi
adcxq %rbp, %rdi
MULXq %r10, %rdx, %rbp
adcxq %rdx, %rsi
adcxq %rbx, %rbp
movq 128(%rsp), %rdx
MULXq %r8, %r13, %r12
adoxq %r13, %rcx
adcxq %r12, %rdi
MULXq %r11, %r13, %r12
adoxq %r13, %rdi
adcxq %r12, %rsi
MULXq %r9, %r13, %r12
adoxq %r13, %rsi
adcxq %r12, %rbp
MULXq %r10, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rbx, %r12
adoxq %rbx, %r12
movq 136(%rsp), %rdx
MULXq %r8, %r14, %r13
adoxq %r14, %rdi
adcxq %r13, %rsi
MULXq %r11, %r14, %r13
adoxq %r14, %rsi
adcxq %r13, %rbp
MULXq %r9, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %r10, %rdx, %r13
adoxq %rdx, %r12
adcxq %rbx, %r13
adoxq %rbx, %r13
movq 144(%rsp), %rdx
MULXq %r8, %r14, %r8
adoxq %r14, %rsi
adcxq %r8, %rbp
MULXq %r11, %r11, %r8
adoxq %r11, %rbp
adcxq %r8, %r12
MULXq %r9, %r9, %r8
adoxq %r9, %r12
adcxq %r8, %r13
MULXq %r10, %rdx, %r8
adoxq %rdx, %r13
adcxq %rbx, %r8
adoxq %rbx, %r8
movq $38, %rdx
MULXq %rbp, %r10, %r9
adoxq %r10, %rax
adcxq %r9, %rcx
MULXq %r12, %r10, %r9
adoxq %r10, %rcx
adcxq %r9, %rdi
MULXq %r13, %r10, %r9
adoxq %r10, %rdi
adcxq %r9, %rsi
MULXq %r8, %r8, %rdx
adoxq %r8, %rsi
adcxq %rbx, %rdx
adoxq %rbx, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rax
adcq %rbx, %rcx
adcq %rbx, %rdi
adcq %rbx, %rsi
sbbq %rbx, %rbx
andq $38, %rbx
addq %rbx, %rax
movq %rax, 152(%rsp)
movq %rcx, 160(%rsp)
movq %rdi, 168(%rsp)
movq %rsi, 176(%rsp)
movl $10, %edx
Ljade_scalarmult_curve25519_amd64_mulx$6:
movl %edx, 344(%rsp)
xorq %r11, %r11
movq %rax, %rdx
MULXq %rdx, %rax, %rbx
MULXq %rcx, %r9, %r8
MULXq %rdi, %rbp, %r10
adcxq %rbp, %r8
MULXq %rsi, %rdx, %rbp
adcxq %rdx, %r10
movq %rcx, %rdx
MULXq %rdi, %r12, %rcx
adoxq %r12, %r10
adcxq %rcx, %rbp
MULXq %rsi, %r12, %rcx
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rdi, %rdx
MULXq %rsi, %r14, %rdi
adcxq %r14, %rcx
adoxq %r11, %rcx
adcxq %r11, %rdi
adoxq %r11, %rdi
MULXq %rdx, %r15, %r14
movq %rsi, %rdx
MULXq %rdx, %rdx, %rsi
adcxq %r9, %r9
adoxq %rbx, %r9
adcxq %r8, %r8
adoxq %r13, %r8
adcxq %r10, %r10
adoxq %r12, %r10
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %rcx, %rcx
adoxq %r14, %rcx
adcxq %rdi, %rdi
adoxq %rdx, %rdi
adcxq %r11, %rsi
adoxq %r11, %rsi
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %rax
adcxq %rbx, %r9
MULXq %rcx, %rbx, %rcx
adoxq %rbx, %r9
adcxq %rcx, %r8
MULXq %rdi, %rdi, %rcx
adoxq %rdi, %r8
adcxq %rcx, %r10
MULXq %rsi, %rdx, %rcx
adoxq %rdx, %r10
adcxq %r11, %rcx
adoxq %r11, %rcx
imulq $38, %rcx, %rcx
addq %rcx, %rax
adcq %r11, %r9
adcq %r11, %r8
adcq %r11, %r10
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rax
xorq %r11, %r11
movq %rax, %rdx
MULXq %rdx, %rax, %rbx
MULXq %r9, %rcx, %rdi
MULXq %r8, %rbp, %rsi
adcxq %rbp, %rdi
MULXq %r10, %rdx, %rbp
adcxq %rdx, %rsi
movq %r9, %rdx
MULXq %r8, %r12, %r9
adoxq %r12, %rsi
adcxq %r9, %rbp
MULXq %r10, %r12, %r9
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %r8, %rdx
MULXq %r10, %r14, %r8
adcxq %r14, %r9
adoxq %r11, %r9
adcxq %r11, %r8
adoxq %r11, %r8
MULXq %rdx, %r15, %r14
movq %r10, %rdx
MULXq %rdx, %rdx, %r10
adcxq %rcx, %rcx
adoxq %rbx, %rcx
adcxq %rdi, %rdi
adoxq %r13, %rdi
adcxq %rsi, %rsi
adoxq %r12, %rsi
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r9, %r9
adoxq %r14, %r9
adcxq %r8, %r8
adoxq %rdx, %r8
adcxq %r11, %r10
adoxq %r11, %r10
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %rax
adcxq %rbx, %rcx
MULXq %r9, %rbx, %r9
adoxq %rbx, %rcx
adcxq %r9, %rdi
MULXq %r8, %r9, %r8
adoxq %r9, %rdi
adcxq %r8, %rsi
MULXq %r10, %r8, %rdx
adoxq %r8, %rsi
adcxq %r11, %rdx
adoxq %r11, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rax
adcq %r11, %rcx
adcq %r11, %rdi
adcq %r11, %rsi
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rax
movl 344(%rsp), %edx
decl %edx
jne Ljade_scalarmult_curve25519_amd64_mulx$6
xorq %rbx, %rbx
movq 152(%rsp), %rdx
MULXq %rax, %r11, %r9
MULXq %rcx, %r10, %r8
adcxq %r10, %r9
MULXq %rdi, %rbp, %r10
adcxq %rbp, %r8
MULXq %rsi, %rdx, %rbp
adcxq %rdx, %r10
adcxq %rbx, %rbp
movq 160(%rsp), %rdx
MULXq %rax, %r13, %r12
adoxq %r13, %r9
adcxq %r12, %r8
MULXq %rcx, %r13, %r12
adoxq %r13, %r8
adcxq %r12, %r10
MULXq %rdi, %r13, %r12
adoxq %r13, %r10
adcxq %r12, %rbp
MULXq %rsi, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rbx, %r12
adoxq %rbx, %r12
movq 168(%rsp), %rdx
MULXq %rax, %r14, %r13
adoxq %r14, %r8
adcxq %r13, %r10
MULXq %rcx, %r14, %r13
adoxq %r14, %r10
adcxq %r13, %rbp
MULXq %rdi, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %rsi, %rdx, %r13
adoxq %rdx, %r12
adcxq %rbx, %r13
adoxq %rbx, %r13
movq 176(%rsp), %rdx
MULXq %rax, %r14, %rax
adoxq %r14, %r10
adcxq %rax, %rbp
MULXq %rcx, %rcx, %rax
adoxq %rcx, %rbp
adcxq %rax, %r12
MULXq %rdi, %rcx, %rax
adoxq %rcx, %r12
adcxq %rax, %r13
MULXq %rsi, %rcx, %rax
adoxq %rcx, %r13
adcxq %rbx, %rax
adoxq %rbx, %rax
movq $38, %rdx
MULXq %rbp, %rsi, %rcx
adoxq %rsi, %r11
adcxq %rcx, %r9
MULXq %r12, %rsi, %rcx
adoxq %rsi, %r9
adcxq %rcx, %r8
MULXq %r13, %rsi, %rcx
adoxq %rsi, %r8
adcxq %rcx, %r10
MULXq %rax, %rcx, %rax
adoxq %rcx, %r10
adcxq %rbx, %rax
adoxq %rbx, %rax
imulq $38, %rax, %rax
addq %rax, %r11
adcq %rbx, %r9
adcq %rbx, %r8
adcq %rbx, %r10
sbbq %rbx, %rbx
andq $38, %rbx
addq %rbx, %r11
movl $5, %eax
Ljade_scalarmult_curve25519_amd64_mulx$5:
movl %eax, 344(%rsp)
xorq %rdi, %rdi
movq %r11, %rdx
MULXq %rdx, %r11, %rbx
MULXq %r9, %rcx, %rax
MULXq %r8, %rbp, %rsi
adcxq %rbp, %rax
MULXq %r10, %rdx, %rbp
adcxq %rdx, %rsi
movq %r9, %rdx
MULXq %r8, %r12, %r9
adoxq %r12, %rsi
adcxq %r9, %rbp
MULXq %r10, %r12, %r9
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %r8, %rdx
MULXq %r10, %r14, %r8
adcxq %r14, %r9
adoxq %rdi, %r9
adcxq %rdi, %r8
adoxq %rdi, %r8
MULXq %rdx, %r15, %r14
movq %r10, %rdx
MULXq %rdx, %rdx, %r10
adcxq %rcx, %rcx
adoxq %rbx, %rcx
adcxq %rax, %rax
adoxq %r13, %rax
adcxq %rsi, %rsi
adoxq %r12, %rsi
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r9, %r9
adoxq %r14, %r9
adcxq %r8, %r8
adoxq %rdx, %r8
adcxq %rdi, %r10
adoxq %rdi, %r10
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %r11
adcxq %rbx, %rcx
MULXq %r9, %rbx, %r9
adoxq %rbx, %rcx
adcxq %r9, %rax
MULXq %r8, %r9, %r8
adoxq %r9, %rax
adcxq %r8, %rsi
MULXq %r10, %r8, %rdx
adoxq %r8, %rsi
adcxq %rdi, %rdx
adoxq %rdi, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %r11
adcq %rdi, %rcx
adcq %rdi, %rax
adcq %rdi, %rsi
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %r11
xorq %rdi, %rdi
movq %r11, %rdx
MULXq %rdx, %r11, %rbx
MULXq %rcx, %r9, %r8
MULXq %rax, %rbp, %r10
adcxq %rbp, %r8
MULXq %rsi, %rdx, %rbp
adcxq %rdx, %r10
movq %rcx, %rdx
MULXq %rax, %r12, %rcx
adoxq %r12, %r10
adcxq %rcx, %rbp
MULXq %rsi, %r12, %rcx
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rax, %rdx
MULXq %rsi, %r14, %rax
adcxq %r14, %rcx
adoxq %rdi, %rcx
adcxq %rdi, %rax
adoxq %rdi, %rax
MULXq %rdx, %r15, %r14
movq %rsi, %rdx
MULXq %rdx, %rdx, %rsi
adcxq %r9, %r9
adoxq %rbx, %r9
adcxq %r8, %r8
adoxq %r13, %r8
adcxq %r10, %r10
adoxq %r12, %r10
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %rcx, %rcx
adoxq %r14, %rcx
adcxq %rax, %rax
adoxq %rdx, %rax
adcxq %rdi, %rsi
adoxq %rdi, %rsi
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %r11
adcxq %rbx, %r9
MULXq %rcx, %rbx, %rcx
adoxq %rbx, %r9
adcxq %rcx, %r8
MULXq %rax, %rcx, %rax
adoxq %rcx, %r8
adcxq %rax, %r10
MULXq %rsi, %rcx, %rax
adoxq %rcx, %r10
adcxq %rdi, %rax
adoxq %rdi, %rax
imulq $38, %rax, %rax
addq %rax, %r11
adcq %rdi, %r9
adcq %rdi, %r8
adcq %rdi, %r10
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %r11
movl 344(%rsp), %eax
decl %eax
jne Ljade_scalarmult_curve25519_amd64_mulx$5
xorq %rbx, %rbx
movq 120(%rsp), %rdx
MULXq %r11, %rsi, %rax
MULXq %r9, %rcx, %rdi
adcxq %rcx, %rax
MULXq %r8, %rbp, %rcx
adcxq %rbp, %rdi
MULXq %r10, %rdx, %rbp
adcxq %rdx, %rcx
adcxq %rbx, %rbp
movq 128(%rsp), %rdx
MULXq %r11, %r13, %r12
adoxq %r13, %rax
adcxq %r12, %rdi
MULXq %r9, %r13, %r12
adoxq %r13, %rdi
adcxq %r12, %rcx
MULXq %r8, %r13, %r12
adoxq %r13, %rcx
adcxq %r12, %rbp
MULXq %r10, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rbx, %r12
adoxq %rbx, %r12
movq 136(%rsp), %rdx
MULXq %r11, %r14, %r13
adoxq %r14, %rdi
adcxq %r13, %rcx
MULXq %r9, %r14, %r13
adoxq %r14, %rcx
adcxq %r13, %rbp
MULXq %r8, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %r10, %rdx, %r13
adoxq %rdx, %r12
adcxq %rbx, %r13
adoxq %rbx, %r13
movq 144(%rsp), %rdx
MULXq %r11, %r14, %r11
adoxq %r14, %rcx
adcxq %r11, %rbp
MULXq %r9, %r11, %r9
adoxq %r11, %rbp
adcxq %r9, %r12
MULXq %r8, %r9, %r8
adoxq %r9, %r12
adcxq %r8, %r13
MULXq %r10, %rdx, %r8
adoxq %rdx, %r13
adcxq %rbx, %r8
adoxq %rbx, %r8
movq $38, %rdx
MULXq %rbp, %r10, %r9
adoxq %r10, %rsi
adcxq %r9, %rax
MULXq %r12, %r10, %r9
adoxq %r10, %rax
adcxq %r9, %rdi
MULXq %r13, %r10, %r9
adoxq %r10, %rdi
adcxq %r9, %rcx
MULXq %r8, %r8, %rdx
adoxq %r8, %rcx
adcxq %rbx, %rdx
adoxq %rbx, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rsi
adcq %rbx, %rax
adcq %rbx, %rdi
adcq %rbx, %rcx
sbbq %rbx, %rbx
andq $38, %rbx
addq %rbx, %rsi
movq %rsi, 120(%rsp)
movq %rax, 128(%rsp)
movq %rdi, 136(%rsp)
movq %rcx, 144(%rsp)
movl $25, %edx
Ljade_scalarmult_curve25519_amd64_mulx$4:
movl %edx, 344(%rsp)
xorq %r11, %r11
movq %rsi, %rdx
MULXq %rdx, %rsi, %rbx
MULXq %rax, %r9, %r8
MULXq %rdi, %rbp, %r10
adcxq %rbp, %r8
MULXq %rcx, %rdx, %rbp
adcxq %rdx, %r10
movq %rax, %rdx
MULXq %rdi, %r12, %rax
adoxq %r12, %r10
adcxq %rax, %rbp
MULXq %rcx, %r12, %rax
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rdi, %rdx
MULXq %rcx, %r14, %rdi
adcxq %r14, %rax
adoxq %r11, %rax
adcxq %r11, %rdi
adoxq %r11, %rdi
MULXq %rdx, %r15, %r14
movq %rcx, %rdx
MULXq %rdx, %rdx, %rcx
adcxq %r9, %r9
adoxq %rbx, %r9
adcxq %r8, %r8
adoxq %r13, %r8
adcxq %r10, %r10
adoxq %r12, %r10
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %rax, %rax
adoxq %r14, %rax
adcxq %rdi, %rdi
adoxq %rdx, %rdi
adcxq %r11, %rcx
adoxq %r11, %rcx
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %rsi
adcxq %rbx, %r9
MULXq %rax, %rbx, %rax
adoxq %rbx, %r9
adcxq %rax, %r8
MULXq %rdi, %rdi, %rax
adoxq %rdi, %r8
adcxq %rax, %r10
MULXq %rcx, %rcx, %rax
adoxq %rcx, %r10
adcxq %r11, %rax
adoxq %r11, %rax
imulq $38, %rax, %rax
addq %rax, %rsi
adcq %r11, %r9
adcq %r11, %r8
adcq %r11, %r10
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rsi
xorq %r11, %r11
movq %rsi, %rdx
MULXq %rdx, %rsi, %rbx
MULXq %r9, %rax, %rdi
MULXq %r8, %rbp, %rcx
adcxq %rbp, %rdi
MULXq %r10, %rdx, %rbp
adcxq %rdx, %rcx
movq %r9, %rdx
MULXq %r8, %r12, %r9
adoxq %r12, %rcx
adcxq %r9, %rbp
MULXq %r10, %r12, %r9
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %r8, %rdx
MULXq %r10, %r14, %r8
adcxq %r14, %r9
adoxq %r11, %r9
adcxq %r11, %r8
adoxq %r11, %r8
MULXq %rdx, %r15, %r14
movq %r10, %rdx
MULXq %rdx, %rdx, %r10
adcxq %rax, %rax
adoxq %rbx, %rax
adcxq %rdi, %rdi
adoxq %r13, %rdi
adcxq %rcx, %rcx
adoxq %r12, %rcx
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r9, %r9
adoxq %r14, %r9
adcxq %r8, %r8
adoxq %rdx, %r8
adcxq %r11, %r10
adoxq %r11, %r10
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %rsi
adcxq %rbx, %rax
MULXq %r9, %rbx, %r9
adoxq %rbx, %rax
adcxq %r9, %rdi
MULXq %r8, %r9, %r8
adoxq %r9, %rdi
adcxq %r8, %rcx
MULXq %r10, %r8, %rdx
adoxq %r8, %rcx
adcxq %r11, %rdx
adoxq %r11, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rsi
adcq %r11, %rax
adcq %r11, %rdi
adcq %r11, %rcx
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rsi
movl 344(%rsp), %edx
decl %edx
jne Ljade_scalarmult_curve25519_amd64_mulx$4
xorq %r11, %r11
movq 120(%rsp), %rdx
MULXq %rsi, %rbp, %r9
MULXq %rax, %r8, %r10
adcxq %r8, %r9
MULXq %rdi, %rbx, %r8
adcxq %rbx, %r10
MULXq %rcx, %rdx, %rbx
adcxq %rdx, %r8
adcxq %r11, %rbx
movq 128(%rsp), %rdx
MULXq %rsi, %r13, %r12
adoxq %r13, %r9
adcxq %r12, %r10
MULXq %rax, %r13, %r12
adoxq %r13, %r10
adcxq %r12, %r8
MULXq %rdi, %r13, %r12
adoxq %r13, %r8
adcxq %r12, %rbx
MULXq %rcx, %rdx, %r12
adoxq %rdx, %rbx
adcxq %r11, %r12
adoxq %r11, %r12
movq 136(%rsp), %rdx
MULXq %rsi, %r14, %r13
adoxq %r14, %r10
adcxq %r13, %r8
MULXq %rax, %r14, %r13
adoxq %r14, %r8
adcxq %r13, %rbx
MULXq %rdi, %r14, %r13
adoxq %r14, %rbx
adcxq %r13, %r12
MULXq %rcx, %rdx, %r13
adoxq %rdx, %r12
adcxq %r11, %r13
adoxq %r11, %r13
movq 144(%rsp), %rdx
MULXq %rsi, %r14, %rsi
adoxq %r14, %r8
adcxq %rsi, %rbx
MULXq %rax, %rsi, %rax
adoxq %rsi, %rbx
adcxq %rax, %r12
MULXq %rdi, %rsi, %rax
adoxq %rsi, %r12
adcxq %rax, %r13
MULXq %rcx, %rcx, %rax
adoxq %rcx, %r13
adcxq %r11, %rax
adoxq %r11, %rax
movq $38, %rdx
MULXq %rbx, %rsi, %rcx
adoxq %rsi, %rbp
adcxq %rcx, %r9
MULXq %r12, %rsi, %rcx
adoxq %rsi, %r9
adcxq %rcx, %r10
MULXq %r13, %rsi, %rcx
adoxq %rsi, %r10
adcxq %rcx, %r8
MULXq %rax, %rcx, %rax
adoxq %rcx, %r8
adcxq %r11, %rax
adoxq %r11, %rax
imulq $38, %rax, %rax
addq %rax, %rbp
adcq %r11, %r9
adcq %r11, %r10
adcq %r11, %r8
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rbp
movq %rbp, 152(%rsp)
movq %r9, 160(%rsp)
movq %r10, 168(%rsp)
movq %r8, 176(%rsp)
movl $50, %eax
Ljade_scalarmult_curve25519_amd64_mulx$3:
movl %eax, 344(%rsp)
xorq %rdi, %rdi
movq %rbp, %rdx
MULXq %rdx, %r11, %rbx
MULXq %r9, %rcx, %rax
MULXq %r10, %rbp, %rsi
adcxq %rbp, %rax
MULXq %r8, %rdx, %rbp
adcxq %rdx, %rsi
movq %r9, %rdx
MULXq %r10, %r12, %r9
adoxq %r12, %rsi
adcxq %r9, %rbp
MULXq %r8, %r12, %r9
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %r10, %rdx
MULXq %r8, %r14, %r10
adcxq %r14, %r9
adoxq %rdi, %r9
adcxq %rdi, %r10
adoxq %rdi, %r10
MULXq %rdx, %r15, %r14
movq %r8, %rdx
MULXq %rdx, %rdx, %r8
adcxq %rcx, %rcx
adoxq %rbx, %rcx
adcxq %rax, %rax
adoxq %r13, %rax
adcxq %rsi, %rsi
adoxq %r12, %rsi
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r9, %r9
adoxq %r14, %r9
adcxq %r10, %r10
adoxq %rdx, %r10
adcxq %rdi, %r8
adoxq %rdi, %r8
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %r11
adcxq %rbx, %rcx
MULXq %r9, %rbx, %r9
adoxq %rbx, %rcx
adcxq %r9, %rax
MULXq %r10, %r10, %r9
adoxq %r10, %rax
adcxq %r9, %rsi
MULXq %r8, %r8, %rdx
adoxq %r8, %rsi
adcxq %rdi, %rdx
adoxq %rdi, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %r11
adcq %rdi, %rcx
adcq %rdi, %rax
adcq %rdi, %rsi
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %r11
xorq %rdi, %rdi
movq %r11, %rdx
MULXq %rdx, %rbp, %r11
MULXq %rcx, %r9, %r10
MULXq %rax, %rbx, %r8
adcxq %rbx, %r10
MULXq %rsi, %rdx, %rbx
adcxq %rdx, %r8
movq %rcx, %rdx
MULXq %rax, %r12, %rcx
adoxq %r12, %r8
adcxq %rcx, %rbx
MULXq %rsi, %r12, %rcx
adoxq %r12, %rbx
MULXq %rdx, %r13, %r12
movq %rax, %rdx
MULXq %rsi, %r14, %rax
adcxq %r14, %rcx
adoxq %rdi, %rcx
adcxq %rdi, %rax
adoxq %rdi, %rax
MULXq %rdx, %r15, %r14
movq %rsi, %rdx
MULXq %rdx, %rdx, %rsi
adcxq %r9, %r9
adoxq %r11, %r9
adcxq %r10, %r10
adoxq %r13, %r10
adcxq %r8, %r8
adoxq %r12, %r8
adcxq %rbx, %rbx
adoxq %r15, %rbx
adcxq %rcx, %rcx
adoxq %r14, %rcx
adcxq %rax, %rax
adoxq %rdx, %rax
adcxq %rdi, %rsi
adoxq %rdi, %rsi
movq $38, %rdx
MULXq %rbx, %rbx, %r11
adoxq %rbx, %rbp
adcxq %r11, %r9
MULXq %rcx, %r11, %rcx
adoxq %r11, %r9
adcxq %rcx, %r10
MULXq %rax, %rcx, %rax
adoxq %rcx, %r10
adcxq %rax, %r8
MULXq %rsi, %rcx, %rax
adoxq %rcx, %r8
adcxq %rdi, %rax
adoxq %rdi, %rax
imulq $38, %rax, %rax
addq %rax, %rbp
adcq %rdi, %r9
adcq %rdi, %r10
adcq %rdi, %r8
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %rbp
movl 344(%rsp), %eax
decl %eax
jne Ljade_scalarmult_curve25519_amd64_mulx$3
xorq %rcx, %rcx
movq 152(%rsp), %rdx
MULXq %rbp, %rbx, %r12
MULXq %r9, %rsi, %rax
adcxq %rsi, %r12
MULXq %r10, %rsi, %r11
adcxq %rsi, %rax
MULXq %r8, %rdx, %rsi
adcxq %rdx, %r11
adcxq %rcx, %rsi
movq 160(%rsp), %rdx
MULXq %rbp, %r13, %rdi
adoxq %r13, %r12
adcxq %rdi, %rax
MULXq %r9, %r13, %rdi
adoxq %r13, %rax
adcxq %rdi, %r11
MULXq %r10, %r13, %rdi
adoxq %r13, %r11
adcxq %rdi, %rsi
MULXq %r8, %rdx, %rdi
adoxq %rdx, %rsi
adcxq %rcx, %rdi
adoxq %rcx, %rdi
movq 168(%rsp), %rdx
MULXq %rbp, %r14, %r13
adoxq %r14, %rax
adcxq %r13, %r11
MULXq %r9, %r14, %r13
adoxq %r14, %r11
adcxq %r13, %rsi
MULXq %r10, %r14, %r13
adoxq %r14, %rsi
adcxq %r13, %rdi
MULXq %r8, %rdx, %r13
adoxq %rdx, %rdi
adcxq %rcx, %r13
adoxq %rcx, %r13
movq 176(%rsp), %rdx
MULXq %rbp, %r14, %rbp
adoxq %r14, %r11
adcxq %rbp, %rsi
MULXq %r9, %rbp, %r9
adoxq %rbp, %rsi
adcxq %r9, %rdi
MULXq %r10, %r10, %r9
adoxq %r10, %rdi
adcxq %r9, %r13
MULXq %r8, %rdx, %r8
adoxq %rdx, %r13
adcxq %rcx, %r8
adoxq %rcx, %r8
movq $38, %rdx
MULXq %rsi, %r9, %rsi
adoxq %r9, %rbx
adcxq %rsi, %r12
MULXq %rdi, %rdi, %rsi
adoxq %rdi, %r12
adcxq %rsi, %rax
MULXq %r13, %rdi, %rsi
adoxq %rdi, %rax
adcxq %rsi, %r11
MULXq %r8, %rsi, %rdx
adoxq %rsi, %r11
adcxq %rcx, %rdx
adoxq %rcx, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rbx
adcq %rcx, %r12
adcq %rcx, %rax
adcq %rcx, %r11
sbbq %rcx, %rcx
andq $38, %rcx
addq %rcx, %rbx
movl $25, %ecx
Ljade_scalarmult_curve25519_amd64_mulx$2:
movl %ecx, 344(%rsp)
xorq %r8, %r8
movq %rbx, %rdx
MULXq %rdx, %r9, %r10
MULXq %r12, %rsi, %rcx
MULXq %rax, %rbx, %rdi
adcxq %rbx, %rcx
MULXq %r11, %rdx, %rbx
adcxq %rdx, %rdi
movq %r12, %rdx
MULXq %rax, %r12, %rbp
adoxq %r12, %rdi
adcxq %rbp, %rbx
MULXq %r11, %r12, %rbp
adoxq %r12, %rbx
MULXq %rdx, %r13, %r12
movq %rax, %rdx
MULXq %r11, %r14, %rax
adcxq %r14, %rbp
adoxq %r8, %rbp
adcxq %r8, %rax
adoxq %r8, %rax
MULXq %rdx, %r15, %r14
movq %r11, %rdx
MULXq %rdx, %rdx, %r11
adcxq %rsi, %rsi
adoxq %r10, %rsi
adcxq %rcx, %rcx
adoxq %r13, %rcx
adcxq %rdi, %rdi
adoxq %r12, %rdi
adcxq %rbx, %rbx
adoxq %r15, %rbx
adcxq %rbp, %rbp
adoxq %r14, %rbp
adcxq %rax, %rax
adoxq %rdx, %rax
adcxq %r8, %r11
adoxq %r8, %r11
movq $38, %rdx
MULXq %rbx, %rbx, %r10
adoxq %rbx, %r9
adcxq %r10, %rsi
MULXq %rbp, %rbx, %r10
adoxq %rbx, %rsi
adcxq %r10, %rcx
MULXq %rax, %r10, %rax
adoxq %r10, %rcx
adcxq %rax, %rdi
MULXq %r11, %rdx, %rax
adoxq %rdx, %rdi
adcxq %r8, %rax
adoxq %r8, %rax
imulq $38, %rax, %rax
addq %rax, %r9
adcq %r8, %rsi
adcq %r8, %rcx
adcq %r8, %rdi
sbbq %r8, %r8
andq $38, %r8
addq %r8, %r9
xorq %r8, %r8
movq %r9, %rdx
MULXq %rdx, %rbx, %r9
MULXq %rsi, %r12, %rax
MULXq %rcx, %r10, %r11
adcxq %r10, %rax
MULXq %rdi, %rdx, %r10
adcxq %rdx, %r11
movq %rsi, %rdx
MULXq %rcx, %rbp, %rsi
adoxq %rbp, %r11
adcxq %rsi, %r10
MULXq %rdi, %rbp, %rsi
adoxq %rbp, %r10
MULXq %rdx, %r13, %rbp
movq %rcx, %rdx
MULXq %rdi, %r14, %rcx
adcxq %r14, %rsi
adoxq %r8, %rsi
adcxq %r8, %rcx
adoxq %r8, %rcx
MULXq %rdx, %r15, %r14
movq %rdi, %rdx
MULXq %rdx, %rdx, %rdi
adcxq %r12, %r12
adoxq %r9, %r12
adcxq %rax, %rax
adoxq %r13, %rax
adcxq %r11, %r11
adoxq %rbp, %r11
adcxq %r10, %r10
adoxq %r15, %r10
adcxq %rsi, %rsi
adoxq %r14, %rsi
adcxq %rcx, %rcx
adoxq %rdx, %rcx
adcxq %r8, %rdi
adoxq %r8, %rdi
movq $38, %rdx
MULXq %r10, %r10, %r9
adoxq %r10, %rbx
adcxq %r9, %r12
MULXq %rsi, %r9, %rsi
adoxq %r9, %r12
adcxq %rsi, %rax
MULXq %rcx, %rsi, %rcx
adoxq %rsi, %rax
adcxq %rcx, %r11
MULXq %rdi, %rdx, %rcx
adoxq %rdx, %r11
adcxq %r8, %rcx
adoxq %r8, %rcx
imulq $38, %rcx, %rcx
addq %rcx, %rbx
adcq %r8, %r12
adcq %r8, %rax
adcq %r8, %r11
sbbq %r8, %r8
andq $38, %r8
addq %r8, %rbx
movl 344(%rsp), %ecx
decl %ecx
jne Ljade_scalarmult_curve25519_amd64_mulx$2
xorq %r9, %r9
movq 120(%rsp), %rdx
MULXq %rbx, %r8, %rsi
MULXq %r12, %rdi, %rcx
adcxq %rdi, %rsi
MULXq %rax, %r10, %rdi
adcxq %r10, %rcx
MULXq %r11, %rdx, %r10
adcxq %rdx, %rdi
adcxq %r9, %r10
movq 128(%rsp), %rdx
MULXq %rbx, %r13, %rbp
adoxq %r13, %rsi
adcxq %rbp, %rcx
MULXq %r12, %r13, %rbp
adoxq %r13, %rcx
adcxq %rbp, %rdi
MULXq %rax, %r13, %rbp
adoxq %r13, %rdi
adcxq %rbp, %r10
MULXq %r11, %rdx, %rbp
adoxq %rdx, %r10
adcxq %r9, %rbp
adoxq %r9, %rbp
movq 136(%rsp), %rdx
MULXq %rbx, %r14, %r13
adoxq %r14, %rcx
adcxq %r13, %rdi
MULXq %r12, %r14, %r13
adoxq %r14, %rdi
adcxq %r13, %r10
MULXq %rax, %r14, %r13
adoxq %r14, %r10
adcxq %r13, %rbp
MULXq %r11, %rdx, %r13
adoxq %rdx, %rbp
adcxq %r9, %r13
adoxq %r9, %r13
movq 144(%rsp), %rdx
MULXq %rbx, %r14, %rbx
adoxq %r14, %rdi
adcxq %rbx, %r10
MULXq %r12, %r12, %rbx
adoxq %r12, %r10
adcxq %rbx, %rbp
MULXq %rax, %rbx, %rax
adoxq %rbx, %rbp
adcxq %rax, %r13
MULXq %r11, %rdx, %rax
adoxq %rdx, %r13
adcxq %r9, %rax
adoxq %r9, %rax
movq $38, %rdx
MULXq %r10, %r11, %r10
adoxq %r11, %r8
adcxq %r10, %rsi
MULXq %rbp, %r11, %r10
adoxq %r11, %rsi
adcxq %r10, %rcx
MULXq %r13, %r11, %r10
adoxq %r11, %rcx
adcxq %r10, %rdi
MULXq %rax, %rdx, %rax
adoxq %rdx, %rdi
adcxq %r9, %rax
adoxq %r9, %rax
imulq $38, %rax, %rax
addq %rax, %r8
adcq %r9, %rsi
adcq %r9, %rcx
adcq %r9, %rdi
sbbq %r9, %r9
andq $38, %r9
addq %r9, %r8
movl $2, %eax
Ljade_scalarmult_curve25519_amd64_mulx$1:
movl %eax, 344(%rsp)
xorq %r11, %r11
movq %r8, %rdx
MULXq %rdx, %r8, %rbx
MULXq %rsi, %r9, %rax
MULXq %rcx, %rbp, %r10
adcxq %rbp, %rax
MULXq %rdi, %rdx, %rbp
adcxq %rdx, %r10
movq %rsi, %rdx
MULXq %rcx, %r12, %rsi
adoxq %r12, %r10
adcxq %rsi, %rbp
MULXq %rdi, %r12, %rsi
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rcx, %rdx
MULXq %rdi, %r14, %rcx
adcxq %r14, %rsi
adoxq %r11, %rsi
adcxq %r11, %rcx
adoxq %r11, %rcx
MULXq %rdx, %r15, %r14
movq %rdi, %rdx
MULXq %rdx, %rdx, %rdi
adcxq %r9, %r9
adoxq %rbx, %r9
adcxq %rax, %rax
adoxq %r13, %rax
adcxq %r10, %r10
adoxq %r12, %r10
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %rsi, %rsi
adoxq %r14, %rsi
adcxq %rcx, %rcx
adoxq %rdx, %rcx
adcxq %r11, %rdi
adoxq %r11, %rdi
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %r8
adcxq %rbx, %r9
MULXq %rsi, %rbx, %rsi
adoxq %rbx, %r9
adcxq %rsi, %rax
MULXq %rcx, %rsi, %rcx
adoxq %rsi, %rax
adcxq %rcx, %r10
MULXq %rdi, %rdx, %rcx
adoxq %rdx, %r10
adcxq %r11, %rcx
adoxq %r11, %rcx
imulq $38, %rcx, %rcx
addq %rcx, %r8
adcq %r11, %r9
adcq %r11, %rax
adcq %r11, %r10
sbbq %r11, %r11
andq $38, %r11
addq %r11, %r8
xorq %r11, %r11
movq %r8, %rdx
MULXq %rdx, %r8, %rbx
MULXq %r9, %rsi, %rcx
MULXq %rax, %rbp, %rdi
adcxq %rbp, %rcx
MULXq %r10, %rdx, %rbp
adcxq %rdx, %rdi
movq %r9, %rdx
MULXq %rax, %r12, %r9
adoxq %r12, %rdi
adcxq %r9, %rbp
MULXq %r10, %r12, %r9
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rax, %rdx
MULXq %r10, %r14, %rax
adcxq %r14, %r9
adoxq %r11, %r9
adcxq %r11, %rax
adoxq %r11, %rax
MULXq %rdx, %r15, %r14
movq %r10, %rdx
MULXq %rdx, %rdx, %r10
adcxq %rsi, %rsi
adoxq %rbx, %rsi
adcxq %rcx, %rcx
adoxq %r13, %rcx
adcxq %rdi, %rdi
adoxq %r12, %rdi
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r9, %r9
adoxq %r14, %r9
adcxq %rax, %rax
adoxq %rdx, %rax
adcxq %r11, %r10
adoxq %r11, %r10
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %r8
adcxq %rbx, %rsi
MULXq %r9, %rbx, %r9
adoxq %rbx, %rsi
adcxq %r9, %rcx
MULXq %rax, %r9, %rax
adoxq %r9, %rcx
adcxq %rax, %rdi
MULXq %r10, %rdx, %rax
adoxq %rdx, %rdi
adcxq %r11, %rax
adoxq %r11, %rax
imulq $38, %rax, %rax
addq %rax, %r8
adcq %r11, %rsi
adcq %r11, %rcx
adcq %r11, %rdi
sbbq %r11, %r11
andq $38, %r11
addq %r11, %r8
movl 344(%rsp), %eax
decl %eax
jne Ljade_scalarmult_curve25519_amd64_mulx$1
xorq %r9, %r9
movq %r8, %rdx
MULXq %rdx, %rax, %rbx
MULXq %rsi, %r10, %r11
MULXq %rcx, %rbp, %r8
adcxq %rbp, %r11
MULXq %rdi, %rdx, %rbp
adcxq %rdx, %r8
movq %rsi, %rdx
MULXq %rcx, %r12, %rsi
adoxq %r12, %r8
adcxq %rsi, %rbp
MULXq %rdi, %r12, %rsi
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rcx, %rdx
MULXq %rdi, %r14, %rcx
adcxq %r14, %rsi
adoxq %r9, %rsi
adcxq %r9, %rcx
adoxq %r9, %rcx
MULXq %rdx, %r15, %r14
movq %rdi, %rdx
MULXq %rdx, %rdx, %rdi
adcxq %r10, %r10
adoxq %rbx, %r10
adcxq %r11, %r11
adoxq %r13, %r11
adcxq %r8, %r8
adoxq %r12, %r8
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %rsi, %rsi
adoxq %r14, %rsi
adcxq %rcx, %rcx
adoxq %rdx, %rcx
adcxq %r9, %rdi
adoxq %r9, %rdi
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %rax
adcxq %rbx, %r10
MULXq %rsi, %rbx, %rsi
adoxq %rbx, %r10
adcxq %rsi, %r11
MULXq %rcx, %rsi, %rcx
adoxq %rsi, %r11
adcxq %rcx, %r8
MULXq %rdi, %rdx, %rcx
adoxq %rdx, %r8
adcxq %r9, %rcx
adoxq %r9, %rcx
imulq $38, %rcx, %rcx
addq %rcx, %rax
adcq %r9, %r10
adcq %r9, %r11
adcq %r9, %r8
sbbq %r9, %r9
andq $38, %r9
addq %r9, %rax
xorq %rbx, %rbx
movq 88(%rsp), %rdx
MULXq %rax, %rsi, %rcx
MULXq %r10, %r9, %rdi
adcxq %r9, %rcx
MULXq %r11, %rbp, %r9
adcxq %rbp, %rdi
MULXq %r8, %rdx, %rbp
adcxq %rdx, %r9
adcxq %rbx, %rbp
movq 96(%rsp), %rdx
MULXq %rax, %r13, %r12
adoxq %r13, %rcx
adcxq %r12, %rdi
MULXq %r10, %r13, %r12
adoxq %r13, %rdi
adcxq %r12, %r9
MULXq %r11, %r13, %r12
adoxq %r13, %r9
adcxq %r12, %rbp
MULXq %r8, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rbx, %r12
adoxq %rbx, %r12
movq 104(%rsp), %rdx
MULXq %rax, %r14, %r13
adoxq %r14, %rdi
adcxq %r13, %r9
MULXq %r10, %r14, %r13
adoxq %r14, %r9
adcxq %r13, %rbp
MULXq %r11, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %r8, %rdx, %r13
adoxq %rdx, %r12
adcxq %rbx, %r13
adoxq %rbx, %r13
movq 112(%rsp), %rdx
MULXq %rax, %r14, %rax
adoxq %r14, %r9
adcxq %rax, %rbp
MULXq %r10, %r10, %rax
adoxq %r10, %rbp
adcxq %rax, %r12
MULXq %r11, %r10, %rax
adoxq %r10, %r12
adcxq %rax, %r13
MULXq %r8, %rdx, %rax
adoxq %rdx, %r13
adcxq %rbx, %rax
adoxq %rbx, %rax
movq $38, %rdx
MULXq %rbp, %r10, %r8
adoxq %r10, %rsi
adcxq %r8, %rcx
MULXq %r12, %r10, %r8
adoxq %r10, %rcx
adcxq %r8, %rdi
MULXq %r13, %r10, %r8
adoxq %r10, %rdi
adcxq %r8, %r9
MULXq %rax, %rdx, %rax
adoxq %rdx, %r9
adcxq %rbx, %rax
adoxq %rbx, %rax
imulq $38, %rax, %rax
addq %rax, %rsi
adcq %rbx, %rcx
adcq %rbx, %rdi
adcq %rbx, %r9
sbbq %rbx, %rbx
andq $38, %rbx
addq %rbx, %rsi
xorq %rax, %rax
movq 56(%rsp), %rdx
MULXq %rsi, %r10, %r8
MULXq %rcx, %rbx, %r11
adcxq %rbx, %r8
MULXq %rdi, %rbp, %rbx
adcxq %rbp, %r11
MULXq %r9, %rdx, %rbp
adcxq %rdx, %rbx
adcxq %rax, %rbp
movq 64(%rsp), %rdx
MULXq %rsi, %r13, %r12
adoxq %r13, %r8
adcxq %r12, %r11
MULXq %rcx, %r13, %r12
adoxq %r13, %r11
adcxq %r12, %rbx
MULXq %rdi, %r13, %r12
adoxq %r13, %rbx
adcxq %r12, %rbp
MULXq %r9, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rax, %r12
adoxq %rax, %r12
movq 72(%rsp), %rdx
MULXq %rsi, %r14, %r13
adoxq %r14, %r11
adcxq %r13, %rbx
MULXq %rcx, %r14, %r13
adoxq %r14, %rbx
adcxq %r13, %rbp
MULXq %rdi, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %r9, %rdx, %r13
adoxq %rdx, %r12
adcxq %rax, %r13
adoxq %rax, %r13
movq 80(%rsp), %rdx
MULXq %rsi, %r14, %rsi
adoxq %r14, %rbx
adcxq %rsi, %rbp
MULXq %rcx, %rsi, %rcx
adoxq %rsi, %rbp
adcxq %rcx, %r12
MULXq %rdi, %rsi, %rcx
adoxq %rsi, %r12
adcxq %rcx, %r13
MULXq %r9, %rdx, %rcx
adoxq %rdx, %r13
adcxq %rax, %rcx
adoxq %rax, %rcx
movq $38, %rdx
MULXq %rbp, %rdi, %rsi
adoxq %rdi, %r10
adcxq %rsi, %r8
MULXq %r12, %rdi, %rsi
adoxq %rdi, %r8
adcxq %rsi, %r11
MULXq %r13, %rdi, %rsi
adoxq %rdi, %r11
adcxq %rsi, %rbx
MULXq %rcx, %rdx, %rcx
adoxq %rdx, %rbx
adcxq %rax, %rcx
adoxq %rax, %rcx
imulq $38, %rcx, %rcx
addq %rcx, %r10
adcq %rax, %r8
adcq %rax, %r11
adcq %rax, %rbx
sbbq %rax, %rax
andq $38, %rax
addq %rax, %r10
leaq (%rbx,%rbx), %rax
sarq $63, %rbx
shrq $1, %rax
andq $19, %rbx
addq $19, %rbx
addq %rbx, %r10
adcq $0, %r8
adcq $0, %r11
adcq $0, %rax
leaq (%rax,%rax), %rcx
sarq $63, %rax
shrq $1, %rcx
notq %rax
andq $19, %rax
subq %rax, %r10
sbbq $0, %r8
sbbq $0, %r11
sbbq $0, %rcx
movq (%rsp), %rax
movq %r10, (%rax)
movq %r8, 8(%rax)
movq %r11, 16(%rax)
movq %rcx, 24(%rax)
xorq %rax, %rax
movq 352(%rsp), %rbx
movq 360(%rsp), %rbp
movq 368(%rsp), %r12
movq 376(%rsp), %r13
movq 384(%rsp), %r14
movq 392(%rsp), %r15
movq 400(%rsp), %rsp
ret
|
usenix-security-verdict/verdict
| 31,349
|
deps/libcrux/sys/libjade/jazz/sha3_512_ref.s
|
.att_syntax
.text
.p2align 5
.globl _jade_hash_sha3_512_amd64_ref
.globl jade_hash_sha3_512_amd64_ref
_jade_hash_sha3_512_amd64_ref:
jade_hash_sha3_512_amd64_ref:
movq %rsp, %rax
leaq -48(%rsp), %rsp
andq $-8, %rsp
movq %rax, 40(%rsp)
movq %rbx, (%rsp)
movq %rbp, 8(%rsp)
movq %r12, 16(%rsp)
movq %r13, 24(%rsp)
movq %r14, 32(%rsp)
movq $64, %rcx
movb $6, %r8b
movq $72, %rax
leaq -448(%rsp), %rsp
call L_keccak1600_ref$1
Ljade_hash_sha3_512_amd64_ref$1:
leaq 448(%rsp), %rsp
xorq %rax, %rax
movq (%rsp), %rbx
movq 8(%rsp), %rbp
movq 16(%rsp), %r12
movq 24(%rsp), %r13
movq 32(%rsp), %r14
movq 40(%rsp), %rsp
ret
L_keccak1600_ref$1:
movq %rdi, 8(%rsp)
movq %rcx, 16(%rsp)
movb %r8b, 448(%rsp)
xorq %rcx, %rcx
movq %rcx, 48(%rsp)
movq %rcx, 56(%rsp)
movq %rcx, 64(%rsp)
movq %rcx, 72(%rsp)
movq %rcx, 80(%rsp)
movq %rcx, 88(%rsp)
movq %rcx, 96(%rsp)
movq %rcx, 104(%rsp)
movq %rcx, 112(%rsp)
movq %rcx, 120(%rsp)
movq %rcx, 128(%rsp)
movq %rcx, 136(%rsp)
movq %rcx, 144(%rsp)
movq %rcx, 152(%rsp)
movq %rcx, 160(%rsp)
movq %rcx, 168(%rsp)
movq %rcx, 176(%rsp)
movq %rcx, 184(%rsp)
movq %rcx, 192(%rsp)
movq %rcx, 200(%rsp)
movq %rcx, 208(%rsp)
movq %rcx, 216(%rsp)
movq %rcx, 224(%rsp)
movq %rcx, 232(%rsp)
movq %rcx, 240(%rsp)
jmp L_keccak1600_ref$16
L_keccak1600_ref$17:
movq %rax, %rcx
shrq $3, %rcx
movq $0, %rdi
jmp L_keccak1600_ref$19
L_keccak1600_ref$20:
movq (%rsi,%rdi,8), %r8
xorq %r8, 48(%rsp,%rdi,8)
incq %rdi
L_keccak1600_ref$19:
cmpq %rcx, %rdi
jb L_keccak1600_ref$20
addq %rax, %rsi
subq %rax, %rdx
movq %rsi, 24(%rsp)
movq %rdx, 32(%rsp)
movq %rax, 40(%rsp)
leaq glob_data + 0(%rip), %rax
movq $0, %rcx
L_keccak1600_ref$18:
movq (%rax,%rcx,8), %r10
movq 48(%rsp), %r9
movq 56(%rsp), %r8
movq 64(%rsp), %r11
movq 72(%rsp), %rbx
movq 80(%rsp), %rbp
xorq 88(%rsp), %r9
xorq 96(%rsp), %r8
xorq 104(%rsp), %r11
xorq 112(%rsp), %rbx
xorq 120(%rsp), %rbp
xorq 128(%rsp), %r9
xorq 136(%rsp), %r8
xorq 144(%rsp), %r11
xorq 152(%rsp), %rbx
xorq 160(%rsp), %rbp
xorq 168(%rsp), %r9
xorq 176(%rsp), %r8
xorq 184(%rsp), %r11
xorq 192(%rsp), %rbx
xorq 200(%rsp), %rbp
xorq 208(%rsp), %r9
xorq 216(%rsp), %r8
xorq 224(%rsp), %r11
xorq 232(%rsp), %rbx
xorq 240(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 48(%rsp), %r11
xorq %rdx, %r11
movq 96(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 144(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 192(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 240(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 248(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 256(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 264(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 272(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 280(%rsp)
movq 72(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 120(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 128(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 176(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 224(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 288(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 296(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 304(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 312(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 320(%rsp)
movq 56(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 104(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 152(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 200(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 208(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 328(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 336(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 344(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 352(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 360(%rsp)
movq 80(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 88(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 136(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 184(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 232(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 368(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 376(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 384(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 392(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 400(%rsp)
movq 64(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 112(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 160(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 168(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 216(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 408(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 416(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 424(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 432(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 440(%rsp)
movq 8(%rax,%rcx,8), %r10
movq 248(%rsp), %r9
movq 256(%rsp), %r8
movq 264(%rsp), %r11
movq 272(%rsp), %rbx
movq 280(%rsp), %rbp
xorq 288(%rsp), %r9
xorq 296(%rsp), %r8
xorq 304(%rsp), %r11
xorq 312(%rsp), %rbx
xorq 320(%rsp), %rbp
xorq 328(%rsp), %r9
xorq 336(%rsp), %r8
xorq 344(%rsp), %r11
xorq 352(%rsp), %rbx
xorq 360(%rsp), %rbp
xorq 368(%rsp), %r9
xorq 376(%rsp), %r8
xorq 384(%rsp), %r11
xorq 392(%rsp), %rbx
xorq 400(%rsp), %rbp
xorq 408(%rsp), %r9
xorq 416(%rsp), %r8
xorq 424(%rsp), %r11
xorq 432(%rsp), %rbx
xorq 440(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 248(%rsp), %r11
xorq %rdx, %r11
movq 296(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 344(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 392(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 440(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 48(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 56(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 64(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 72(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 80(%rsp)
movq 272(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 320(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 328(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 376(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 424(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 88(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 96(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 104(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 112(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 120(%rsp)
movq 256(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 304(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 352(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 400(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 408(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 128(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 136(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 144(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 152(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 160(%rsp)
movq 280(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 288(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 336(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 384(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 432(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 168(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 176(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 184(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 192(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 200(%rsp)
movq 264(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 312(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 360(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 368(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 416(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 208(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 216(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 224(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 232(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 240(%rsp)
addq $2, %rcx
cmpq $23, %rcx
jb L_keccak1600_ref$18
movq 24(%rsp), %rsi
movq 32(%rsp), %rdx
movq 40(%rsp), %rax
L_keccak1600_ref$16:
cmpq %rax, %rdx
jnb L_keccak1600_ref$17
movb 448(%rsp), %cl
movq %rdx, %rdi
shrq $3, %rdi
movq $0, %r8
jmp L_keccak1600_ref$14
L_keccak1600_ref$15:
movq (%rsi,%r8,8), %r9
xorq %r9, 48(%rsp,%r8,8)
incq %r8
L_keccak1600_ref$14:
cmpq %rdi, %r8
jb L_keccak1600_ref$15
shlq $3, %r8
jmp L_keccak1600_ref$12
L_keccak1600_ref$13:
movb (%rsi,%r8), %dil
xorb %dil, 48(%rsp,%r8)
incq %r8
L_keccak1600_ref$12:
cmpq %rdx, %r8
jb L_keccak1600_ref$13
xorb %cl, 48(%rsp,%r8)
movq %rax, %rcx
addq $-1, %rcx
xorb $-128, 48(%rsp,%rcx)
movq 16(%rsp), %rdx
jmp L_keccak1600_ref$7
L_keccak1600_ref$8:
movq %rdx, 16(%rsp)
movq %rax, 40(%rsp)
leaq glob_data + 0(%rip), %rax
movq $0, %rcx
L_keccak1600_ref$11:
movq (%rax,%rcx,8), %r10
movq 48(%rsp), %r9
movq 56(%rsp), %r8
movq 64(%rsp), %r11
movq 72(%rsp), %rbx
movq 80(%rsp), %rbp
xorq 88(%rsp), %r9
xorq 96(%rsp), %r8
xorq 104(%rsp), %r11
xorq 112(%rsp), %rbx
xorq 120(%rsp), %rbp
xorq 128(%rsp), %r9
xorq 136(%rsp), %r8
xorq 144(%rsp), %r11
xorq 152(%rsp), %rbx
xorq 160(%rsp), %rbp
xorq 168(%rsp), %r9
xorq 176(%rsp), %r8
xorq 184(%rsp), %r11
xorq 192(%rsp), %rbx
xorq 200(%rsp), %rbp
xorq 208(%rsp), %r9
xorq 216(%rsp), %r8
xorq 224(%rsp), %r11
xorq 232(%rsp), %rbx
xorq 240(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 48(%rsp), %r11
xorq %rdx, %r11
movq 96(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 144(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 192(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 240(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 248(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 256(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 264(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 272(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 280(%rsp)
movq 72(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 120(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 128(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 176(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 224(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 288(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 296(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 304(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 312(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 320(%rsp)
movq 56(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 104(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 152(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 200(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 208(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 328(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 336(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 344(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 352(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 360(%rsp)
movq 80(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 88(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 136(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 184(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 232(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 368(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 376(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 384(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 392(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 400(%rsp)
movq 64(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 112(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 160(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 168(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 216(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 408(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 416(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 424(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 432(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 440(%rsp)
movq 8(%rax,%rcx,8), %r10
movq 248(%rsp), %r9
movq 256(%rsp), %r8
movq 264(%rsp), %r11
movq 272(%rsp), %rbx
movq 280(%rsp), %rbp
xorq 288(%rsp), %r9
xorq 296(%rsp), %r8
xorq 304(%rsp), %r11
xorq 312(%rsp), %rbx
xorq 320(%rsp), %rbp
xorq 328(%rsp), %r9
xorq 336(%rsp), %r8
xorq 344(%rsp), %r11
xorq 352(%rsp), %rbx
xorq 360(%rsp), %rbp
xorq 368(%rsp), %r9
xorq 376(%rsp), %r8
xorq 384(%rsp), %r11
xorq 392(%rsp), %rbx
xorq 400(%rsp), %rbp
xorq 408(%rsp), %r9
xorq 416(%rsp), %r8
xorq 424(%rsp), %r11
xorq 432(%rsp), %rbx
xorq 440(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 248(%rsp), %r11
xorq %rdx, %r11
movq 296(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 344(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 392(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 440(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 48(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 56(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 64(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 72(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 80(%rsp)
movq 272(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 320(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 328(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 376(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 424(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 88(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 96(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 104(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 112(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 120(%rsp)
movq 256(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 304(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 352(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 400(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 408(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 128(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 136(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 144(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 152(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 160(%rsp)
movq 280(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 288(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 336(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 384(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 432(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 168(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 176(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 184(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 192(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 200(%rsp)
movq 264(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 312(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 360(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 368(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 416(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 208(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 216(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 224(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 232(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 240(%rsp)
addq $2, %rcx
cmpq $23, %rcx
jb L_keccak1600_ref$11
movq 8(%rsp), %rcx
movq 16(%rsp), %rdx
movq 40(%rsp), %rax
movq %rax, %rsi
shrq $3, %rsi
movq $0, %rdi
jmp L_keccak1600_ref$9
L_keccak1600_ref$10:
movq 48(%rsp,%rdi,8), %r8
movq %r8, (%rcx,%rdi,8)
incq %rdi
L_keccak1600_ref$9:
cmpq %rsi, %rdi
jb L_keccak1600_ref$10
addq %rax, %rcx
subq %rax, %rdx
movq %rcx, 8(%rsp)
L_keccak1600_ref$7:
cmpq %rax, %rdx
jnbe L_keccak1600_ref$8
movq %rdx, 40(%rsp)
leaq glob_data + 0(%rip), %rax
movq $0, %rcx
L_keccak1600_ref$6:
movq (%rax,%rcx,8), %r10
movq 48(%rsp), %r9
movq 56(%rsp), %r8
movq 64(%rsp), %r11
movq 72(%rsp), %rbx
movq 80(%rsp), %rbp
xorq 88(%rsp), %r9
xorq 96(%rsp), %r8
xorq 104(%rsp), %r11
xorq 112(%rsp), %rbx
xorq 120(%rsp), %rbp
xorq 128(%rsp), %r9
xorq 136(%rsp), %r8
xorq 144(%rsp), %r11
xorq 152(%rsp), %rbx
xorq 160(%rsp), %rbp
xorq 168(%rsp), %r9
xorq 176(%rsp), %r8
xorq 184(%rsp), %r11
xorq 192(%rsp), %rbx
xorq 200(%rsp), %rbp
xorq 208(%rsp), %r9
xorq 216(%rsp), %r8
xorq 224(%rsp), %r11
xorq 232(%rsp), %rbx
xorq 240(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 48(%rsp), %r11
xorq %rdx, %r11
movq 96(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 144(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 192(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 240(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 248(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 256(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 264(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 272(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 280(%rsp)
movq 72(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 120(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 128(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 176(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 224(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 288(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 296(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 304(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 312(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 320(%rsp)
movq 56(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 104(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 152(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 200(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 208(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 328(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 336(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 344(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 352(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 360(%rsp)
movq 80(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 88(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 136(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 184(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 232(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 368(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 376(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 384(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 392(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 400(%rsp)
movq 64(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 112(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 160(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 168(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 216(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 408(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 416(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 424(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 432(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 440(%rsp)
movq 8(%rax,%rcx,8), %r10
movq 248(%rsp), %r9
movq 256(%rsp), %r8
movq 264(%rsp), %r11
movq 272(%rsp), %rbx
movq 280(%rsp), %rbp
xorq 288(%rsp), %r9
xorq 296(%rsp), %r8
xorq 304(%rsp), %r11
xorq 312(%rsp), %rbx
xorq 320(%rsp), %rbp
xorq 328(%rsp), %r9
xorq 336(%rsp), %r8
xorq 344(%rsp), %r11
xorq 352(%rsp), %rbx
xorq 360(%rsp), %rbp
xorq 368(%rsp), %r9
xorq 376(%rsp), %r8
xorq 384(%rsp), %r11
xorq 392(%rsp), %rbx
xorq 400(%rsp), %rbp
xorq 408(%rsp), %r9
xorq 416(%rsp), %r8
xorq 424(%rsp), %r11
xorq 432(%rsp), %rbx
xorq 440(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 248(%rsp), %r11
xorq %rdx, %r11
movq 296(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 344(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 392(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 440(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 48(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 56(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 64(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 72(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 80(%rsp)
movq 272(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 320(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 328(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 376(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 424(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 88(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 96(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 104(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 112(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 120(%rsp)
movq 256(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 304(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 352(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 400(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 408(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 128(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 136(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 144(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 152(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 160(%rsp)
movq 280(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 288(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 336(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 384(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 432(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 168(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 176(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 184(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 192(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 200(%rsp)
movq 264(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 312(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 360(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 368(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 416(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 208(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 216(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 224(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 232(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 240(%rsp)
addq $2, %rcx
cmpq $23, %rcx
jb L_keccak1600_ref$6
movq 8(%rsp), %rax
movq 40(%rsp), %rcx
movq %rcx, %rdx
shrq $3, %rdx
movq $0, %rsi
jmp L_keccak1600_ref$4
L_keccak1600_ref$5:
movq 48(%rsp,%rsi,8), %rdi
movq %rdi, (%rax,%rsi,8)
incq %rsi
L_keccak1600_ref$4:
cmpq %rdx, %rsi
jb L_keccak1600_ref$5
shlq $3, %rsi
jmp L_keccak1600_ref$2
L_keccak1600_ref$3:
movb 48(%rsp,%rsi), %dl
movb %dl, (%rax,%rsi)
incq %rsi
L_keccak1600_ref$2:
cmpq %rcx, %rsi
jb L_keccak1600_ref$3
ret
.data
.p2align 5
_glob_data:
glob_data:
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
|
usenix-security-verdict/verdict
| 6,042
|
deps/libcrux/sys/libjade/jazz/poly1305_ref.s
|
.att_syntax
.text
.p2align 5
.globl _jade_onetimeauth_poly1305_amd64_ref_verify
.globl jade_onetimeauth_poly1305_amd64_ref_verify
.globl _jade_onetimeauth_poly1305_amd64_ref
.globl jade_onetimeauth_poly1305_amd64_ref
_jade_onetimeauth_poly1305_amd64_ref_verify:
jade_onetimeauth_poly1305_amd64_ref_verify:
movq %rsp, %rax
leaq -56(%rsp), %rsp
andq $-8, %rsp
movq %rax, 48(%rsp)
movq %rbx, (%rsp)
movq %rbp, 8(%rsp)
movq %r12, 16(%rsp)
movq %r13, 24(%rsp)
movq %r14, 32(%rsp)
movq %r15, 40(%rsp)
movq %rdx, %r11
movq %rcx, %r8
movq $0, %r15
movq $0, %rbp
movq $0, %r12
movq (%r8), %r9
movq 8(%r8), %r14
movq $1152921487695413247, %rax
andq %rax, %r9
movq $1152921487695413244, %rax
andq %rax, %r14
movq %r14, %r13
shrq $2, %r13
addq %r14, %r13
addq $16, %r8
jmp Ljade_onetimeauth_poly1305_amd64_ref_verify$2
Ljade_onetimeauth_poly1305_amd64_ref_verify$3:
addq (%rsi), %r15
adcq 8(%rsi), %rbp
adcq $1, %r12
movq %r13, %rcx
imulq %r12, %rcx
imulq %r9, %r12
movq %r9, %rax
mulq %r15
movq %rax, %rbx
movq %rdx, %r10
movq %r9, %rax
mulq %rbp
addq %rax, %r10
adcq %rdx, %r12
movq %r13, %rax
mulq %rbp
movq %rdx, %rbp
addq %rcx, %rbp
movq %rax, %rcx
movq %r14, %rax
mulq %r15
addq %rcx, %rbx
adcq %rax, %r10
adcq %rdx, %r12
movq $-4, %r15
movq %r12, %rax
shrq $2, %rax
andq %r12, %r15
addq %rax, %r15
andq $3, %r12
addq %rbx, %r15
adcq %r10, %rbp
adcq $0, %r12
addq $16, %rsi
addq $-16, %r11
Ljade_onetimeauth_poly1305_amd64_ref_verify$2:
cmpq $16, %r11
jnb Ljade_onetimeauth_poly1305_amd64_ref_verify$3
cmpq $0, %r11
jbe Ljade_onetimeauth_poly1305_amd64_ref_verify$1
xorq %rcx, %rcx
movq %r11, %rax
andq $7, %rax
shlq $3, %rax
shrq $3, %r11
movq %r11, %rdx
xorq $1, %rdx
movq %r11, %r10
addq $-1, %r10
movq %rax, %rbx
andq %r10, %rbx
xorq %rbx, %rcx
xorq %rbx, %rax
shlq %cl, %rdx
movq %rax, %rcx
shlq %cl, %r11
movq %rdx, %rax
movq %r11, %rcx
subq $1, %rax
sbbq $0, %rcx
movq (%rsi), %r10
andq %rax, %r10
orq %rdx, %r10
movq 8(%rsi), %rax
andq %rcx, %rax
orq %r11, %rax
addq %r10, %r15
adcq %rax, %rbp
adcq $0, %r12
movq %r13, %rsi
imulq %r12, %rsi
imulq %r9, %r12
movq %r9, %rax
mulq %r15
movq %rax, %rcx
movq %rdx, %r10
movq %r9, %rax
mulq %rbp
addq %rax, %r10
adcq %rdx, %r12
movq %r13, %rax
mulq %rbp
movq %rdx, %rbp
addq %rsi, %rbp
movq %rax, %rsi
movq %r14, %rax
mulq %r15
addq %rsi, %rcx
adcq %rax, %r10
adcq %rdx, %r12
movq $-4, %r15
movq %r12, %rax
shrq $2, %rax
andq %r12, %r15
addq %rax, %r15
andq $3, %r12
addq %rcx, %r15
adcq %r10, %rbp
adcq $0, %r12
Ljade_onetimeauth_poly1305_amd64_ref_verify$1:
movq %r15, %rax
movq %rbp, %rcx
addq $5, %rax
adcq $0, %rcx
adcq $0, %r12
shrq $2, %r12
negq %r12
xorq %r15, %rax
xorq %rbp, %rcx
andq %r12, %rax
andq %r12, %rcx
xorq %r15, %rax
xorq %rbp, %rcx
movq (%r8), %rdx
movq 8(%r8), %rsi
addq %rdx, %rax
adcq %rsi, %rcx
movq %rax, %rdx
xorq (%rdi), %rdx
xorq 8(%rdi), %rcx
orq %rcx, %rdx
xorq %rax, %rax
subq $1, %rdx
adcq $0, %rax
addq $-1, %rax
movq (%rsp), %rbx
movq 8(%rsp), %rbp
movq 16(%rsp), %r12
movq 24(%rsp), %r13
movq 32(%rsp), %r14
movq 40(%rsp), %r15
movq 48(%rsp), %rsp
ret
_jade_onetimeauth_poly1305_amd64_ref:
jade_onetimeauth_poly1305_amd64_ref:
movq %rsp, %rax
leaq -56(%rsp), %rsp
andq $-8, %rsp
movq %rax, 48(%rsp)
movq %rbx, (%rsp)
movq %rbp, 8(%rsp)
movq %r12, 16(%rsp)
movq %r13, 24(%rsp)
movq %r14, 32(%rsp)
movq %r15, 40(%rsp)
movq %rdx, %rbx
movq %rcx, %r9
movq $0, %r15
movq $0, %r8
movq $0, %r14
movq (%r9), %r12
movq 8(%r9), %r13
movq $1152921487695413247, %rax
andq %rax, %r12
movq $1152921487695413244, %rax
andq %rax, %r13
movq %r13, %rbp
shrq $2, %rbp
addq %r13, %rbp
addq $16, %r9
jmp Ljade_onetimeauth_poly1305_amd64_ref$2
Ljade_onetimeauth_poly1305_amd64_ref$3:
addq (%rsi), %r15
adcq 8(%rsi), %r8
adcq $1, %r14
movq %rbp, %rcx
imulq %r14, %rcx
imulq %r12, %r14
movq %r12, %rax
mulq %r15
movq %rax, %r11
movq %rdx, %r10
movq %r12, %rax
mulq %r8
addq %rax, %r10
adcq %rdx, %r14
movq %rbp, %rax
mulq %r8
movq %rdx, %r8
addq %rcx, %r8
movq %rax, %rcx
movq %r13, %rax
mulq %r15
addq %rcx, %r11
adcq %rax, %r10
adcq %rdx, %r14
movq $-4, %r15
movq %r14, %rax
shrq $2, %rax
andq %r14, %r15
addq %rax, %r15
andq $3, %r14
addq %r11, %r15
adcq %r10, %r8
adcq $0, %r14
addq $16, %rsi
addq $-16, %rbx
Ljade_onetimeauth_poly1305_amd64_ref$2:
cmpq $16, %rbx
jnb Ljade_onetimeauth_poly1305_amd64_ref$3
cmpq $0, %rbx
jbe Ljade_onetimeauth_poly1305_amd64_ref$1
xorq %rcx, %rcx
movq %rbx, %rax
andq $7, %rax
shlq $3, %rax
shrq $3, %rbx
movq %rbx, %rdx
xorq $1, %rdx
movq %rbx, %r10
addq $-1, %r10
movq %rax, %r11
andq %r10, %r11
xorq %r11, %rcx
xorq %r11, %rax
shlq %cl, %rdx
movq %rax, %rcx
shlq %cl, %rbx
movq %rdx, %rax
movq %rbx, %rcx
subq $1, %rax
sbbq $0, %rcx
movq (%rsi), %r10
andq %rax, %r10
orq %rdx, %r10
movq 8(%rsi), %rax
andq %rcx, %rax
orq %rbx, %rax
addq %r10, %r15
adcq %rax, %r8
adcq $0, %r14
movq %rbp, %rsi
imulq %r14, %rsi
imulq %r12, %r14
movq %r12, %rax
mulq %r15
movq %rax, %rcx
movq %rdx, %r10
movq %r12, %rax
mulq %r8
addq %rax, %r10
adcq %rdx, %r14
movq %rbp, %rax
mulq %r8
movq %rdx, %r8
addq %rsi, %r8
movq %rax, %rsi
movq %r13, %rax
mulq %r15
addq %rsi, %rcx
adcq %rax, %r10
adcq %rdx, %r14
movq $-4, %r15
movq %r14, %rax
shrq $2, %rax
andq %r14, %r15
addq %rax, %r15
andq $3, %r14
addq %rcx, %r15
adcq %r10, %r8
adcq $0, %r14
Ljade_onetimeauth_poly1305_amd64_ref$1:
movq %r15, %rax
movq %r8, %rcx
addq $5, %rax
adcq $0, %rcx
adcq $0, %r14
shrq $2, %r14
negq %r14
xorq %r15, %rax
xorq %r8, %rcx
andq %r14, %rax
andq %r14, %rcx
xorq %r15, %rax
xorq %r8, %rcx
movq (%r9), %rdx
movq 8(%r9), %rsi
addq %rdx, %rax
adcq %rsi, %rcx
movq %rax, (%rdi)
movq %rcx, 8(%rdi)
xorq %rax, %rax
movq (%rsp), %rbx
movq 8(%rsp), %rbp
movq 16(%rsp), %r12
movq 24(%rsp), %r13
movq 32(%rsp), %r14
movq 40(%rsp), %r15
movq 48(%rsp), %rsp
ret
|
usenix-security-verdict/verdict
| 46,736
|
deps/libcrux/sys/libjade/jazz/sha256.s
|
.att_syntax
.text
.p2align 5
.globl _jade_hash_sha256_amd64_ref
.globl jade_hash_sha256_amd64_ref
_jade_hash_sha256_amd64_ref:
jade_hash_sha256_amd64_ref:
movq %rsp, %rax
leaq -232(%rsp), %rsp
andq $-8, %rsp
movq %rax, 224(%rsp)
movq %rbx, 176(%rsp)
movq %rbp, 184(%rsp)
movq %r12, 192(%rsp)
movq %r13, 200(%rsp)
movq %r14, 208(%rsp)
movq %r15, 216(%rsp)
movq %rdi, (%rsp)
movq %rdx, %rax
shlq $3, %rax
movq %rax, 8(%rsp)
movl $1779033703, 16(%rsp)
movl $-1150833019, 20(%rsp)
movl $1013904242, 24(%rsp)
movl $-1521486534, 28(%rsp)
movl $1359893119, 32(%rsp)
movl $-1694144372, 36(%rsp)
movl $528734635, 40(%rsp)
movl $1541459225, 44(%rsp)
leaq 16(%rsp), %rdi
leaq -272(%rsp), %rsp
leaq Ljade_hash_sha256_amd64_ref$12(%rip), %rcx
jmp L_blocks_0_ref$1
Ljade_hash_sha256_amd64_ref$12:
leaq 272(%rsp), %rsp
movq 8(%rsp), %rcx
movq $0, %rdi
jmp Ljade_hash_sha256_amd64_ref$10
Ljade_hash_sha256_amd64_ref$11:
movb (%rsi,%rdi), %al
movb %al, 48(%rsp,%rdi)
incq %rdi
Ljade_hash_sha256_amd64_ref$10:
cmpq %rdx, %rdi
jb Ljade_hash_sha256_amd64_ref$11
movb $-128, 48(%rsp,%rdi)
incq %rdi
cmpq $56, %rdx
jb Ljade_hash_sha256_amd64_ref$8
movq $120, %rdx
movq $2, %rax
jmp Ljade_hash_sha256_amd64_ref$9
Ljade_hash_sha256_amd64_ref$8:
movq $56, %rdx
movq $1, %rax
Ljade_hash_sha256_amd64_ref$9:
movb $0, %sil
jmp Ljade_hash_sha256_amd64_ref$6
Ljade_hash_sha256_amd64_ref$7:
movb %sil, 48(%rsp,%rdi)
incq %rdi
Ljade_hash_sha256_amd64_ref$6:
cmpq %rdx, %rdi
jb Ljade_hash_sha256_amd64_ref$7
addq $7, %rdi
jmp Ljade_hash_sha256_amd64_ref$4
Ljade_hash_sha256_amd64_ref$5:
movb %cl, 48(%rsp,%rdi)
shrq $8, %rcx
addq $-1, %rdi
Ljade_hash_sha256_amd64_ref$4:
cmpq %rdx, %rdi
jnb Ljade_hash_sha256_amd64_ref$5
addq $9, %rdi
jmp Ljade_hash_sha256_amd64_ref$2
Ljade_hash_sha256_amd64_ref$3:
movb %sil, 48(%rsp,%rdi)
incq %rdi
Ljade_hash_sha256_amd64_ref$2:
cmpq $128, %rdi
jb Ljade_hash_sha256_amd64_ref$3
leaq 48(%rsp), %r8
leaq -280(%rsp), %rsp
leaq Ljade_hash_sha256_amd64_ref$1(%rip), %rdx
jmp L_blocks_1_ref$1
Ljade_hash_sha256_amd64_ref$1:
leaq 280(%rsp), %rsp
movq (%rsp), %rax
movl 16(%rsp), %ecx
bswapl %ecx
movl %ecx, (%rax)
movl 20(%rsp), %ecx
bswapl %ecx
movl %ecx, 4(%rax)
movl 24(%rsp), %ecx
bswapl %ecx
movl %ecx, 8(%rax)
movl 28(%rsp), %ecx
bswapl %ecx
movl %ecx, 12(%rax)
movl 32(%rsp), %ecx
bswapl %ecx
movl %ecx, 16(%rax)
movl 36(%rsp), %ecx
bswapl %ecx
movl %ecx, 20(%rax)
movl 40(%rsp), %ecx
bswapl %ecx
movl %ecx, 24(%rax)
movl 44(%rsp), %ecx
bswapl %ecx
movl %ecx, 28(%rax)
xorq %rax, %rax
movq 176(%rsp), %rbx
movq 184(%rsp), %rbp
movq 192(%rsp), %r12
movq 200(%rsp), %r13
movq 208(%rsp), %r14
movq 216(%rsp), %r15
movq 224(%rsp), %rsp
ret
L_blocks_1_ref$1:
leaq glob_data + 0(%rip), %rcx
movq %r9, (%rsp)
movq $0, %rsi
movq (%rsp), %rdi
jmp L_blocks_1_ref$2
L_blocks_1_ref$3:
movl (%r8,%rsi,4), %r9d
bswapl %r9d
movl %r9d, 24(%rsp)
movl 4(%r8,%rsi,4), %r9d
bswapl %r9d
movl %r9d, 28(%rsp)
movl 8(%r8,%rsi,4), %r9d
bswapl %r9d
movl %r9d, 32(%rsp)
movl 12(%r8,%rsi,4), %r9d
bswapl %r9d
movl %r9d, 36(%rsp)
movl 16(%r8,%rsi,4), %r9d
bswapl %r9d
movl %r9d, 40(%rsp)
movl 20(%r8,%rsi,4), %r9d
bswapl %r9d
movl %r9d, 44(%rsp)
movl 24(%r8,%rsi,4), %r9d
bswapl %r9d
movl %r9d, 48(%rsp)
movl 28(%r8,%rsi,4), %r9d
bswapl %r9d
movl %r9d, 52(%rsp)
movl 32(%r8,%rsi,4), %r9d
bswapl %r9d
movl %r9d, 56(%rsp)
movl 36(%r8,%rsi,4), %r9d
bswapl %r9d
movl %r9d, 60(%rsp)
movl 40(%r8,%rsi,4), %r9d
bswapl %r9d
movl %r9d, 64(%rsp)
movl 44(%r8,%rsi,4), %r9d
bswapl %r9d
movl %r9d, 68(%rsp)
movl 48(%r8,%rsi,4), %r9d
bswapl %r9d
movl %r9d, 72(%rsp)
movl 52(%r8,%rsi,4), %r9d
bswapl %r9d
movl %r9d, 76(%rsp)
movl 56(%r8,%rsi,4), %r9d
bswapl %r9d
movl %r9d, 80(%rsp)
movl 60(%r8,%rsi,4), %r9d
bswapl %r9d
movl %r9d, 84(%rsp)
addq $16, %rsi
movq %rsi, (%rsp)
movq %r8, 8(%rsp)
movl 80(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 60(%rsp), %r8d
movl 28(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 24(%rsp), %r8d
movl %r8d, 88(%rsp)
movl 84(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 64(%rsp), %r8d
movl 32(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 28(%rsp), %r8d
movl %r8d, 92(%rsp)
movl 88(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 68(%rsp), %r8d
movl 36(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 32(%rsp), %r8d
movl %r8d, 96(%rsp)
movl 92(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 72(%rsp), %r8d
movl 40(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 36(%rsp), %r8d
movl %r8d, 100(%rsp)
movl 96(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 76(%rsp), %r8d
movl 44(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 40(%rsp), %r8d
movl %r8d, 104(%rsp)
movl 100(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 80(%rsp), %r8d
movl 48(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 44(%rsp), %r8d
movl %r8d, 108(%rsp)
movl 104(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 84(%rsp), %r8d
movl 52(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 48(%rsp), %r8d
movl %r8d, 112(%rsp)
movl 108(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 88(%rsp), %r8d
movl 56(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 52(%rsp), %r8d
movl %r8d, 116(%rsp)
movl 112(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 92(%rsp), %r8d
movl 60(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 56(%rsp), %r8d
movl %r8d, 120(%rsp)
movl 116(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 96(%rsp), %r8d
movl 64(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 60(%rsp), %r8d
movl %r8d, 124(%rsp)
movl 120(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 100(%rsp), %r8d
movl 68(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 64(%rsp), %r8d
movl %r8d, 128(%rsp)
movl 124(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 104(%rsp), %r8d
movl 72(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 68(%rsp), %r8d
movl %r8d, 132(%rsp)
movl 128(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 108(%rsp), %r8d
movl 76(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 72(%rsp), %r8d
movl %r8d, 136(%rsp)
movl 132(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 112(%rsp), %r8d
movl 80(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 76(%rsp), %r8d
movl %r8d, 140(%rsp)
movl 136(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 116(%rsp), %r8d
movl 84(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 80(%rsp), %r8d
movl %r8d, 144(%rsp)
movl 140(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 120(%rsp), %r8d
movl 88(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 84(%rsp), %r8d
movl %r8d, 148(%rsp)
movl 144(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 124(%rsp), %r8d
movl 92(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 88(%rsp), %r8d
movl %r8d, 152(%rsp)
movl 148(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 128(%rsp), %r8d
movl 96(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 92(%rsp), %r8d
movl %r8d, 156(%rsp)
movl 152(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 132(%rsp), %r8d
movl 100(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 96(%rsp), %r8d
movl %r8d, 160(%rsp)
movl 156(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 136(%rsp), %r8d
movl 104(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 100(%rsp), %r8d
movl %r8d, 164(%rsp)
movl 160(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 140(%rsp), %r8d
movl 108(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 104(%rsp), %r8d
movl %r8d, 168(%rsp)
movl 164(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 144(%rsp), %r8d
movl 112(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 108(%rsp), %r8d
movl %r8d, 172(%rsp)
movl 168(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 148(%rsp), %r8d
movl 116(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 112(%rsp), %r8d
movl %r8d, 176(%rsp)
movl 172(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 152(%rsp), %r8d
movl 120(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 116(%rsp), %r8d
movl %r8d, 180(%rsp)
movl 176(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 156(%rsp), %r8d
movl 124(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 120(%rsp), %r8d
movl %r8d, 184(%rsp)
movl 180(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 160(%rsp), %r8d
movl 128(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 124(%rsp), %r8d
movl %r8d, 188(%rsp)
movl 184(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 164(%rsp), %r8d
movl 132(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 128(%rsp), %r8d
movl %r8d, 192(%rsp)
movl 188(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 168(%rsp), %r8d
movl 136(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 132(%rsp), %r8d
movl %r8d, 196(%rsp)
movl 192(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 172(%rsp), %r8d
movl 140(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 136(%rsp), %r8d
movl %r8d, 200(%rsp)
movl 196(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 176(%rsp), %r8d
movl 144(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 140(%rsp), %r8d
movl %r8d, 204(%rsp)
movl 200(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 180(%rsp), %r8d
movl 148(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 144(%rsp), %r8d
movl %r8d, 208(%rsp)
movl 204(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 184(%rsp), %r8d
movl 152(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 148(%rsp), %r8d
movl %r8d, 212(%rsp)
movl 208(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 188(%rsp), %r8d
movl 156(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 152(%rsp), %r8d
movl %r8d, 216(%rsp)
movl 212(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 192(%rsp), %r8d
movl 160(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 156(%rsp), %r8d
movl %r8d, 220(%rsp)
movl 216(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 196(%rsp), %r8d
movl 164(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 160(%rsp), %r8d
movl %r8d, 224(%rsp)
movl 220(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 200(%rsp), %r8d
movl 168(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 164(%rsp), %r8d
movl %r8d, 228(%rsp)
movl 224(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 204(%rsp), %r8d
movl 172(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 168(%rsp), %r8d
movl %r8d, 232(%rsp)
movl 228(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 208(%rsp), %r8d
movl 176(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 172(%rsp), %r8d
movl %r8d, 236(%rsp)
movl 232(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 212(%rsp), %r8d
movl 180(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 176(%rsp), %r8d
movl %r8d, 240(%rsp)
movl 236(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 216(%rsp), %r8d
movl 184(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 180(%rsp), %r8d
movl %r8d, 244(%rsp)
movl 240(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 220(%rsp), %r8d
movl 188(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 184(%rsp), %r8d
movl %r8d, 248(%rsp)
movl 244(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 224(%rsp), %r8d
movl 192(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 188(%rsp), %r8d
movl %r8d, 252(%rsp)
movl 248(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 228(%rsp), %r8d
movl 196(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 192(%rsp), %r8d
movl %r8d, 256(%rsp)
movl 252(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 232(%rsp), %r8d
movl 200(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 196(%rsp), %r8d
movl %r8d, 260(%rsp)
movl 256(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 236(%rsp), %r8d
movl 204(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 200(%rsp), %r8d
movl %r8d, 264(%rsp)
movl 260(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 240(%rsp), %r8d
movl 208(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 204(%rsp), %r8d
movl %r8d, 268(%rsp)
movl 264(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 244(%rsp), %r8d
movl 212(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 208(%rsp), %r8d
movl %r8d, 272(%rsp)
movl 268(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 248(%rsp), %r8d
movl 216(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 212(%rsp), %r8d
movl %r8d, 276(%rsp)
movl (%rdi), %r14d
movl 4(%rdi), %esi
movl 8(%rdi), %r8d
movl 12(%rdi), %r9d
movl 16(%rdi), %r13d
movl 20(%rdi), %r10d
movl 24(%rdi), %r11d
movl 28(%rdi), %r12d
movq %rdi, 16(%rsp)
movq $0, %rdi
jmp L_blocks_1_ref$4
L_blocks_1_ref$5:
movl %r12d, %ebx
movl %r13d, %ebp
rorl $6, %ebp
movl %r13d, %r12d
rorl $11, %r12d
xorl %r12d, %ebp
movl %r13d, %r12d
rorl $25, %r12d
xorl %r12d, %ebp
addl %ebp, %ebx
movl %r13d, %ebp
andl %r10d, %ebp
movl %r13d, %r12d
notl %r12d
andl %r11d, %r12d
xorl %r12d, %ebp
addl %ebp, %ebx
addl (%rcx,%rdi,4), %ebx
addl 24(%rsp,%rdi,4), %ebx
movl %r14d, %ebp
rorl $2, %ebp
movl %r14d, %r12d
rorl $13, %r12d
xorl %r12d, %ebp
movl %r14d, %r12d
rorl $22, %r12d
xorl %r12d, %ebp
movl %r14d, %r12d
andl %esi, %r12d
movl %r14d, %r15d
andl %r8d, %r15d
xorl %r15d, %r12d
movl %esi, %r15d
andl %r8d, %r15d
xorl %r15d, %r12d
addl %r12d, %ebp
movl %r11d, %r12d
movl %r10d, %r11d
movl %r13d, %r10d
movl %r9d, %r13d
addl %ebx, %r13d
movl %r8d, %r9d
movl %esi, %r8d
movl %r14d, %esi
movl %ebx, %r14d
addl %ebp, %r14d
incq %rdi
L_blocks_1_ref$4:
cmpq $64, %rdi
jb L_blocks_1_ref$5
movq 16(%rsp), %rdi
addl (%rdi), %r14d
addl 4(%rdi), %esi
addl 8(%rdi), %r8d
addl 12(%rdi), %r9d
addl 16(%rdi), %r13d
addl 20(%rdi), %r10d
addl 24(%rdi), %r11d
addl 28(%rdi), %r12d
movl %r14d, (%rdi)
movl %esi, 4(%rdi)
movl %r8d, 8(%rdi)
movl %r9d, 12(%rdi)
movl %r13d, 16(%rdi)
movl %r10d, 20(%rdi)
movl %r11d, 24(%rdi)
movl %r12d, 28(%rdi)
movq 8(%rsp), %r8
movq (%rsp), %rsi
addq $-1, %rax
L_blocks_1_ref$2:
cmpq $0, %rax
jnbe L_blocks_1_ref$3
jmp *%rdx
L_blocks_0_ref$1:
leaq glob_data + 0(%rip), %rax
movq %rdi, (%rsp)
movq (%rsp), %rdi
jmp L_blocks_0_ref$2
L_blocks_0_ref$3:
movl (%rsi), %r8d
bswapl %r8d
movl %r8d, 16(%rsp)
movl 4(%rsi), %r8d
bswapl %r8d
movl %r8d, 20(%rsp)
movl 8(%rsi), %r8d
bswapl %r8d
movl %r8d, 24(%rsp)
movl 12(%rsi), %r8d
bswapl %r8d
movl %r8d, 28(%rsp)
movl 16(%rsi), %r8d
bswapl %r8d
movl %r8d, 32(%rsp)
movl 20(%rsi), %r8d
bswapl %r8d
movl %r8d, 36(%rsp)
movl 24(%rsi), %r8d
bswapl %r8d
movl %r8d, 40(%rsp)
movl 28(%rsi), %r8d
bswapl %r8d
movl %r8d, 44(%rsp)
movl 32(%rsi), %r8d
bswapl %r8d
movl %r8d, 48(%rsp)
movl 36(%rsi), %r8d
bswapl %r8d
movl %r8d, 52(%rsp)
movl 40(%rsi), %r8d
bswapl %r8d
movl %r8d, 56(%rsp)
movl 44(%rsi), %r8d
bswapl %r8d
movl %r8d, 60(%rsp)
movl 48(%rsi), %r8d
bswapl %r8d
movl %r8d, 64(%rsp)
movl 52(%rsi), %r8d
bswapl %r8d
movl %r8d, 68(%rsp)
movl 56(%rsi), %r8d
bswapl %r8d
movl %r8d, 72(%rsp)
movl 60(%rsi), %r8d
bswapl %r8d
movl %r8d, 76(%rsp)
movq %rsi, (%rsp)
movl 72(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 52(%rsp), %r8d
movl 20(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 16(%rsp), %r8d
movl %r8d, 80(%rsp)
movl 76(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 56(%rsp), %r8d
movl 24(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 20(%rsp), %r8d
movl %r8d, 84(%rsp)
movl 80(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 60(%rsp), %r8d
movl 28(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 24(%rsp), %r8d
movl %r8d, 88(%rsp)
movl 84(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 64(%rsp), %r8d
movl 32(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 28(%rsp), %r8d
movl %r8d, 92(%rsp)
movl 88(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 68(%rsp), %r8d
movl 36(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 32(%rsp), %r8d
movl %r8d, 96(%rsp)
movl 92(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 72(%rsp), %r8d
movl 40(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 36(%rsp), %r8d
movl %r8d, 100(%rsp)
movl 96(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 76(%rsp), %r8d
movl 44(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 40(%rsp), %r8d
movl %r8d, 104(%rsp)
movl 100(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 80(%rsp), %r8d
movl 48(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 44(%rsp), %r8d
movl %r8d, 108(%rsp)
movl 104(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 84(%rsp), %r8d
movl 52(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 48(%rsp), %r8d
movl %r8d, 112(%rsp)
movl 108(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 88(%rsp), %r8d
movl 56(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 52(%rsp), %r8d
movl %r8d, 116(%rsp)
movl 112(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 92(%rsp), %r8d
movl 60(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 56(%rsp), %r8d
movl %r8d, 120(%rsp)
movl 116(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 96(%rsp), %r8d
movl 64(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 60(%rsp), %r8d
movl %r8d, 124(%rsp)
movl 120(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 100(%rsp), %r8d
movl 68(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 64(%rsp), %r8d
movl %r8d, 128(%rsp)
movl 124(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 104(%rsp), %r8d
movl 72(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 68(%rsp), %r8d
movl %r8d, 132(%rsp)
movl 128(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 108(%rsp), %r8d
movl 76(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 72(%rsp), %r8d
movl %r8d, 136(%rsp)
movl 132(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 112(%rsp), %r8d
movl 80(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 76(%rsp), %r8d
movl %r8d, 140(%rsp)
movl 136(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 116(%rsp), %r8d
movl 84(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 80(%rsp), %r8d
movl %r8d, 144(%rsp)
movl 140(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 120(%rsp), %r8d
movl 88(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 84(%rsp), %r8d
movl %r8d, 148(%rsp)
movl 144(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 124(%rsp), %r8d
movl 92(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 88(%rsp), %r8d
movl %r8d, 152(%rsp)
movl 148(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 128(%rsp), %r8d
movl 96(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 92(%rsp), %r8d
movl %r8d, 156(%rsp)
movl 152(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 132(%rsp), %r8d
movl 100(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 96(%rsp), %r8d
movl %r8d, 160(%rsp)
movl 156(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 136(%rsp), %r8d
movl 104(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 100(%rsp), %r8d
movl %r8d, 164(%rsp)
movl 160(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 140(%rsp), %r8d
movl 108(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 104(%rsp), %r8d
movl %r8d, 168(%rsp)
movl 164(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 144(%rsp), %r8d
movl 112(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 108(%rsp), %r8d
movl %r8d, 172(%rsp)
movl 168(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 148(%rsp), %r8d
movl 116(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 112(%rsp), %r8d
movl %r8d, 176(%rsp)
movl 172(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 152(%rsp), %r8d
movl 120(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 116(%rsp), %r8d
movl %r8d, 180(%rsp)
movl 176(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 156(%rsp), %r8d
movl 124(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 120(%rsp), %r8d
movl %r8d, 184(%rsp)
movl 180(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 160(%rsp), %r8d
movl 128(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 124(%rsp), %r8d
movl %r8d, 188(%rsp)
movl 184(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 164(%rsp), %r8d
movl 132(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 128(%rsp), %r8d
movl %r8d, 192(%rsp)
movl 188(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 168(%rsp), %r8d
movl 136(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 132(%rsp), %r8d
movl %r8d, 196(%rsp)
movl 192(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 172(%rsp), %r8d
movl 140(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 136(%rsp), %r8d
movl %r8d, 200(%rsp)
movl 196(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 176(%rsp), %r8d
movl 144(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 140(%rsp), %r8d
movl %r8d, 204(%rsp)
movl 200(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 180(%rsp), %r8d
movl 148(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 144(%rsp), %r8d
movl %r8d, 208(%rsp)
movl 204(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 184(%rsp), %r8d
movl 152(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 148(%rsp), %r8d
movl %r8d, 212(%rsp)
movl 208(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 188(%rsp), %r8d
movl 156(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 152(%rsp), %r8d
movl %r8d, 216(%rsp)
movl 212(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 192(%rsp), %r8d
movl 160(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 156(%rsp), %r8d
movl %r8d, 220(%rsp)
movl 216(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 196(%rsp), %r8d
movl 164(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 160(%rsp), %r8d
movl %r8d, 224(%rsp)
movl 220(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 200(%rsp), %r8d
movl 168(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 164(%rsp), %r8d
movl %r8d, 228(%rsp)
movl 224(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 204(%rsp), %r8d
movl 172(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 168(%rsp), %r8d
movl %r8d, 232(%rsp)
movl 228(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 208(%rsp), %r8d
movl 176(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 172(%rsp), %r8d
movl %r8d, 236(%rsp)
movl 232(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 212(%rsp), %r8d
movl 180(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 176(%rsp), %r8d
movl %r8d, 240(%rsp)
movl 236(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 216(%rsp), %r8d
movl 184(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 180(%rsp), %r8d
movl %r8d, 244(%rsp)
movl 240(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 220(%rsp), %r8d
movl 188(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 184(%rsp), %r8d
movl %r8d, 248(%rsp)
movl 244(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 224(%rsp), %r8d
movl 192(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 188(%rsp), %r8d
movl %r8d, 252(%rsp)
movl 248(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 228(%rsp), %r8d
movl 196(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 192(%rsp), %r8d
movl %r8d, 256(%rsp)
movl 252(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 232(%rsp), %r8d
movl 200(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 196(%rsp), %r8d
movl %r8d, 260(%rsp)
movl 256(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 236(%rsp), %r8d
movl 204(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 200(%rsp), %r8d
movl %r8d, 264(%rsp)
movl 260(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 240(%rsp), %r8d
movl 208(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 204(%rsp), %r8d
movl %r8d, 268(%rsp)
movl (%rdi), %r14d
movl 4(%rdi), %esi
movl 8(%rdi), %r8d
movl 12(%rdi), %r9d
movl 16(%rdi), %r13d
movl 20(%rdi), %r10d
movl 24(%rdi), %r11d
movl 28(%rdi), %r12d
movq %rdi, 8(%rsp)
movq $0, %rdi
jmp L_blocks_0_ref$4
L_blocks_0_ref$5:
movl %r12d, %ebx
movl %r13d, %ebp
rorl $6, %ebp
movl %r13d, %r12d
rorl $11, %r12d
xorl %r12d, %ebp
movl %r13d, %r12d
rorl $25, %r12d
xorl %r12d, %ebp
addl %ebp, %ebx
movl %r13d, %ebp
andl %r10d, %ebp
movl %r13d, %r12d
notl %r12d
andl %r11d, %r12d
xorl %r12d, %ebp
addl %ebp, %ebx
addl (%rax,%rdi,4), %ebx
addl 16(%rsp,%rdi,4), %ebx
movl %r14d, %ebp
rorl $2, %ebp
movl %r14d, %r12d
rorl $13, %r12d
xorl %r12d, %ebp
movl %r14d, %r12d
rorl $22, %r12d
xorl %r12d, %ebp
movl %r14d, %r12d
andl %esi, %r12d
movl %r14d, %r15d
andl %r8d, %r15d
xorl %r15d, %r12d
movl %esi, %r15d
andl %r8d, %r15d
xorl %r15d, %r12d
addl %r12d, %ebp
movl %r11d, %r12d
movl %r10d, %r11d
movl %r13d, %r10d
movl %r9d, %r13d
addl %ebx, %r13d
movl %r8d, %r9d
movl %esi, %r8d
movl %r14d, %esi
movl %ebx, %r14d
addl %ebp, %r14d
incq %rdi
L_blocks_0_ref$4:
cmpq $64, %rdi
jb L_blocks_0_ref$5
movq 8(%rsp), %rdi
addl (%rdi), %r14d
addl 4(%rdi), %esi
addl 8(%rdi), %r8d
addl 12(%rdi), %r9d
addl 16(%rdi), %r13d
addl 20(%rdi), %r10d
addl 24(%rdi), %r11d
addl 28(%rdi), %r12d
movl %r14d, (%rdi)
movl %esi, 4(%rdi)
movl %r8d, 8(%rdi)
movl %r9d, 12(%rdi)
movl %r13d, 16(%rdi)
movl %r10d, 20(%rdi)
movl %r11d, 24(%rdi)
movl %r12d, 28(%rdi)
movq (%rsp), %rsi
addq $64, %rsi
addq $-64, %rdx
L_blocks_0_ref$2:
cmpq $64, %rdx
jnb L_blocks_0_ref$3
movq %rdi, %r9
jmp *%rcx
.data
.p2align 5
_glob_data:
glob_data:
.byte -104
.byte 47
.byte -118
.byte 66
.byte -111
.byte 68
.byte 55
.byte 113
.byte -49
.byte -5
.byte -64
.byte -75
.byte -91
.byte -37
.byte -75
.byte -23
.byte 91
.byte -62
.byte 86
.byte 57
.byte -15
.byte 17
.byte -15
.byte 89
.byte -92
.byte -126
.byte 63
.byte -110
.byte -43
.byte 94
.byte 28
.byte -85
.byte -104
.byte -86
.byte 7
.byte -40
.byte 1
.byte 91
.byte -125
.byte 18
.byte -66
.byte -123
.byte 49
.byte 36
.byte -61
.byte 125
.byte 12
.byte 85
.byte 116
.byte 93
.byte -66
.byte 114
.byte -2
.byte -79
.byte -34
.byte -128
.byte -89
.byte 6
.byte -36
.byte -101
.byte 116
.byte -15
.byte -101
.byte -63
.byte -63
.byte 105
.byte -101
.byte -28
.byte -122
.byte 71
.byte -66
.byte -17
.byte -58
.byte -99
.byte -63
.byte 15
.byte -52
.byte -95
.byte 12
.byte 36
.byte 111
.byte 44
.byte -23
.byte 45
.byte -86
.byte -124
.byte 116
.byte 74
.byte -36
.byte -87
.byte -80
.byte 92
.byte -38
.byte -120
.byte -7
.byte 118
.byte 82
.byte 81
.byte 62
.byte -104
.byte 109
.byte -58
.byte 49
.byte -88
.byte -56
.byte 39
.byte 3
.byte -80
.byte -57
.byte 127
.byte 89
.byte -65
.byte -13
.byte 11
.byte -32
.byte -58
.byte 71
.byte -111
.byte -89
.byte -43
.byte 81
.byte 99
.byte -54
.byte 6
.byte 103
.byte 41
.byte 41
.byte 20
.byte -123
.byte 10
.byte -73
.byte 39
.byte 56
.byte 33
.byte 27
.byte 46
.byte -4
.byte 109
.byte 44
.byte 77
.byte 19
.byte 13
.byte 56
.byte 83
.byte 84
.byte 115
.byte 10
.byte 101
.byte -69
.byte 10
.byte 106
.byte 118
.byte 46
.byte -55
.byte -62
.byte -127
.byte -123
.byte 44
.byte 114
.byte -110
.byte -95
.byte -24
.byte -65
.byte -94
.byte 75
.byte 102
.byte 26
.byte -88
.byte 112
.byte -117
.byte 75
.byte -62
.byte -93
.byte 81
.byte 108
.byte -57
.byte 25
.byte -24
.byte -110
.byte -47
.byte 36
.byte 6
.byte -103
.byte -42
.byte -123
.byte 53
.byte 14
.byte -12
.byte 112
.byte -96
.byte 106
.byte 16
.byte 22
.byte -63
.byte -92
.byte 25
.byte 8
.byte 108
.byte 55
.byte 30
.byte 76
.byte 119
.byte 72
.byte 39
.byte -75
.byte -68
.byte -80
.byte 52
.byte -77
.byte 12
.byte 28
.byte 57
.byte 74
.byte -86
.byte -40
.byte 78
.byte 79
.byte -54
.byte -100
.byte 91
.byte -13
.byte 111
.byte 46
.byte 104
.byte -18
.byte -126
.byte -113
.byte 116
.byte 111
.byte 99
.byte -91
.byte 120
.byte 20
.byte 120
.byte -56
.byte -124
.byte 8
.byte 2
.byte -57
.byte -116
.byte -6
.byte -1
.byte -66
.byte -112
.byte -21
.byte 108
.byte 80
.byte -92
.byte -9
.byte -93
.byte -7
.byte -66
.byte -14
.byte 120
.byte 113
.byte -58
|
usenix-security-verdict/verdict
| 34,209
|
deps/libcrux/sys/libjade/jazz/sha3_256_avx2.s
|
.att_syntax
.text
.p2align 5
.globl _jade_hash_sha3_256_amd64_avx2
.globl jade_hash_sha3_256_amd64_avx2
_jade_hash_sha3_256_amd64_avx2:
jade_hash_sha3_256_amd64_avx2:
movq %rsp, %rax
leaq -40(%rsp), %rsp
andq $-32, %rsp
movq %rax, 32(%rsp)
movq %rbx, (%rsp)
movq %rbp, 8(%rsp)
movq %r12, 16(%rsp)
movq %r13, 24(%rsp)
movq $32, %r9
movb $6, %al
movq $136, %rcx
leaq -224(%rsp), %rsp
leaq Ljade_hash_sha3_256_amd64_avx2$1(%rip), %r10
jmp L_keccak1600_avx2$1
Ljade_hash_sha3_256_amd64_avx2$1:
leaq 224(%rsp), %rsp
xorq %rax, %rax
movq (%rsp), %rbx
movq 8(%rsp), %rbp
movq 16(%rsp), %r12
movq 24(%rsp), %r13
movq 32(%rsp), %rsp
ret
L_keccak1600_avx2$1:
vpxor %ymm6, %ymm6, %ymm6
vpxor %ymm3, %ymm3, %ymm3
vpxor %ymm4, %ymm4, %ymm4
vpxor %ymm0, %ymm0, %ymm0
vpxor %ymm5, %ymm5, %ymm5
vpxor %ymm1, %ymm1, %ymm1
vpxor %ymm2, %ymm2, %ymm2
leaq glob_data + 1152(%rip), %r8
vpxor %ymm7, %ymm7, %ymm7
vmovdqu %ymm7, (%rsp)
vmovdqu %ymm7, 32(%rsp)
vmovdqu %ymm7, 64(%rsp)
vmovdqu %ymm7, 96(%rsp)
vmovdqu %ymm7, 128(%rsp)
vmovdqu %ymm7, 160(%rsp)
vmovdqu %ymm7, 192(%rsp)
jmp L_keccak1600_avx2$16
L_keccak1600_avx2$17:
movq %rcx, %r11
shrq $3, %r11
movq $0, %rbx
jmp L_keccak1600_avx2$19
L_keccak1600_avx2$20:
movq (%rsi,%rbx,8), %rbp
movq (%r8,%rbx,8), %r12
movq %rbp, (%rsp,%r12,8)
incq %rbx
L_keccak1600_avx2$19:
cmpq %r11, %rbx
jb L_keccak1600_avx2$20
movq (%rsp), %r11
movq %r11, 8(%rsp)
movq %r11, 16(%rsp)
movq %r11, 24(%rsp)
vpxor (%rsp), %ymm6, %ymm6
vpxor 32(%rsp), %ymm3, %ymm3
vpxor 64(%rsp), %ymm4, %ymm4
vpxor 96(%rsp), %ymm0, %ymm0
vpxor 128(%rsp), %ymm5, %ymm5
vpxor 160(%rsp), %ymm1, %ymm1
vpxor 192(%rsp), %ymm2, %ymm2
addq %rcx, %rsi
subq %rcx, %rdx
leaq glob_data + 384(%rip), %r11
movq $0, %rbx
leaq glob_data + 192(%rip), %rbp
leaq glob_data + 0(%rip), %r12
movq $24, %r13
L_keccak1600_avx2$18:
vpshufd $78, %ymm4, %ymm8
vpxor %ymm0, %ymm1, %ymm7
vpxor %ymm2, %ymm5, %ymm9
vpxor %ymm3, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm4, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm4, %ymm4
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rbp), %ymm4, %ymm7
vpsrlvq (%r12), %ymm4, %ymm4
vpor %ymm7, %ymm4, %ymm4
vpxor %ymm9, %ymm0, %ymm0
vpsllvq 64(%rbp), %ymm0, %ymm7
vpsrlvq 64(%r12), %ymm0, %ymm0
vpor %ymm7, %ymm0, %ymm0
vpxor %ymm9, %ymm5, %ymm5
vpsllvq 96(%rbp), %ymm5, %ymm7
vpsrlvq 96(%r12), %ymm5, %ymm5
vpor %ymm7, %ymm5, %ymm10
vpxor %ymm9, %ymm1, %ymm1
vpsllvq 128(%rbp), %ymm1, %ymm5
vpsrlvq 128(%r12), %ymm1, %ymm1
vpor %ymm5, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpermq $-115, %ymm4, %ymm5
vpermq $-115, %ymm0, %ymm7
vpsllvq 160(%rbp), %ymm2, %ymm0
vpsrlvq 160(%r12), %ymm2, %ymm2
vpor %ymm0, %ymm2, %ymm8
vpxor %ymm9, %ymm3, %ymm0
vpermq $27, %ymm10, %ymm3
vpermq $114, %ymm1, %ymm9
vpsllvq 32(%rbp), %ymm0, %ymm1
vpsrlvq 32(%r12), %ymm0, %ymm0
vpor %ymm1, %ymm0, %ymm10
vpsrldq $8, %ymm8, %ymm0
vpandn %ymm0, %ymm8, %ymm0
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm2
vpblendd $12, %ymm7, %ymm5, %ymm4
vpblendd $12, %ymm5, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm2, %ymm2
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm2, %ymm2
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm2, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm2
vpblendd $12, %ymm10, %ymm3, %ymm4
vpblendd $12, %ymm3, %ymm5, %ymm11
vpxor %ymm5, %ymm1, %ymm1
vpblendd $48, %ymm5, %ymm4, %ymm4
vpblendd $48, %ymm7, %ymm11, %ymm11
vpxor %ymm3, %ymm2, %ymm2
vpblendd $-64, %ymm7, %ymm4, %ymm4
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm4, %ymm4
vpxor %ymm9, %ymm4, %ymm12
vpermq $30, %ymm8, %ymm4
vpblendd $48, %ymm6, %ymm4, %ymm4
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm4, %ymm11, %ymm11
vpblendd $12, %ymm3, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm4, %ymm4
vpblendd $48, %ymm5, %ymm13, %ymm13
vpblendd $-64, %ymm5, %ymm4, %ymm4
vpblendd $-64, %ymm3, %ymm13, %ymm13
vpandn %ymm13, %ymm4, %ymm4
vpxor %ymm10, %ymm4, %ymm4
vpermq $0, %ymm0, %ymm13
vpermq $27, %ymm1, %ymm0
vpermq $-115, %ymm2, %ymm1
vpermq $114, %ymm12, %ymm2
vpblendd $12, %ymm5, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm3, %ymm9
vpblendd $48, %ymm3, %ymm12, %ymm3
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm3, %ymm3
vpblendd $-64, %ymm5, %ymm9, %ymm5
vpandn %ymm5, %ymm3, %ymm5
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm3
vpxor %ymm7, %ymm5, %ymm5
vpxor (%r11,%rbx), %ymm6, %ymm6
addq $32, %rbx
decq %r13
jne L_keccak1600_avx2$18
L_keccak1600_avx2$16:
cmpq %rcx, %rdx
jnb L_keccak1600_avx2$17
vpxor %ymm7, %ymm7, %ymm7
vmovdqu %ymm7, (%rsp)
vmovdqu %ymm7, 32(%rsp)
vmovdqu %ymm7, 64(%rsp)
vmovdqu %ymm7, 96(%rsp)
vmovdqu %ymm7, 128(%rsp)
vmovdqu %ymm7, 160(%rsp)
vmovdqu %ymm7, 192(%rsp)
movq %rdx, %r11
shrq $3, %r11
movq $0, %rbx
jmp L_keccak1600_avx2$14
L_keccak1600_avx2$15:
movq (%rsi,%rbx,8), %rbp
movq (%r8,%rbx,8), %r12
movq %rbp, (%rsp,%r12,8)
incq %rbx
L_keccak1600_avx2$14:
cmpq %r11, %rbx
jb L_keccak1600_avx2$15
movq (%r8,%rbx,8), %r11
shlq $3, %r11
shlq $3, %rbx
jmp L_keccak1600_avx2$12
L_keccak1600_avx2$13:
movb (%rsi,%rbx), %bpl
movb %bpl, (%rsp,%r11)
incq %rbx
incq %r11
L_keccak1600_avx2$12:
cmpq %rdx, %rbx
jb L_keccak1600_avx2$13
movb %al, (%rsp,%r11)
movq %rcx, %rax
addq $-1, %rax
shrq $3, %rax
movq (%r8,%rax,8), %rax
shlq $3, %rax
movq %rcx, %rdx
addq $-1, %rdx
andq $7, %rdx
addq %rdx, %rax
xorb $-128, (%rsp,%rax)
movq (%rsp), %rax
movq %rax, 8(%rsp)
movq %rax, 16(%rsp)
movq %rax, 24(%rsp)
vpxor (%rsp), %ymm6, %ymm6
vpxor 32(%rsp), %ymm3, %ymm3
vpxor 64(%rsp), %ymm4, %ymm4
vpxor 96(%rsp), %ymm0, %ymm0
vpxor 128(%rsp), %ymm5, %ymm5
vpxor 160(%rsp), %ymm1, %ymm1
vpxor 192(%rsp), %ymm2, %ymm2
leaq glob_data + 1152(%rip), %rax
jmp L_keccak1600_avx2$7
L_keccak1600_avx2$8:
leaq glob_data + 384(%rip), %rdx
movq $0, %rsi
leaq glob_data + 192(%rip), %r8
leaq glob_data + 0(%rip), %r11
movq $24, %rbx
L_keccak1600_avx2$11:
vpshufd $78, %ymm4, %ymm8
vpxor %ymm0, %ymm1, %ymm7
vpxor %ymm2, %ymm5, %ymm9
vpxor %ymm3, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm4, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm4, %ymm4
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%r8), %ymm4, %ymm7
vpsrlvq (%r11), %ymm4, %ymm4
vpor %ymm7, %ymm4, %ymm4
vpxor %ymm9, %ymm0, %ymm0
vpsllvq 64(%r8), %ymm0, %ymm7
vpsrlvq 64(%r11), %ymm0, %ymm0
vpor %ymm7, %ymm0, %ymm0
vpxor %ymm9, %ymm5, %ymm5
vpsllvq 96(%r8), %ymm5, %ymm7
vpsrlvq 96(%r11), %ymm5, %ymm5
vpor %ymm7, %ymm5, %ymm10
vpxor %ymm9, %ymm1, %ymm1
vpsllvq 128(%r8), %ymm1, %ymm5
vpsrlvq 128(%r11), %ymm1, %ymm1
vpor %ymm5, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpermq $-115, %ymm4, %ymm5
vpermq $-115, %ymm0, %ymm7
vpsllvq 160(%r8), %ymm2, %ymm0
vpsrlvq 160(%r11), %ymm2, %ymm2
vpor %ymm0, %ymm2, %ymm8
vpxor %ymm9, %ymm3, %ymm0
vpermq $27, %ymm10, %ymm3
vpermq $114, %ymm1, %ymm9
vpsllvq 32(%r8), %ymm0, %ymm1
vpsrlvq 32(%r11), %ymm0, %ymm0
vpor %ymm1, %ymm0, %ymm10
vpsrldq $8, %ymm8, %ymm0
vpandn %ymm0, %ymm8, %ymm0
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm2
vpblendd $12, %ymm7, %ymm5, %ymm4
vpblendd $12, %ymm5, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm2, %ymm2
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm2, %ymm2
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm2, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm2
vpblendd $12, %ymm10, %ymm3, %ymm4
vpblendd $12, %ymm3, %ymm5, %ymm11
vpxor %ymm5, %ymm1, %ymm1
vpblendd $48, %ymm5, %ymm4, %ymm4
vpblendd $48, %ymm7, %ymm11, %ymm11
vpxor %ymm3, %ymm2, %ymm2
vpblendd $-64, %ymm7, %ymm4, %ymm4
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm4, %ymm4
vpxor %ymm9, %ymm4, %ymm12
vpermq $30, %ymm8, %ymm4
vpblendd $48, %ymm6, %ymm4, %ymm4
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm4, %ymm11, %ymm11
vpblendd $12, %ymm3, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm4, %ymm4
vpblendd $48, %ymm5, %ymm13, %ymm13
vpblendd $-64, %ymm5, %ymm4, %ymm4
vpblendd $-64, %ymm3, %ymm13, %ymm13
vpandn %ymm13, %ymm4, %ymm4
vpxor %ymm10, %ymm4, %ymm4
vpermq $0, %ymm0, %ymm13
vpermq $27, %ymm1, %ymm0
vpermq $-115, %ymm2, %ymm1
vpermq $114, %ymm12, %ymm2
vpblendd $12, %ymm5, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm3, %ymm9
vpblendd $48, %ymm3, %ymm12, %ymm3
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm3, %ymm3
vpblendd $-64, %ymm5, %ymm9, %ymm5
vpandn %ymm5, %ymm3, %ymm5
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm3
vpxor %ymm7, %ymm5, %ymm5
vpxor (%rdx,%rsi), %ymm6, %ymm6
addq $32, %rsi
decq %rbx
jne L_keccak1600_avx2$11
vmovdqu %ymm6, (%rsp)
vmovdqu %ymm3, 32(%rsp)
vmovdqu %ymm4, 64(%rsp)
vmovdqu %ymm0, 96(%rsp)
vmovdqu %ymm5, 128(%rsp)
vmovdqu %ymm1, 160(%rsp)
vmovdqu %ymm2, 192(%rsp)
movq %rcx, %rdx
shrq $3, %rdx
movq $0, %rsi
jmp L_keccak1600_avx2$9
L_keccak1600_avx2$10:
movq (%rax,%rsi,8), %r8
movq (%rsp,%r8,8), %r8
movq %r8, (%rdi,%rsi,8)
incq %rsi
L_keccak1600_avx2$9:
cmpq %rdx, %rsi
jb L_keccak1600_avx2$10
addq %rcx, %rdi
subq %rcx, %r9
L_keccak1600_avx2$7:
cmpq %rcx, %r9
jnbe L_keccak1600_avx2$8
leaq glob_data + 384(%rip), %rcx
movq $0, %rdx
leaq glob_data + 192(%rip), %rsi
leaq glob_data + 0(%rip), %r8
movq $24, %r11
L_keccak1600_avx2$6:
vpshufd $78, %ymm4, %ymm8
vpxor %ymm0, %ymm1, %ymm7
vpxor %ymm2, %ymm5, %ymm9
vpxor %ymm3, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm4, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm4, %ymm4
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm4, %ymm7
vpsrlvq (%r8), %ymm4, %ymm4
vpor %ymm7, %ymm4, %ymm4
vpxor %ymm9, %ymm0, %ymm0
vpsllvq 64(%rsi), %ymm0, %ymm7
vpsrlvq 64(%r8), %ymm0, %ymm0
vpor %ymm7, %ymm0, %ymm0
vpxor %ymm9, %ymm5, %ymm5
vpsllvq 96(%rsi), %ymm5, %ymm7
vpsrlvq 96(%r8), %ymm5, %ymm5
vpor %ymm7, %ymm5, %ymm10
vpxor %ymm9, %ymm1, %ymm1
vpsllvq 128(%rsi), %ymm1, %ymm5
vpsrlvq 128(%r8), %ymm1, %ymm1
vpor %ymm5, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpermq $-115, %ymm4, %ymm5
vpermq $-115, %ymm0, %ymm7
vpsllvq 160(%rsi), %ymm2, %ymm0
vpsrlvq 160(%r8), %ymm2, %ymm2
vpor %ymm0, %ymm2, %ymm8
vpxor %ymm9, %ymm3, %ymm0
vpermq $27, %ymm10, %ymm3
vpermq $114, %ymm1, %ymm9
vpsllvq 32(%rsi), %ymm0, %ymm1
vpsrlvq 32(%r8), %ymm0, %ymm0
vpor %ymm1, %ymm0, %ymm10
vpsrldq $8, %ymm8, %ymm0
vpandn %ymm0, %ymm8, %ymm0
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm2
vpblendd $12, %ymm7, %ymm5, %ymm4
vpblendd $12, %ymm5, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm2, %ymm2
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm2, %ymm2
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm2, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm2
vpblendd $12, %ymm10, %ymm3, %ymm4
vpblendd $12, %ymm3, %ymm5, %ymm11
vpxor %ymm5, %ymm1, %ymm1
vpblendd $48, %ymm5, %ymm4, %ymm4
vpblendd $48, %ymm7, %ymm11, %ymm11
vpxor %ymm3, %ymm2, %ymm2
vpblendd $-64, %ymm7, %ymm4, %ymm4
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm4, %ymm4
vpxor %ymm9, %ymm4, %ymm12
vpermq $30, %ymm8, %ymm4
vpblendd $48, %ymm6, %ymm4, %ymm4
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm4, %ymm11, %ymm11
vpblendd $12, %ymm3, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm4, %ymm4
vpblendd $48, %ymm5, %ymm13, %ymm13
vpblendd $-64, %ymm5, %ymm4, %ymm4
vpblendd $-64, %ymm3, %ymm13, %ymm13
vpandn %ymm13, %ymm4, %ymm4
vpxor %ymm10, %ymm4, %ymm4
vpermq $0, %ymm0, %ymm13
vpermq $27, %ymm1, %ymm0
vpermq $-115, %ymm2, %ymm1
vpermq $114, %ymm12, %ymm2
vpblendd $12, %ymm5, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm3, %ymm9
vpblendd $48, %ymm3, %ymm12, %ymm3
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm3, %ymm3
vpblendd $-64, %ymm5, %ymm9, %ymm5
vpandn %ymm5, %ymm3, %ymm5
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm3
vpxor %ymm7, %ymm5, %ymm5
vpxor (%rcx,%rdx), %ymm6, %ymm6
addq $32, %rdx
decq %r11
jne L_keccak1600_avx2$6
vmovdqu %ymm6, (%rsp)
vmovdqu %ymm3, 32(%rsp)
vmovdqu %ymm4, 64(%rsp)
vmovdqu %ymm0, 96(%rsp)
vmovdqu %ymm5, 128(%rsp)
vmovdqu %ymm1, 160(%rsp)
vmovdqu %ymm2, 192(%rsp)
movq %r9, %rcx
shrq $3, %rcx
movq $0, %rdx
jmp L_keccak1600_avx2$4
L_keccak1600_avx2$5:
movq (%rax,%rdx,8), %rsi
movq (%rsp,%rsi,8), %rsi
movq %rsi, (%rdi,%rdx,8)
incq %rdx
L_keccak1600_avx2$4:
cmpq %rcx, %rdx
jb L_keccak1600_avx2$5
movq (%rax,%rdx,8), %rax
shlq $3, %rdx
shlq $3, %rax
jmp L_keccak1600_avx2$2
L_keccak1600_avx2$3:
movb (%rsp,%rax), %cl
movb %cl, (%rdi,%rdx)
incq %rdx
incq %rax
L_keccak1600_avx2$2:
cmpq %r9, %rdx
jb L_keccak1600_avx2$3
jmp *%r10
.data
.p2align 5
_glob_data:
glob_data:
.byte 61
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 46
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 28
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 23
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 63
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 2
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 36
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 37
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 19
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 58
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 25
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 54
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 3
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 56
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 62
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 49
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 39
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 44
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 20
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 21
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 43
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 50
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 3
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 18
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 36
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 41
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 62
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 28
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 27
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 45
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 6
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 56
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 39
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 61
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 55
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 2
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 15
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 25
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 20
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 44
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 43
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 21
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 14
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 4
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 5
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 6
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 7
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 24
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 13
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 18
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 23
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 16
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 25
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 22
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 15
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 11
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 12
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 21
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 26
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 19
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 20
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 17
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 14
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 27
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
|
usenix-security-verdict/verdict
| 199,579
|
deps/libcrux/sys/hacl/c/vale/src/aesgcm-x86_64-linux.S
|
.text
.global aes128_key_expansion
aes128_key_expansion:
movdqu 0(%rdi), %xmm1
mov %rsi, %rdx
movdqu %xmm1, 0(%rdx)
aeskeygenassist $1, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 16(%rdx)
aeskeygenassist $2, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 32(%rdx)
aeskeygenassist $4, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 48(%rdx)
aeskeygenassist $8, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 64(%rdx)
aeskeygenassist $16, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 80(%rdx)
aeskeygenassist $32, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 96(%rdx)
aeskeygenassist $64, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 112(%rdx)
aeskeygenassist $128, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 128(%rdx)
aeskeygenassist $27, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 144(%rdx)
aeskeygenassist $54, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 160(%rdx)
pxor %xmm1, %xmm1
pxor %xmm2, %xmm2
pxor %xmm3, %xmm3
ret
.global aes128_keyhash_init
aes128_keyhash_init:
mov $579005069656919567, %r8
pinsrq $0, %r8, %xmm4
mov $283686952306183, %r8
pinsrq $1, %r8, %xmm4
pxor %xmm0, %xmm0
movdqu %xmm0, 80(%rsi)
mov %rdi, %r8
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pshufb %xmm4, %xmm0
mov %rsi, %rcx
movdqu %xmm0, 32(%rcx)
movdqu %xmm6, %xmm0
mov %r12, %rax
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 0(%rcx)
movdqu %xmm6, %xmm1
movdqu %xmm6, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 16(%rcx)
movdqu %xmm6, %xmm2
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 48(%rcx)
movdqu %xmm6, %xmm2
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 64(%rcx)
movdqu %xmm6, %xmm2
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 96(%rcx)
movdqu %xmm6, %xmm2
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 112(%rcx)
movdqu %xmm0, %xmm6
mov %rax, %r12
ret
.global aes256_key_expansion
aes256_key_expansion:
movdqu 0(%rdi), %xmm1
movdqu 16(%rdi), %xmm3
mov %rsi, %rdx
movdqu %xmm1, 0(%rdx)
movdqu %xmm3, 16(%rdx)
aeskeygenassist $1, %xmm3, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 32(%rdx)
aeskeygenassist $0, %xmm1, %xmm2
pshufd $170, %xmm2, %xmm2
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
pxor %xmm2, %xmm3
movdqu %xmm3, 48(%rdx)
aeskeygenassist $2, %xmm3, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 64(%rdx)
aeskeygenassist $0, %xmm1, %xmm2
pshufd $170, %xmm2, %xmm2
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
pxor %xmm2, %xmm3
movdqu %xmm3, 80(%rdx)
aeskeygenassist $4, %xmm3, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 96(%rdx)
aeskeygenassist $0, %xmm1, %xmm2
pshufd $170, %xmm2, %xmm2
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
pxor %xmm2, %xmm3
movdqu %xmm3, 112(%rdx)
aeskeygenassist $8, %xmm3, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 128(%rdx)
aeskeygenassist $0, %xmm1, %xmm2
pshufd $170, %xmm2, %xmm2
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
pxor %xmm2, %xmm3
movdqu %xmm3, 144(%rdx)
aeskeygenassist $16, %xmm3, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 160(%rdx)
aeskeygenassist $0, %xmm1, %xmm2
pshufd $170, %xmm2, %xmm2
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
pxor %xmm2, %xmm3
movdqu %xmm3, 176(%rdx)
aeskeygenassist $32, %xmm3, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 192(%rdx)
aeskeygenassist $0, %xmm1, %xmm2
pshufd $170, %xmm2, %xmm2
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
pxor %xmm2, %xmm3
movdqu %xmm3, 208(%rdx)
aeskeygenassist $64, %xmm3, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 224(%rdx)
pxor %xmm1, %xmm1
pxor %xmm2, %xmm2
pxor %xmm3, %xmm3
pxor %xmm4, %xmm4
ret
.global aes256_keyhash_init
aes256_keyhash_init:
mov $579005069656919567, %r8
pinsrq $0, %r8, %xmm4
mov $283686952306183, %r8
pinsrq $1, %r8, %xmm4
pxor %xmm0, %xmm0
movdqu %xmm0, 80(%rsi)
mov %rdi, %r8
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pshufb %xmm4, %xmm0
mov %rsi, %rcx
movdqu %xmm0, 32(%rcx)
movdqu %xmm6, %xmm0
mov %r12, %rax
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 0(%rcx)
movdqu %xmm6, %xmm1
movdqu %xmm6, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 16(%rcx)
movdqu %xmm6, %xmm2
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 48(%rcx)
movdqu %xmm6, %xmm2
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 64(%rcx)
movdqu %xmm6, %xmm2
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 96(%rcx)
movdqu %xmm6, %xmm2
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 112(%rcx)
movdqu %xmm0, %xmm6
mov %rax, %r12
ret
.global gctr128_bytes
gctr128_bytes:
push %r15
push %r14
push %r13
push %r12
push %rsi
push %rdi
push %rbp
push %rbx
movdqu 0(%r9), %xmm7
mov %rdi, %rax
mov %rdx, %rbx
mov %rcx, %r13
mov 72(%rsp), %rcx
mov %rcx, %rbp
imul $16, %rbp
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm8
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm8
mov %rcx, %rdx
shr $2, %rdx
and $3, %rcx
cmp $0, %rdx
jbe L0
mov %rax, %r9
mov %rbx, %r10
pshufb %xmm8, %xmm7
movdqu %xmm7, %xmm9
mov $579005069656919567, %rax
pinsrq $0, %rax, %xmm0
mov $579005069656919567, %rax
pinsrq $1, %rax, %xmm0
pshufb %xmm0, %xmm9
movdqu %xmm9, %xmm10
pxor %xmm3, %xmm3
mov $1, %rax
pinsrd $2, %eax, %xmm3
paddd %xmm3, %xmm9
mov $3, %rax
pinsrd $2, %eax, %xmm3
mov $2, %rax
pinsrd $0, %eax, %xmm3
paddd %xmm3, %xmm10
pshufb %xmm8, %xmm9
pshufb %xmm8, %xmm10
pextrq $0, %xmm7, %rdi
mov $283686952306183, %rax
pinsrq $0, %rax, %xmm0
mov $579005069656919567, %rax
pinsrq $1, %rax, %xmm0
pxor %xmm15, %xmm15
mov $4, %rax
pinsrd $0, %eax, %xmm15
mov $4, %rax
pinsrd $2, %eax, %xmm15
jmp L3
.balign 16
L2:
pinsrq $0, %rdi, %xmm2
pinsrq $0, %rdi, %xmm12
pinsrq $0, %rdi, %xmm13
pinsrq $0, %rdi, %xmm14
shufpd $2, %xmm9, %xmm2
shufpd $0, %xmm9, %xmm12
shufpd $2, %xmm10, %xmm13
shufpd $0, %xmm10, %xmm14
pshufb %xmm0, %xmm9
pshufb %xmm0, %xmm10
movdqu 0(%r8), %xmm3
movdqu 16(%r8), %xmm4
movdqu 32(%r8), %xmm5
movdqu 48(%r8), %xmm6
paddd %xmm15, %xmm9
paddd %xmm15, %xmm10
pxor %xmm3, %xmm2
pxor %xmm3, %xmm12
pxor %xmm3, %xmm13
pxor %xmm3, %xmm14
pshufb %xmm0, %xmm9
pshufb %xmm0, %xmm10
aesenc %xmm4, %xmm2
aesenc %xmm4, %xmm12
aesenc %xmm4, %xmm13
aesenc %xmm4, %xmm14
aesenc %xmm5, %xmm2
aesenc %xmm5, %xmm12
aesenc %xmm5, %xmm13
aesenc %xmm5, %xmm14
aesenc %xmm6, %xmm2
aesenc %xmm6, %xmm12
aesenc %xmm6, %xmm13
aesenc %xmm6, %xmm14
movdqu 64(%r8), %xmm3
movdqu 80(%r8), %xmm4
movdqu 96(%r8), %xmm5
movdqu 112(%r8), %xmm6
aesenc %xmm3, %xmm2
aesenc %xmm3, %xmm12
aesenc %xmm3, %xmm13
aesenc %xmm3, %xmm14
aesenc %xmm4, %xmm2
aesenc %xmm4, %xmm12
aesenc %xmm4, %xmm13
aesenc %xmm4, %xmm14
aesenc %xmm5, %xmm2
aesenc %xmm5, %xmm12
aesenc %xmm5, %xmm13
aesenc %xmm5, %xmm14
aesenc %xmm6, %xmm2
aesenc %xmm6, %xmm12
aesenc %xmm6, %xmm13
aesenc %xmm6, %xmm14
movdqu 128(%r8), %xmm3
movdqu 144(%r8), %xmm4
movdqu 160(%r8), %xmm5
aesenc %xmm3, %xmm2
aesenc %xmm3, %xmm12
aesenc %xmm3, %xmm13
aesenc %xmm3, %xmm14
aesenc %xmm4, %xmm2
aesenc %xmm4, %xmm12
aesenc %xmm4, %xmm13
aesenc %xmm4, %xmm14
aesenclast %xmm5, %xmm2
aesenclast %xmm5, %xmm12
aesenclast %xmm5, %xmm13
aesenclast %xmm5, %xmm14
movdqu 0(%r9), %xmm7
pxor %xmm7, %xmm2
movdqu 16(%r9), %xmm7
pxor %xmm7, %xmm12
movdqu 32(%r9), %xmm7
pxor %xmm7, %xmm13
movdqu 48(%r9), %xmm7
pxor %xmm7, %xmm14
movdqu %xmm2, 0(%r10)
movdqu %xmm12, 16(%r10)
movdqu %xmm13, 32(%r10)
movdqu %xmm14, 48(%r10)
sub $1, %rdx
add $64, %r9
add $64, %r10
.balign 16
L3:
cmp $0, %rdx
ja L2
movdqu %xmm9, %xmm7
pinsrq $0, %rdi, %xmm7
pshufb %xmm8, %xmm7
mov %r9, %rax
mov %r10, %rbx
jmp L1
L0:
L1:
mov $0, %rdx
mov %rax, %r9
mov %rbx, %r10
pxor %xmm4, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
jmp L5
.balign 16
L4:
movdqu %xmm7, %xmm0
pshufb %xmm8, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
movdqu 0(%r9), %xmm2
pxor %xmm0, %xmm2
movdqu %xmm2, 0(%r10)
add $1, %rdx
add $16, %r9
add $16, %r10
paddd %xmm4, %xmm7
.balign 16
L5:
cmp %rcx, %rdx
jne L4
cmp %rbp, %rsi
jbe L6
movdqu 0(%r13), %xmm1
movdqu %xmm7, %xmm0
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm2
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm2
pshufb %xmm2, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pxor %xmm0, %xmm1
movdqu %xmm1, 0(%r13)
jmp L7
L6:
L7:
pop %rbx
pop %rbp
pop %rdi
pop %rsi
pop %r12
pop %r13
pop %r14
pop %r15
ret
.global gctr256_bytes
gctr256_bytes:
push %r15
push %r14
push %r13
push %r12
push %rsi
push %rdi
push %rbp
push %rbx
movdqu 0(%r9), %xmm7
mov %rdi, %rax
mov %rdx, %rbx
mov %rcx, %r13
mov 72(%rsp), %rcx
mov %rcx, %rbp
imul $16, %rbp
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm8
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm8
mov %rcx, %rdx
shr $2, %rdx
and $3, %rcx
cmp $0, %rdx
jbe L8
mov %rax, %r9
mov %rbx, %r10
pshufb %xmm8, %xmm7
movdqu %xmm7, %xmm9
mov $579005069656919567, %rax
pinsrq $0, %rax, %xmm0
mov $579005069656919567, %rax
pinsrq $1, %rax, %xmm0
pshufb %xmm0, %xmm9
movdqu %xmm9, %xmm10
pxor %xmm3, %xmm3
mov $1, %rax
pinsrd $2, %eax, %xmm3
paddd %xmm3, %xmm9
mov $3, %rax
pinsrd $2, %eax, %xmm3
mov $2, %rax
pinsrd $0, %eax, %xmm3
paddd %xmm3, %xmm10
pshufb %xmm8, %xmm9
pshufb %xmm8, %xmm10
pextrq $0, %xmm7, %rdi
mov $283686952306183, %rax
pinsrq $0, %rax, %xmm0
mov $579005069656919567, %rax
pinsrq $1, %rax, %xmm0
pxor %xmm15, %xmm15
mov $4, %rax
pinsrd $0, %eax, %xmm15
mov $4, %rax
pinsrd $2, %eax, %xmm15
jmp L11
.balign 16
L10:
pinsrq $0, %rdi, %xmm2
pinsrq $0, %rdi, %xmm12
pinsrq $0, %rdi, %xmm13
pinsrq $0, %rdi, %xmm14
shufpd $2, %xmm9, %xmm2
shufpd $0, %xmm9, %xmm12
shufpd $2, %xmm10, %xmm13
shufpd $0, %xmm10, %xmm14
pshufb %xmm0, %xmm9
pshufb %xmm0, %xmm10
movdqu 0(%r8), %xmm3
movdqu 16(%r8), %xmm4
movdqu 32(%r8), %xmm5
movdqu 48(%r8), %xmm6
paddd %xmm15, %xmm9
paddd %xmm15, %xmm10
pxor %xmm3, %xmm2
pxor %xmm3, %xmm12
pxor %xmm3, %xmm13
pxor %xmm3, %xmm14
pshufb %xmm0, %xmm9
pshufb %xmm0, %xmm10
aesenc %xmm4, %xmm2
aesenc %xmm4, %xmm12
aesenc %xmm4, %xmm13
aesenc %xmm4, %xmm14
aesenc %xmm5, %xmm2
aesenc %xmm5, %xmm12
aesenc %xmm5, %xmm13
aesenc %xmm5, %xmm14
aesenc %xmm6, %xmm2
aesenc %xmm6, %xmm12
aesenc %xmm6, %xmm13
aesenc %xmm6, %xmm14
movdqu 64(%r8), %xmm3
movdqu 80(%r8), %xmm4
movdqu 96(%r8), %xmm5
movdqu 112(%r8), %xmm6
aesenc %xmm3, %xmm2
aesenc %xmm3, %xmm12
aesenc %xmm3, %xmm13
aesenc %xmm3, %xmm14
aesenc %xmm4, %xmm2
aesenc %xmm4, %xmm12
aesenc %xmm4, %xmm13
aesenc %xmm4, %xmm14
aesenc %xmm5, %xmm2
aesenc %xmm5, %xmm12
aesenc %xmm5, %xmm13
aesenc %xmm5, %xmm14
aesenc %xmm6, %xmm2
aesenc %xmm6, %xmm12
aesenc %xmm6, %xmm13
aesenc %xmm6, %xmm14
movdqu 128(%r8), %xmm3
movdqu 144(%r8), %xmm4
movdqu 160(%r8), %xmm5
aesenc %xmm3, %xmm2
aesenc %xmm3, %xmm12
aesenc %xmm3, %xmm13
aesenc %xmm3, %xmm14
aesenc %xmm4, %xmm2
aesenc %xmm4, %xmm12
aesenc %xmm4, %xmm13
aesenc %xmm4, %xmm14
movdqu %xmm5, %xmm3
movdqu 176(%r8), %xmm4
movdqu 192(%r8), %xmm5
movdqu 208(%r8), %xmm6
aesenc %xmm3, %xmm2
aesenc %xmm3, %xmm12
aesenc %xmm3, %xmm13
aesenc %xmm3, %xmm14
aesenc %xmm4, %xmm2
aesenc %xmm4, %xmm12
aesenc %xmm4, %xmm13
aesenc %xmm4, %xmm14
aesenc %xmm5, %xmm2
aesenc %xmm5, %xmm12
aesenc %xmm5, %xmm13
aesenc %xmm5, %xmm14
aesenc %xmm6, %xmm2
aesenc %xmm6, %xmm12
aesenc %xmm6, %xmm13
aesenc %xmm6, %xmm14
movdqu 224(%r8), %xmm5
aesenclast %xmm5, %xmm2
aesenclast %xmm5, %xmm12
aesenclast %xmm5, %xmm13
aesenclast %xmm5, %xmm14
movdqu 0(%r9), %xmm7
pxor %xmm7, %xmm2
movdqu 16(%r9), %xmm7
pxor %xmm7, %xmm12
movdqu 32(%r9), %xmm7
pxor %xmm7, %xmm13
movdqu 48(%r9), %xmm7
pxor %xmm7, %xmm14
movdqu %xmm2, 0(%r10)
movdqu %xmm12, 16(%r10)
movdqu %xmm13, 32(%r10)
movdqu %xmm14, 48(%r10)
sub $1, %rdx
add $64, %r9
add $64, %r10
.balign 16
L11:
cmp $0, %rdx
ja L10
movdqu %xmm9, %xmm7
pinsrq $0, %rdi, %xmm7
pshufb %xmm8, %xmm7
mov %r9, %rax
mov %r10, %rbx
jmp L9
L8:
L9:
mov $0, %rdx
mov %rax, %r9
mov %rbx, %r10
pxor %xmm4, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
jmp L13
.balign 16
L12:
movdqu %xmm7, %xmm0
pshufb %xmm8, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
movdqu 0(%r9), %xmm2
pxor %xmm0, %xmm2
movdqu %xmm2, 0(%r10)
add $1, %rdx
add $16, %r9
add $16, %r10
paddd %xmm4, %xmm7
.balign 16
L13:
cmp %rcx, %rdx
jne L12
cmp %rbp, %rsi
jbe L14
movdqu 0(%r13), %xmm1
movdqu %xmm7, %xmm0
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm2
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm2
pshufb %xmm2, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pxor %xmm0, %xmm1
movdqu %xmm1, 0(%r13)
jmp L15
L14:
L15:
pop %rbx
pop %rbp
pop %rdi
pop %rsi
pop %r12
pop %r13
pop %r14
pop %r15
ret
.global compute_iv_stdcall
compute_iv_stdcall:
cmp $12, %rsi
jne L16
cmp $12, %rsi
jne L18
movdqu 0(%r8), %xmm0
mov $579005069656919567, %rax
pinsrq $0, %rax, %xmm1
mov $283686952306183, %rax
pinsrq $1, %rax, %xmm1
pshufb %xmm1, %xmm0
mov $1, %rax
pinsrd $0, %eax, %xmm0
movdqu %xmm0, 0(%rcx)
jmp L19
L18:
mov %rcx, %rax
add $32, %r9
mov %r8, %rbx
mov %rdx, %rcx
imul $16, %rcx
mov $579005069656919567, %r10
pinsrq $0, %r10, %xmm9
mov $283686952306183, %r10
pinsrq $1, %r10, %xmm9
pxor %xmm8, %xmm8
mov %rdi, %r11
jmp L21
.balign 16
L20:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L21:
cmp $6, %rdx
jae L20
cmp $0, %rdx
jbe L22
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L24
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L25
L24:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L26
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L28
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L30
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L31
L30:
L31:
jmp L29
L28:
L29:
jmp L27
L26:
L27:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L25:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L23
L22:
L23:
mov %rsi, %r15
cmp %rcx, %rsi
jbe L32
movdqu 0(%rbx), %xmm0
mov %rsi, %r10
and $15, %r10
cmp $8, %r10
jae L34
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L35
L34:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L35:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L33
L32:
L33:
mov %rax, %rcx
mov $0, %r11
mov %rsi, %r13
pxor %xmm0, %xmm0
mov %r11, %rax
imul $8, %rax
pinsrq $1, %rax, %xmm0
mov %r13, %rax
imul $8, %rax
pinsrq $0, %rax, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
movdqu %xmm8, 0(%rcx)
L19:
jmp L17
L16:
push %r15
push %r14
push %r13
push %r12
push %rsi
push %rdi
push %rbp
push %rbx
cmp $12, %rsi
jne L36
movdqu 0(%r8), %xmm0
mov $579005069656919567, %rax
pinsrq $0, %rax, %xmm1
mov $283686952306183, %rax
pinsrq $1, %rax, %xmm1
pshufb %xmm1, %xmm0
mov $1, %rax
pinsrd $0, %eax, %xmm0
movdqu %xmm0, 0(%rcx)
jmp L37
L36:
mov %rcx, %rax
add $32, %r9
mov %r8, %rbx
mov %rdx, %rcx
imul $16, %rcx
mov $579005069656919567, %r10
pinsrq $0, %r10, %xmm9
mov $283686952306183, %r10
pinsrq $1, %r10, %xmm9
pxor %xmm8, %xmm8
mov %rdi, %r11
jmp L39
.balign 16
L38:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L39:
cmp $6, %rdx
jae L38
cmp $0, %rdx
jbe L40
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L42
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L43
L42:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L44
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L46
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L48
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L49
L48:
L49:
jmp L47
L46:
L47:
jmp L45
L44:
L45:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L43:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L41
L40:
L41:
mov %rsi, %r15
cmp %rcx, %rsi
jbe L50
movdqu 0(%rbx), %xmm0
mov %rsi, %r10
and $15, %r10
cmp $8, %r10
jae L52
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L53
L52:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L53:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L51
L50:
L51:
mov %rax, %rcx
mov $0, %r11
mov %rsi, %r13
pxor %xmm0, %xmm0
mov %r11, %rax
imul $8, %rax
pinsrq $1, %rax, %xmm0
mov %r13, %rax
imul $8, %rax
pinsrq $0, %rax, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
movdqu %xmm8, 0(%rcx)
L37:
pop %rbx
pop %rbp
pop %rdi
pop %rsi
pop %r12
pop %r13
pop %r14
pop %r15
L17:
ret
.global gcm128_encrypt_opt
gcm128_encrypt_opt:
push %r15
push %r14
push %r13
push %r12
push %rsi
push %rdi
push %rbp
push %rbx
mov 144(%rsp), %rbp
mov %rcx, %r13
lea 32(%r9), %r9
mov 72(%rsp), %rbx
mov %rdx, %rcx
imul $16, %rcx
mov $579005069656919567, %r10
pinsrq $0, %r10, %xmm9
mov $283686952306183, %r10
pinsrq $1, %r10, %xmm9
pxor %xmm8, %xmm8
mov %rdi, %r11
jmp L55
.balign 16
L54:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L55:
cmp $6, %rdx
jae L54
cmp $0, %rdx
jbe L56
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L58
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L59
L58:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L60
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L62
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L64
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L65
L64:
L65:
jmp L63
L62:
L63:
jmp L61
L60:
L61:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L59:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L57
L56:
L57:
mov %rsi, %r15
cmp %rcx, %rsi
jbe L66
movdqu 0(%rbx), %xmm0
mov %rsi, %r10
and $15, %r10
cmp $8, %r10
jae L68
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L69
L68:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L69:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L67
L66:
L67:
mov 80(%rsp), %rdi
mov 88(%rsp), %rsi
mov 96(%rsp), %rdx
mov %r13, %rcx
movdqu %xmm9, %xmm0
movdqu 0(%r8), %xmm1
movdqu %xmm1, 0(%rbp)
pxor %xmm10, %xmm10
mov $1, %r11
pinsrq $0, %r11, %xmm10
vpaddd %xmm10, %xmm1, %xmm1
cmp $0, %rdx
jne L70
vpshufb %xmm0, %xmm1, %xmm1
movdqu %xmm1, 32(%rbp)
jmp L71
L70:
movdqu %xmm8, 32(%rbp)
add $128, %rcx
pextrq $0, %xmm1, %rbx
and $255, %rbx
vpshufb %xmm0, %xmm1, %xmm1
lea 96(%rsi), %r14
movdqu -128(%rcx), %xmm4
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
movdqu -112(%rcx), %xmm15
mov %rcx, %r12
sub $96, %r12
vpxor %xmm4, %xmm1, %xmm9
add $6, %rbx
cmp $256, %rbx
jae L72
vpaddd %xmm2, %xmm1, %xmm10
vpaddd %xmm2, %xmm10, %xmm11
vpxor %xmm4, %xmm10, %xmm10
vpaddd %xmm2, %xmm11, %xmm12
vpxor %xmm4, %xmm11, %xmm11
vpaddd %xmm2, %xmm12, %xmm13
vpxor %xmm4, %xmm12, %xmm12
vpaddd %xmm2, %xmm13, %xmm14
vpxor %xmm4, %xmm13, %xmm13
vpaddd %xmm2, %xmm14, %xmm1
vpxor %xmm4, %xmm14, %xmm14
jmp L73
L72:
sub $256, %rbx
vpshufb %xmm0, %xmm1, %xmm6
pxor %xmm5, %xmm5
mov $1, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm10
pxor %xmm5, %xmm5
mov $2, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm11
vpaddd %xmm5, %xmm10, %xmm12
vpshufb %xmm0, %xmm10, %xmm10
vpaddd %xmm5, %xmm11, %xmm13
vpshufb %xmm0, %xmm11, %xmm11
vpxor %xmm4, %xmm10, %xmm10
vpaddd %xmm5, %xmm12, %xmm14
vpshufb %xmm0, %xmm12, %xmm12
vpxor %xmm4, %xmm11, %xmm11
vpaddd %xmm5, %xmm13, %xmm1
vpshufb %xmm0, %xmm13, %xmm13
vpxor %xmm4, %xmm12, %xmm12
vpshufb %xmm0, %xmm14, %xmm14
vpxor %xmm4, %xmm13, %xmm13
vpshufb %xmm0, %xmm1, %xmm1
vpxor %xmm4, %xmm14, %xmm14
L73:
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -96(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -80(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -64(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -48(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -32(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -16(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 0(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 16(%rcx), %xmm15
movdqu 32(%rcx), %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor 0(%rdi), %xmm3, %xmm4
vaesenc %xmm15, %xmm10, %xmm10
vpxor 16(%rdi), %xmm3, %xmm5
vaesenc %xmm15, %xmm11, %xmm11
vpxor 32(%rdi), %xmm3, %xmm6
vaesenc %xmm15, %xmm12, %xmm12
vpxor 48(%rdi), %xmm3, %xmm8
vaesenc %xmm15, %xmm13, %xmm13
vpxor 64(%rdi), %xmm3, %xmm2
vaesenc %xmm15, %xmm14, %xmm14
vpxor 80(%rdi), %xmm3, %xmm3
lea 96(%rdi), %rdi
vaesenclast %xmm4, %xmm9, %xmm9
vaesenclast %xmm5, %xmm10, %xmm10
vaesenclast %xmm6, %xmm11, %xmm11
vaesenclast %xmm8, %xmm12, %xmm12
vaesenclast %xmm2, %xmm13, %xmm13
vaesenclast %xmm3, %xmm14, %xmm14
movdqu %xmm9, 0(%rsi)
movdqu %xmm10, 16(%rsi)
movdqu %xmm11, 32(%rsi)
movdqu %xmm12, 48(%rsi)
movdqu %xmm13, 64(%rsi)
movdqu %xmm14, 80(%rsi)
lea 96(%rsi), %rsi
vpshufb %xmm0, %xmm9, %xmm8
vpshufb %xmm0, %xmm10, %xmm2
movdqu %xmm8, 112(%rbp)
vpshufb %xmm0, %xmm11, %xmm4
movdqu %xmm2, 96(%rbp)
vpshufb %xmm0, %xmm12, %xmm5
movdqu %xmm4, 80(%rbp)
vpshufb %xmm0, %xmm13, %xmm6
movdqu %xmm5, 64(%rbp)
vpshufb %xmm0, %xmm14, %xmm7
movdqu %xmm6, 48(%rbp)
movdqu -128(%rcx), %xmm4
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
movdqu -112(%rcx), %xmm15
mov %rcx, %r12
sub $96, %r12
vpxor %xmm4, %xmm1, %xmm9
add $6, %rbx
cmp $256, %rbx
jae L74
vpaddd %xmm2, %xmm1, %xmm10
vpaddd %xmm2, %xmm10, %xmm11
vpxor %xmm4, %xmm10, %xmm10
vpaddd %xmm2, %xmm11, %xmm12
vpxor %xmm4, %xmm11, %xmm11
vpaddd %xmm2, %xmm12, %xmm13
vpxor %xmm4, %xmm12, %xmm12
vpaddd %xmm2, %xmm13, %xmm14
vpxor %xmm4, %xmm13, %xmm13
vpaddd %xmm2, %xmm14, %xmm1
vpxor %xmm4, %xmm14, %xmm14
jmp L75
L74:
sub $256, %rbx
vpshufb %xmm0, %xmm1, %xmm6
pxor %xmm5, %xmm5
mov $1, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm10
pxor %xmm5, %xmm5
mov $2, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm11
vpaddd %xmm5, %xmm10, %xmm12
vpshufb %xmm0, %xmm10, %xmm10
vpaddd %xmm5, %xmm11, %xmm13
vpshufb %xmm0, %xmm11, %xmm11
vpxor %xmm4, %xmm10, %xmm10
vpaddd %xmm5, %xmm12, %xmm14
vpshufb %xmm0, %xmm12, %xmm12
vpxor %xmm4, %xmm11, %xmm11
vpaddd %xmm5, %xmm13, %xmm1
vpshufb %xmm0, %xmm13, %xmm13
vpxor %xmm4, %xmm12, %xmm12
vpshufb %xmm0, %xmm14, %xmm14
vpxor %xmm4, %xmm13, %xmm13
vpshufb %xmm0, %xmm1, %xmm1
vpxor %xmm4, %xmm14, %xmm14
L75:
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -96(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -80(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -64(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -48(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -32(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -16(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 0(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 16(%rcx), %xmm15
movdqu 32(%rcx), %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor 0(%rdi), %xmm3, %xmm4
vaesenc %xmm15, %xmm10, %xmm10
vpxor 16(%rdi), %xmm3, %xmm5
vaesenc %xmm15, %xmm11, %xmm11
vpxor 32(%rdi), %xmm3, %xmm6
vaesenc %xmm15, %xmm12, %xmm12
vpxor 48(%rdi), %xmm3, %xmm8
vaesenc %xmm15, %xmm13, %xmm13
vpxor 64(%rdi), %xmm3, %xmm2
vaesenc %xmm15, %xmm14, %xmm14
vpxor 80(%rdi), %xmm3, %xmm3
lea 96(%rdi), %rdi
vaesenclast %xmm4, %xmm9, %xmm9
vaesenclast %xmm5, %xmm10, %xmm10
vaesenclast %xmm6, %xmm11, %xmm11
vaesenclast %xmm8, %xmm12, %xmm12
vaesenclast %xmm2, %xmm13, %xmm13
vaesenclast %xmm3, %xmm14, %xmm14
movdqu %xmm9, 0(%rsi)
movdqu %xmm10, 16(%rsi)
movdqu %xmm11, 32(%rsi)
movdqu %xmm12, 48(%rsi)
movdqu %xmm13, 64(%rsi)
movdqu %xmm14, 80(%rsi)
lea 96(%rsi), %rsi
sub $12, %rdx
movdqu 32(%rbp), %xmm8
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
vpxor %xmm4, %xmm4, %xmm4
movdqu -128(%rcx), %xmm15
vpaddd %xmm2, %xmm1, %xmm10
vpaddd %xmm2, %xmm10, %xmm11
vpaddd %xmm2, %xmm11, %xmm12
vpaddd %xmm2, %xmm12, %xmm13
vpaddd %xmm2, %xmm13, %xmm14
vpxor %xmm15, %xmm1, %xmm9
movdqu %xmm4, 16(%rbp)
jmp L77
.balign 16
L76:
add $6, %rbx
cmp $256, %rbx
jb L78
mov $579005069656919567, %r11
pinsrq $0, %r11, %xmm0
mov $283686952306183, %r11
pinsrq $1, %r11, %xmm0
vpshufb %xmm0, %xmm1, %xmm6
pxor %xmm5, %xmm5
mov $1, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm10
pxor %xmm5, %xmm5
mov $2, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm11
movdqu -32(%r9), %xmm3
vpaddd %xmm5, %xmm10, %xmm12
vpshufb %xmm0, %xmm10, %xmm10
vpaddd %xmm5, %xmm11, %xmm13
vpshufb %xmm0, %xmm11, %xmm11
vpxor %xmm15, %xmm10, %xmm10
vpaddd %xmm5, %xmm12, %xmm14
vpshufb %xmm0, %xmm12, %xmm12
vpxor %xmm15, %xmm11, %xmm11
vpaddd %xmm5, %xmm13, %xmm1
vpshufb %xmm0, %xmm13, %xmm13
vpshufb %xmm0, %xmm14, %xmm14
vpshufb %xmm0, %xmm1, %xmm1
sub $256, %rbx
jmp L79
L78:
movdqu -32(%r9), %xmm3
vpaddd %xmm14, %xmm2, %xmm1
vpxor %xmm15, %xmm10, %xmm10
vpxor %xmm15, %xmm11, %xmm11
L79:
movdqu %xmm1, 128(%rbp)
vpclmulqdq $16, %xmm3, %xmm7, %xmm5
vpxor %xmm15, %xmm12, %xmm12
movdqu -112(%rcx), %xmm2
vpclmulqdq $1, %xmm3, %xmm7, %xmm6
vaesenc %xmm2, %xmm9, %xmm9
movdqu 48(%rbp), %xmm0
vpxor %xmm15, %xmm13, %xmm13
vpclmulqdq $0, %xmm3, %xmm7, %xmm1
vaesenc %xmm2, %xmm10, %xmm10
vpxor %xmm15, %xmm14, %xmm14
vpclmulqdq $17, %xmm3, %xmm7, %xmm7
vaesenc %xmm2, %xmm11, %xmm11
movdqu -16(%r9), %xmm3
vaesenc %xmm2, %xmm12, %xmm12
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpxor %xmm4, %xmm8, %xmm8
vaesenc %xmm2, %xmm13, %xmm13
vpxor %xmm5, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vaesenc %xmm2, %xmm14, %xmm14
movdqu -96(%rcx), %xmm15
vpclmulqdq $1, %xmm3, %xmm0, %xmm2
vaesenc %xmm15, %xmm9, %xmm9
vpxor 16(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
movdqu 64(%rbp), %xmm0
vaesenc %xmm15, %xmm10, %xmm10
movbeq 88(%r14), %r13
vaesenc %xmm15, %xmm11, %xmm11
movbeq 80(%r14), %r12
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 32(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 40(%rbp)
movdqu 16(%r9), %xmm5
vaesenc %xmm15, %xmm14, %xmm14
movdqu -80(%rcx), %xmm15
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vaesenc %xmm15, %xmm10, %xmm10
vpxor %xmm3, %xmm7, %xmm7
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vaesenc %xmm15, %xmm11, %xmm11
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 80(%rbp), %xmm0
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vaesenc %xmm15, %xmm14, %xmm14
movdqu -64(%rcx), %xmm15
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vaesenc %xmm15, %xmm10, %xmm10
movbeq 72(%r14), %r13
vpxor %xmm5, %xmm7, %xmm7
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vaesenc %xmm15, %xmm11, %xmm11
movbeq 64(%r14), %r12
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
movdqu 96(%rbp), %xmm0
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 48(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 56(%rbp)
vpxor %xmm2, %xmm4, %xmm4
movdqu 64(%r9), %xmm2
vaesenc %xmm15, %xmm14, %xmm14
movdqu -48(%rcx), %xmm15
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm0, %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm5
vaesenc %xmm15, %xmm10, %xmm10
movbeq 56(%r14), %r13
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor 112(%rbp), %xmm8, %xmm8
vaesenc %xmm15, %xmm11, %xmm11
movbeq 48(%r14), %r12
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 64(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 72(%rbp)
vpxor %xmm3, %xmm4, %xmm4
movdqu 80(%r9), %xmm3
vaesenc %xmm15, %xmm14, %xmm14
movdqu -32(%rcx), %xmm15
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm8, %xmm5
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm3, %xmm8, %xmm1
vaesenc %xmm15, %xmm10, %xmm10
movbeq 40(%r14), %r13
vpxor %xmm2, %xmm7, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm2
vaesenc %xmm15, %xmm11, %xmm11
movbeq 32(%r14), %r12
vpclmulqdq $17, %xmm3, %xmm8, %xmm8
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 80(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 88(%rbp)
vpxor %xmm5, %xmm6, %xmm6
vaesenc %xmm15, %xmm14, %xmm14
vpxor %xmm1, %xmm6, %xmm6
movdqu -16(%rcx), %xmm15
vpslldq $8, %xmm6, %xmm5
vpxor %xmm2, %xmm4, %xmm4
pxor %xmm3, %xmm3
mov $13979173243358019584, %r11
pinsrq $1, %r11, %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm8, %xmm7, %xmm7
vaesenc %xmm15, %xmm10, %xmm10
vpxor %xmm5, %xmm4, %xmm4
movbeq 24(%r14), %r13
vaesenc %xmm15, %xmm11, %xmm11
movbeq 16(%r14), %r12
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
movq %r13, 96(%rbp)
vaesenc %xmm15, %xmm12, %xmm12
movq %r12, 104(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 0(%rcx), %xmm1
vaesenc %xmm1, %xmm9, %xmm9
movdqu 16(%rcx), %xmm15
vaesenc %xmm1, %xmm10, %xmm10
vpsrldq $8, %xmm6, %xmm6
vaesenc %xmm1, %xmm11, %xmm11
vpxor %xmm6, %xmm7, %xmm7
vaesenc %xmm1, %xmm12, %xmm12
vpxor %xmm0, %xmm4, %xmm4
movbeq 8(%r14), %r13
vaesenc %xmm1, %xmm13, %xmm13
movbeq 0(%r14), %r12
vaesenc %xmm1, %xmm14, %xmm14
movdqu 32(%rcx), %xmm1
vaesenc %xmm15, %xmm9, %xmm9
movdqu %xmm7, 16(%rbp)
vpalignr $8, %xmm4, %xmm4, %xmm8
vaesenc %xmm15, %xmm10, %xmm10
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor 0(%rdi), %xmm1, %xmm2
vaesenc %xmm15, %xmm11, %xmm11
vpxor 16(%rdi), %xmm1, %xmm0
vaesenc %xmm15, %xmm12, %xmm12
vpxor 32(%rdi), %xmm1, %xmm5
vaesenc %xmm15, %xmm13, %xmm13
vpxor 48(%rdi), %xmm1, %xmm6
vaesenc %xmm15, %xmm14, %xmm14
vpxor 64(%rdi), %xmm1, %xmm7
vpxor 80(%rdi), %xmm1, %xmm3
movdqu 128(%rbp), %xmm1
vaesenclast %xmm2, %xmm9, %xmm9
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
vaesenclast %xmm0, %xmm10, %xmm10
vpaddd %xmm2, %xmm1, %xmm0
movq %r13, 112(%rbp)
lea 96(%rdi), %rdi
vaesenclast %xmm5, %xmm11, %xmm11
vpaddd %xmm2, %xmm0, %xmm5
movq %r12, 120(%rbp)
lea 96(%rsi), %rsi
movdqu -128(%rcx), %xmm15
vaesenclast %xmm6, %xmm12, %xmm12
vpaddd %xmm2, %xmm5, %xmm6
vaesenclast %xmm7, %xmm13, %xmm13
vpaddd %xmm2, %xmm6, %xmm7
vaesenclast %xmm3, %xmm14, %xmm14
vpaddd %xmm2, %xmm7, %xmm3
sub $6, %rdx
add $96, %r14
cmp $0, %rdx
jbe L80
movdqu %xmm9, -96(%rsi)
vpxor %xmm15, %xmm1, %xmm9
movdqu %xmm10, -80(%rsi)
movdqu %xmm0, %xmm10
movdqu %xmm11, -64(%rsi)
movdqu %xmm5, %xmm11
movdqu %xmm12, -48(%rsi)
movdqu %xmm6, %xmm12
movdqu %xmm13, -32(%rsi)
movdqu %xmm7, %xmm13
movdqu %xmm14, -16(%rsi)
movdqu %xmm3, %xmm14
movdqu 32(%rbp), %xmm7
jmp L81
L80:
vpxor 16(%rbp), %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
L81:
.balign 16
L77:
cmp $0, %rdx
ja L76
movdqu 32(%rbp), %xmm7
movdqu %xmm1, 32(%rbp)
pxor %xmm4, %xmm4
movdqu %xmm4, 16(%rbp)
movdqu -32(%r9), %xmm3
vpclmulqdq $0, %xmm3, %xmm7, %xmm1
vpclmulqdq $16, %xmm3, %xmm7, %xmm5
movdqu 48(%rbp), %xmm0
vpclmulqdq $1, %xmm3, %xmm7, %xmm6
vpclmulqdq $17, %xmm3, %xmm7, %xmm7
movdqu -16(%r9), %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpxor %xmm4, %xmm8, %xmm8
vpxor %xmm5, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vpclmulqdq $1, %xmm3, %xmm0, %xmm2
vpxor 16(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
movdqu 64(%rbp), %xmm0
movdqu 16(%r9), %xmm5
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpxor %xmm3, %xmm7, %xmm7
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 80(%rbp), %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vpxor %xmm5, %xmm7, %xmm7
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
movdqu 96(%rbp), %xmm0
vpxor %xmm2, %xmm4, %xmm4
movdqu 64(%r9), %xmm2
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm0, %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm5
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor 112(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vpxor %xmm3, %xmm4, %xmm4
movdqu 80(%r9), %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm8, %xmm5
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm3, %xmm8, %xmm1
vpxor %xmm2, %xmm7, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm2
vpclmulqdq $17, %xmm3, %xmm8, %xmm8
vpxor %xmm5, %xmm6, %xmm6
vpxor %xmm1, %xmm6, %xmm6
vpxor %xmm2, %xmm4, %xmm4
pxor %xmm3, %xmm3
mov $3254779904, %rax
pinsrd $3, %eax, %xmm3
vpxor %xmm8, %xmm7, %xmm7
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm0
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm0
movdqu %xmm9, -96(%rsi)
vpshufb %xmm0, %xmm9, %xmm9
vpxor %xmm7, %xmm1, %xmm1
movdqu %xmm10, -80(%rsi)
vpshufb %xmm0, %xmm10, %xmm10
movdqu %xmm11, -64(%rsi)
vpshufb %xmm0, %xmm11, %xmm11
movdqu %xmm12, -48(%rsi)
vpshufb %xmm0, %xmm12, %xmm12
movdqu %xmm13, -32(%rsi)
vpshufb %xmm0, %xmm13, %xmm13
movdqu %xmm14, -16(%rsi)
vpshufb %xmm0, %xmm14, %xmm14
pxor %xmm4, %xmm4
movdqu %xmm14, %xmm7
movdqu %xmm4, 16(%rbp)
movdqu %xmm13, 48(%rbp)
movdqu %xmm12, 64(%rbp)
movdqu %xmm11, 80(%rbp)
movdqu %xmm10, 96(%rbp)
movdqu %xmm9, 112(%rbp)
movdqu -32(%r9), %xmm3
vpclmulqdq $0, %xmm3, %xmm7, %xmm1
vpclmulqdq $16, %xmm3, %xmm7, %xmm5
movdqu 48(%rbp), %xmm0
vpclmulqdq $1, %xmm3, %xmm7, %xmm6
vpclmulqdq $17, %xmm3, %xmm7, %xmm7
movdqu -16(%r9), %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpxor %xmm4, %xmm8, %xmm8
vpxor %xmm5, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vpclmulqdq $1, %xmm3, %xmm0, %xmm2
vpxor 16(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
movdqu 64(%rbp), %xmm0
movdqu 16(%r9), %xmm5
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpxor %xmm3, %xmm7, %xmm7
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 80(%rbp), %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vpxor %xmm5, %xmm7, %xmm7
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
movdqu 96(%rbp), %xmm0
vpxor %xmm2, %xmm4, %xmm4
movdqu 64(%r9), %xmm2
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm0, %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm5
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor 112(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vpxor %xmm3, %xmm4, %xmm4
movdqu 80(%r9), %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm8, %xmm5
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm3, %xmm8, %xmm1
vpxor %xmm2, %xmm7, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm2
vpclmulqdq $17, %xmm3, %xmm8, %xmm8
vpxor %xmm5, %xmm6, %xmm6
vpxor %xmm1, %xmm6, %xmm6
vpxor %xmm2, %xmm4, %xmm4
pxor %xmm3, %xmm3
mov $3254779904, %rax
pinsrd $3, %eax, %xmm3
vpxor %xmm8, %xmm7, %xmm7
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
sub $128, %rcx
L71:
movdqu 32(%rbp), %xmm11
mov %rcx, %r8
mov 104(%rsp), %rax
mov 112(%rsp), %rdi
mov 120(%rsp), %rdx
mov %rdx, %r14
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm9
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm9
pshufb %xmm9, %xmm11
pxor %xmm10, %xmm10
mov $1, %rbx
pinsrd $0, %ebx, %xmm10
mov %rax, %r11
mov %rdi, %r10
mov $0, %rbx
jmp L83
.balign 16
L82:
movdqu %xmm11, %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
movdqu 0(%r11), %xmm2
pxor %xmm0, %xmm2
movdqu %xmm2, 0(%r10)
add $1, %rbx
add $16, %r11
add $16, %r10
paddd %xmm10, %xmm11
.balign 16
L83:
cmp %rdx, %rbx
jne L82
mov %rdi, %r11
jmp L85
.balign 16
L84:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L85:
cmp $6, %rdx
jae L84
cmp $0, %rdx
jbe L86
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L88
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L89
L88:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L90
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L92
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L94
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L95
L94:
L95:
jmp L93
L92:
L93:
jmp L91
L90:
L91:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L89:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L87
L86:
L87:
add 96(%rsp), %r14
imul $16, %r14
mov 136(%rsp), %r13
cmp %r14, %r13
jbe L96
mov 128(%rsp), %rax
mov %r13, %r10
and $15, %r10
movdqu %xmm11, %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
movdqu 0(%rax), %xmm4
pxor %xmm4, %xmm0
movdqu %xmm0, 0(%rax)
cmp $8, %r10
jae L98
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L99
L98:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L99:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L97
L96:
L97:
mov %r15, %r11
pxor %xmm0, %xmm0
mov %r11, %rax
imul $8, %rax
pinsrq $1, %rax, %xmm0
mov %r13, %rax
imul $8, %rax
pinsrq $0, %rax, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
movdqu 0(%rbp), %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pshufb %xmm9, %xmm8
pxor %xmm0, %xmm8
mov 152(%rsp), %r15
movdqu %xmm8, 0(%r15)
pop %rbx
pop %rbp
pop %rdi
pop %rsi
pop %r12
pop %r13
pop %r14
pop %r15
ret
.global gcm256_encrypt_opt
gcm256_encrypt_opt:
push %r15
push %r14
push %r13
push %r12
push %rsi
push %rdi
push %rbp
push %rbx
mov 144(%rsp), %rbp
mov %rcx, %r13
lea 32(%r9), %r9
mov 72(%rsp), %rbx
mov %rdx, %rcx
imul $16, %rcx
mov $579005069656919567, %r10
pinsrq $0, %r10, %xmm9
mov $283686952306183, %r10
pinsrq $1, %r10, %xmm9
pxor %xmm8, %xmm8
mov %rdi, %r11
jmp L101
.balign 16
L100:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L101:
cmp $6, %rdx
jae L100
cmp $0, %rdx
jbe L102
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L104
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L105
L104:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L106
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L108
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L110
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L111
L110:
L111:
jmp L109
L108:
L109:
jmp L107
L106:
L107:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L105:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L103
L102:
L103:
mov %rsi, %r15
cmp %rcx, %rsi
jbe L112
movdqu 0(%rbx), %xmm0
mov %rsi, %r10
and $15, %r10
cmp $8, %r10
jae L114
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L115
L114:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L115:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L113
L112:
L113:
mov 80(%rsp), %rdi
mov 88(%rsp), %rsi
mov 96(%rsp), %rdx
mov %r13, %rcx
movdqu %xmm9, %xmm0
movdqu 0(%r8), %xmm1
movdqu %xmm1, 0(%rbp)
pxor %xmm10, %xmm10
mov $1, %r11
pinsrq $0, %r11, %xmm10
vpaddd %xmm10, %xmm1, %xmm1
cmp $0, %rdx
jne L116
vpshufb %xmm0, %xmm1, %xmm1
movdqu %xmm1, 32(%rbp)
jmp L117
L116:
movdqu %xmm8, 32(%rbp)
add $128, %rcx
pextrq $0, %xmm1, %rbx
and $255, %rbx
vpshufb %xmm0, %xmm1, %xmm1
lea 96(%rsi), %r14
movdqu -128(%rcx), %xmm4
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
movdqu -112(%rcx), %xmm15
mov %rcx, %r12
sub $96, %r12
vpxor %xmm4, %xmm1, %xmm9
add $6, %rbx
cmp $256, %rbx
jae L118
vpaddd %xmm2, %xmm1, %xmm10
vpaddd %xmm2, %xmm10, %xmm11
vpxor %xmm4, %xmm10, %xmm10
vpaddd %xmm2, %xmm11, %xmm12
vpxor %xmm4, %xmm11, %xmm11
vpaddd %xmm2, %xmm12, %xmm13
vpxor %xmm4, %xmm12, %xmm12
vpaddd %xmm2, %xmm13, %xmm14
vpxor %xmm4, %xmm13, %xmm13
vpaddd %xmm2, %xmm14, %xmm1
vpxor %xmm4, %xmm14, %xmm14
jmp L119
L118:
sub $256, %rbx
vpshufb %xmm0, %xmm1, %xmm6
pxor %xmm5, %xmm5
mov $1, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm10
pxor %xmm5, %xmm5
mov $2, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm11
vpaddd %xmm5, %xmm10, %xmm12
vpshufb %xmm0, %xmm10, %xmm10
vpaddd %xmm5, %xmm11, %xmm13
vpshufb %xmm0, %xmm11, %xmm11
vpxor %xmm4, %xmm10, %xmm10
vpaddd %xmm5, %xmm12, %xmm14
vpshufb %xmm0, %xmm12, %xmm12
vpxor %xmm4, %xmm11, %xmm11
vpaddd %xmm5, %xmm13, %xmm1
vpshufb %xmm0, %xmm13, %xmm13
vpxor %xmm4, %xmm12, %xmm12
vpshufb %xmm0, %xmm14, %xmm14
vpxor %xmm4, %xmm13, %xmm13
vpshufb %xmm0, %xmm1, %xmm1
vpxor %xmm4, %xmm14, %xmm14
L119:
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -96(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -80(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -64(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -48(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -32(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -16(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 0(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 16(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 32(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 48(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 64(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 80(%rcx), %xmm15
movdqu 96(%rcx), %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor 0(%rdi), %xmm3, %xmm4
vaesenc %xmm15, %xmm10, %xmm10
vpxor 16(%rdi), %xmm3, %xmm5
vaesenc %xmm15, %xmm11, %xmm11
vpxor 32(%rdi), %xmm3, %xmm6
vaesenc %xmm15, %xmm12, %xmm12
vpxor 48(%rdi), %xmm3, %xmm8
vaesenc %xmm15, %xmm13, %xmm13
vpxor 64(%rdi), %xmm3, %xmm2
vaesenc %xmm15, %xmm14, %xmm14
vpxor 80(%rdi), %xmm3, %xmm3
lea 96(%rdi), %rdi
vaesenclast %xmm4, %xmm9, %xmm9
vaesenclast %xmm5, %xmm10, %xmm10
vaesenclast %xmm6, %xmm11, %xmm11
vaesenclast %xmm8, %xmm12, %xmm12
vaesenclast %xmm2, %xmm13, %xmm13
vaesenclast %xmm3, %xmm14, %xmm14
movdqu %xmm9, 0(%rsi)
movdqu %xmm10, 16(%rsi)
movdqu %xmm11, 32(%rsi)
movdqu %xmm12, 48(%rsi)
movdqu %xmm13, 64(%rsi)
movdqu %xmm14, 80(%rsi)
lea 96(%rsi), %rsi
vpshufb %xmm0, %xmm9, %xmm8
vpshufb %xmm0, %xmm10, %xmm2
movdqu %xmm8, 112(%rbp)
vpshufb %xmm0, %xmm11, %xmm4
movdqu %xmm2, 96(%rbp)
vpshufb %xmm0, %xmm12, %xmm5
movdqu %xmm4, 80(%rbp)
vpshufb %xmm0, %xmm13, %xmm6
movdqu %xmm5, 64(%rbp)
vpshufb %xmm0, %xmm14, %xmm7
movdqu %xmm6, 48(%rbp)
movdqu -128(%rcx), %xmm4
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
movdqu -112(%rcx), %xmm15
mov %rcx, %r12
sub $96, %r12
vpxor %xmm4, %xmm1, %xmm9
add $6, %rbx
cmp $256, %rbx
jae L120
vpaddd %xmm2, %xmm1, %xmm10
vpaddd %xmm2, %xmm10, %xmm11
vpxor %xmm4, %xmm10, %xmm10
vpaddd %xmm2, %xmm11, %xmm12
vpxor %xmm4, %xmm11, %xmm11
vpaddd %xmm2, %xmm12, %xmm13
vpxor %xmm4, %xmm12, %xmm12
vpaddd %xmm2, %xmm13, %xmm14
vpxor %xmm4, %xmm13, %xmm13
vpaddd %xmm2, %xmm14, %xmm1
vpxor %xmm4, %xmm14, %xmm14
jmp L121
L120:
sub $256, %rbx
vpshufb %xmm0, %xmm1, %xmm6
pxor %xmm5, %xmm5
mov $1, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm10
pxor %xmm5, %xmm5
mov $2, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm11
vpaddd %xmm5, %xmm10, %xmm12
vpshufb %xmm0, %xmm10, %xmm10
vpaddd %xmm5, %xmm11, %xmm13
vpshufb %xmm0, %xmm11, %xmm11
vpxor %xmm4, %xmm10, %xmm10
vpaddd %xmm5, %xmm12, %xmm14
vpshufb %xmm0, %xmm12, %xmm12
vpxor %xmm4, %xmm11, %xmm11
vpaddd %xmm5, %xmm13, %xmm1
vpshufb %xmm0, %xmm13, %xmm13
vpxor %xmm4, %xmm12, %xmm12
vpshufb %xmm0, %xmm14, %xmm14
vpxor %xmm4, %xmm13, %xmm13
vpshufb %xmm0, %xmm1, %xmm1
vpxor %xmm4, %xmm14, %xmm14
L121:
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -96(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -80(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -64(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -48(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -32(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -16(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 0(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 16(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 32(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 48(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 64(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 80(%rcx), %xmm15
movdqu 96(%rcx), %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor 0(%rdi), %xmm3, %xmm4
vaesenc %xmm15, %xmm10, %xmm10
vpxor 16(%rdi), %xmm3, %xmm5
vaesenc %xmm15, %xmm11, %xmm11
vpxor 32(%rdi), %xmm3, %xmm6
vaesenc %xmm15, %xmm12, %xmm12
vpxor 48(%rdi), %xmm3, %xmm8
vaesenc %xmm15, %xmm13, %xmm13
vpxor 64(%rdi), %xmm3, %xmm2
vaesenc %xmm15, %xmm14, %xmm14
vpxor 80(%rdi), %xmm3, %xmm3
lea 96(%rdi), %rdi
vaesenclast %xmm4, %xmm9, %xmm9
vaesenclast %xmm5, %xmm10, %xmm10
vaesenclast %xmm6, %xmm11, %xmm11
vaesenclast %xmm8, %xmm12, %xmm12
vaesenclast %xmm2, %xmm13, %xmm13
vaesenclast %xmm3, %xmm14, %xmm14
movdqu %xmm9, 0(%rsi)
movdqu %xmm10, 16(%rsi)
movdqu %xmm11, 32(%rsi)
movdqu %xmm12, 48(%rsi)
movdqu %xmm13, 64(%rsi)
movdqu %xmm14, 80(%rsi)
lea 96(%rsi), %rsi
sub $12, %rdx
movdqu 32(%rbp), %xmm8
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
vpxor %xmm4, %xmm4, %xmm4
movdqu -128(%rcx), %xmm15
vpaddd %xmm2, %xmm1, %xmm10
vpaddd %xmm2, %xmm10, %xmm11
vpaddd %xmm2, %xmm11, %xmm12
vpaddd %xmm2, %xmm12, %xmm13
vpaddd %xmm2, %xmm13, %xmm14
vpxor %xmm15, %xmm1, %xmm9
movdqu %xmm4, 16(%rbp)
jmp L123
.balign 16
L122:
add $6, %rbx
cmp $256, %rbx
jb L124
mov $579005069656919567, %r11
pinsrq $0, %r11, %xmm0
mov $283686952306183, %r11
pinsrq $1, %r11, %xmm0
vpshufb %xmm0, %xmm1, %xmm6
pxor %xmm5, %xmm5
mov $1, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm10
pxor %xmm5, %xmm5
mov $2, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm11
movdqu -32(%r9), %xmm3
vpaddd %xmm5, %xmm10, %xmm12
vpshufb %xmm0, %xmm10, %xmm10
vpaddd %xmm5, %xmm11, %xmm13
vpshufb %xmm0, %xmm11, %xmm11
vpxor %xmm15, %xmm10, %xmm10
vpaddd %xmm5, %xmm12, %xmm14
vpshufb %xmm0, %xmm12, %xmm12
vpxor %xmm15, %xmm11, %xmm11
vpaddd %xmm5, %xmm13, %xmm1
vpshufb %xmm0, %xmm13, %xmm13
vpshufb %xmm0, %xmm14, %xmm14
vpshufb %xmm0, %xmm1, %xmm1
sub $256, %rbx
jmp L125
L124:
movdqu -32(%r9), %xmm3
vpaddd %xmm14, %xmm2, %xmm1
vpxor %xmm15, %xmm10, %xmm10
vpxor %xmm15, %xmm11, %xmm11
L125:
movdqu %xmm1, 128(%rbp)
vpclmulqdq $16, %xmm3, %xmm7, %xmm5
vpxor %xmm15, %xmm12, %xmm12
movdqu -112(%rcx), %xmm2
vpclmulqdq $1, %xmm3, %xmm7, %xmm6
vaesenc %xmm2, %xmm9, %xmm9
movdqu 48(%rbp), %xmm0
vpxor %xmm15, %xmm13, %xmm13
vpclmulqdq $0, %xmm3, %xmm7, %xmm1
vaesenc %xmm2, %xmm10, %xmm10
vpxor %xmm15, %xmm14, %xmm14
vpclmulqdq $17, %xmm3, %xmm7, %xmm7
vaesenc %xmm2, %xmm11, %xmm11
movdqu -16(%r9), %xmm3
vaesenc %xmm2, %xmm12, %xmm12
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpxor %xmm4, %xmm8, %xmm8
vaesenc %xmm2, %xmm13, %xmm13
vpxor %xmm5, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vaesenc %xmm2, %xmm14, %xmm14
movdqu -96(%rcx), %xmm15
vpclmulqdq $1, %xmm3, %xmm0, %xmm2
vaesenc %xmm15, %xmm9, %xmm9
vpxor 16(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
movdqu 64(%rbp), %xmm0
vaesenc %xmm15, %xmm10, %xmm10
movbeq 88(%r14), %r13
vaesenc %xmm15, %xmm11, %xmm11
movbeq 80(%r14), %r12
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 32(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 40(%rbp)
movdqu 16(%r9), %xmm5
vaesenc %xmm15, %xmm14, %xmm14
movdqu -80(%rcx), %xmm15
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vaesenc %xmm15, %xmm10, %xmm10
vpxor %xmm3, %xmm7, %xmm7
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vaesenc %xmm15, %xmm11, %xmm11
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 80(%rbp), %xmm0
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vaesenc %xmm15, %xmm14, %xmm14
movdqu -64(%rcx), %xmm15
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vaesenc %xmm15, %xmm10, %xmm10
movbeq 72(%r14), %r13
vpxor %xmm5, %xmm7, %xmm7
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vaesenc %xmm15, %xmm11, %xmm11
movbeq 64(%r14), %r12
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
movdqu 96(%rbp), %xmm0
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 48(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 56(%rbp)
vpxor %xmm2, %xmm4, %xmm4
movdqu 64(%r9), %xmm2
vaesenc %xmm15, %xmm14, %xmm14
movdqu -48(%rcx), %xmm15
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm0, %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm5
vaesenc %xmm15, %xmm10, %xmm10
movbeq 56(%r14), %r13
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor 112(%rbp), %xmm8, %xmm8
vaesenc %xmm15, %xmm11, %xmm11
movbeq 48(%r14), %r12
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 64(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 72(%rbp)
vpxor %xmm3, %xmm4, %xmm4
movdqu 80(%r9), %xmm3
vaesenc %xmm15, %xmm14, %xmm14
movdqu -32(%rcx), %xmm15
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm8, %xmm5
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm3, %xmm8, %xmm1
vaesenc %xmm15, %xmm10, %xmm10
movbeq 40(%r14), %r13
vpxor %xmm2, %xmm7, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm2
vaesenc %xmm15, %xmm11, %xmm11
movbeq 32(%r14), %r12
vpclmulqdq $17, %xmm3, %xmm8, %xmm8
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 80(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 88(%rbp)
vpxor %xmm5, %xmm6, %xmm6
vaesenc %xmm15, %xmm14, %xmm14
vpxor %xmm1, %xmm6, %xmm6
movdqu -16(%rcx), %xmm15
vpslldq $8, %xmm6, %xmm5
vpxor %xmm2, %xmm4, %xmm4
pxor %xmm3, %xmm3
mov $13979173243358019584, %r11
pinsrq $1, %r11, %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm8, %xmm7, %xmm7
vaesenc %xmm15, %xmm10, %xmm10
vpxor %xmm5, %xmm4, %xmm4
movbeq 24(%r14), %r13
vaesenc %xmm15, %xmm11, %xmm11
movbeq 16(%r14), %r12
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
movq %r13, 96(%rbp)
vaesenc %xmm15, %xmm12, %xmm12
movq %r12, 104(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 0(%rcx), %xmm1
vaesenc %xmm1, %xmm9, %xmm9
movdqu 16(%rcx), %xmm15
vaesenc %xmm1, %xmm10, %xmm10
vpsrldq $8, %xmm6, %xmm6
vaesenc %xmm1, %xmm11, %xmm11
vpxor %xmm6, %xmm7, %xmm7
vaesenc %xmm1, %xmm12, %xmm12
vpxor %xmm0, %xmm4, %xmm4
movbeq 8(%r14), %r13
vaesenc %xmm1, %xmm13, %xmm13
movbeq 0(%r14), %r12
vaesenc %xmm1, %xmm14, %xmm14
movdqu 32(%rcx), %xmm1
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
vaesenc %xmm1, %xmm9, %xmm9
vaesenc %xmm1, %xmm10, %xmm10
vaesenc %xmm1, %xmm11, %xmm11
vaesenc %xmm1, %xmm12, %xmm12
vaesenc %xmm1, %xmm13, %xmm13
movdqu 48(%rcx), %xmm15
vaesenc %xmm1, %xmm14, %xmm14
movdqu 64(%rcx), %xmm1
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
vaesenc %xmm1, %xmm9, %xmm9
vaesenc %xmm1, %xmm10, %xmm10
vaesenc %xmm1, %xmm11, %xmm11
vaesenc %xmm1, %xmm12, %xmm12
vaesenc %xmm1, %xmm13, %xmm13
movdqu 80(%rcx), %xmm15
vaesenc %xmm1, %xmm14, %xmm14
movdqu 96(%rcx), %xmm1
vaesenc %xmm15, %xmm9, %xmm9
movdqu %xmm7, 16(%rbp)
vpalignr $8, %xmm4, %xmm4, %xmm8
vaesenc %xmm15, %xmm10, %xmm10
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor 0(%rdi), %xmm1, %xmm2
vaesenc %xmm15, %xmm11, %xmm11
vpxor 16(%rdi), %xmm1, %xmm0
vaesenc %xmm15, %xmm12, %xmm12
vpxor 32(%rdi), %xmm1, %xmm5
vaesenc %xmm15, %xmm13, %xmm13
vpxor 48(%rdi), %xmm1, %xmm6
vaesenc %xmm15, %xmm14, %xmm14
vpxor 64(%rdi), %xmm1, %xmm7
vpxor 80(%rdi), %xmm1, %xmm3
movdqu 128(%rbp), %xmm1
vaesenclast %xmm2, %xmm9, %xmm9
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
vaesenclast %xmm0, %xmm10, %xmm10
vpaddd %xmm2, %xmm1, %xmm0
movq %r13, 112(%rbp)
lea 96(%rdi), %rdi
vaesenclast %xmm5, %xmm11, %xmm11
vpaddd %xmm2, %xmm0, %xmm5
movq %r12, 120(%rbp)
lea 96(%rsi), %rsi
movdqu -128(%rcx), %xmm15
vaesenclast %xmm6, %xmm12, %xmm12
vpaddd %xmm2, %xmm5, %xmm6
vaesenclast %xmm7, %xmm13, %xmm13
vpaddd %xmm2, %xmm6, %xmm7
vaesenclast %xmm3, %xmm14, %xmm14
vpaddd %xmm2, %xmm7, %xmm3
sub $6, %rdx
add $96, %r14
cmp $0, %rdx
jbe L126
movdqu %xmm9, -96(%rsi)
vpxor %xmm15, %xmm1, %xmm9
movdqu %xmm10, -80(%rsi)
movdqu %xmm0, %xmm10
movdqu %xmm11, -64(%rsi)
movdqu %xmm5, %xmm11
movdqu %xmm12, -48(%rsi)
movdqu %xmm6, %xmm12
movdqu %xmm13, -32(%rsi)
movdqu %xmm7, %xmm13
movdqu %xmm14, -16(%rsi)
movdqu %xmm3, %xmm14
movdqu 32(%rbp), %xmm7
jmp L127
L126:
vpxor 16(%rbp), %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
L127:
.balign 16
L123:
cmp $0, %rdx
ja L122
movdqu 32(%rbp), %xmm7
movdqu %xmm1, 32(%rbp)
pxor %xmm4, %xmm4
movdqu %xmm4, 16(%rbp)
movdqu -32(%r9), %xmm3
vpclmulqdq $0, %xmm3, %xmm7, %xmm1
vpclmulqdq $16, %xmm3, %xmm7, %xmm5
movdqu 48(%rbp), %xmm0
vpclmulqdq $1, %xmm3, %xmm7, %xmm6
vpclmulqdq $17, %xmm3, %xmm7, %xmm7
movdqu -16(%r9), %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpxor %xmm4, %xmm8, %xmm8
vpxor %xmm5, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vpclmulqdq $1, %xmm3, %xmm0, %xmm2
vpxor 16(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
movdqu 64(%rbp), %xmm0
movdqu 16(%r9), %xmm5
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpxor %xmm3, %xmm7, %xmm7
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 80(%rbp), %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vpxor %xmm5, %xmm7, %xmm7
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
movdqu 96(%rbp), %xmm0
vpxor %xmm2, %xmm4, %xmm4
movdqu 64(%r9), %xmm2
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm0, %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm5
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor 112(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vpxor %xmm3, %xmm4, %xmm4
movdqu 80(%r9), %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm8, %xmm5
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm3, %xmm8, %xmm1
vpxor %xmm2, %xmm7, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm2
vpclmulqdq $17, %xmm3, %xmm8, %xmm8
vpxor %xmm5, %xmm6, %xmm6
vpxor %xmm1, %xmm6, %xmm6
vpxor %xmm2, %xmm4, %xmm4
pxor %xmm3, %xmm3
mov $3254779904, %rax
pinsrd $3, %eax, %xmm3
vpxor %xmm8, %xmm7, %xmm7
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm0
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm0
movdqu %xmm9, -96(%rsi)
vpshufb %xmm0, %xmm9, %xmm9
vpxor %xmm7, %xmm1, %xmm1
movdqu %xmm10, -80(%rsi)
vpshufb %xmm0, %xmm10, %xmm10
movdqu %xmm11, -64(%rsi)
vpshufb %xmm0, %xmm11, %xmm11
movdqu %xmm12, -48(%rsi)
vpshufb %xmm0, %xmm12, %xmm12
movdqu %xmm13, -32(%rsi)
vpshufb %xmm0, %xmm13, %xmm13
movdqu %xmm14, -16(%rsi)
vpshufb %xmm0, %xmm14, %xmm14
pxor %xmm4, %xmm4
movdqu %xmm14, %xmm7
movdqu %xmm4, 16(%rbp)
movdqu %xmm13, 48(%rbp)
movdqu %xmm12, 64(%rbp)
movdqu %xmm11, 80(%rbp)
movdqu %xmm10, 96(%rbp)
movdqu %xmm9, 112(%rbp)
movdqu -32(%r9), %xmm3
vpclmulqdq $0, %xmm3, %xmm7, %xmm1
vpclmulqdq $16, %xmm3, %xmm7, %xmm5
movdqu 48(%rbp), %xmm0
vpclmulqdq $1, %xmm3, %xmm7, %xmm6
vpclmulqdq $17, %xmm3, %xmm7, %xmm7
movdqu -16(%r9), %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpxor %xmm4, %xmm8, %xmm8
vpxor %xmm5, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vpclmulqdq $1, %xmm3, %xmm0, %xmm2
vpxor 16(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
movdqu 64(%rbp), %xmm0
movdqu 16(%r9), %xmm5
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpxor %xmm3, %xmm7, %xmm7
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 80(%rbp), %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vpxor %xmm5, %xmm7, %xmm7
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
movdqu 96(%rbp), %xmm0
vpxor %xmm2, %xmm4, %xmm4
movdqu 64(%r9), %xmm2
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm0, %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm5
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor 112(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vpxor %xmm3, %xmm4, %xmm4
movdqu 80(%r9), %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm8, %xmm5
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm3, %xmm8, %xmm1
vpxor %xmm2, %xmm7, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm2
vpclmulqdq $17, %xmm3, %xmm8, %xmm8
vpxor %xmm5, %xmm6, %xmm6
vpxor %xmm1, %xmm6, %xmm6
vpxor %xmm2, %xmm4, %xmm4
pxor %xmm3, %xmm3
mov $3254779904, %rax
pinsrd $3, %eax, %xmm3
vpxor %xmm8, %xmm7, %xmm7
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
sub $128, %rcx
L117:
movdqu 32(%rbp), %xmm11
mov %rcx, %r8
mov 104(%rsp), %rax
mov 112(%rsp), %rdi
mov 120(%rsp), %rdx
mov %rdx, %r14
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm9
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm9
pshufb %xmm9, %xmm11
pxor %xmm10, %xmm10
mov $1, %rbx
pinsrd $0, %ebx, %xmm10
mov %rax, %r11
mov %rdi, %r10
mov $0, %rbx
jmp L129
.balign 16
L128:
movdqu %xmm11, %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
movdqu 0(%r11), %xmm2
pxor %xmm0, %xmm2
movdqu %xmm2, 0(%r10)
add $1, %rbx
add $16, %r11
add $16, %r10
paddd %xmm10, %xmm11
.balign 16
L129:
cmp %rdx, %rbx
jne L128
mov %rdi, %r11
jmp L131
.balign 16
L130:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L131:
cmp $6, %rdx
jae L130
cmp $0, %rdx
jbe L132
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L134
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L135
L134:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L136
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L138
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L140
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L141
L140:
L141:
jmp L139
L138:
L139:
jmp L137
L136:
L137:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L135:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L133
L132:
L133:
add 96(%rsp), %r14
imul $16, %r14
mov 136(%rsp), %r13
cmp %r14, %r13
jbe L142
mov 128(%rsp), %rax
mov %r13, %r10
and $15, %r10
movdqu %xmm11, %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
movdqu 0(%rax), %xmm4
pxor %xmm4, %xmm0
movdqu %xmm0, 0(%rax)
cmp $8, %r10
jae L144
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L145
L144:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L145:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L143
L142:
L143:
mov %r15, %r11
pxor %xmm0, %xmm0
mov %r11, %rax
imul $8, %rax
pinsrq $1, %rax, %xmm0
mov %r13, %rax
imul $8, %rax
pinsrq $0, %rax, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
movdqu 0(%rbp), %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pshufb %xmm9, %xmm8
pxor %xmm0, %xmm8
mov 152(%rsp), %r15
movdqu %xmm8, 0(%r15)
pop %rbx
pop %rbp
pop %rdi
pop %rsi
pop %r12
pop %r13
pop %r14
pop %r15
ret
.global gcm128_decrypt_opt
gcm128_decrypt_opt:
push %r15
push %r14
push %r13
push %r12
push %rsi
push %rdi
push %rbp
push %rbx
mov 144(%rsp), %rbp
mov %rcx, %r13
lea 32(%r9), %r9
mov 72(%rsp), %rbx
mov %rdx, %rcx
imul $16, %rcx
mov $579005069656919567, %r10
pinsrq $0, %r10, %xmm9
mov $283686952306183, %r10
pinsrq $1, %r10, %xmm9
pxor %xmm8, %xmm8
mov %rdi, %r11
jmp L147
.balign 16
L146:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L147:
cmp $6, %rdx
jae L146
cmp $0, %rdx
jbe L148
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L150
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L151
L150:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L152
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L154
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L156
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L157
L156:
L157:
jmp L155
L154:
L155:
jmp L153
L152:
L153:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L151:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L149
L148:
L149:
mov %rsi, %r15
cmp %rcx, %rsi
jbe L158
movdqu 0(%rbx), %xmm0
mov %rsi, %r10
and $15, %r10
cmp $8, %r10
jae L160
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L161
L160:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L161:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L159
L158:
L159:
mov 80(%rsp), %rdi
mov 88(%rsp), %rsi
mov 96(%rsp), %rdx
mov %r13, %rcx
movdqu %xmm9, %xmm0
movdqu 0(%r8), %xmm1
movdqu %xmm1, 0(%rbp)
pxor %xmm10, %xmm10
mov $1, %r11
pinsrq $0, %r11, %xmm10
vpaddd %xmm10, %xmm1, %xmm1
cmp $0, %rdx
jne L162
vpshufb %xmm0, %xmm1, %xmm1
movdqu %xmm1, 32(%rbp)
jmp L163
L162:
movdqu %xmm8, 32(%rbp)
add $128, %rcx
pextrq $0, %xmm1, %rbx
and $255, %rbx
vpshufb %xmm0, %xmm1, %xmm1
lea 96(%rdi), %r14
movdqu 32(%rbp), %xmm8
movdqu 80(%rdi), %xmm7
movdqu 64(%rdi), %xmm4
movdqu 48(%rdi), %xmm5
movdqu 32(%rdi), %xmm6
vpshufb %xmm0, %xmm7, %xmm7
movdqu 16(%rdi), %xmm2
vpshufb %xmm0, %xmm4, %xmm4
movdqu 0(%rdi), %xmm3
vpshufb %xmm0, %xmm5, %xmm5
movdqu %xmm4, 48(%rbp)
vpshufb %xmm0, %xmm6, %xmm6
movdqu %xmm5, 64(%rbp)
vpshufb %xmm0, %xmm2, %xmm2
movdqu %xmm6, 80(%rbp)
vpshufb %xmm0, %xmm3, %xmm3
movdqu %xmm2, 96(%rbp)
movdqu %xmm3, 112(%rbp)
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
vpxor %xmm4, %xmm4, %xmm4
movdqu -128(%rcx), %xmm15
vpaddd %xmm2, %xmm1, %xmm10
vpaddd %xmm2, %xmm10, %xmm11
vpaddd %xmm2, %xmm11, %xmm12
vpaddd %xmm2, %xmm12, %xmm13
vpaddd %xmm2, %xmm13, %xmm14
vpxor %xmm15, %xmm1, %xmm9
movdqu %xmm4, 16(%rbp)
cmp $6, %rdx
jne L164
sub $96, %r14
jmp L165
L164:
L165:
jmp L167
.balign 16
L166:
add $6, %rbx
cmp $256, %rbx
jb L168
mov $579005069656919567, %r11
pinsrq $0, %r11, %xmm0
mov $283686952306183, %r11
pinsrq $1, %r11, %xmm0
vpshufb %xmm0, %xmm1, %xmm6
pxor %xmm5, %xmm5
mov $1, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm10
pxor %xmm5, %xmm5
mov $2, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm11
movdqu -32(%r9), %xmm3
vpaddd %xmm5, %xmm10, %xmm12
vpshufb %xmm0, %xmm10, %xmm10
vpaddd %xmm5, %xmm11, %xmm13
vpshufb %xmm0, %xmm11, %xmm11
vpxor %xmm15, %xmm10, %xmm10
vpaddd %xmm5, %xmm12, %xmm14
vpshufb %xmm0, %xmm12, %xmm12
vpxor %xmm15, %xmm11, %xmm11
vpaddd %xmm5, %xmm13, %xmm1
vpshufb %xmm0, %xmm13, %xmm13
vpshufb %xmm0, %xmm14, %xmm14
vpshufb %xmm0, %xmm1, %xmm1
sub $256, %rbx
jmp L169
L168:
movdqu -32(%r9), %xmm3
vpaddd %xmm14, %xmm2, %xmm1
vpxor %xmm15, %xmm10, %xmm10
vpxor %xmm15, %xmm11, %xmm11
L169:
movdqu %xmm1, 128(%rbp)
vpclmulqdq $16, %xmm3, %xmm7, %xmm5
vpxor %xmm15, %xmm12, %xmm12
movdqu -112(%rcx), %xmm2
vpclmulqdq $1, %xmm3, %xmm7, %xmm6
vaesenc %xmm2, %xmm9, %xmm9
movdqu 48(%rbp), %xmm0
vpxor %xmm15, %xmm13, %xmm13
vpclmulqdq $0, %xmm3, %xmm7, %xmm1
vaesenc %xmm2, %xmm10, %xmm10
vpxor %xmm15, %xmm14, %xmm14
vpclmulqdq $17, %xmm3, %xmm7, %xmm7
vaesenc %xmm2, %xmm11, %xmm11
movdqu -16(%r9), %xmm3
vaesenc %xmm2, %xmm12, %xmm12
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpxor %xmm4, %xmm8, %xmm8
vaesenc %xmm2, %xmm13, %xmm13
vpxor %xmm5, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vaesenc %xmm2, %xmm14, %xmm14
movdqu -96(%rcx), %xmm15
vpclmulqdq $1, %xmm3, %xmm0, %xmm2
vaesenc %xmm15, %xmm9, %xmm9
vpxor 16(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
movdqu 64(%rbp), %xmm0
vaesenc %xmm15, %xmm10, %xmm10
movbeq 88(%r14), %r13
vaesenc %xmm15, %xmm11, %xmm11
movbeq 80(%r14), %r12
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 32(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 40(%rbp)
movdqu 16(%r9), %xmm5
vaesenc %xmm15, %xmm14, %xmm14
movdqu -80(%rcx), %xmm15
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vaesenc %xmm15, %xmm10, %xmm10
vpxor %xmm3, %xmm7, %xmm7
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vaesenc %xmm15, %xmm11, %xmm11
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 80(%rbp), %xmm0
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vaesenc %xmm15, %xmm14, %xmm14
movdqu -64(%rcx), %xmm15
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vaesenc %xmm15, %xmm10, %xmm10
movbeq 72(%r14), %r13
vpxor %xmm5, %xmm7, %xmm7
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vaesenc %xmm15, %xmm11, %xmm11
movbeq 64(%r14), %r12
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
movdqu 96(%rbp), %xmm0
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 48(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 56(%rbp)
vpxor %xmm2, %xmm4, %xmm4
movdqu 64(%r9), %xmm2
vaesenc %xmm15, %xmm14, %xmm14
movdqu -48(%rcx), %xmm15
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm0, %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm5
vaesenc %xmm15, %xmm10, %xmm10
movbeq 56(%r14), %r13
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor 112(%rbp), %xmm8, %xmm8
vaesenc %xmm15, %xmm11, %xmm11
movbeq 48(%r14), %r12
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 64(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 72(%rbp)
vpxor %xmm3, %xmm4, %xmm4
movdqu 80(%r9), %xmm3
vaesenc %xmm15, %xmm14, %xmm14
movdqu -32(%rcx), %xmm15
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm8, %xmm5
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm3, %xmm8, %xmm1
vaesenc %xmm15, %xmm10, %xmm10
movbeq 40(%r14), %r13
vpxor %xmm2, %xmm7, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm2
vaesenc %xmm15, %xmm11, %xmm11
movbeq 32(%r14), %r12
vpclmulqdq $17, %xmm3, %xmm8, %xmm8
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 80(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 88(%rbp)
vpxor %xmm5, %xmm6, %xmm6
vaesenc %xmm15, %xmm14, %xmm14
vpxor %xmm1, %xmm6, %xmm6
movdqu -16(%rcx), %xmm15
vpslldq $8, %xmm6, %xmm5
vpxor %xmm2, %xmm4, %xmm4
pxor %xmm3, %xmm3
mov $13979173243358019584, %r11
pinsrq $1, %r11, %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm8, %xmm7, %xmm7
vaesenc %xmm15, %xmm10, %xmm10
vpxor %xmm5, %xmm4, %xmm4
movbeq 24(%r14), %r13
vaesenc %xmm15, %xmm11, %xmm11
movbeq 16(%r14), %r12
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
movq %r13, 96(%rbp)
vaesenc %xmm15, %xmm12, %xmm12
movq %r12, 104(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 0(%rcx), %xmm1
vaesenc %xmm1, %xmm9, %xmm9
movdqu 16(%rcx), %xmm15
vaesenc %xmm1, %xmm10, %xmm10
vpsrldq $8, %xmm6, %xmm6
vaesenc %xmm1, %xmm11, %xmm11
vpxor %xmm6, %xmm7, %xmm7
vaesenc %xmm1, %xmm12, %xmm12
vpxor %xmm0, %xmm4, %xmm4
movbeq 8(%r14), %r13
vaesenc %xmm1, %xmm13, %xmm13
movbeq 0(%r14), %r12
vaesenc %xmm1, %xmm14, %xmm14
movdqu 32(%rcx), %xmm1
vaesenc %xmm15, %xmm9, %xmm9
movdqu %xmm7, 16(%rbp)
vpalignr $8, %xmm4, %xmm4, %xmm8
vaesenc %xmm15, %xmm10, %xmm10
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor 0(%rdi), %xmm1, %xmm2
vaesenc %xmm15, %xmm11, %xmm11
vpxor 16(%rdi), %xmm1, %xmm0
vaesenc %xmm15, %xmm12, %xmm12
vpxor 32(%rdi), %xmm1, %xmm5
vaesenc %xmm15, %xmm13, %xmm13
vpxor 48(%rdi), %xmm1, %xmm6
vaesenc %xmm15, %xmm14, %xmm14
vpxor 64(%rdi), %xmm1, %xmm7
vpxor 80(%rdi), %xmm1, %xmm3
movdqu 128(%rbp), %xmm1
vaesenclast %xmm2, %xmm9, %xmm9
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
vaesenclast %xmm0, %xmm10, %xmm10
vpaddd %xmm2, %xmm1, %xmm0
movq %r13, 112(%rbp)
lea 96(%rdi), %rdi
vaesenclast %xmm5, %xmm11, %xmm11
vpaddd %xmm2, %xmm0, %xmm5
movq %r12, 120(%rbp)
lea 96(%rsi), %rsi
movdqu -128(%rcx), %xmm15
vaesenclast %xmm6, %xmm12, %xmm12
vpaddd %xmm2, %xmm5, %xmm6
vaesenclast %xmm7, %xmm13, %xmm13
vpaddd %xmm2, %xmm6, %xmm7
vaesenclast %xmm3, %xmm14, %xmm14
vpaddd %xmm2, %xmm7, %xmm3
sub $6, %rdx
cmp $6, %rdx
jbe L170
add $96, %r14
jmp L171
L170:
L171:
cmp $0, %rdx
jbe L172
movdqu %xmm9, -96(%rsi)
vpxor %xmm15, %xmm1, %xmm9
movdqu %xmm10, -80(%rsi)
movdqu %xmm0, %xmm10
movdqu %xmm11, -64(%rsi)
movdqu %xmm5, %xmm11
movdqu %xmm12, -48(%rsi)
movdqu %xmm6, %xmm12
movdqu %xmm13, -32(%rsi)
movdqu %xmm7, %xmm13
movdqu %xmm14, -16(%rsi)
movdqu %xmm3, %xmm14
movdqu 32(%rbp), %xmm7
jmp L173
L172:
vpxor 16(%rbp), %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
L173:
.balign 16
L167:
cmp $0, %rdx
ja L166
movdqu %xmm1, 32(%rbp)
movdqu %xmm9, -96(%rsi)
movdqu %xmm10, -80(%rsi)
movdqu %xmm11, -64(%rsi)
movdqu %xmm12, -48(%rsi)
movdqu %xmm13, -32(%rsi)
movdqu %xmm14, -16(%rsi)
sub $128, %rcx
L163:
movdqu 32(%rbp), %xmm11
mov %rcx, %r8
mov 104(%rsp), %rax
mov 112(%rsp), %rdi
mov 120(%rsp), %rdx
mov %rdx, %r14
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm9
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm9
pshufb %xmm9, %xmm11
mov %rdi, %rbx
mov %rdx, %r12
mov %rax, %rdi
mov %rdi, %r11
jmp L175
.balign 16
L174:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L175:
cmp $6, %rdx
jae L174
cmp $0, %rdx
jbe L176
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L178
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L179
L178:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L180
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L182
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L184
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L185
L184:
L185:
jmp L183
L182:
L183:
jmp L181
L180:
L181:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L179:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L177
L176:
L177:
mov %rbx, %rdi
mov %r12, %rdx
pxor %xmm10, %xmm10
mov $1, %rbx
pinsrd $0, %ebx, %xmm10
mov %rax, %r11
mov %rdi, %r10
mov $0, %rbx
jmp L187
.balign 16
L186:
movdqu %xmm11, %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
movdqu 0(%r11), %xmm2
pxor %xmm0, %xmm2
movdqu %xmm2, 0(%r10)
add $1, %rbx
add $16, %r11
add $16, %r10
paddd %xmm10, %xmm11
.balign 16
L187:
cmp %rdx, %rbx
jne L186
add 96(%rsp), %r14
imul $16, %r14
mov 136(%rsp), %r13
cmp %r14, %r13
jbe L188
mov 128(%rsp), %rax
mov %r13, %r10
and $15, %r10
movdqu 0(%rax), %xmm0
movdqu %xmm0, %xmm10
cmp $8, %r10
jae L190
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L191
L190:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L191:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
movdqu %xmm11, %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pxor %xmm0, %xmm10
movdqu %xmm10, 0(%rax)
jmp L189
L188:
L189:
mov %r15, %r11
pxor %xmm0, %xmm0
mov %r11, %rax
imul $8, %rax
pinsrq $1, %rax, %xmm0
mov %r13, %rax
imul $8, %rax
pinsrq $0, %rax, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
movdqu 0(%rbp), %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pshufb %xmm9, %xmm8
pxor %xmm0, %xmm8
mov 152(%rsp), %r15
movdqu 0(%r15), %xmm0
pcmpeqd %xmm8, %xmm0
pextrq $0, %xmm0, %rdx
sub $18446744073709551615, %rdx
mov $0, %rax
adc $0, %rax
pextrq $1, %xmm0, %rdx
sub $18446744073709551615, %rdx
mov $0, %rdx
adc $0, %rdx
add %rdx, %rax
mov %rax, %rcx
pop %rbx
pop %rbp
pop %rdi
pop %rsi
pop %r12
pop %r13
pop %r14
pop %r15
mov %rcx, %rax
ret
.global gcm256_decrypt_opt
gcm256_decrypt_opt:
push %r15
push %r14
push %r13
push %r12
push %rsi
push %rdi
push %rbp
push %rbx
mov 144(%rsp), %rbp
mov %rcx, %r13
lea 32(%r9), %r9
mov 72(%rsp), %rbx
mov %rdx, %rcx
imul $16, %rcx
mov $579005069656919567, %r10
pinsrq $0, %r10, %xmm9
mov $283686952306183, %r10
pinsrq $1, %r10, %xmm9
pxor %xmm8, %xmm8
mov %rdi, %r11
jmp L193
.balign 16
L192:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L193:
cmp $6, %rdx
jae L192
cmp $0, %rdx
jbe L194
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L196
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L197
L196:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L198
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L200
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L202
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L203
L202:
L203:
jmp L201
L200:
L201:
jmp L199
L198:
L199:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L197:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L195
L194:
L195:
mov %rsi, %r15
cmp %rcx, %rsi
jbe L204
movdqu 0(%rbx), %xmm0
mov %rsi, %r10
and $15, %r10
cmp $8, %r10
jae L206
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L207
L206:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L207:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L205
L204:
L205:
mov 80(%rsp), %rdi
mov 88(%rsp), %rsi
mov 96(%rsp), %rdx
mov %r13, %rcx
movdqu %xmm9, %xmm0
movdqu 0(%r8), %xmm1
movdqu %xmm1, 0(%rbp)
pxor %xmm10, %xmm10
mov $1, %r11
pinsrq $0, %r11, %xmm10
vpaddd %xmm10, %xmm1, %xmm1
cmp $0, %rdx
jne L208
vpshufb %xmm0, %xmm1, %xmm1
movdqu %xmm1, 32(%rbp)
jmp L209
L208:
movdqu %xmm8, 32(%rbp)
add $128, %rcx
pextrq $0, %xmm1, %rbx
and $255, %rbx
vpshufb %xmm0, %xmm1, %xmm1
lea 96(%rdi), %r14
movdqu 32(%rbp), %xmm8
movdqu 80(%rdi), %xmm7
movdqu 64(%rdi), %xmm4
movdqu 48(%rdi), %xmm5
movdqu 32(%rdi), %xmm6
vpshufb %xmm0, %xmm7, %xmm7
movdqu 16(%rdi), %xmm2
vpshufb %xmm0, %xmm4, %xmm4
movdqu 0(%rdi), %xmm3
vpshufb %xmm0, %xmm5, %xmm5
movdqu %xmm4, 48(%rbp)
vpshufb %xmm0, %xmm6, %xmm6
movdqu %xmm5, 64(%rbp)
vpshufb %xmm0, %xmm2, %xmm2
movdqu %xmm6, 80(%rbp)
vpshufb %xmm0, %xmm3, %xmm3
movdqu %xmm2, 96(%rbp)
movdqu %xmm3, 112(%rbp)
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
vpxor %xmm4, %xmm4, %xmm4
movdqu -128(%rcx), %xmm15
vpaddd %xmm2, %xmm1, %xmm10
vpaddd %xmm2, %xmm10, %xmm11
vpaddd %xmm2, %xmm11, %xmm12
vpaddd %xmm2, %xmm12, %xmm13
vpaddd %xmm2, %xmm13, %xmm14
vpxor %xmm15, %xmm1, %xmm9
movdqu %xmm4, 16(%rbp)
cmp $6, %rdx
jne L210
sub $96, %r14
jmp L211
L210:
L211:
jmp L213
.balign 16
L212:
add $6, %rbx
cmp $256, %rbx
jb L214
mov $579005069656919567, %r11
pinsrq $0, %r11, %xmm0
mov $283686952306183, %r11
pinsrq $1, %r11, %xmm0
vpshufb %xmm0, %xmm1, %xmm6
pxor %xmm5, %xmm5
mov $1, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm10
pxor %xmm5, %xmm5
mov $2, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm11
movdqu -32(%r9), %xmm3
vpaddd %xmm5, %xmm10, %xmm12
vpshufb %xmm0, %xmm10, %xmm10
vpaddd %xmm5, %xmm11, %xmm13
vpshufb %xmm0, %xmm11, %xmm11
vpxor %xmm15, %xmm10, %xmm10
vpaddd %xmm5, %xmm12, %xmm14
vpshufb %xmm0, %xmm12, %xmm12
vpxor %xmm15, %xmm11, %xmm11
vpaddd %xmm5, %xmm13, %xmm1
vpshufb %xmm0, %xmm13, %xmm13
vpshufb %xmm0, %xmm14, %xmm14
vpshufb %xmm0, %xmm1, %xmm1
sub $256, %rbx
jmp L215
L214:
movdqu -32(%r9), %xmm3
vpaddd %xmm14, %xmm2, %xmm1
vpxor %xmm15, %xmm10, %xmm10
vpxor %xmm15, %xmm11, %xmm11
L215:
movdqu %xmm1, 128(%rbp)
vpclmulqdq $16, %xmm3, %xmm7, %xmm5
vpxor %xmm15, %xmm12, %xmm12
movdqu -112(%rcx), %xmm2
vpclmulqdq $1, %xmm3, %xmm7, %xmm6
vaesenc %xmm2, %xmm9, %xmm9
movdqu 48(%rbp), %xmm0
vpxor %xmm15, %xmm13, %xmm13
vpclmulqdq $0, %xmm3, %xmm7, %xmm1
vaesenc %xmm2, %xmm10, %xmm10
vpxor %xmm15, %xmm14, %xmm14
vpclmulqdq $17, %xmm3, %xmm7, %xmm7
vaesenc %xmm2, %xmm11, %xmm11
movdqu -16(%r9), %xmm3
vaesenc %xmm2, %xmm12, %xmm12
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpxor %xmm4, %xmm8, %xmm8
vaesenc %xmm2, %xmm13, %xmm13
vpxor %xmm5, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vaesenc %xmm2, %xmm14, %xmm14
movdqu -96(%rcx), %xmm15
vpclmulqdq $1, %xmm3, %xmm0, %xmm2
vaesenc %xmm15, %xmm9, %xmm9
vpxor 16(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
movdqu 64(%rbp), %xmm0
vaesenc %xmm15, %xmm10, %xmm10
movbeq 88(%r14), %r13
vaesenc %xmm15, %xmm11, %xmm11
movbeq 80(%r14), %r12
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 32(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 40(%rbp)
movdqu 16(%r9), %xmm5
vaesenc %xmm15, %xmm14, %xmm14
movdqu -80(%rcx), %xmm15
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vaesenc %xmm15, %xmm10, %xmm10
vpxor %xmm3, %xmm7, %xmm7
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vaesenc %xmm15, %xmm11, %xmm11
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 80(%rbp), %xmm0
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vaesenc %xmm15, %xmm14, %xmm14
movdqu -64(%rcx), %xmm15
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vaesenc %xmm15, %xmm10, %xmm10
movbeq 72(%r14), %r13
vpxor %xmm5, %xmm7, %xmm7
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vaesenc %xmm15, %xmm11, %xmm11
movbeq 64(%r14), %r12
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
movdqu 96(%rbp), %xmm0
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 48(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 56(%rbp)
vpxor %xmm2, %xmm4, %xmm4
movdqu 64(%r9), %xmm2
vaesenc %xmm15, %xmm14, %xmm14
movdqu -48(%rcx), %xmm15
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm0, %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm5
vaesenc %xmm15, %xmm10, %xmm10
movbeq 56(%r14), %r13
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor 112(%rbp), %xmm8, %xmm8
vaesenc %xmm15, %xmm11, %xmm11
movbeq 48(%r14), %r12
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 64(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 72(%rbp)
vpxor %xmm3, %xmm4, %xmm4
movdqu 80(%r9), %xmm3
vaesenc %xmm15, %xmm14, %xmm14
movdqu -32(%rcx), %xmm15
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm8, %xmm5
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm3, %xmm8, %xmm1
vaesenc %xmm15, %xmm10, %xmm10
movbeq 40(%r14), %r13
vpxor %xmm2, %xmm7, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm2
vaesenc %xmm15, %xmm11, %xmm11
movbeq 32(%r14), %r12
vpclmulqdq $17, %xmm3, %xmm8, %xmm8
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 80(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 88(%rbp)
vpxor %xmm5, %xmm6, %xmm6
vaesenc %xmm15, %xmm14, %xmm14
vpxor %xmm1, %xmm6, %xmm6
movdqu -16(%rcx), %xmm15
vpslldq $8, %xmm6, %xmm5
vpxor %xmm2, %xmm4, %xmm4
pxor %xmm3, %xmm3
mov $13979173243358019584, %r11
pinsrq $1, %r11, %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm8, %xmm7, %xmm7
vaesenc %xmm15, %xmm10, %xmm10
vpxor %xmm5, %xmm4, %xmm4
movbeq 24(%r14), %r13
vaesenc %xmm15, %xmm11, %xmm11
movbeq 16(%r14), %r12
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
movq %r13, 96(%rbp)
vaesenc %xmm15, %xmm12, %xmm12
movq %r12, 104(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 0(%rcx), %xmm1
vaesenc %xmm1, %xmm9, %xmm9
movdqu 16(%rcx), %xmm15
vaesenc %xmm1, %xmm10, %xmm10
vpsrldq $8, %xmm6, %xmm6
vaesenc %xmm1, %xmm11, %xmm11
vpxor %xmm6, %xmm7, %xmm7
vaesenc %xmm1, %xmm12, %xmm12
vpxor %xmm0, %xmm4, %xmm4
movbeq 8(%r14), %r13
vaesenc %xmm1, %xmm13, %xmm13
movbeq 0(%r14), %r12
vaesenc %xmm1, %xmm14, %xmm14
movdqu 32(%rcx), %xmm1
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
vaesenc %xmm1, %xmm9, %xmm9
vaesenc %xmm1, %xmm10, %xmm10
vaesenc %xmm1, %xmm11, %xmm11
vaesenc %xmm1, %xmm12, %xmm12
vaesenc %xmm1, %xmm13, %xmm13
movdqu 48(%rcx), %xmm15
vaesenc %xmm1, %xmm14, %xmm14
movdqu 64(%rcx), %xmm1
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
vaesenc %xmm1, %xmm9, %xmm9
vaesenc %xmm1, %xmm10, %xmm10
vaesenc %xmm1, %xmm11, %xmm11
vaesenc %xmm1, %xmm12, %xmm12
vaesenc %xmm1, %xmm13, %xmm13
movdqu 80(%rcx), %xmm15
vaesenc %xmm1, %xmm14, %xmm14
movdqu 96(%rcx), %xmm1
vaesenc %xmm15, %xmm9, %xmm9
movdqu %xmm7, 16(%rbp)
vpalignr $8, %xmm4, %xmm4, %xmm8
vaesenc %xmm15, %xmm10, %xmm10
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor 0(%rdi), %xmm1, %xmm2
vaesenc %xmm15, %xmm11, %xmm11
vpxor 16(%rdi), %xmm1, %xmm0
vaesenc %xmm15, %xmm12, %xmm12
vpxor 32(%rdi), %xmm1, %xmm5
vaesenc %xmm15, %xmm13, %xmm13
vpxor 48(%rdi), %xmm1, %xmm6
vaesenc %xmm15, %xmm14, %xmm14
vpxor 64(%rdi), %xmm1, %xmm7
vpxor 80(%rdi), %xmm1, %xmm3
movdqu 128(%rbp), %xmm1
vaesenclast %xmm2, %xmm9, %xmm9
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
vaesenclast %xmm0, %xmm10, %xmm10
vpaddd %xmm2, %xmm1, %xmm0
movq %r13, 112(%rbp)
lea 96(%rdi), %rdi
vaesenclast %xmm5, %xmm11, %xmm11
vpaddd %xmm2, %xmm0, %xmm5
movq %r12, 120(%rbp)
lea 96(%rsi), %rsi
movdqu -128(%rcx), %xmm15
vaesenclast %xmm6, %xmm12, %xmm12
vpaddd %xmm2, %xmm5, %xmm6
vaesenclast %xmm7, %xmm13, %xmm13
vpaddd %xmm2, %xmm6, %xmm7
vaesenclast %xmm3, %xmm14, %xmm14
vpaddd %xmm2, %xmm7, %xmm3
sub $6, %rdx
cmp $6, %rdx
jbe L216
add $96, %r14
jmp L217
L216:
L217:
cmp $0, %rdx
jbe L218
movdqu %xmm9, -96(%rsi)
vpxor %xmm15, %xmm1, %xmm9
movdqu %xmm10, -80(%rsi)
movdqu %xmm0, %xmm10
movdqu %xmm11, -64(%rsi)
movdqu %xmm5, %xmm11
movdqu %xmm12, -48(%rsi)
movdqu %xmm6, %xmm12
movdqu %xmm13, -32(%rsi)
movdqu %xmm7, %xmm13
movdqu %xmm14, -16(%rsi)
movdqu %xmm3, %xmm14
movdqu 32(%rbp), %xmm7
jmp L219
L218:
vpxor 16(%rbp), %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
L219:
.balign 16
L213:
cmp $0, %rdx
ja L212
movdqu %xmm1, 32(%rbp)
movdqu %xmm9, -96(%rsi)
movdqu %xmm10, -80(%rsi)
movdqu %xmm11, -64(%rsi)
movdqu %xmm12, -48(%rsi)
movdqu %xmm13, -32(%rsi)
movdqu %xmm14, -16(%rsi)
sub $128, %rcx
L209:
movdqu 32(%rbp), %xmm11
mov %rcx, %r8
mov 104(%rsp), %rax
mov 112(%rsp), %rdi
mov 120(%rsp), %rdx
mov %rdx, %r14
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm9
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm9
pshufb %xmm9, %xmm11
mov %rdi, %rbx
mov %rdx, %r12
mov %rax, %rdi
mov %rdi, %r11
jmp L221
.balign 16
L220:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L221:
cmp $6, %rdx
jae L220
cmp $0, %rdx
jbe L222
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L224
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L225
L224:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L226
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L228
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L230
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L231
L230:
L231:
jmp L229
L228:
L229:
jmp L227
L226:
L227:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L225:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L223
L222:
L223:
mov %rbx, %rdi
mov %r12, %rdx
pxor %xmm10, %xmm10
mov $1, %rbx
pinsrd $0, %ebx, %xmm10
mov %rax, %r11
mov %rdi, %r10
mov $0, %rbx
jmp L233
.balign 16
L232:
movdqu %xmm11, %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
movdqu 0(%r11), %xmm2
pxor %xmm0, %xmm2
movdqu %xmm2, 0(%r10)
add $1, %rbx
add $16, %r11
add $16, %r10
paddd %xmm10, %xmm11
.balign 16
L233:
cmp %rdx, %rbx
jne L232
add 96(%rsp), %r14
imul $16, %r14
mov 136(%rsp), %r13
cmp %r14, %r13
jbe L234
mov 128(%rsp), %rax
mov %r13, %r10
and $15, %r10
movdqu 0(%rax), %xmm0
movdqu %xmm0, %xmm10
cmp $8, %r10
jae L236
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L237
L236:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L237:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
movdqu %xmm11, %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pxor %xmm0, %xmm10
movdqu %xmm10, 0(%rax)
jmp L235
L234:
L235:
mov %r15, %r11
pxor %xmm0, %xmm0
mov %r11, %rax
imul $8, %rax
pinsrq $1, %rax, %xmm0
mov %r13, %rax
imul $8, %rax
pinsrq $0, %rax, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
movdqu 0(%rbp), %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pshufb %xmm9, %xmm8
pxor %xmm0, %xmm8
mov 152(%rsp), %r15
movdqu 0(%r15), %xmm0
pcmpeqd %xmm8, %xmm0
pextrq $0, %xmm0, %rdx
sub $18446744073709551615, %rdx
mov $0, %rax
adc $0, %rax
pextrq $1, %xmm0, %rdx
sub $18446744073709551615, %rdx
mov $0, %rdx
adc $0, %rdx
add %rdx, %rax
mov %rax, %rcx
pop %rbx
pop %rbp
pop %rdi
pop %rsi
pop %r12
pop %r13
pop %r14
pop %r15
mov %rcx, %rax
ret
.section .note.GNU-stack,"",%progbits
|
usenix-security-verdict/verdict
| 210,728
|
deps/libcrux/sys/hacl/c/vale/src/aesgcm-x86_64-mingw.S
|
.text
.global aes128_key_expansion
aes128_key_expansion:
movdqu 0(%rcx), %xmm1
movdqu %xmm1, 0(%rdx)
aeskeygenassist $1, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 16(%rdx)
aeskeygenassist $2, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 32(%rdx)
aeskeygenassist $4, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 48(%rdx)
aeskeygenassist $8, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 64(%rdx)
aeskeygenassist $16, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 80(%rdx)
aeskeygenassist $32, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 96(%rdx)
aeskeygenassist $64, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 112(%rdx)
aeskeygenassist $128, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 128(%rdx)
aeskeygenassist $27, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 144(%rdx)
aeskeygenassist $54, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 160(%rdx)
pxor %xmm1, %xmm1
pxor %xmm2, %xmm2
pxor %xmm3, %xmm3
ret
.global aes128_keyhash_init
aes128_keyhash_init:
mov $579005069656919567, %r8
pinsrq $0, %r8, %xmm4
mov $283686952306183, %r8
pinsrq $1, %r8, %xmm4
pxor %xmm0, %xmm0
movdqu %xmm0, 80(%rdx)
mov %rcx, %r8
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pshufb %xmm4, %xmm0
mov %rdx, %rcx
movdqu %xmm0, 32(%rcx)
movdqu %xmm6, %xmm0
mov %r12, %rax
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 0(%rcx)
movdqu %xmm6, %xmm1
movdqu %xmm6, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 16(%rcx)
movdqu %xmm6, %xmm2
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 48(%rcx)
movdqu %xmm6, %xmm2
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 64(%rcx)
movdqu %xmm6, %xmm2
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 96(%rcx)
movdqu %xmm6, %xmm2
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 112(%rcx)
movdqu %xmm0, %xmm6
mov %rax, %r12
ret
.global aes256_key_expansion
aes256_key_expansion:
movdqu 0(%rcx), %xmm1
movdqu 16(%rcx), %xmm3
movdqu %xmm1, 0(%rdx)
movdqu %xmm3, 16(%rdx)
aeskeygenassist $1, %xmm3, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 32(%rdx)
aeskeygenassist $0, %xmm1, %xmm2
pshufd $170, %xmm2, %xmm2
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
pxor %xmm2, %xmm3
movdqu %xmm3, 48(%rdx)
aeskeygenassist $2, %xmm3, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 64(%rdx)
aeskeygenassist $0, %xmm1, %xmm2
pshufd $170, %xmm2, %xmm2
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
pxor %xmm2, %xmm3
movdqu %xmm3, 80(%rdx)
aeskeygenassist $4, %xmm3, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 96(%rdx)
aeskeygenassist $0, %xmm1, %xmm2
pshufd $170, %xmm2, %xmm2
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
pxor %xmm2, %xmm3
movdqu %xmm3, 112(%rdx)
aeskeygenassist $8, %xmm3, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 128(%rdx)
aeskeygenassist $0, %xmm1, %xmm2
pshufd $170, %xmm2, %xmm2
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
pxor %xmm2, %xmm3
movdqu %xmm3, 144(%rdx)
aeskeygenassist $16, %xmm3, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 160(%rdx)
aeskeygenassist $0, %xmm1, %xmm2
pshufd $170, %xmm2, %xmm2
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
pxor %xmm2, %xmm3
movdqu %xmm3, 176(%rdx)
aeskeygenassist $32, %xmm3, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 192(%rdx)
aeskeygenassist $0, %xmm1, %xmm2
pshufd $170, %xmm2, %xmm2
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
pxor %xmm2, %xmm3
movdqu %xmm3, 208(%rdx)
aeskeygenassist $64, %xmm3, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 224(%rdx)
pxor %xmm1, %xmm1
pxor %xmm2, %xmm2
pxor %xmm3, %xmm3
pxor %xmm4, %xmm4
ret
.global aes256_keyhash_init
aes256_keyhash_init:
mov $579005069656919567, %r8
pinsrq $0, %r8, %xmm4
mov $283686952306183, %r8
pinsrq $1, %r8, %xmm4
pxor %xmm0, %xmm0
movdqu %xmm0, 80(%rdx)
mov %rcx, %r8
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pshufb %xmm4, %xmm0
mov %rdx, %rcx
movdqu %xmm0, 32(%rcx)
movdqu %xmm6, %xmm0
mov %r12, %rax
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 0(%rcx)
movdqu %xmm6, %xmm1
movdqu %xmm6, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 16(%rcx)
movdqu %xmm6, %xmm2
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 48(%rcx)
movdqu %xmm6, %xmm2
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 64(%rcx)
movdqu %xmm6, %xmm2
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 96(%rcx)
movdqu %xmm6, %xmm2
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 112(%rcx)
movdqu %xmm0, %xmm6
mov %rax, %r12
ret
.global gctr128_bytes
gctr128_bytes:
push %r15
push %r14
push %r13
push %r12
push %rsi
push %rdi
push %rbp
push %rbx
pextrq $0, %xmm15, %rax
push %rax
pextrq $1, %xmm15, %rax
push %rax
pextrq $0, %xmm14, %rax
push %rax
pextrq $1, %xmm14, %rax
push %rax
pextrq $0, %xmm13, %rax
push %rax
pextrq $1, %xmm13, %rax
push %rax
pextrq $0, %xmm12, %rax
push %rax
pextrq $1, %xmm12, %rax
push %rax
pextrq $0, %xmm11, %rax
push %rax
pextrq $1, %xmm11, %rax
push %rax
pextrq $0, %xmm10, %rax
push %rax
pextrq $1, %xmm10, %rax
push %rax
pextrq $0, %xmm9, %rax
push %rax
pextrq $1, %xmm9, %rax
push %rax
pextrq $0, %xmm8, %rax
push %rax
pextrq $1, %xmm8, %rax
push %rax
pextrq $0, %xmm7, %rax
push %rax
pextrq $1, %xmm7, %rax
push %rax
pextrq $0, %xmm6, %rax
push %rax
pextrq $1, %xmm6, %rax
push %rax
mov 272(%rsp), %rax
movdqu 0(%rax), %xmm7
mov %rcx, %rax
mov %r8, %rbx
mov %rdx, %rsi
mov %r9, %r13
mov 264(%rsp), %r8
mov 280(%rsp), %rcx
mov %rcx, %rbp
imul $16, %rbp
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm8
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm8
mov %rcx, %rdx
shr $2, %rdx
and $3, %rcx
cmp $0, %rdx
jbe L0
mov %rax, %r9
mov %rbx, %r10
pshufb %xmm8, %xmm7
movdqu %xmm7, %xmm9
mov $579005069656919567, %rax
pinsrq $0, %rax, %xmm0
mov $579005069656919567, %rax
pinsrq $1, %rax, %xmm0
pshufb %xmm0, %xmm9
movdqu %xmm9, %xmm10
pxor %xmm3, %xmm3
mov $1, %rax
pinsrd $2, %eax, %xmm3
paddd %xmm3, %xmm9
mov $3, %rax
pinsrd $2, %eax, %xmm3
mov $2, %rax
pinsrd $0, %eax, %xmm3
paddd %xmm3, %xmm10
pshufb %xmm8, %xmm9
pshufb %xmm8, %xmm10
pextrq $0, %xmm7, %rdi
mov $283686952306183, %rax
pinsrq $0, %rax, %xmm0
mov $579005069656919567, %rax
pinsrq $1, %rax, %xmm0
pxor %xmm15, %xmm15
mov $4, %rax
pinsrd $0, %eax, %xmm15
mov $4, %rax
pinsrd $2, %eax, %xmm15
jmp L3
.balign 16
L2:
pinsrq $0, %rdi, %xmm2
pinsrq $0, %rdi, %xmm12
pinsrq $0, %rdi, %xmm13
pinsrq $0, %rdi, %xmm14
shufpd $2, %xmm9, %xmm2
shufpd $0, %xmm9, %xmm12
shufpd $2, %xmm10, %xmm13
shufpd $0, %xmm10, %xmm14
pshufb %xmm0, %xmm9
pshufb %xmm0, %xmm10
movdqu 0(%r8), %xmm3
movdqu 16(%r8), %xmm4
movdqu 32(%r8), %xmm5
movdqu 48(%r8), %xmm6
paddd %xmm15, %xmm9
paddd %xmm15, %xmm10
pxor %xmm3, %xmm2
pxor %xmm3, %xmm12
pxor %xmm3, %xmm13
pxor %xmm3, %xmm14
pshufb %xmm0, %xmm9
pshufb %xmm0, %xmm10
aesenc %xmm4, %xmm2
aesenc %xmm4, %xmm12
aesenc %xmm4, %xmm13
aesenc %xmm4, %xmm14
aesenc %xmm5, %xmm2
aesenc %xmm5, %xmm12
aesenc %xmm5, %xmm13
aesenc %xmm5, %xmm14
aesenc %xmm6, %xmm2
aesenc %xmm6, %xmm12
aesenc %xmm6, %xmm13
aesenc %xmm6, %xmm14
movdqu 64(%r8), %xmm3
movdqu 80(%r8), %xmm4
movdqu 96(%r8), %xmm5
movdqu 112(%r8), %xmm6
aesenc %xmm3, %xmm2
aesenc %xmm3, %xmm12
aesenc %xmm3, %xmm13
aesenc %xmm3, %xmm14
aesenc %xmm4, %xmm2
aesenc %xmm4, %xmm12
aesenc %xmm4, %xmm13
aesenc %xmm4, %xmm14
aesenc %xmm5, %xmm2
aesenc %xmm5, %xmm12
aesenc %xmm5, %xmm13
aesenc %xmm5, %xmm14
aesenc %xmm6, %xmm2
aesenc %xmm6, %xmm12
aesenc %xmm6, %xmm13
aesenc %xmm6, %xmm14
movdqu 128(%r8), %xmm3
movdqu 144(%r8), %xmm4
movdqu 160(%r8), %xmm5
aesenc %xmm3, %xmm2
aesenc %xmm3, %xmm12
aesenc %xmm3, %xmm13
aesenc %xmm3, %xmm14
aesenc %xmm4, %xmm2
aesenc %xmm4, %xmm12
aesenc %xmm4, %xmm13
aesenc %xmm4, %xmm14
aesenclast %xmm5, %xmm2
aesenclast %xmm5, %xmm12
aesenclast %xmm5, %xmm13
aesenclast %xmm5, %xmm14
movdqu 0(%r9), %xmm7
pxor %xmm7, %xmm2
movdqu 16(%r9), %xmm7
pxor %xmm7, %xmm12
movdqu 32(%r9), %xmm7
pxor %xmm7, %xmm13
movdqu 48(%r9), %xmm7
pxor %xmm7, %xmm14
movdqu %xmm2, 0(%r10)
movdqu %xmm12, 16(%r10)
movdqu %xmm13, 32(%r10)
movdqu %xmm14, 48(%r10)
sub $1, %rdx
add $64, %r9
add $64, %r10
.balign 16
L3:
cmp $0, %rdx
ja L2
movdqu %xmm9, %xmm7
pinsrq $0, %rdi, %xmm7
pshufb %xmm8, %xmm7
mov %r9, %rax
mov %r10, %rbx
jmp L1
L0:
L1:
mov $0, %rdx
mov %rax, %r9
mov %rbx, %r10
pxor %xmm4, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
jmp L5
.balign 16
L4:
movdqu %xmm7, %xmm0
pshufb %xmm8, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
movdqu 0(%r9), %xmm2
pxor %xmm0, %xmm2
movdqu %xmm2, 0(%r10)
add $1, %rdx
add $16, %r9
add $16, %r10
paddd %xmm4, %xmm7
.balign 16
L5:
cmp %rcx, %rdx
jne L4
cmp %rbp, %rsi
jbe L6
movdqu 0(%r13), %xmm1
movdqu %xmm7, %xmm0
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm2
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm2
pshufb %xmm2, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pxor %xmm0, %xmm1
movdqu %xmm1, 0(%r13)
jmp L7
L6:
L7:
pop %rax
pinsrq $1, %rax, %xmm6
pop %rax
pinsrq $0, %rax, %xmm6
pop %rax
pinsrq $1, %rax, %xmm7
pop %rax
pinsrq $0, %rax, %xmm7
pop %rax
pinsrq $1, %rax, %xmm8
pop %rax
pinsrq $0, %rax, %xmm8
pop %rax
pinsrq $1, %rax, %xmm9
pop %rax
pinsrq $0, %rax, %xmm9
pop %rax
pinsrq $1, %rax, %xmm10
pop %rax
pinsrq $0, %rax, %xmm10
pop %rax
pinsrq $1, %rax, %xmm11
pop %rax
pinsrq $0, %rax, %xmm11
pop %rax
pinsrq $1, %rax, %xmm12
pop %rax
pinsrq $0, %rax, %xmm12
pop %rax
pinsrq $1, %rax, %xmm13
pop %rax
pinsrq $0, %rax, %xmm13
pop %rax
pinsrq $1, %rax, %xmm14
pop %rax
pinsrq $0, %rax, %xmm14
pop %rax
pinsrq $1, %rax, %xmm15
pop %rax
pinsrq $0, %rax, %xmm15
pop %rbx
pop %rbp
pop %rdi
pop %rsi
pop %r12
pop %r13
pop %r14
pop %r15
ret
.global gctr256_bytes
gctr256_bytes:
push %r15
push %r14
push %r13
push %r12
push %rsi
push %rdi
push %rbp
push %rbx
pextrq $0, %xmm15, %rax
push %rax
pextrq $1, %xmm15, %rax
push %rax
pextrq $0, %xmm14, %rax
push %rax
pextrq $1, %xmm14, %rax
push %rax
pextrq $0, %xmm13, %rax
push %rax
pextrq $1, %xmm13, %rax
push %rax
pextrq $0, %xmm12, %rax
push %rax
pextrq $1, %xmm12, %rax
push %rax
pextrq $0, %xmm11, %rax
push %rax
pextrq $1, %xmm11, %rax
push %rax
pextrq $0, %xmm10, %rax
push %rax
pextrq $1, %xmm10, %rax
push %rax
pextrq $0, %xmm9, %rax
push %rax
pextrq $1, %xmm9, %rax
push %rax
pextrq $0, %xmm8, %rax
push %rax
pextrq $1, %xmm8, %rax
push %rax
pextrq $0, %xmm7, %rax
push %rax
pextrq $1, %xmm7, %rax
push %rax
pextrq $0, %xmm6, %rax
push %rax
pextrq $1, %xmm6, %rax
push %rax
mov 272(%rsp), %rax
movdqu 0(%rax), %xmm7
mov %rcx, %rax
mov %r8, %rbx
mov %rdx, %rsi
mov %r9, %r13
mov 264(%rsp), %r8
mov 280(%rsp), %rcx
mov %rcx, %rbp
imul $16, %rbp
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm8
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm8
mov %rcx, %rdx
shr $2, %rdx
and $3, %rcx
cmp $0, %rdx
jbe L8
mov %rax, %r9
mov %rbx, %r10
pshufb %xmm8, %xmm7
movdqu %xmm7, %xmm9
mov $579005069656919567, %rax
pinsrq $0, %rax, %xmm0
mov $579005069656919567, %rax
pinsrq $1, %rax, %xmm0
pshufb %xmm0, %xmm9
movdqu %xmm9, %xmm10
pxor %xmm3, %xmm3
mov $1, %rax
pinsrd $2, %eax, %xmm3
paddd %xmm3, %xmm9
mov $3, %rax
pinsrd $2, %eax, %xmm3
mov $2, %rax
pinsrd $0, %eax, %xmm3
paddd %xmm3, %xmm10
pshufb %xmm8, %xmm9
pshufb %xmm8, %xmm10
pextrq $0, %xmm7, %rdi
mov $283686952306183, %rax
pinsrq $0, %rax, %xmm0
mov $579005069656919567, %rax
pinsrq $1, %rax, %xmm0
pxor %xmm15, %xmm15
mov $4, %rax
pinsrd $0, %eax, %xmm15
mov $4, %rax
pinsrd $2, %eax, %xmm15
jmp L11
.balign 16
L10:
pinsrq $0, %rdi, %xmm2
pinsrq $0, %rdi, %xmm12
pinsrq $0, %rdi, %xmm13
pinsrq $0, %rdi, %xmm14
shufpd $2, %xmm9, %xmm2
shufpd $0, %xmm9, %xmm12
shufpd $2, %xmm10, %xmm13
shufpd $0, %xmm10, %xmm14
pshufb %xmm0, %xmm9
pshufb %xmm0, %xmm10
movdqu 0(%r8), %xmm3
movdqu 16(%r8), %xmm4
movdqu 32(%r8), %xmm5
movdqu 48(%r8), %xmm6
paddd %xmm15, %xmm9
paddd %xmm15, %xmm10
pxor %xmm3, %xmm2
pxor %xmm3, %xmm12
pxor %xmm3, %xmm13
pxor %xmm3, %xmm14
pshufb %xmm0, %xmm9
pshufb %xmm0, %xmm10
aesenc %xmm4, %xmm2
aesenc %xmm4, %xmm12
aesenc %xmm4, %xmm13
aesenc %xmm4, %xmm14
aesenc %xmm5, %xmm2
aesenc %xmm5, %xmm12
aesenc %xmm5, %xmm13
aesenc %xmm5, %xmm14
aesenc %xmm6, %xmm2
aesenc %xmm6, %xmm12
aesenc %xmm6, %xmm13
aesenc %xmm6, %xmm14
movdqu 64(%r8), %xmm3
movdqu 80(%r8), %xmm4
movdqu 96(%r8), %xmm5
movdqu 112(%r8), %xmm6
aesenc %xmm3, %xmm2
aesenc %xmm3, %xmm12
aesenc %xmm3, %xmm13
aesenc %xmm3, %xmm14
aesenc %xmm4, %xmm2
aesenc %xmm4, %xmm12
aesenc %xmm4, %xmm13
aesenc %xmm4, %xmm14
aesenc %xmm5, %xmm2
aesenc %xmm5, %xmm12
aesenc %xmm5, %xmm13
aesenc %xmm5, %xmm14
aesenc %xmm6, %xmm2
aesenc %xmm6, %xmm12
aesenc %xmm6, %xmm13
aesenc %xmm6, %xmm14
movdqu 128(%r8), %xmm3
movdqu 144(%r8), %xmm4
movdqu 160(%r8), %xmm5
aesenc %xmm3, %xmm2
aesenc %xmm3, %xmm12
aesenc %xmm3, %xmm13
aesenc %xmm3, %xmm14
aesenc %xmm4, %xmm2
aesenc %xmm4, %xmm12
aesenc %xmm4, %xmm13
aesenc %xmm4, %xmm14
movdqu %xmm5, %xmm3
movdqu 176(%r8), %xmm4
movdqu 192(%r8), %xmm5
movdqu 208(%r8), %xmm6
aesenc %xmm3, %xmm2
aesenc %xmm3, %xmm12
aesenc %xmm3, %xmm13
aesenc %xmm3, %xmm14
aesenc %xmm4, %xmm2
aesenc %xmm4, %xmm12
aesenc %xmm4, %xmm13
aesenc %xmm4, %xmm14
aesenc %xmm5, %xmm2
aesenc %xmm5, %xmm12
aesenc %xmm5, %xmm13
aesenc %xmm5, %xmm14
aesenc %xmm6, %xmm2
aesenc %xmm6, %xmm12
aesenc %xmm6, %xmm13
aesenc %xmm6, %xmm14
movdqu 224(%r8), %xmm5
aesenclast %xmm5, %xmm2
aesenclast %xmm5, %xmm12
aesenclast %xmm5, %xmm13
aesenclast %xmm5, %xmm14
movdqu 0(%r9), %xmm7
pxor %xmm7, %xmm2
movdqu 16(%r9), %xmm7
pxor %xmm7, %xmm12
movdqu 32(%r9), %xmm7
pxor %xmm7, %xmm13
movdqu 48(%r9), %xmm7
pxor %xmm7, %xmm14
movdqu %xmm2, 0(%r10)
movdqu %xmm12, 16(%r10)
movdqu %xmm13, 32(%r10)
movdqu %xmm14, 48(%r10)
sub $1, %rdx
add $64, %r9
add $64, %r10
.balign 16
L11:
cmp $0, %rdx
ja L10
movdqu %xmm9, %xmm7
pinsrq $0, %rdi, %xmm7
pshufb %xmm8, %xmm7
mov %r9, %rax
mov %r10, %rbx
jmp L9
L8:
L9:
mov $0, %rdx
mov %rax, %r9
mov %rbx, %r10
pxor %xmm4, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
jmp L13
.balign 16
L12:
movdqu %xmm7, %xmm0
pshufb %xmm8, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
movdqu 0(%r9), %xmm2
pxor %xmm0, %xmm2
movdqu %xmm2, 0(%r10)
add $1, %rdx
add $16, %r9
add $16, %r10
paddd %xmm4, %xmm7
.balign 16
L13:
cmp %rcx, %rdx
jne L12
cmp %rbp, %rsi
jbe L14
movdqu 0(%r13), %xmm1
movdqu %xmm7, %xmm0
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm2
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm2
pshufb %xmm2, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pxor %xmm0, %xmm1
movdqu %xmm1, 0(%r13)
jmp L15
L14:
L15:
pop %rax
pinsrq $1, %rax, %xmm6
pop %rax
pinsrq $0, %rax, %xmm6
pop %rax
pinsrq $1, %rax, %xmm7
pop %rax
pinsrq $0, %rax, %xmm7
pop %rax
pinsrq $1, %rax, %xmm8
pop %rax
pinsrq $0, %rax, %xmm8
pop %rax
pinsrq $1, %rax, %xmm9
pop %rax
pinsrq $0, %rax, %xmm9
pop %rax
pinsrq $1, %rax, %xmm10
pop %rax
pinsrq $0, %rax, %xmm10
pop %rax
pinsrq $1, %rax, %xmm11
pop %rax
pinsrq $0, %rax, %xmm11
pop %rax
pinsrq $1, %rax, %xmm12
pop %rax
pinsrq $0, %rax, %xmm12
pop %rax
pinsrq $1, %rax, %xmm13
pop %rax
pinsrq $0, %rax, %xmm13
pop %rax
pinsrq $1, %rax, %xmm14
pop %rax
pinsrq $0, %rax, %xmm14
pop %rax
pinsrq $1, %rax, %xmm15
pop %rax
pinsrq $0, %rax, %xmm15
pop %rbx
pop %rbp
pop %rdi
pop %rsi
pop %r12
pop %r13
pop %r14
pop %r15
ret
.global compute_iv_stdcall
compute_iv_stdcall:
cmp $12, %rdx
jne L16
push %rdi
push %rsi
mov %rcx, %rdi
mov %rdx, %rsi
mov %r8, %rdx
mov %r9, %rcx
mov 56(%rsp), %r8
mov 64(%rsp), %r9
cmp $12, %rsi
jne L18
movdqu 0(%r8), %xmm0
mov $579005069656919567, %rax
pinsrq $0, %rax, %xmm1
mov $283686952306183, %rax
pinsrq $1, %rax, %xmm1
pshufb %xmm1, %xmm0
mov $1, %rax
pinsrd $0, %eax, %xmm0
movdqu %xmm0, 0(%rcx)
jmp L19
L18:
mov %rcx, %rax
add $32, %r9
mov %r8, %rbx
mov %rdx, %rcx
imul $16, %rcx
mov $579005069656919567, %r10
pinsrq $0, %r10, %xmm9
mov $283686952306183, %r10
pinsrq $1, %r10, %xmm9
pxor %xmm8, %xmm8
mov %rdi, %r11
jmp L21
.balign 16
L20:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L21:
cmp $6, %rdx
jae L20
cmp $0, %rdx
jbe L22
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L24
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L25
L24:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L26
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L28
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L30
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L31
L30:
L31:
jmp L29
L28:
L29:
jmp L27
L26:
L27:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L25:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L23
L22:
L23:
mov %rsi, %r15
cmp %rcx, %rsi
jbe L32
movdqu 0(%rbx), %xmm0
mov %rsi, %r10
and $15, %r10
cmp $8, %r10
jae L34
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L35
L34:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L35:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L33
L32:
L33:
mov %rax, %rcx
mov $0, %r11
mov %rsi, %r13
pxor %xmm0, %xmm0
mov %r11, %rax
imul $8, %rax
pinsrq $1, %rax, %xmm0
mov %r13, %rax
imul $8, %rax
pinsrq $0, %rax, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
movdqu %xmm8, 0(%rcx)
L19:
pop %rsi
pop %rdi
jmp L17
L16:
push %r15
push %r14
push %r13
push %r12
push %rsi
push %rdi
push %rbp
push %rbx
pextrq $0, %xmm15, %rax
push %rax
pextrq $1, %xmm15, %rax
push %rax
pextrq $0, %xmm14, %rax
push %rax
pextrq $1, %xmm14, %rax
push %rax
pextrq $0, %xmm13, %rax
push %rax
pextrq $1, %xmm13, %rax
push %rax
pextrq $0, %xmm12, %rax
push %rax
pextrq $1, %xmm12, %rax
push %rax
pextrq $0, %xmm11, %rax
push %rax
pextrq $1, %xmm11, %rax
push %rax
pextrq $0, %xmm10, %rax
push %rax
pextrq $1, %xmm10, %rax
push %rax
pextrq $0, %xmm9, %rax
push %rax
pextrq $1, %xmm9, %rax
push %rax
pextrq $0, %xmm8, %rax
push %rax
pextrq $1, %xmm8, %rax
push %rax
pextrq $0, %xmm7, %rax
push %rax
pextrq $1, %xmm7, %rax
push %rax
pextrq $0, %xmm6, %rax
push %rax
pextrq $1, %xmm6, %rax
push %rax
mov %rcx, %rdi
mov %rdx, %rsi
mov %r8, %rdx
mov %r9, %rcx
mov 264(%rsp), %r8
mov 272(%rsp), %r9
cmp $12, %rsi
jne L36
movdqu 0(%r8), %xmm0
mov $579005069656919567, %rax
pinsrq $0, %rax, %xmm1
mov $283686952306183, %rax
pinsrq $1, %rax, %xmm1
pshufb %xmm1, %xmm0
mov $1, %rax
pinsrd $0, %eax, %xmm0
movdqu %xmm0, 0(%rcx)
jmp L37
L36:
mov %rcx, %rax
add $32, %r9
mov %r8, %rbx
mov %rdx, %rcx
imul $16, %rcx
mov $579005069656919567, %r10
pinsrq $0, %r10, %xmm9
mov $283686952306183, %r10
pinsrq $1, %r10, %xmm9
pxor %xmm8, %xmm8
mov %rdi, %r11
jmp L39
.balign 16
L38:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L39:
cmp $6, %rdx
jae L38
cmp $0, %rdx
jbe L40
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L42
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L43
L42:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L44
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L46
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L48
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L49
L48:
L49:
jmp L47
L46:
L47:
jmp L45
L44:
L45:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L43:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L41
L40:
L41:
mov %rsi, %r15
cmp %rcx, %rsi
jbe L50
movdqu 0(%rbx), %xmm0
mov %rsi, %r10
and $15, %r10
cmp $8, %r10
jae L52
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L53
L52:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L53:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L51
L50:
L51:
mov %rax, %rcx
mov $0, %r11
mov %rsi, %r13
pxor %xmm0, %xmm0
mov %r11, %rax
imul $8, %rax
pinsrq $1, %rax, %xmm0
mov %r13, %rax
imul $8, %rax
pinsrq $0, %rax, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
movdqu %xmm8, 0(%rcx)
L37:
pop %rax
pinsrq $1, %rax, %xmm6
pop %rax
pinsrq $0, %rax, %xmm6
pop %rax
pinsrq $1, %rax, %xmm7
pop %rax
pinsrq $0, %rax, %xmm7
pop %rax
pinsrq $1, %rax, %xmm8
pop %rax
pinsrq $0, %rax, %xmm8
pop %rax
pinsrq $1, %rax, %xmm9
pop %rax
pinsrq $0, %rax, %xmm9
pop %rax
pinsrq $1, %rax, %xmm10
pop %rax
pinsrq $0, %rax, %xmm10
pop %rax
pinsrq $1, %rax, %xmm11
pop %rax
pinsrq $0, %rax, %xmm11
pop %rax
pinsrq $1, %rax, %xmm12
pop %rax
pinsrq $0, %rax, %xmm12
pop %rax
pinsrq $1, %rax, %xmm13
pop %rax
pinsrq $0, %rax, %xmm13
pop %rax
pinsrq $1, %rax, %xmm14
pop %rax
pinsrq $0, %rax, %xmm14
pop %rax
pinsrq $1, %rax, %xmm15
pop %rax
pinsrq $0, %rax, %xmm15
pop %rbx
pop %rbp
pop %rdi
pop %rsi
pop %r12
pop %r13
pop %r14
pop %r15
L17:
ret
.global gcm128_encrypt_opt
gcm128_encrypt_opt:
push %r15
push %r14
push %r13
push %r12
push %rsi
push %rdi
push %rbp
push %rbx
pextrq $0, %xmm15, %rax
push %rax
pextrq $1, %xmm15, %rax
push %rax
pextrq $0, %xmm14, %rax
push %rax
pextrq $1, %xmm14, %rax
push %rax
pextrq $0, %xmm13, %rax
push %rax
pextrq $1, %xmm13, %rax
push %rax
pextrq $0, %xmm12, %rax
push %rax
pextrq $1, %xmm12, %rax
push %rax
pextrq $0, %xmm11, %rax
push %rax
pextrq $1, %xmm11, %rax
push %rax
pextrq $0, %xmm10, %rax
push %rax
pextrq $1, %xmm10, %rax
push %rax
pextrq $0, %xmm9, %rax
push %rax
pextrq $1, %xmm9, %rax
push %rax
pextrq $0, %xmm8, %rax
push %rax
pextrq $1, %xmm8, %rax
push %rax
pextrq $0, %xmm7, %rax
push %rax
pextrq $1, %xmm7, %rax
push %rax
pextrq $0, %xmm6, %rax
push %rax
pextrq $1, %xmm6, %rax
push %rax
mov %rcx, %rdi
mov %rdx, %rsi
mov %r8, %rdx
mov %r9, %rcx
mov 264(%rsp), %r8
mov 272(%rsp), %r9
mov 352(%rsp), %rbp
mov %rcx, %r13
lea 32(%r9), %r9
mov 280(%rsp), %rbx
mov %rdx, %rcx
imul $16, %rcx
mov $579005069656919567, %r10
pinsrq $0, %r10, %xmm9
mov $283686952306183, %r10
pinsrq $1, %r10, %xmm9
pxor %xmm8, %xmm8
mov %rdi, %r11
jmp L55
.balign 16
L54:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L55:
cmp $6, %rdx
jae L54
cmp $0, %rdx
jbe L56
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L58
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L59
L58:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L60
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L62
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L64
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L65
L64:
L65:
jmp L63
L62:
L63:
jmp L61
L60:
L61:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L59:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L57
L56:
L57:
mov %rsi, %r15
cmp %rcx, %rsi
jbe L66
movdqu 0(%rbx), %xmm0
mov %rsi, %r10
and $15, %r10
cmp $8, %r10
jae L68
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L69
L68:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L69:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L67
L66:
L67:
mov 288(%rsp), %rdi
mov 296(%rsp), %rsi
mov 304(%rsp), %rdx
mov %r13, %rcx
movdqu %xmm9, %xmm0
movdqu 0(%r8), %xmm1
movdqu %xmm1, 0(%rbp)
pxor %xmm10, %xmm10
mov $1, %r11
pinsrq $0, %r11, %xmm10
vpaddd %xmm10, %xmm1, %xmm1
cmp $0, %rdx
jne L70
vpshufb %xmm0, %xmm1, %xmm1
movdqu %xmm1, 32(%rbp)
jmp L71
L70:
movdqu %xmm8, 32(%rbp)
add $128, %rcx
pextrq $0, %xmm1, %rbx
and $255, %rbx
vpshufb %xmm0, %xmm1, %xmm1
lea 96(%rsi), %r14
movdqu -128(%rcx), %xmm4
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
movdqu -112(%rcx), %xmm15
mov %rcx, %r12
sub $96, %r12
vpxor %xmm4, %xmm1, %xmm9
add $6, %rbx
cmp $256, %rbx
jae L72
vpaddd %xmm2, %xmm1, %xmm10
vpaddd %xmm2, %xmm10, %xmm11
vpxor %xmm4, %xmm10, %xmm10
vpaddd %xmm2, %xmm11, %xmm12
vpxor %xmm4, %xmm11, %xmm11
vpaddd %xmm2, %xmm12, %xmm13
vpxor %xmm4, %xmm12, %xmm12
vpaddd %xmm2, %xmm13, %xmm14
vpxor %xmm4, %xmm13, %xmm13
vpaddd %xmm2, %xmm14, %xmm1
vpxor %xmm4, %xmm14, %xmm14
jmp L73
L72:
sub $256, %rbx
vpshufb %xmm0, %xmm1, %xmm6
pxor %xmm5, %xmm5
mov $1, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm10
pxor %xmm5, %xmm5
mov $2, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm11
vpaddd %xmm5, %xmm10, %xmm12
vpshufb %xmm0, %xmm10, %xmm10
vpaddd %xmm5, %xmm11, %xmm13
vpshufb %xmm0, %xmm11, %xmm11
vpxor %xmm4, %xmm10, %xmm10
vpaddd %xmm5, %xmm12, %xmm14
vpshufb %xmm0, %xmm12, %xmm12
vpxor %xmm4, %xmm11, %xmm11
vpaddd %xmm5, %xmm13, %xmm1
vpshufb %xmm0, %xmm13, %xmm13
vpxor %xmm4, %xmm12, %xmm12
vpshufb %xmm0, %xmm14, %xmm14
vpxor %xmm4, %xmm13, %xmm13
vpshufb %xmm0, %xmm1, %xmm1
vpxor %xmm4, %xmm14, %xmm14
L73:
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -96(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -80(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -64(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -48(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -32(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -16(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 0(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 16(%rcx), %xmm15
movdqu 32(%rcx), %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor 0(%rdi), %xmm3, %xmm4
vaesenc %xmm15, %xmm10, %xmm10
vpxor 16(%rdi), %xmm3, %xmm5
vaesenc %xmm15, %xmm11, %xmm11
vpxor 32(%rdi), %xmm3, %xmm6
vaesenc %xmm15, %xmm12, %xmm12
vpxor 48(%rdi), %xmm3, %xmm8
vaesenc %xmm15, %xmm13, %xmm13
vpxor 64(%rdi), %xmm3, %xmm2
vaesenc %xmm15, %xmm14, %xmm14
vpxor 80(%rdi), %xmm3, %xmm3
lea 96(%rdi), %rdi
vaesenclast %xmm4, %xmm9, %xmm9
vaesenclast %xmm5, %xmm10, %xmm10
vaesenclast %xmm6, %xmm11, %xmm11
vaesenclast %xmm8, %xmm12, %xmm12
vaesenclast %xmm2, %xmm13, %xmm13
vaesenclast %xmm3, %xmm14, %xmm14
movdqu %xmm9, 0(%rsi)
movdqu %xmm10, 16(%rsi)
movdqu %xmm11, 32(%rsi)
movdqu %xmm12, 48(%rsi)
movdqu %xmm13, 64(%rsi)
movdqu %xmm14, 80(%rsi)
lea 96(%rsi), %rsi
vpshufb %xmm0, %xmm9, %xmm8
vpshufb %xmm0, %xmm10, %xmm2
movdqu %xmm8, 112(%rbp)
vpshufb %xmm0, %xmm11, %xmm4
movdqu %xmm2, 96(%rbp)
vpshufb %xmm0, %xmm12, %xmm5
movdqu %xmm4, 80(%rbp)
vpshufb %xmm0, %xmm13, %xmm6
movdqu %xmm5, 64(%rbp)
vpshufb %xmm0, %xmm14, %xmm7
movdqu %xmm6, 48(%rbp)
movdqu -128(%rcx), %xmm4
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
movdqu -112(%rcx), %xmm15
mov %rcx, %r12
sub $96, %r12
vpxor %xmm4, %xmm1, %xmm9
add $6, %rbx
cmp $256, %rbx
jae L74
vpaddd %xmm2, %xmm1, %xmm10
vpaddd %xmm2, %xmm10, %xmm11
vpxor %xmm4, %xmm10, %xmm10
vpaddd %xmm2, %xmm11, %xmm12
vpxor %xmm4, %xmm11, %xmm11
vpaddd %xmm2, %xmm12, %xmm13
vpxor %xmm4, %xmm12, %xmm12
vpaddd %xmm2, %xmm13, %xmm14
vpxor %xmm4, %xmm13, %xmm13
vpaddd %xmm2, %xmm14, %xmm1
vpxor %xmm4, %xmm14, %xmm14
jmp L75
L74:
sub $256, %rbx
vpshufb %xmm0, %xmm1, %xmm6
pxor %xmm5, %xmm5
mov $1, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm10
pxor %xmm5, %xmm5
mov $2, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm11
vpaddd %xmm5, %xmm10, %xmm12
vpshufb %xmm0, %xmm10, %xmm10
vpaddd %xmm5, %xmm11, %xmm13
vpshufb %xmm0, %xmm11, %xmm11
vpxor %xmm4, %xmm10, %xmm10
vpaddd %xmm5, %xmm12, %xmm14
vpshufb %xmm0, %xmm12, %xmm12
vpxor %xmm4, %xmm11, %xmm11
vpaddd %xmm5, %xmm13, %xmm1
vpshufb %xmm0, %xmm13, %xmm13
vpxor %xmm4, %xmm12, %xmm12
vpshufb %xmm0, %xmm14, %xmm14
vpxor %xmm4, %xmm13, %xmm13
vpshufb %xmm0, %xmm1, %xmm1
vpxor %xmm4, %xmm14, %xmm14
L75:
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -96(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -80(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -64(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -48(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -32(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -16(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 0(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 16(%rcx), %xmm15
movdqu 32(%rcx), %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor 0(%rdi), %xmm3, %xmm4
vaesenc %xmm15, %xmm10, %xmm10
vpxor 16(%rdi), %xmm3, %xmm5
vaesenc %xmm15, %xmm11, %xmm11
vpxor 32(%rdi), %xmm3, %xmm6
vaesenc %xmm15, %xmm12, %xmm12
vpxor 48(%rdi), %xmm3, %xmm8
vaesenc %xmm15, %xmm13, %xmm13
vpxor 64(%rdi), %xmm3, %xmm2
vaesenc %xmm15, %xmm14, %xmm14
vpxor 80(%rdi), %xmm3, %xmm3
lea 96(%rdi), %rdi
vaesenclast %xmm4, %xmm9, %xmm9
vaesenclast %xmm5, %xmm10, %xmm10
vaesenclast %xmm6, %xmm11, %xmm11
vaesenclast %xmm8, %xmm12, %xmm12
vaesenclast %xmm2, %xmm13, %xmm13
vaesenclast %xmm3, %xmm14, %xmm14
movdqu %xmm9, 0(%rsi)
movdqu %xmm10, 16(%rsi)
movdqu %xmm11, 32(%rsi)
movdqu %xmm12, 48(%rsi)
movdqu %xmm13, 64(%rsi)
movdqu %xmm14, 80(%rsi)
lea 96(%rsi), %rsi
sub $12, %rdx
movdqu 32(%rbp), %xmm8
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
vpxor %xmm4, %xmm4, %xmm4
movdqu -128(%rcx), %xmm15
vpaddd %xmm2, %xmm1, %xmm10
vpaddd %xmm2, %xmm10, %xmm11
vpaddd %xmm2, %xmm11, %xmm12
vpaddd %xmm2, %xmm12, %xmm13
vpaddd %xmm2, %xmm13, %xmm14
vpxor %xmm15, %xmm1, %xmm9
movdqu %xmm4, 16(%rbp)
jmp L77
.balign 16
L76:
add $6, %rbx
cmp $256, %rbx
jb L78
mov $579005069656919567, %r11
pinsrq $0, %r11, %xmm0
mov $283686952306183, %r11
pinsrq $1, %r11, %xmm0
vpshufb %xmm0, %xmm1, %xmm6
pxor %xmm5, %xmm5
mov $1, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm10
pxor %xmm5, %xmm5
mov $2, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm11
movdqu -32(%r9), %xmm3
vpaddd %xmm5, %xmm10, %xmm12
vpshufb %xmm0, %xmm10, %xmm10
vpaddd %xmm5, %xmm11, %xmm13
vpshufb %xmm0, %xmm11, %xmm11
vpxor %xmm15, %xmm10, %xmm10
vpaddd %xmm5, %xmm12, %xmm14
vpshufb %xmm0, %xmm12, %xmm12
vpxor %xmm15, %xmm11, %xmm11
vpaddd %xmm5, %xmm13, %xmm1
vpshufb %xmm0, %xmm13, %xmm13
vpshufb %xmm0, %xmm14, %xmm14
vpshufb %xmm0, %xmm1, %xmm1
sub $256, %rbx
jmp L79
L78:
movdqu -32(%r9), %xmm3
vpaddd %xmm14, %xmm2, %xmm1
vpxor %xmm15, %xmm10, %xmm10
vpxor %xmm15, %xmm11, %xmm11
L79:
movdqu %xmm1, 128(%rbp)
vpclmulqdq $16, %xmm3, %xmm7, %xmm5
vpxor %xmm15, %xmm12, %xmm12
movdqu -112(%rcx), %xmm2
vpclmulqdq $1, %xmm3, %xmm7, %xmm6
vaesenc %xmm2, %xmm9, %xmm9
movdqu 48(%rbp), %xmm0
vpxor %xmm15, %xmm13, %xmm13
vpclmulqdq $0, %xmm3, %xmm7, %xmm1
vaesenc %xmm2, %xmm10, %xmm10
vpxor %xmm15, %xmm14, %xmm14
vpclmulqdq $17, %xmm3, %xmm7, %xmm7
vaesenc %xmm2, %xmm11, %xmm11
movdqu -16(%r9), %xmm3
vaesenc %xmm2, %xmm12, %xmm12
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpxor %xmm4, %xmm8, %xmm8
vaesenc %xmm2, %xmm13, %xmm13
vpxor %xmm5, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vaesenc %xmm2, %xmm14, %xmm14
movdqu -96(%rcx), %xmm15
vpclmulqdq $1, %xmm3, %xmm0, %xmm2
vaesenc %xmm15, %xmm9, %xmm9
vpxor 16(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
movdqu 64(%rbp), %xmm0
vaesenc %xmm15, %xmm10, %xmm10
movbeq 88(%r14), %r13
vaesenc %xmm15, %xmm11, %xmm11
movbeq 80(%r14), %r12
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 32(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 40(%rbp)
movdqu 16(%r9), %xmm5
vaesenc %xmm15, %xmm14, %xmm14
movdqu -80(%rcx), %xmm15
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vaesenc %xmm15, %xmm10, %xmm10
vpxor %xmm3, %xmm7, %xmm7
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vaesenc %xmm15, %xmm11, %xmm11
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 80(%rbp), %xmm0
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vaesenc %xmm15, %xmm14, %xmm14
movdqu -64(%rcx), %xmm15
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vaesenc %xmm15, %xmm10, %xmm10
movbeq 72(%r14), %r13
vpxor %xmm5, %xmm7, %xmm7
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vaesenc %xmm15, %xmm11, %xmm11
movbeq 64(%r14), %r12
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
movdqu 96(%rbp), %xmm0
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 48(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 56(%rbp)
vpxor %xmm2, %xmm4, %xmm4
movdqu 64(%r9), %xmm2
vaesenc %xmm15, %xmm14, %xmm14
movdqu -48(%rcx), %xmm15
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm0, %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm5
vaesenc %xmm15, %xmm10, %xmm10
movbeq 56(%r14), %r13
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor 112(%rbp), %xmm8, %xmm8
vaesenc %xmm15, %xmm11, %xmm11
movbeq 48(%r14), %r12
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 64(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 72(%rbp)
vpxor %xmm3, %xmm4, %xmm4
movdqu 80(%r9), %xmm3
vaesenc %xmm15, %xmm14, %xmm14
movdqu -32(%rcx), %xmm15
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm8, %xmm5
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm3, %xmm8, %xmm1
vaesenc %xmm15, %xmm10, %xmm10
movbeq 40(%r14), %r13
vpxor %xmm2, %xmm7, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm2
vaesenc %xmm15, %xmm11, %xmm11
movbeq 32(%r14), %r12
vpclmulqdq $17, %xmm3, %xmm8, %xmm8
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 80(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 88(%rbp)
vpxor %xmm5, %xmm6, %xmm6
vaesenc %xmm15, %xmm14, %xmm14
vpxor %xmm1, %xmm6, %xmm6
movdqu -16(%rcx), %xmm15
vpslldq $8, %xmm6, %xmm5
vpxor %xmm2, %xmm4, %xmm4
pxor %xmm3, %xmm3
mov $13979173243358019584, %r11
pinsrq $1, %r11, %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm8, %xmm7, %xmm7
vaesenc %xmm15, %xmm10, %xmm10
vpxor %xmm5, %xmm4, %xmm4
movbeq 24(%r14), %r13
vaesenc %xmm15, %xmm11, %xmm11
movbeq 16(%r14), %r12
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
movq %r13, 96(%rbp)
vaesenc %xmm15, %xmm12, %xmm12
movq %r12, 104(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 0(%rcx), %xmm1
vaesenc %xmm1, %xmm9, %xmm9
movdqu 16(%rcx), %xmm15
vaesenc %xmm1, %xmm10, %xmm10
vpsrldq $8, %xmm6, %xmm6
vaesenc %xmm1, %xmm11, %xmm11
vpxor %xmm6, %xmm7, %xmm7
vaesenc %xmm1, %xmm12, %xmm12
vpxor %xmm0, %xmm4, %xmm4
movbeq 8(%r14), %r13
vaesenc %xmm1, %xmm13, %xmm13
movbeq 0(%r14), %r12
vaesenc %xmm1, %xmm14, %xmm14
movdqu 32(%rcx), %xmm1
vaesenc %xmm15, %xmm9, %xmm9
movdqu %xmm7, 16(%rbp)
vpalignr $8, %xmm4, %xmm4, %xmm8
vaesenc %xmm15, %xmm10, %xmm10
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor 0(%rdi), %xmm1, %xmm2
vaesenc %xmm15, %xmm11, %xmm11
vpxor 16(%rdi), %xmm1, %xmm0
vaesenc %xmm15, %xmm12, %xmm12
vpxor 32(%rdi), %xmm1, %xmm5
vaesenc %xmm15, %xmm13, %xmm13
vpxor 48(%rdi), %xmm1, %xmm6
vaesenc %xmm15, %xmm14, %xmm14
vpxor 64(%rdi), %xmm1, %xmm7
vpxor 80(%rdi), %xmm1, %xmm3
movdqu 128(%rbp), %xmm1
vaesenclast %xmm2, %xmm9, %xmm9
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
vaesenclast %xmm0, %xmm10, %xmm10
vpaddd %xmm2, %xmm1, %xmm0
movq %r13, 112(%rbp)
lea 96(%rdi), %rdi
vaesenclast %xmm5, %xmm11, %xmm11
vpaddd %xmm2, %xmm0, %xmm5
movq %r12, 120(%rbp)
lea 96(%rsi), %rsi
movdqu -128(%rcx), %xmm15
vaesenclast %xmm6, %xmm12, %xmm12
vpaddd %xmm2, %xmm5, %xmm6
vaesenclast %xmm7, %xmm13, %xmm13
vpaddd %xmm2, %xmm6, %xmm7
vaesenclast %xmm3, %xmm14, %xmm14
vpaddd %xmm2, %xmm7, %xmm3
sub $6, %rdx
add $96, %r14
cmp $0, %rdx
jbe L80
movdqu %xmm9, -96(%rsi)
vpxor %xmm15, %xmm1, %xmm9
movdqu %xmm10, -80(%rsi)
movdqu %xmm0, %xmm10
movdqu %xmm11, -64(%rsi)
movdqu %xmm5, %xmm11
movdqu %xmm12, -48(%rsi)
movdqu %xmm6, %xmm12
movdqu %xmm13, -32(%rsi)
movdqu %xmm7, %xmm13
movdqu %xmm14, -16(%rsi)
movdqu %xmm3, %xmm14
movdqu 32(%rbp), %xmm7
jmp L81
L80:
vpxor 16(%rbp), %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
L81:
.balign 16
L77:
cmp $0, %rdx
ja L76
movdqu 32(%rbp), %xmm7
movdqu %xmm1, 32(%rbp)
pxor %xmm4, %xmm4
movdqu %xmm4, 16(%rbp)
movdqu -32(%r9), %xmm3
vpclmulqdq $0, %xmm3, %xmm7, %xmm1
vpclmulqdq $16, %xmm3, %xmm7, %xmm5
movdqu 48(%rbp), %xmm0
vpclmulqdq $1, %xmm3, %xmm7, %xmm6
vpclmulqdq $17, %xmm3, %xmm7, %xmm7
movdqu -16(%r9), %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpxor %xmm4, %xmm8, %xmm8
vpxor %xmm5, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vpclmulqdq $1, %xmm3, %xmm0, %xmm2
vpxor 16(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
movdqu 64(%rbp), %xmm0
movdqu 16(%r9), %xmm5
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpxor %xmm3, %xmm7, %xmm7
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 80(%rbp), %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vpxor %xmm5, %xmm7, %xmm7
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
movdqu 96(%rbp), %xmm0
vpxor %xmm2, %xmm4, %xmm4
movdqu 64(%r9), %xmm2
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm0, %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm5
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor 112(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vpxor %xmm3, %xmm4, %xmm4
movdqu 80(%r9), %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm8, %xmm5
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm3, %xmm8, %xmm1
vpxor %xmm2, %xmm7, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm2
vpclmulqdq $17, %xmm3, %xmm8, %xmm8
vpxor %xmm5, %xmm6, %xmm6
vpxor %xmm1, %xmm6, %xmm6
vpxor %xmm2, %xmm4, %xmm4
pxor %xmm3, %xmm3
mov $3254779904, %rax
pinsrd $3, %eax, %xmm3
vpxor %xmm8, %xmm7, %xmm7
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm0
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm0
movdqu %xmm9, -96(%rsi)
vpshufb %xmm0, %xmm9, %xmm9
vpxor %xmm7, %xmm1, %xmm1
movdqu %xmm10, -80(%rsi)
vpshufb %xmm0, %xmm10, %xmm10
movdqu %xmm11, -64(%rsi)
vpshufb %xmm0, %xmm11, %xmm11
movdqu %xmm12, -48(%rsi)
vpshufb %xmm0, %xmm12, %xmm12
movdqu %xmm13, -32(%rsi)
vpshufb %xmm0, %xmm13, %xmm13
movdqu %xmm14, -16(%rsi)
vpshufb %xmm0, %xmm14, %xmm14
pxor %xmm4, %xmm4
movdqu %xmm14, %xmm7
movdqu %xmm4, 16(%rbp)
movdqu %xmm13, 48(%rbp)
movdqu %xmm12, 64(%rbp)
movdqu %xmm11, 80(%rbp)
movdqu %xmm10, 96(%rbp)
movdqu %xmm9, 112(%rbp)
movdqu -32(%r9), %xmm3
vpclmulqdq $0, %xmm3, %xmm7, %xmm1
vpclmulqdq $16, %xmm3, %xmm7, %xmm5
movdqu 48(%rbp), %xmm0
vpclmulqdq $1, %xmm3, %xmm7, %xmm6
vpclmulqdq $17, %xmm3, %xmm7, %xmm7
movdqu -16(%r9), %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpxor %xmm4, %xmm8, %xmm8
vpxor %xmm5, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vpclmulqdq $1, %xmm3, %xmm0, %xmm2
vpxor 16(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
movdqu 64(%rbp), %xmm0
movdqu 16(%r9), %xmm5
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpxor %xmm3, %xmm7, %xmm7
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 80(%rbp), %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vpxor %xmm5, %xmm7, %xmm7
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
movdqu 96(%rbp), %xmm0
vpxor %xmm2, %xmm4, %xmm4
movdqu 64(%r9), %xmm2
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm0, %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm5
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor 112(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vpxor %xmm3, %xmm4, %xmm4
movdqu 80(%r9), %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm8, %xmm5
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm3, %xmm8, %xmm1
vpxor %xmm2, %xmm7, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm2
vpclmulqdq $17, %xmm3, %xmm8, %xmm8
vpxor %xmm5, %xmm6, %xmm6
vpxor %xmm1, %xmm6, %xmm6
vpxor %xmm2, %xmm4, %xmm4
pxor %xmm3, %xmm3
mov $3254779904, %rax
pinsrd $3, %eax, %xmm3
vpxor %xmm8, %xmm7, %xmm7
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
sub $128, %rcx
L71:
movdqu 32(%rbp), %xmm11
mov %rcx, %r8
mov 312(%rsp), %rax
mov 320(%rsp), %rdi
mov 328(%rsp), %rdx
mov %rdx, %r14
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm9
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm9
pshufb %xmm9, %xmm11
pxor %xmm10, %xmm10
mov $1, %rbx
pinsrd $0, %ebx, %xmm10
mov %rax, %r11
mov %rdi, %r10
mov $0, %rbx
jmp L83
.balign 16
L82:
movdqu %xmm11, %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
movdqu 0(%r11), %xmm2
pxor %xmm0, %xmm2
movdqu %xmm2, 0(%r10)
add $1, %rbx
add $16, %r11
add $16, %r10
paddd %xmm10, %xmm11
.balign 16
L83:
cmp %rdx, %rbx
jne L82
mov %rdi, %r11
jmp L85
.balign 16
L84:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L85:
cmp $6, %rdx
jae L84
cmp $0, %rdx
jbe L86
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L88
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L89
L88:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L90
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L92
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L94
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L95
L94:
L95:
jmp L93
L92:
L93:
jmp L91
L90:
L91:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L89:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L87
L86:
L87:
add 304(%rsp), %r14
imul $16, %r14
mov 344(%rsp), %r13
cmp %r14, %r13
jbe L96
mov 336(%rsp), %rax
mov %r13, %r10
and $15, %r10
movdqu %xmm11, %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
movdqu 0(%rax), %xmm4
pxor %xmm4, %xmm0
movdqu %xmm0, 0(%rax)
cmp $8, %r10
jae L98
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L99
L98:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L99:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L97
L96:
L97:
mov %r15, %r11
pxor %xmm0, %xmm0
mov %r11, %rax
imul $8, %rax
pinsrq $1, %rax, %xmm0
mov %r13, %rax
imul $8, %rax
pinsrq $0, %rax, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
movdqu 0(%rbp), %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pshufb %xmm9, %xmm8
pxor %xmm0, %xmm8
mov 360(%rsp), %r15
movdqu %xmm8, 0(%r15)
pop %rax
pinsrq $1, %rax, %xmm6
pop %rax
pinsrq $0, %rax, %xmm6
pop %rax
pinsrq $1, %rax, %xmm7
pop %rax
pinsrq $0, %rax, %xmm7
pop %rax
pinsrq $1, %rax, %xmm8
pop %rax
pinsrq $0, %rax, %xmm8
pop %rax
pinsrq $1, %rax, %xmm9
pop %rax
pinsrq $0, %rax, %xmm9
pop %rax
pinsrq $1, %rax, %xmm10
pop %rax
pinsrq $0, %rax, %xmm10
pop %rax
pinsrq $1, %rax, %xmm11
pop %rax
pinsrq $0, %rax, %xmm11
pop %rax
pinsrq $1, %rax, %xmm12
pop %rax
pinsrq $0, %rax, %xmm12
pop %rax
pinsrq $1, %rax, %xmm13
pop %rax
pinsrq $0, %rax, %xmm13
pop %rax
pinsrq $1, %rax, %xmm14
pop %rax
pinsrq $0, %rax, %xmm14
pop %rax
pinsrq $1, %rax, %xmm15
pop %rax
pinsrq $0, %rax, %xmm15
pop %rbx
pop %rbp
pop %rdi
pop %rsi
pop %r12
pop %r13
pop %r14
pop %r15
ret
.global gcm256_encrypt_opt
gcm256_encrypt_opt:
push %r15
push %r14
push %r13
push %r12
push %rsi
push %rdi
push %rbp
push %rbx
pextrq $0, %xmm15, %rax
push %rax
pextrq $1, %xmm15, %rax
push %rax
pextrq $0, %xmm14, %rax
push %rax
pextrq $1, %xmm14, %rax
push %rax
pextrq $0, %xmm13, %rax
push %rax
pextrq $1, %xmm13, %rax
push %rax
pextrq $0, %xmm12, %rax
push %rax
pextrq $1, %xmm12, %rax
push %rax
pextrq $0, %xmm11, %rax
push %rax
pextrq $1, %xmm11, %rax
push %rax
pextrq $0, %xmm10, %rax
push %rax
pextrq $1, %xmm10, %rax
push %rax
pextrq $0, %xmm9, %rax
push %rax
pextrq $1, %xmm9, %rax
push %rax
pextrq $0, %xmm8, %rax
push %rax
pextrq $1, %xmm8, %rax
push %rax
pextrq $0, %xmm7, %rax
push %rax
pextrq $1, %xmm7, %rax
push %rax
pextrq $0, %xmm6, %rax
push %rax
pextrq $1, %xmm6, %rax
push %rax
mov %rcx, %rdi
mov %rdx, %rsi
mov %r8, %rdx
mov %r9, %rcx
mov 264(%rsp), %r8
mov 272(%rsp), %r9
mov 352(%rsp), %rbp
mov %rcx, %r13
lea 32(%r9), %r9
mov 280(%rsp), %rbx
mov %rdx, %rcx
imul $16, %rcx
mov $579005069656919567, %r10
pinsrq $0, %r10, %xmm9
mov $283686952306183, %r10
pinsrq $1, %r10, %xmm9
pxor %xmm8, %xmm8
mov %rdi, %r11
jmp L101
.balign 16
L100:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L101:
cmp $6, %rdx
jae L100
cmp $0, %rdx
jbe L102
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L104
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L105
L104:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L106
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L108
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L110
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L111
L110:
L111:
jmp L109
L108:
L109:
jmp L107
L106:
L107:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L105:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L103
L102:
L103:
mov %rsi, %r15
cmp %rcx, %rsi
jbe L112
movdqu 0(%rbx), %xmm0
mov %rsi, %r10
and $15, %r10
cmp $8, %r10
jae L114
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L115
L114:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L115:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L113
L112:
L113:
mov 288(%rsp), %rdi
mov 296(%rsp), %rsi
mov 304(%rsp), %rdx
mov %r13, %rcx
movdqu %xmm9, %xmm0
movdqu 0(%r8), %xmm1
movdqu %xmm1, 0(%rbp)
pxor %xmm10, %xmm10
mov $1, %r11
pinsrq $0, %r11, %xmm10
vpaddd %xmm10, %xmm1, %xmm1
cmp $0, %rdx
jne L116
vpshufb %xmm0, %xmm1, %xmm1
movdqu %xmm1, 32(%rbp)
jmp L117
L116:
movdqu %xmm8, 32(%rbp)
add $128, %rcx
pextrq $0, %xmm1, %rbx
and $255, %rbx
vpshufb %xmm0, %xmm1, %xmm1
lea 96(%rsi), %r14
movdqu -128(%rcx), %xmm4
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
movdqu -112(%rcx), %xmm15
mov %rcx, %r12
sub $96, %r12
vpxor %xmm4, %xmm1, %xmm9
add $6, %rbx
cmp $256, %rbx
jae L118
vpaddd %xmm2, %xmm1, %xmm10
vpaddd %xmm2, %xmm10, %xmm11
vpxor %xmm4, %xmm10, %xmm10
vpaddd %xmm2, %xmm11, %xmm12
vpxor %xmm4, %xmm11, %xmm11
vpaddd %xmm2, %xmm12, %xmm13
vpxor %xmm4, %xmm12, %xmm12
vpaddd %xmm2, %xmm13, %xmm14
vpxor %xmm4, %xmm13, %xmm13
vpaddd %xmm2, %xmm14, %xmm1
vpxor %xmm4, %xmm14, %xmm14
jmp L119
L118:
sub $256, %rbx
vpshufb %xmm0, %xmm1, %xmm6
pxor %xmm5, %xmm5
mov $1, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm10
pxor %xmm5, %xmm5
mov $2, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm11
vpaddd %xmm5, %xmm10, %xmm12
vpshufb %xmm0, %xmm10, %xmm10
vpaddd %xmm5, %xmm11, %xmm13
vpshufb %xmm0, %xmm11, %xmm11
vpxor %xmm4, %xmm10, %xmm10
vpaddd %xmm5, %xmm12, %xmm14
vpshufb %xmm0, %xmm12, %xmm12
vpxor %xmm4, %xmm11, %xmm11
vpaddd %xmm5, %xmm13, %xmm1
vpshufb %xmm0, %xmm13, %xmm13
vpxor %xmm4, %xmm12, %xmm12
vpshufb %xmm0, %xmm14, %xmm14
vpxor %xmm4, %xmm13, %xmm13
vpshufb %xmm0, %xmm1, %xmm1
vpxor %xmm4, %xmm14, %xmm14
L119:
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -96(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -80(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -64(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -48(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -32(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -16(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 0(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 16(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 32(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 48(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 64(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 80(%rcx), %xmm15
movdqu 96(%rcx), %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor 0(%rdi), %xmm3, %xmm4
vaesenc %xmm15, %xmm10, %xmm10
vpxor 16(%rdi), %xmm3, %xmm5
vaesenc %xmm15, %xmm11, %xmm11
vpxor 32(%rdi), %xmm3, %xmm6
vaesenc %xmm15, %xmm12, %xmm12
vpxor 48(%rdi), %xmm3, %xmm8
vaesenc %xmm15, %xmm13, %xmm13
vpxor 64(%rdi), %xmm3, %xmm2
vaesenc %xmm15, %xmm14, %xmm14
vpxor 80(%rdi), %xmm3, %xmm3
lea 96(%rdi), %rdi
vaesenclast %xmm4, %xmm9, %xmm9
vaesenclast %xmm5, %xmm10, %xmm10
vaesenclast %xmm6, %xmm11, %xmm11
vaesenclast %xmm8, %xmm12, %xmm12
vaesenclast %xmm2, %xmm13, %xmm13
vaesenclast %xmm3, %xmm14, %xmm14
movdqu %xmm9, 0(%rsi)
movdqu %xmm10, 16(%rsi)
movdqu %xmm11, 32(%rsi)
movdqu %xmm12, 48(%rsi)
movdqu %xmm13, 64(%rsi)
movdqu %xmm14, 80(%rsi)
lea 96(%rsi), %rsi
vpshufb %xmm0, %xmm9, %xmm8
vpshufb %xmm0, %xmm10, %xmm2
movdqu %xmm8, 112(%rbp)
vpshufb %xmm0, %xmm11, %xmm4
movdqu %xmm2, 96(%rbp)
vpshufb %xmm0, %xmm12, %xmm5
movdqu %xmm4, 80(%rbp)
vpshufb %xmm0, %xmm13, %xmm6
movdqu %xmm5, 64(%rbp)
vpshufb %xmm0, %xmm14, %xmm7
movdqu %xmm6, 48(%rbp)
movdqu -128(%rcx), %xmm4
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
movdqu -112(%rcx), %xmm15
mov %rcx, %r12
sub $96, %r12
vpxor %xmm4, %xmm1, %xmm9
add $6, %rbx
cmp $256, %rbx
jae L120
vpaddd %xmm2, %xmm1, %xmm10
vpaddd %xmm2, %xmm10, %xmm11
vpxor %xmm4, %xmm10, %xmm10
vpaddd %xmm2, %xmm11, %xmm12
vpxor %xmm4, %xmm11, %xmm11
vpaddd %xmm2, %xmm12, %xmm13
vpxor %xmm4, %xmm12, %xmm12
vpaddd %xmm2, %xmm13, %xmm14
vpxor %xmm4, %xmm13, %xmm13
vpaddd %xmm2, %xmm14, %xmm1
vpxor %xmm4, %xmm14, %xmm14
jmp L121
L120:
sub $256, %rbx
vpshufb %xmm0, %xmm1, %xmm6
pxor %xmm5, %xmm5
mov $1, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm10
pxor %xmm5, %xmm5
mov $2, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm11
vpaddd %xmm5, %xmm10, %xmm12
vpshufb %xmm0, %xmm10, %xmm10
vpaddd %xmm5, %xmm11, %xmm13
vpshufb %xmm0, %xmm11, %xmm11
vpxor %xmm4, %xmm10, %xmm10
vpaddd %xmm5, %xmm12, %xmm14
vpshufb %xmm0, %xmm12, %xmm12
vpxor %xmm4, %xmm11, %xmm11
vpaddd %xmm5, %xmm13, %xmm1
vpshufb %xmm0, %xmm13, %xmm13
vpxor %xmm4, %xmm12, %xmm12
vpshufb %xmm0, %xmm14, %xmm14
vpxor %xmm4, %xmm13, %xmm13
vpshufb %xmm0, %xmm1, %xmm1
vpxor %xmm4, %xmm14, %xmm14
L121:
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -96(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -80(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -64(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -48(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -32(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -16(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 0(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 16(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 32(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 48(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 64(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 80(%rcx), %xmm15
movdqu 96(%rcx), %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor 0(%rdi), %xmm3, %xmm4
vaesenc %xmm15, %xmm10, %xmm10
vpxor 16(%rdi), %xmm3, %xmm5
vaesenc %xmm15, %xmm11, %xmm11
vpxor 32(%rdi), %xmm3, %xmm6
vaesenc %xmm15, %xmm12, %xmm12
vpxor 48(%rdi), %xmm3, %xmm8
vaesenc %xmm15, %xmm13, %xmm13
vpxor 64(%rdi), %xmm3, %xmm2
vaesenc %xmm15, %xmm14, %xmm14
vpxor 80(%rdi), %xmm3, %xmm3
lea 96(%rdi), %rdi
vaesenclast %xmm4, %xmm9, %xmm9
vaesenclast %xmm5, %xmm10, %xmm10
vaesenclast %xmm6, %xmm11, %xmm11
vaesenclast %xmm8, %xmm12, %xmm12
vaesenclast %xmm2, %xmm13, %xmm13
vaesenclast %xmm3, %xmm14, %xmm14
movdqu %xmm9, 0(%rsi)
movdqu %xmm10, 16(%rsi)
movdqu %xmm11, 32(%rsi)
movdqu %xmm12, 48(%rsi)
movdqu %xmm13, 64(%rsi)
movdqu %xmm14, 80(%rsi)
lea 96(%rsi), %rsi
sub $12, %rdx
movdqu 32(%rbp), %xmm8
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
vpxor %xmm4, %xmm4, %xmm4
movdqu -128(%rcx), %xmm15
vpaddd %xmm2, %xmm1, %xmm10
vpaddd %xmm2, %xmm10, %xmm11
vpaddd %xmm2, %xmm11, %xmm12
vpaddd %xmm2, %xmm12, %xmm13
vpaddd %xmm2, %xmm13, %xmm14
vpxor %xmm15, %xmm1, %xmm9
movdqu %xmm4, 16(%rbp)
jmp L123
.balign 16
L122:
add $6, %rbx
cmp $256, %rbx
jb L124
mov $579005069656919567, %r11
pinsrq $0, %r11, %xmm0
mov $283686952306183, %r11
pinsrq $1, %r11, %xmm0
vpshufb %xmm0, %xmm1, %xmm6
pxor %xmm5, %xmm5
mov $1, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm10
pxor %xmm5, %xmm5
mov $2, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm11
movdqu -32(%r9), %xmm3
vpaddd %xmm5, %xmm10, %xmm12
vpshufb %xmm0, %xmm10, %xmm10
vpaddd %xmm5, %xmm11, %xmm13
vpshufb %xmm0, %xmm11, %xmm11
vpxor %xmm15, %xmm10, %xmm10
vpaddd %xmm5, %xmm12, %xmm14
vpshufb %xmm0, %xmm12, %xmm12
vpxor %xmm15, %xmm11, %xmm11
vpaddd %xmm5, %xmm13, %xmm1
vpshufb %xmm0, %xmm13, %xmm13
vpshufb %xmm0, %xmm14, %xmm14
vpshufb %xmm0, %xmm1, %xmm1
sub $256, %rbx
jmp L125
L124:
movdqu -32(%r9), %xmm3
vpaddd %xmm14, %xmm2, %xmm1
vpxor %xmm15, %xmm10, %xmm10
vpxor %xmm15, %xmm11, %xmm11
L125:
movdqu %xmm1, 128(%rbp)
vpclmulqdq $16, %xmm3, %xmm7, %xmm5
vpxor %xmm15, %xmm12, %xmm12
movdqu -112(%rcx), %xmm2
vpclmulqdq $1, %xmm3, %xmm7, %xmm6
vaesenc %xmm2, %xmm9, %xmm9
movdqu 48(%rbp), %xmm0
vpxor %xmm15, %xmm13, %xmm13
vpclmulqdq $0, %xmm3, %xmm7, %xmm1
vaesenc %xmm2, %xmm10, %xmm10
vpxor %xmm15, %xmm14, %xmm14
vpclmulqdq $17, %xmm3, %xmm7, %xmm7
vaesenc %xmm2, %xmm11, %xmm11
movdqu -16(%r9), %xmm3
vaesenc %xmm2, %xmm12, %xmm12
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpxor %xmm4, %xmm8, %xmm8
vaesenc %xmm2, %xmm13, %xmm13
vpxor %xmm5, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vaesenc %xmm2, %xmm14, %xmm14
movdqu -96(%rcx), %xmm15
vpclmulqdq $1, %xmm3, %xmm0, %xmm2
vaesenc %xmm15, %xmm9, %xmm9
vpxor 16(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
movdqu 64(%rbp), %xmm0
vaesenc %xmm15, %xmm10, %xmm10
movbeq 88(%r14), %r13
vaesenc %xmm15, %xmm11, %xmm11
movbeq 80(%r14), %r12
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 32(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 40(%rbp)
movdqu 16(%r9), %xmm5
vaesenc %xmm15, %xmm14, %xmm14
movdqu -80(%rcx), %xmm15
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vaesenc %xmm15, %xmm10, %xmm10
vpxor %xmm3, %xmm7, %xmm7
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vaesenc %xmm15, %xmm11, %xmm11
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 80(%rbp), %xmm0
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vaesenc %xmm15, %xmm14, %xmm14
movdqu -64(%rcx), %xmm15
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vaesenc %xmm15, %xmm10, %xmm10
movbeq 72(%r14), %r13
vpxor %xmm5, %xmm7, %xmm7
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vaesenc %xmm15, %xmm11, %xmm11
movbeq 64(%r14), %r12
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
movdqu 96(%rbp), %xmm0
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 48(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 56(%rbp)
vpxor %xmm2, %xmm4, %xmm4
movdqu 64(%r9), %xmm2
vaesenc %xmm15, %xmm14, %xmm14
movdqu -48(%rcx), %xmm15
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm0, %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm5
vaesenc %xmm15, %xmm10, %xmm10
movbeq 56(%r14), %r13
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor 112(%rbp), %xmm8, %xmm8
vaesenc %xmm15, %xmm11, %xmm11
movbeq 48(%r14), %r12
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 64(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 72(%rbp)
vpxor %xmm3, %xmm4, %xmm4
movdqu 80(%r9), %xmm3
vaesenc %xmm15, %xmm14, %xmm14
movdqu -32(%rcx), %xmm15
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm8, %xmm5
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm3, %xmm8, %xmm1
vaesenc %xmm15, %xmm10, %xmm10
movbeq 40(%r14), %r13
vpxor %xmm2, %xmm7, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm2
vaesenc %xmm15, %xmm11, %xmm11
movbeq 32(%r14), %r12
vpclmulqdq $17, %xmm3, %xmm8, %xmm8
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 80(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 88(%rbp)
vpxor %xmm5, %xmm6, %xmm6
vaesenc %xmm15, %xmm14, %xmm14
vpxor %xmm1, %xmm6, %xmm6
movdqu -16(%rcx), %xmm15
vpslldq $8, %xmm6, %xmm5
vpxor %xmm2, %xmm4, %xmm4
pxor %xmm3, %xmm3
mov $13979173243358019584, %r11
pinsrq $1, %r11, %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm8, %xmm7, %xmm7
vaesenc %xmm15, %xmm10, %xmm10
vpxor %xmm5, %xmm4, %xmm4
movbeq 24(%r14), %r13
vaesenc %xmm15, %xmm11, %xmm11
movbeq 16(%r14), %r12
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
movq %r13, 96(%rbp)
vaesenc %xmm15, %xmm12, %xmm12
movq %r12, 104(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 0(%rcx), %xmm1
vaesenc %xmm1, %xmm9, %xmm9
movdqu 16(%rcx), %xmm15
vaesenc %xmm1, %xmm10, %xmm10
vpsrldq $8, %xmm6, %xmm6
vaesenc %xmm1, %xmm11, %xmm11
vpxor %xmm6, %xmm7, %xmm7
vaesenc %xmm1, %xmm12, %xmm12
vpxor %xmm0, %xmm4, %xmm4
movbeq 8(%r14), %r13
vaesenc %xmm1, %xmm13, %xmm13
movbeq 0(%r14), %r12
vaesenc %xmm1, %xmm14, %xmm14
movdqu 32(%rcx), %xmm1
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
vaesenc %xmm1, %xmm9, %xmm9
vaesenc %xmm1, %xmm10, %xmm10
vaesenc %xmm1, %xmm11, %xmm11
vaesenc %xmm1, %xmm12, %xmm12
vaesenc %xmm1, %xmm13, %xmm13
movdqu 48(%rcx), %xmm15
vaesenc %xmm1, %xmm14, %xmm14
movdqu 64(%rcx), %xmm1
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
vaesenc %xmm1, %xmm9, %xmm9
vaesenc %xmm1, %xmm10, %xmm10
vaesenc %xmm1, %xmm11, %xmm11
vaesenc %xmm1, %xmm12, %xmm12
vaesenc %xmm1, %xmm13, %xmm13
movdqu 80(%rcx), %xmm15
vaesenc %xmm1, %xmm14, %xmm14
movdqu 96(%rcx), %xmm1
vaesenc %xmm15, %xmm9, %xmm9
movdqu %xmm7, 16(%rbp)
vpalignr $8, %xmm4, %xmm4, %xmm8
vaesenc %xmm15, %xmm10, %xmm10
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor 0(%rdi), %xmm1, %xmm2
vaesenc %xmm15, %xmm11, %xmm11
vpxor 16(%rdi), %xmm1, %xmm0
vaesenc %xmm15, %xmm12, %xmm12
vpxor 32(%rdi), %xmm1, %xmm5
vaesenc %xmm15, %xmm13, %xmm13
vpxor 48(%rdi), %xmm1, %xmm6
vaesenc %xmm15, %xmm14, %xmm14
vpxor 64(%rdi), %xmm1, %xmm7
vpxor 80(%rdi), %xmm1, %xmm3
movdqu 128(%rbp), %xmm1
vaesenclast %xmm2, %xmm9, %xmm9
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
vaesenclast %xmm0, %xmm10, %xmm10
vpaddd %xmm2, %xmm1, %xmm0
movq %r13, 112(%rbp)
lea 96(%rdi), %rdi
vaesenclast %xmm5, %xmm11, %xmm11
vpaddd %xmm2, %xmm0, %xmm5
movq %r12, 120(%rbp)
lea 96(%rsi), %rsi
movdqu -128(%rcx), %xmm15
vaesenclast %xmm6, %xmm12, %xmm12
vpaddd %xmm2, %xmm5, %xmm6
vaesenclast %xmm7, %xmm13, %xmm13
vpaddd %xmm2, %xmm6, %xmm7
vaesenclast %xmm3, %xmm14, %xmm14
vpaddd %xmm2, %xmm7, %xmm3
sub $6, %rdx
add $96, %r14
cmp $0, %rdx
jbe L126
movdqu %xmm9, -96(%rsi)
vpxor %xmm15, %xmm1, %xmm9
movdqu %xmm10, -80(%rsi)
movdqu %xmm0, %xmm10
movdqu %xmm11, -64(%rsi)
movdqu %xmm5, %xmm11
movdqu %xmm12, -48(%rsi)
movdqu %xmm6, %xmm12
movdqu %xmm13, -32(%rsi)
movdqu %xmm7, %xmm13
movdqu %xmm14, -16(%rsi)
movdqu %xmm3, %xmm14
movdqu 32(%rbp), %xmm7
jmp L127
L126:
vpxor 16(%rbp), %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
L127:
.balign 16
L123:
cmp $0, %rdx
ja L122
movdqu 32(%rbp), %xmm7
movdqu %xmm1, 32(%rbp)
pxor %xmm4, %xmm4
movdqu %xmm4, 16(%rbp)
movdqu -32(%r9), %xmm3
vpclmulqdq $0, %xmm3, %xmm7, %xmm1
vpclmulqdq $16, %xmm3, %xmm7, %xmm5
movdqu 48(%rbp), %xmm0
vpclmulqdq $1, %xmm3, %xmm7, %xmm6
vpclmulqdq $17, %xmm3, %xmm7, %xmm7
movdqu -16(%r9), %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpxor %xmm4, %xmm8, %xmm8
vpxor %xmm5, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vpclmulqdq $1, %xmm3, %xmm0, %xmm2
vpxor 16(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
movdqu 64(%rbp), %xmm0
movdqu 16(%r9), %xmm5
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpxor %xmm3, %xmm7, %xmm7
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 80(%rbp), %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vpxor %xmm5, %xmm7, %xmm7
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
movdqu 96(%rbp), %xmm0
vpxor %xmm2, %xmm4, %xmm4
movdqu 64(%r9), %xmm2
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm0, %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm5
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor 112(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vpxor %xmm3, %xmm4, %xmm4
movdqu 80(%r9), %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm8, %xmm5
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm3, %xmm8, %xmm1
vpxor %xmm2, %xmm7, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm2
vpclmulqdq $17, %xmm3, %xmm8, %xmm8
vpxor %xmm5, %xmm6, %xmm6
vpxor %xmm1, %xmm6, %xmm6
vpxor %xmm2, %xmm4, %xmm4
pxor %xmm3, %xmm3
mov $3254779904, %rax
pinsrd $3, %eax, %xmm3
vpxor %xmm8, %xmm7, %xmm7
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm0
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm0
movdqu %xmm9, -96(%rsi)
vpshufb %xmm0, %xmm9, %xmm9
vpxor %xmm7, %xmm1, %xmm1
movdqu %xmm10, -80(%rsi)
vpshufb %xmm0, %xmm10, %xmm10
movdqu %xmm11, -64(%rsi)
vpshufb %xmm0, %xmm11, %xmm11
movdqu %xmm12, -48(%rsi)
vpshufb %xmm0, %xmm12, %xmm12
movdqu %xmm13, -32(%rsi)
vpshufb %xmm0, %xmm13, %xmm13
movdqu %xmm14, -16(%rsi)
vpshufb %xmm0, %xmm14, %xmm14
pxor %xmm4, %xmm4
movdqu %xmm14, %xmm7
movdqu %xmm4, 16(%rbp)
movdqu %xmm13, 48(%rbp)
movdqu %xmm12, 64(%rbp)
movdqu %xmm11, 80(%rbp)
movdqu %xmm10, 96(%rbp)
movdqu %xmm9, 112(%rbp)
movdqu -32(%r9), %xmm3
vpclmulqdq $0, %xmm3, %xmm7, %xmm1
vpclmulqdq $16, %xmm3, %xmm7, %xmm5
movdqu 48(%rbp), %xmm0
vpclmulqdq $1, %xmm3, %xmm7, %xmm6
vpclmulqdq $17, %xmm3, %xmm7, %xmm7
movdqu -16(%r9), %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpxor %xmm4, %xmm8, %xmm8
vpxor %xmm5, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vpclmulqdq $1, %xmm3, %xmm0, %xmm2
vpxor 16(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
movdqu 64(%rbp), %xmm0
movdqu 16(%r9), %xmm5
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpxor %xmm3, %xmm7, %xmm7
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 80(%rbp), %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vpxor %xmm5, %xmm7, %xmm7
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
movdqu 96(%rbp), %xmm0
vpxor %xmm2, %xmm4, %xmm4
movdqu 64(%r9), %xmm2
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm0, %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm5
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor 112(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vpxor %xmm3, %xmm4, %xmm4
movdqu 80(%r9), %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm8, %xmm5
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm3, %xmm8, %xmm1
vpxor %xmm2, %xmm7, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm2
vpclmulqdq $17, %xmm3, %xmm8, %xmm8
vpxor %xmm5, %xmm6, %xmm6
vpxor %xmm1, %xmm6, %xmm6
vpxor %xmm2, %xmm4, %xmm4
pxor %xmm3, %xmm3
mov $3254779904, %rax
pinsrd $3, %eax, %xmm3
vpxor %xmm8, %xmm7, %xmm7
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
sub $128, %rcx
L117:
movdqu 32(%rbp), %xmm11
mov %rcx, %r8
mov 312(%rsp), %rax
mov 320(%rsp), %rdi
mov 328(%rsp), %rdx
mov %rdx, %r14
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm9
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm9
pshufb %xmm9, %xmm11
pxor %xmm10, %xmm10
mov $1, %rbx
pinsrd $0, %ebx, %xmm10
mov %rax, %r11
mov %rdi, %r10
mov $0, %rbx
jmp L129
.balign 16
L128:
movdqu %xmm11, %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
movdqu 0(%r11), %xmm2
pxor %xmm0, %xmm2
movdqu %xmm2, 0(%r10)
add $1, %rbx
add $16, %r11
add $16, %r10
paddd %xmm10, %xmm11
.balign 16
L129:
cmp %rdx, %rbx
jne L128
mov %rdi, %r11
jmp L131
.balign 16
L130:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L131:
cmp $6, %rdx
jae L130
cmp $0, %rdx
jbe L132
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L134
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L135
L134:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L136
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L138
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L140
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L141
L140:
L141:
jmp L139
L138:
L139:
jmp L137
L136:
L137:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L135:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L133
L132:
L133:
add 304(%rsp), %r14
imul $16, %r14
mov 344(%rsp), %r13
cmp %r14, %r13
jbe L142
mov 336(%rsp), %rax
mov %r13, %r10
and $15, %r10
movdqu %xmm11, %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
movdqu 0(%rax), %xmm4
pxor %xmm4, %xmm0
movdqu %xmm0, 0(%rax)
cmp $8, %r10
jae L144
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L145
L144:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L145:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L143
L142:
L143:
mov %r15, %r11
pxor %xmm0, %xmm0
mov %r11, %rax
imul $8, %rax
pinsrq $1, %rax, %xmm0
mov %r13, %rax
imul $8, %rax
pinsrq $0, %rax, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
movdqu 0(%rbp), %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pshufb %xmm9, %xmm8
pxor %xmm0, %xmm8
mov 360(%rsp), %r15
movdqu %xmm8, 0(%r15)
pop %rax
pinsrq $1, %rax, %xmm6
pop %rax
pinsrq $0, %rax, %xmm6
pop %rax
pinsrq $1, %rax, %xmm7
pop %rax
pinsrq $0, %rax, %xmm7
pop %rax
pinsrq $1, %rax, %xmm8
pop %rax
pinsrq $0, %rax, %xmm8
pop %rax
pinsrq $1, %rax, %xmm9
pop %rax
pinsrq $0, %rax, %xmm9
pop %rax
pinsrq $1, %rax, %xmm10
pop %rax
pinsrq $0, %rax, %xmm10
pop %rax
pinsrq $1, %rax, %xmm11
pop %rax
pinsrq $0, %rax, %xmm11
pop %rax
pinsrq $1, %rax, %xmm12
pop %rax
pinsrq $0, %rax, %xmm12
pop %rax
pinsrq $1, %rax, %xmm13
pop %rax
pinsrq $0, %rax, %xmm13
pop %rax
pinsrq $1, %rax, %xmm14
pop %rax
pinsrq $0, %rax, %xmm14
pop %rax
pinsrq $1, %rax, %xmm15
pop %rax
pinsrq $0, %rax, %xmm15
pop %rbx
pop %rbp
pop %rdi
pop %rsi
pop %r12
pop %r13
pop %r14
pop %r15
ret
.global gcm128_decrypt_opt
gcm128_decrypt_opt:
push %r15
push %r14
push %r13
push %r12
push %rsi
push %rdi
push %rbp
push %rbx
pextrq $0, %xmm15, %rax
push %rax
pextrq $1, %xmm15, %rax
push %rax
pextrq $0, %xmm14, %rax
push %rax
pextrq $1, %xmm14, %rax
push %rax
pextrq $0, %xmm13, %rax
push %rax
pextrq $1, %xmm13, %rax
push %rax
pextrq $0, %xmm12, %rax
push %rax
pextrq $1, %xmm12, %rax
push %rax
pextrq $0, %xmm11, %rax
push %rax
pextrq $1, %xmm11, %rax
push %rax
pextrq $0, %xmm10, %rax
push %rax
pextrq $1, %xmm10, %rax
push %rax
pextrq $0, %xmm9, %rax
push %rax
pextrq $1, %xmm9, %rax
push %rax
pextrq $0, %xmm8, %rax
push %rax
pextrq $1, %xmm8, %rax
push %rax
pextrq $0, %xmm7, %rax
push %rax
pextrq $1, %xmm7, %rax
push %rax
pextrq $0, %xmm6, %rax
push %rax
pextrq $1, %xmm6, %rax
push %rax
mov %rcx, %rdi
mov %rdx, %rsi
mov %r8, %rdx
mov %r9, %rcx
mov 264(%rsp), %r8
mov 272(%rsp), %r9
mov 352(%rsp), %rbp
mov %rcx, %r13
lea 32(%r9), %r9
mov 280(%rsp), %rbx
mov %rdx, %rcx
imul $16, %rcx
mov $579005069656919567, %r10
pinsrq $0, %r10, %xmm9
mov $283686952306183, %r10
pinsrq $1, %r10, %xmm9
pxor %xmm8, %xmm8
mov %rdi, %r11
jmp L147
.balign 16
L146:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L147:
cmp $6, %rdx
jae L146
cmp $0, %rdx
jbe L148
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L150
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L151
L150:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L152
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L154
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L156
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L157
L156:
L157:
jmp L155
L154:
L155:
jmp L153
L152:
L153:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L151:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L149
L148:
L149:
mov %rsi, %r15
cmp %rcx, %rsi
jbe L158
movdqu 0(%rbx), %xmm0
mov %rsi, %r10
and $15, %r10
cmp $8, %r10
jae L160
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L161
L160:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L161:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L159
L158:
L159:
mov 288(%rsp), %rdi
mov 296(%rsp), %rsi
mov 304(%rsp), %rdx
mov %r13, %rcx
movdqu %xmm9, %xmm0
movdqu 0(%r8), %xmm1
movdqu %xmm1, 0(%rbp)
pxor %xmm10, %xmm10
mov $1, %r11
pinsrq $0, %r11, %xmm10
vpaddd %xmm10, %xmm1, %xmm1
cmp $0, %rdx
jne L162
vpshufb %xmm0, %xmm1, %xmm1
movdqu %xmm1, 32(%rbp)
jmp L163
L162:
movdqu %xmm8, 32(%rbp)
add $128, %rcx
pextrq $0, %xmm1, %rbx
and $255, %rbx
vpshufb %xmm0, %xmm1, %xmm1
lea 96(%rdi), %r14
movdqu 32(%rbp), %xmm8
movdqu 80(%rdi), %xmm7
movdqu 64(%rdi), %xmm4
movdqu 48(%rdi), %xmm5
movdqu 32(%rdi), %xmm6
vpshufb %xmm0, %xmm7, %xmm7
movdqu 16(%rdi), %xmm2
vpshufb %xmm0, %xmm4, %xmm4
movdqu 0(%rdi), %xmm3
vpshufb %xmm0, %xmm5, %xmm5
movdqu %xmm4, 48(%rbp)
vpshufb %xmm0, %xmm6, %xmm6
movdqu %xmm5, 64(%rbp)
vpshufb %xmm0, %xmm2, %xmm2
movdqu %xmm6, 80(%rbp)
vpshufb %xmm0, %xmm3, %xmm3
movdqu %xmm2, 96(%rbp)
movdqu %xmm3, 112(%rbp)
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
vpxor %xmm4, %xmm4, %xmm4
movdqu -128(%rcx), %xmm15
vpaddd %xmm2, %xmm1, %xmm10
vpaddd %xmm2, %xmm10, %xmm11
vpaddd %xmm2, %xmm11, %xmm12
vpaddd %xmm2, %xmm12, %xmm13
vpaddd %xmm2, %xmm13, %xmm14
vpxor %xmm15, %xmm1, %xmm9
movdqu %xmm4, 16(%rbp)
cmp $6, %rdx
jne L164
sub $96, %r14
jmp L165
L164:
L165:
jmp L167
.balign 16
L166:
add $6, %rbx
cmp $256, %rbx
jb L168
mov $579005069656919567, %r11
pinsrq $0, %r11, %xmm0
mov $283686952306183, %r11
pinsrq $1, %r11, %xmm0
vpshufb %xmm0, %xmm1, %xmm6
pxor %xmm5, %xmm5
mov $1, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm10
pxor %xmm5, %xmm5
mov $2, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm11
movdqu -32(%r9), %xmm3
vpaddd %xmm5, %xmm10, %xmm12
vpshufb %xmm0, %xmm10, %xmm10
vpaddd %xmm5, %xmm11, %xmm13
vpshufb %xmm0, %xmm11, %xmm11
vpxor %xmm15, %xmm10, %xmm10
vpaddd %xmm5, %xmm12, %xmm14
vpshufb %xmm0, %xmm12, %xmm12
vpxor %xmm15, %xmm11, %xmm11
vpaddd %xmm5, %xmm13, %xmm1
vpshufb %xmm0, %xmm13, %xmm13
vpshufb %xmm0, %xmm14, %xmm14
vpshufb %xmm0, %xmm1, %xmm1
sub $256, %rbx
jmp L169
L168:
movdqu -32(%r9), %xmm3
vpaddd %xmm14, %xmm2, %xmm1
vpxor %xmm15, %xmm10, %xmm10
vpxor %xmm15, %xmm11, %xmm11
L169:
movdqu %xmm1, 128(%rbp)
vpclmulqdq $16, %xmm3, %xmm7, %xmm5
vpxor %xmm15, %xmm12, %xmm12
movdqu -112(%rcx), %xmm2
vpclmulqdq $1, %xmm3, %xmm7, %xmm6
vaesenc %xmm2, %xmm9, %xmm9
movdqu 48(%rbp), %xmm0
vpxor %xmm15, %xmm13, %xmm13
vpclmulqdq $0, %xmm3, %xmm7, %xmm1
vaesenc %xmm2, %xmm10, %xmm10
vpxor %xmm15, %xmm14, %xmm14
vpclmulqdq $17, %xmm3, %xmm7, %xmm7
vaesenc %xmm2, %xmm11, %xmm11
movdqu -16(%r9), %xmm3
vaesenc %xmm2, %xmm12, %xmm12
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpxor %xmm4, %xmm8, %xmm8
vaesenc %xmm2, %xmm13, %xmm13
vpxor %xmm5, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vaesenc %xmm2, %xmm14, %xmm14
movdqu -96(%rcx), %xmm15
vpclmulqdq $1, %xmm3, %xmm0, %xmm2
vaesenc %xmm15, %xmm9, %xmm9
vpxor 16(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
movdqu 64(%rbp), %xmm0
vaesenc %xmm15, %xmm10, %xmm10
movbeq 88(%r14), %r13
vaesenc %xmm15, %xmm11, %xmm11
movbeq 80(%r14), %r12
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 32(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 40(%rbp)
movdqu 16(%r9), %xmm5
vaesenc %xmm15, %xmm14, %xmm14
movdqu -80(%rcx), %xmm15
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vaesenc %xmm15, %xmm10, %xmm10
vpxor %xmm3, %xmm7, %xmm7
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vaesenc %xmm15, %xmm11, %xmm11
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 80(%rbp), %xmm0
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vaesenc %xmm15, %xmm14, %xmm14
movdqu -64(%rcx), %xmm15
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vaesenc %xmm15, %xmm10, %xmm10
movbeq 72(%r14), %r13
vpxor %xmm5, %xmm7, %xmm7
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vaesenc %xmm15, %xmm11, %xmm11
movbeq 64(%r14), %r12
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
movdqu 96(%rbp), %xmm0
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 48(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 56(%rbp)
vpxor %xmm2, %xmm4, %xmm4
movdqu 64(%r9), %xmm2
vaesenc %xmm15, %xmm14, %xmm14
movdqu -48(%rcx), %xmm15
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm0, %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm5
vaesenc %xmm15, %xmm10, %xmm10
movbeq 56(%r14), %r13
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor 112(%rbp), %xmm8, %xmm8
vaesenc %xmm15, %xmm11, %xmm11
movbeq 48(%r14), %r12
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 64(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 72(%rbp)
vpxor %xmm3, %xmm4, %xmm4
movdqu 80(%r9), %xmm3
vaesenc %xmm15, %xmm14, %xmm14
movdqu -32(%rcx), %xmm15
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm8, %xmm5
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm3, %xmm8, %xmm1
vaesenc %xmm15, %xmm10, %xmm10
movbeq 40(%r14), %r13
vpxor %xmm2, %xmm7, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm2
vaesenc %xmm15, %xmm11, %xmm11
movbeq 32(%r14), %r12
vpclmulqdq $17, %xmm3, %xmm8, %xmm8
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 80(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 88(%rbp)
vpxor %xmm5, %xmm6, %xmm6
vaesenc %xmm15, %xmm14, %xmm14
vpxor %xmm1, %xmm6, %xmm6
movdqu -16(%rcx), %xmm15
vpslldq $8, %xmm6, %xmm5
vpxor %xmm2, %xmm4, %xmm4
pxor %xmm3, %xmm3
mov $13979173243358019584, %r11
pinsrq $1, %r11, %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm8, %xmm7, %xmm7
vaesenc %xmm15, %xmm10, %xmm10
vpxor %xmm5, %xmm4, %xmm4
movbeq 24(%r14), %r13
vaesenc %xmm15, %xmm11, %xmm11
movbeq 16(%r14), %r12
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
movq %r13, 96(%rbp)
vaesenc %xmm15, %xmm12, %xmm12
movq %r12, 104(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 0(%rcx), %xmm1
vaesenc %xmm1, %xmm9, %xmm9
movdqu 16(%rcx), %xmm15
vaesenc %xmm1, %xmm10, %xmm10
vpsrldq $8, %xmm6, %xmm6
vaesenc %xmm1, %xmm11, %xmm11
vpxor %xmm6, %xmm7, %xmm7
vaesenc %xmm1, %xmm12, %xmm12
vpxor %xmm0, %xmm4, %xmm4
movbeq 8(%r14), %r13
vaesenc %xmm1, %xmm13, %xmm13
movbeq 0(%r14), %r12
vaesenc %xmm1, %xmm14, %xmm14
movdqu 32(%rcx), %xmm1
vaesenc %xmm15, %xmm9, %xmm9
movdqu %xmm7, 16(%rbp)
vpalignr $8, %xmm4, %xmm4, %xmm8
vaesenc %xmm15, %xmm10, %xmm10
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor 0(%rdi), %xmm1, %xmm2
vaesenc %xmm15, %xmm11, %xmm11
vpxor 16(%rdi), %xmm1, %xmm0
vaesenc %xmm15, %xmm12, %xmm12
vpxor 32(%rdi), %xmm1, %xmm5
vaesenc %xmm15, %xmm13, %xmm13
vpxor 48(%rdi), %xmm1, %xmm6
vaesenc %xmm15, %xmm14, %xmm14
vpxor 64(%rdi), %xmm1, %xmm7
vpxor 80(%rdi), %xmm1, %xmm3
movdqu 128(%rbp), %xmm1
vaesenclast %xmm2, %xmm9, %xmm9
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
vaesenclast %xmm0, %xmm10, %xmm10
vpaddd %xmm2, %xmm1, %xmm0
movq %r13, 112(%rbp)
lea 96(%rdi), %rdi
vaesenclast %xmm5, %xmm11, %xmm11
vpaddd %xmm2, %xmm0, %xmm5
movq %r12, 120(%rbp)
lea 96(%rsi), %rsi
movdqu -128(%rcx), %xmm15
vaesenclast %xmm6, %xmm12, %xmm12
vpaddd %xmm2, %xmm5, %xmm6
vaesenclast %xmm7, %xmm13, %xmm13
vpaddd %xmm2, %xmm6, %xmm7
vaesenclast %xmm3, %xmm14, %xmm14
vpaddd %xmm2, %xmm7, %xmm3
sub $6, %rdx
cmp $6, %rdx
jbe L170
add $96, %r14
jmp L171
L170:
L171:
cmp $0, %rdx
jbe L172
movdqu %xmm9, -96(%rsi)
vpxor %xmm15, %xmm1, %xmm9
movdqu %xmm10, -80(%rsi)
movdqu %xmm0, %xmm10
movdqu %xmm11, -64(%rsi)
movdqu %xmm5, %xmm11
movdqu %xmm12, -48(%rsi)
movdqu %xmm6, %xmm12
movdqu %xmm13, -32(%rsi)
movdqu %xmm7, %xmm13
movdqu %xmm14, -16(%rsi)
movdqu %xmm3, %xmm14
movdqu 32(%rbp), %xmm7
jmp L173
L172:
vpxor 16(%rbp), %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
L173:
.balign 16
L167:
cmp $0, %rdx
ja L166
movdqu %xmm1, 32(%rbp)
movdqu %xmm9, -96(%rsi)
movdqu %xmm10, -80(%rsi)
movdqu %xmm11, -64(%rsi)
movdqu %xmm12, -48(%rsi)
movdqu %xmm13, -32(%rsi)
movdqu %xmm14, -16(%rsi)
sub $128, %rcx
L163:
movdqu 32(%rbp), %xmm11
mov %rcx, %r8
mov 312(%rsp), %rax
mov 320(%rsp), %rdi
mov 328(%rsp), %rdx
mov %rdx, %r14
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm9
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm9
pshufb %xmm9, %xmm11
mov %rdi, %rbx
mov %rdx, %r12
mov %rax, %rdi
mov %rdi, %r11
jmp L175
.balign 16
L174:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L175:
cmp $6, %rdx
jae L174
cmp $0, %rdx
jbe L176
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L178
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L179
L178:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L180
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L182
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L184
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L185
L184:
L185:
jmp L183
L182:
L183:
jmp L181
L180:
L181:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L179:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L177
L176:
L177:
mov %rbx, %rdi
mov %r12, %rdx
pxor %xmm10, %xmm10
mov $1, %rbx
pinsrd $0, %ebx, %xmm10
mov %rax, %r11
mov %rdi, %r10
mov $0, %rbx
jmp L187
.balign 16
L186:
movdqu %xmm11, %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
movdqu 0(%r11), %xmm2
pxor %xmm0, %xmm2
movdqu %xmm2, 0(%r10)
add $1, %rbx
add $16, %r11
add $16, %r10
paddd %xmm10, %xmm11
.balign 16
L187:
cmp %rdx, %rbx
jne L186
add 304(%rsp), %r14
imul $16, %r14
mov 344(%rsp), %r13
cmp %r14, %r13
jbe L188
mov 336(%rsp), %rax
mov %r13, %r10
and $15, %r10
movdqu 0(%rax), %xmm0
movdqu %xmm0, %xmm10
cmp $8, %r10
jae L190
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L191
L190:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L191:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
movdqu %xmm11, %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pxor %xmm0, %xmm10
movdqu %xmm10, 0(%rax)
jmp L189
L188:
L189:
mov %r15, %r11
pxor %xmm0, %xmm0
mov %r11, %rax
imul $8, %rax
pinsrq $1, %rax, %xmm0
mov %r13, %rax
imul $8, %rax
pinsrq $0, %rax, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
movdqu 0(%rbp), %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pshufb %xmm9, %xmm8
pxor %xmm0, %xmm8
mov 360(%rsp), %r15
movdqu 0(%r15), %xmm0
pcmpeqd %xmm8, %xmm0
pextrq $0, %xmm0, %rdx
sub $18446744073709551615, %rdx
mov $0, %rax
adc $0, %rax
pextrq $1, %xmm0, %rdx
sub $18446744073709551615, %rdx
mov $0, %rdx
adc $0, %rdx
add %rdx, %rax
mov %rax, %rcx
pop %rax
pinsrq $1, %rax, %xmm6
pop %rax
pinsrq $0, %rax, %xmm6
pop %rax
pinsrq $1, %rax, %xmm7
pop %rax
pinsrq $0, %rax, %xmm7
pop %rax
pinsrq $1, %rax, %xmm8
pop %rax
pinsrq $0, %rax, %xmm8
pop %rax
pinsrq $1, %rax, %xmm9
pop %rax
pinsrq $0, %rax, %xmm9
pop %rax
pinsrq $1, %rax, %xmm10
pop %rax
pinsrq $0, %rax, %xmm10
pop %rax
pinsrq $1, %rax, %xmm11
pop %rax
pinsrq $0, %rax, %xmm11
pop %rax
pinsrq $1, %rax, %xmm12
pop %rax
pinsrq $0, %rax, %xmm12
pop %rax
pinsrq $1, %rax, %xmm13
pop %rax
pinsrq $0, %rax, %xmm13
pop %rax
pinsrq $1, %rax, %xmm14
pop %rax
pinsrq $0, %rax, %xmm14
pop %rax
pinsrq $1, %rax, %xmm15
pop %rax
pinsrq $0, %rax, %xmm15
pop %rbx
pop %rbp
pop %rdi
pop %rsi
pop %r12
pop %r13
pop %r14
pop %r15
mov %rcx, %rax
ret
.global gcm256_decrypt_opt
gcm256_decrypt_opt:
push %r15
push %r14
push %r13
push %r12
push %rsi
push %rdi
push %rbp
push %rbx
pextrq $0, %xmm15, %rax
push %rax
pextrq $1, %xmm15, %rax
push %rax
pextrq $0, %xmm14, %rax
push %rax
pextrq $1, %xmm14, %rax
push %rax
pextrq $0, %xmm13, %rax
push %rax
pextrq $1, %xmm13, %rax
push %rax
pextrq $0, %xmm12, %rax
push %rax
pextrq $1, %xmm12, %rax
push %rax
pextrq $0, %xmm11, %rax
push %rax
pextrq $1, %xmm11, %rax
push %rax
pextrq $0, %xmm10, %rax
push %rax
pextrq $1, %xmm10, %rax
push %rax
pextrq $0, %xmm9, %rax
push %rax
pextrq $1, %xmm9, %rax
push %rax
pextrq $0, %xmm8, %rax
push %rax
pextrq $1, %xmm8, %rax
push %rax
pextrq $0, %xmm7, %rax
push %rax
pextrq $1, %xmm7, %rax
push %rax
pextrq $0, %xmm6, %rax
push %rax
pextrq $1, %xmm6, %rax
push %rax
mov %rcx, %rdi
mov %rdx, %rsi
mov %r8, %rdx
mov %r9, %rcx
mov 264(%rsp), %r8
mov 272(%rsp), %r9
mov 352(%rsp), %rbp
mov %rcx, %r13
lea 32(%r9), %r9
mov 280(%rsp), %rbx
mov %rdx, %rcx
imul $16, %rcx
mov $579005069656919567, %r10
pinsrq $0, %r10, %xmm9
mov $283686952306183, %r10
pinsrq $1, %r10, %xmm9
pxor %xmm8, %xmm8
mov %rdi, %r11
jmp L193
.balign 16
L192:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L193:
cmp $6, %rdx
jae L192
cmp $0, %rdx
jbe L194
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L196
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L197
L196:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L198
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L200
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L202
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L203
L202:
L203:
jmp L201
L200:
L201:
jmp L199
L198:
L199:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L197:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L195
L194:
L195:
mov %rsi, %r15
cmp %rcx, %rsi
jbe L204
movdqu 0(%rbx), %xmm0
mov %rsi, %r10
and $15, %r10
cmp $8, %r10
jae L206
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L207
L206:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L207:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L205
L204:
L205:
mov 288(%rsp), %rdi
mov 296(%rsp), %rsi
mov 304(%rsp), %rdx
mov %r13, %rcx
movdqu %xmm9, %xmm0
movdqu 0(%r8), %xmm1
movdqu %xmm1, 0(%rbp)
pxor %xmm10, %xmm10
mov $1, %r11
pinsrq $0, %r11, %xmm10
vpaddd %xmm10, %xmm1, %xmm1
cmp $0, %rdx
jne L208
vpshufb %xmm0, %xmm1, %xmm1
movdqu %xmm1, 32(%rbp)
jmp L209
L208:
movdqu %xmm8, 32(%rbp)
add $128, %rcx
pextrq $0, %xmm1, %rbx
and $255, %rbx
vpshufb %xmm0, %xmm1, %xmm1
lea 96(%rdi), %r14
movdqu 32(%rbp), %xmm8
movdqu 80(%rdi), %xmm7
movdqu 64(%rdi), %xmm4
movdqu 48(%rdi), %xmm5
movdqu 32(%rdi), %xmm6
vpshufb %xmm0, %xmm7, %xmm7
movdqu 16(%rdi), %xmm2
vpshufb %xmm0, %xmm4, %xmm4
movdqu 0(%rdi), %xmm3
vpshufb %xmm0, %xmm5, %xmm5
movdqu %xmm4, 48(%rbp)
vpshufb %xmm0, %xmm6, %xmm6
movdqu %xmm5, 64(%rbp)
vpshufb %xmm0, %xmm2, %xmm2
movdqu %xmm6, 80(%rbp)
vpshufb %xmm0, %xmm3, %xmm3
movdqu %xmm2, 96(%rbp)
movdqu %xmm3, 112(%rbp)
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
vpxor %xmm4, %xmm4, %xmm4
movdqu -128(%rcx), %xmm15
vpaddd %xmm2, %xmm1, %xmm10
vpaddd %xmm2, %xmm10, %xmm11
vpaddd %xmm2, %xmm11, %xmm12
vpaddd %xmm2, %xmm12, %xmm13
vpaddd %xmm2, %xmm13, %xmm14
vpxor %xmm15, %xmm1, %xmm9
movdqu %xmm4, 16(%rbp)
cmp $6, %rdx
jne L210
sub $96, %r14
jmp L211
L210:
L211:
jmp L213
.balign 16
L212:
add $6, %rbx
cmp $256, %rbx
jb L214
mov $579005069656919567, %r11
pinsrq $0, %r11, %xmm0
mov $283686952306183, %r11
pinsrq $1, %r11, %xmm0
vpshufb %xmm0, %xmm1, %xmm6
pxor %xmm5, %xmm5
mov $1, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm10
pxor %xmm5, %xmm5
mov $2, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm11
movdqu -32(%r9), %xmm3
vpaddd %xmm5, %xmm10, %xmm12
vpshufb %xmm0, %xmm10, %xmm10
vpaddd %xmm5, %xmm11, %xmm13
vpshufb %xmm0, %xmm11, %xmm11
vpxor %xmm15, %xmm10, %xmm10
vpaddd %xmm5, %xmm12, %xmm14
vpshufb %xmm0, %xmm12, %xmm12
vpxor %xmm15, %xmm11, %xmm11
vpaddd %xmm5, %xmm13, %xmm1
vpshufb %xmm0, %xmm13, %xmm13
vpshufb %xmm0, %xmm14, %xmm14
vpshufb %xmm0, %xmm1, %xmm1
sub $256, %rbx
jmp L215
L214:
movdqu -32(%r9), %xmm3
vpaddd %xmm14, %xmm2, %xmm1
vpxor %xmm15, %xmm10, %xmm10
vpxor %xmm15, %xmm11, %xmm11
L215:
movdqu %xmm1, 128(%rbp)
vpclmulqdq $16, %xmm3, %xmm7, %xmm5
vpxor %xmm15, %xmm12, %xmm12
movdqu -112(%rcx), %xmm2
vpclmulqdq $1, %xmm3, %xmm7, %xmm6
vaesenc %xmm2, %xmm9, %xmm9
movdqu 48(%rbp), %xmm0
vpxor %xmm15, %xmm13, %xmm13
vpclmulqdq $0, %xmm3, %xmm7, %xmm1
vaesenc %xmm2, %xmm10, %xmm10
vpxor %xmm15, %xmm14, %xmm14
vpclmulqdq $17, %xmm3, %xmm7, %xmm7
vaesenc %xmm2, %xmm11, %xmm11
movdqu -16(%r9), %xmm3
vaesenc %xmm2, %xmm12, %xmm12
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpxor %xmm4, %xmm8, %xmm8
vaesenc %xmm2, %xmm13, %xmm13
vpxor %xmm5, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vaesenc %xmm2, %xmm14, %xmm14
movdqu -96(%rcx), %xmm15
vpclmulqdq $1, %xmm3, %xmm0, %xmm2
vaesenc %xmm15, %xmm9, %xmm9
vpxor 16(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
movdqu 64(%rbp), %xmm0
vaesenc %xmm15, %xmm10, %xmm10
movbeq 88(%r14), %r13
vaesenc %xmm15, %xmm11, %xmm11
movbeq 80(%r14), %r12
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 32(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 40(%rbp)
movdqu 16(%r9), %xmm5
vaesenc %xmm15, %xmm14, %xmm14
movdqu -80(%rcx), %xmm15
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vaesenc %xmm15, %xmm10, %xmm10
vpxor %xmm3, %xmm7, %xmm7
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vaesenc %xmm15, %xmm11, %xmm11
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 80(%rbp), %xmm0
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vaesenc %xmm15, %xmm14, %xmm14
movdqu -64(%rcx), %xmm15
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vaesenc %xmm15, %xmm10, %xmm10
movbeq 72(%r14), %r13
vpxor %xmm5, %xmm7, %xmm7
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vaesenc %xmm15, %xmm11, %xmm11
movbeq 64(%r14), %r12
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
movdqu 96(%rbp), %xmm0
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 48(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 56(%rbp)
vpxor %xmm2, %xmm4, %xmm4
movdqu 64(%r9), %xmm2
vaesenc %xmm15, %xmm14, %xmm14
movdqu -48(%rcx), %xmm15
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm0, %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm5
vaesenc %xmm15, %xmm10, %xmm10
movbeq 56(%r14), %r13
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor 112(%rbp), %xmm8, %xmm8
vaesenc %xmm15, %xmm11, %xmm11
movbeq 48(%r14), %r12
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 64(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 72(%rbp)
vpxor %xmm3, %xmm4, %xmm4
movdqu 80(%r9), %xmm3
vaesenc %xmm15, %xmm14, %xmm14
movdqu -32(%rcx), %xmm15
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm8, %xmm5
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm3, %xmm8, %xmm1
vaesenc %xmm15, %xmm10, %xmm10
movbeq 40(%r14), %r13
vpxor %xmm2, %xmm7, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm2
vaesenc %xmm15, %xmm11, %xmm11
movbeq 32(%r14), %r12
vpclmulqdq $17, %xmm3, %xmm8, %xmm8
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 80(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 88(%rbp)
vpxor %xmm5, %xmm6, %xmm6
vaesenc %xmm15, %xmm14, %xmm14
vpxor %xmm1, %xmm6, %xmm6
movdqu -16(%rcx), %xmm15
vpslldq $8, %xmm6, %xmm5
vpxor %xmm2, %xmm4, %xmm4
pxor %xmm3, %xmm3
mov $13979173243358019584, %r11
pinsrq $1, %r11, %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm8, %xmm7, %xmm7
vaesenc %xmm15, %xmm10, %xmm10
vpxor %xmm5, %xmm4, %xmm4
movbeq 24(%r14), %r13
vaesenc %xmm15, %xmm11, %xmm11
movbeq 16(%r14), %r12
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
movq %r13, 96(%rbp)
vaesenc %xmm15, %xmm12, %xmm12
movq %r12, 104(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 0(%rcx), %xmm1
vaesenc %xmm1, %xmm9, %xmm9
movdqu 16(%rcx), %xmm15
vaesenc %xmm1, %xmm10, %xmm10
vpsrldq $8, %xmm6, %xmm6
vaesenc %xmm1, %xmm11, %xmm11
vpxor %xmm6, %xmm7, %xmm7
vaesenc %xmm1, %xmm12, %xmm12
vpxor %xmm0, %xmm4, %xmm4
movbeq 8(%r14), %r13
vaesenc %xmm1, %xmm13, %xmm13
movbeq 0(%r14), %r12
vaesenc %xmm1, %xmm14, %xmm14
movdqu 32(%rcx), %xmm1
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
vaesenc %xmm1, %xmm9, %xmm9
vaesenc %xmm1, %xmm10, %xmm10
vaesenc %xmm1, %xmm11, %xmm11
vaesenc %xmm1, %xmm12, %xmm12
vaesenc %xmm1, %xmm13, %xmm13
movdqu 48(%rcx), %xmm15
vaesenc %xmm1, %xmm14, %xmm14
movdqu 64(%rcx), %xmm1
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
vaesenc %xmm1, %xmm9, %xmm9
vaesenc %xmm1, %xmm10, %xmm10
vaesenc %xmm1, %xmm11, %xmm11
vaesenc %xmm1, %xmm12, %xmm12
vaesenc %xmm1, %xmm13, %xmm13
movdqu 80(%rcx), %xmm15
vaesenc %xmm1, %xmm14, %xmm14
movdqu 96(%rcx), %xmm1
vaesenc %xmm15, %xmm9, %xmm9
movdqu %xmm7, 16(%rbp)
vpalignr $8, %xmm4, %xmm4, %xmm8
vaesenc %xmm15, %xmm10, %xmm10
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor 0(%rdi), %xmm1, %xmm2
vaesenc %xmm15, %xmm11, %xmm11
vpxor 16(%rdi), %xmm1, %xmm0
vaesenc %xmm15, %xmm12, %xmm12
vpxor 32(%rdi), %xmm1, %xmm5
vaesenc %xmm15, %xmm13, %xmm13
vpxor 48(%rdi), %xmm1, %xmm6
vaesenc %xmm15, %xmm14, %xmm14
vpxor 64(%rdi), %xmm1, %xmm7
vpxor 80(%rdi), %xmm1, %xmm3
movdqu 128(%rbp), %xmm1
vaesenclast %xmm2, %xmm9, %xmm9
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
vaesenclast %xmm0, %xmm10, %xmm10
vpaddd %xmm2, %xmm1, %xmm0
movq %r13, 112(%rbp)
lea 96(%rdi), %rdi
vaesenclast %xmm5, %xmm11, %xmm11
vpaddd %xmm2, %xmm0, %xmm5
movq %r12, 120(%rbp)
lea 96(%rsi), %rsi
movdqu -128(%rcx), %xmm15
vaesenclast %xmm6, %xmm12, %xmm12
vpaddd %xmm2, %xmm5, %xmm6
vaesenclast %xmm7, %xmm13, %xmm13
vpaddd %xmm2, %xmm6, %xmm7
vaesenclast %xmm3, %xmm14, %xmm14
vpaddd %xmm2, %xmm7, %xmm3
sub $6, %rdx
cmp $6, %rdx
jbe L216
add $96, %r14
jmp L217
L216:
L217:
cmp $0, %rdx
jbe L218
movdqu %xmm9, -96(%rsi)
vpxor %xmm15, %xmm1, %xmm9
movdqu %xmm10, -80(%rsi)
movdqu %xmm0, %xmm10
movdqu %xmm11, -64(%rsi)
movdqu %xmm5, %xmm11
movdqu %xmm12, -48(%rsi)
movdqu %xmm6, %xmm12
movdqu %xmm13, -32(%rsi)
movdqu %xmm7, %xmm13
movdqu %xmm14, -16(%rsi)
movdqu %xmm3, %xmm14
movdqu 32(%rbp), %xmm7
jmp L219
L218:
vpxor 16(%rbp), %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
L219:
.balign 16
L213:
cmp $0, %rdx
ja L212
movdqu %xmm1, 32(%rbp)
movdqu %xmm9, -96(%rsi)
movdqu %xmm10, -80(%rsi)
movdqu %xmm11, -64(%rsi)
movdqu %xmm12, -48(%rsi)
movdqu %xmm13, -32(%rsi)
movdqu %xmm14, -16(%rsi)
sub $128, %rcx
L209:
movdqu 32(%rbp), %xmm11
mov %rcx, %r8
mov 312(%rsp), %rax
mov 320(%rsp), %rdi
mov 328(%rsp), %rdx
mov %rdx, %r14
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm9
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm9
pshufb %xmm9, %xmm11
mov %rdi, %rbx
mov %rdx, %r12
mov %rax, %rdi
mov %rdi, %r11
jmp L221
.balign 16
L220:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L221:
cmp $6, %rdx
jae L220
cmp $0, %rdx
jbe L222
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L224
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L225
L224:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L226
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L228
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L230
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L231
L230:
L231:
jmp L229
L228:
L229:
jmp L227
L226:
L227:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L225:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L223
L222:
L223:
mov %rbx, %rdi
mov %r12, %rdx
pxor %xmm10, %xmm10
mov $1, %rbx
pinsrd $0, %ebx, %xmm10
mov %rax, %r11
mov %rdi, %r10
mov $0, %rbx
jmp L233
.balign 16
L232:
movdqu %xmm11, %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
movdqu 0(%r11), %xmm2
pxor %xmm0, %xmm2
movdqu %xmm2, 0(%r10)
add $1, %rbx
add $16, %r11
add $16, %r10
paddd %xmm10, %xmm11
.balign 16
L233:
cmp %rdx, %rbx
jne L232
add 304(%rsp), %r14
imul $16, %r14
mov 344(%rsp), %r13
cmp %r14, %r13
jbe L234
mov 336(%rsp), %rax
mov %r13, %r10
and $15, %r10
movdqu 0(%rax), %xmm0
movdqu %xmm0, %xmm10
cmp $8, %r10
jae L236
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L237
L236:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L237:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
movdqu %xmm11, %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pxor %xmm0, %xmm10
movdqu %xmm10, 0(%rax)
jmp L235
L234:
L235:
mov %r15, %r11
pxor %xmm0, %xmm0
mov %r11, %rax
imul $8, %rax
pinsrq $1, %rax, %xmm0
mov %r13, %rax
imul $8, %rax
pinsrq $0, %rax, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
movdqu 0(%rbp), %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pshufb %xmm9, %xmm8
pxor %xmm0, %xmm8
mov 360(%rsp), %r15
movdqu 0(%r15), %xmm0
pcmpeqd %xmm8, %xmm0
pextrq $0, %xmm0, %rdx
sub $18446744073709551615, %rdx
mov $0, %rax
adc $0, %rax
pextrq $1, %xmm0, %rdx
sub $18446744073709551615, %rdx
mov $0, %rdx
adc $0, %rdx
add %rdx, %rax
mov %rax, %rcx
pop %rax
pinsrq $1, %rax, %xmm6
pop %rax
pinsrq $0, %rax, %xmm6
pop %rax
pinsrq $1, %rax, %xmm7
pop %rax
pinsrq $0, %rax, %xmm7
pop %rax
pinsrq $1, %rax, %xmm8
pop %rax
pinsrq $0, %rax, %xmm8
pop %rax
pinsrq $1, %rax, %xmm9
pop %rax
pinsrq $0, %rax, %xmm9
pop %rax
pinsrq $1, %rax, %xmm10
pop %rax
pinsrq $0, %rax, %xmm10
pop %rax
pinsrq $1, %rax, %xmm11
pop %rax
pinsrq $0, %rax, %xmm11
pop %rax
pinsrq $1, %rax, %xmm12
pop %rax
pinsrq $0, %rax, %xmm12
pop %rax
pinsrq $1, %rax, %xmm13
pop %rax
pinsrq $0, %rax, %xmm13
pop %rax
pinsrq $1, %rax, %xmm14
pop %rax
pinsrq $0, %rax, %xmm14
pop %rax
pinsrq $1, %rax, %xmm15
pop %rax
pinsrq $0, %rax, %xmm15
pop %rbx
pop %rbp
pop %rdi
pop %rsi
pop %r12
pop %r13
pop %r14
pop %r15
mov %rcx, %rax
ret
|
usenix-security-verdict/verdict
| 2,368
|
deps/libcrux/sys/hacl/c/vale/src/cpuid-x86_64-darwin.S
|
.text
.global _check_aesni
_check_aesni:
mov %rbx, %r9
mov $0, %rcx
mov $1, %rax
cpuid
mov %rcx, %rax
and $33554432, %rax
shr $24, %rax
and $2, %rcx
and %rcx, %rax
mov %r9, %rbx
ret
.global _check_sha
_check_sha:
mov %rbx, %r9
mov $7, %rax
mov $0, %rcx
cpuid
and $536870912, %rbx
mov %rbx, %rax
mov %r9, %rbx
ret
.global _check_adx_bmi2
_check_adx_bmi2:
mov %rbx, %r9
mov $7, %rax
mov $0, %rcx
cpuid
mov %rbx, %rax
and $524288, %rax
shr $11, %rax
and $256, %rbx
and %rbx, %rax
mov %r9, %rbx
ret
.global _check_avx
_check_avx:
mov %rbx, %r9
mov $0, %rcx
mov $1, %rax
cpuid
mov %rcx, %rax
and $268435456, %rax
shr $27, %rax
mov %r9, %rbx
ret
.global _check_avx2
_check_avx2:
mov %rbx, %r9
mov $7, %rax
mov $0, %rcx
cpuid
and $32, %rbx
mov %rbx, %rax
mov %r9, %rbx
ret
.global _check_movbe
_check_movbe:
mov %rbx, %r9
mov $0, %rcx
mov $1, %rax
cpuid
mov %rcx, %rax
and $4194304, %rax
shr $21, %rax
mov %r9, %rbx
ret
.global _check_sse
_check_sse:
mov %rbx, %r9
mov $0, %rcx
mov $1, %rax
cpuid
mov %rcx, %rax
and $524288, %rax
and $512, %rcx
and $67108864, %rdx
shr $10, %rax
shr $17, %rdx
and %rdx, %rax
and %rcx, %rax
mov %r9, %rbx
ret
.global _check_rdrand
_check_rdrand:
mov %rbx, %r9
mov $0, %rcx
mov $1, %rax
cpuid
mov %rcx, %rax
and $1073741824, %rax
shr $29, %rax
mov %r9, %rbx
ret
.global _check_avx512
_check_avx512:
mov %rbx, %r9
mov $7, %rax
mov $0, %rcx
cpuid
mov %rbx, %rax
mov %rbx, %r10
mov %rbx, %r11
and $65536, %rbx
and $131072, %rax
and $1073741824, %r10
shr $1, %rax
shr $14, %r10
and %rbx, %rax
mov $2147483648, %rbx
and %rbx, %r11
shr $15, %r11
and %r10, %rax
and %r11, %rax
mov %r9, %rbx
ret
.global _check_osxsave
_check_osxsave:
mov %rbx, %r9
mov $0, %rcx
mov $1, %rax
cpuid
mov %rcx, %rax
and $134217728, %rax
shr $26, %rax
mov %r9, %rbx
ret
.global _check_avx_xcr0
_check_avx_xcr0:
mov $0, %rcx
xgetbv
mov %rax, %rcx
and $4, %rax
shr $1, %rax
and $2, %rcx
and %rcx, %rax
ret
.global _check_avx512_xcr0
_check_avx512_xcr0:
mov $0, %rcx
xgetbv
mov %rax, %rcx
mov %rax, %rdx
and $32, %rax
and $64, %rcx
and $128, %rdx
shr $2, %rdx
shr $1, %rcx
and %rdx, %rax
and %rcx, %rax
ret
|
usenix-security-verdict/verdict
| 2,381
|
deps/libcrux/sys/hacl/c/vale/src/cpuid-x86_64-linux.S
|
.text
.global check_aesni
check_aesni:
mov %rbx, %r9
mov $0, %rcx
mov $1, %rax
cpuid
mov %rcx, %rax
and $33554432, %rax
shr $24, %rax
and $2, %rcx
and %rcx, %rax
mov %r9, %rbx
ret
.global check_sha
check_sha:
mov %rbx, %r9
mov $7, %rax
mov $0, %rcx
cpuid
and $536870912, %rbx
mov %rbx, %rax
mov %r9, %rbx
ret
.global check_adx_bmi2
check_adx_bmi2:
mov %rbx, %r9
mov $7, %rax
mov $0, %rcx
cpuid
mov %rbx, %rax
and $524288, %rax
shr $11, %rax
and $256, %rbx
and %rbx, %rax
mov %r9, %rbx
ret
.global check_avx
check_avx:
mov %rbx, %r9
mov $0, %rcx
mov $1, %rax
cpuid
mov %rcx, %rax
and $268435456, %rax
shr $27, %rax
mov %r9, %rbx
ret
.global check_avx2
check_avx2:
mov %rbx, %r9
mov $7, %rax
mov $0, %rcx
cpuid
and $32, %rbx
mov %rbx, %rax
mov %r9, %rbx
ret
.global check_movbe
check_movbe:
mov %rbx, %r9
mov $0, %rcx
mov $1, %rax
cpuid
mov %rcx, %rax
and $4194304, %rax
shr $21, %rax
mov %r9, %rbx
ret
.global check_sse
check_sse:
mov %rbx, %r9
mov $0, %rcx
mov $1, %rax
cpuid
mov %rcx, %rax
and $524288, %rax
and $512, %rcx
and $67108864, %rdx
shr $10, %rax
shr $17, %rdx
and %rdx, %rax
and %rcx, %rax
mov %r9, %rbx
ret
.global check_rdrand
check_rdrand:
mov %rbx, %r9
mov $0, %rcx
mov $1, %rax
cpuid
mov %rcx, %rax
and $1073741824, %rax
shr $29, %rax
mov %r9, %rbx
ret
.global check_avx512
check_avx512:
mov %rbx, %r9
mov $7, %rax
mov $0, %rcx
cpuid
mov %rbx, %rax
mov %rbx, %r10
mov %rbx, %r11
and $65536, %rbx
and $131072, %rax
and $1073741824, %r10
shr $1, %rax
shr $14, %r10
and %rbx, %rax
mov $2147483648, %rbx
and %rbx, %r11
shr $15, %r11
and %r10, %rax
and %r11, %rax
mov %r9, %rbx
ret
.global check_osxsave
check_osxsave:
mov %rbx, %r9
mov $0, %rcx
mov $1, %rax
cpuid
mov %rcx, %rax
and $134217728, %rax
shr $26, %rax
mov %r9, %rbx
ret
.global check_avx_xcr0
check_avx_xcr0:
mov $0, %rcx
xgetbv
mov %rax, %rcx
and $4, %rax
shr $1, %rax
and $2, %rcx
and %rcx, %rax
ret
.global check_avx512_xcr0
check_avx512_xcr0:
mov $0, %rcx
xgetbv
mov %rax, %rcx
mov %rax, %rdx
and $32, %rax
and $64, %rcx
and $128, %rdx
shr $2, %rdx
shr $1, %rcx
and %rdx, %rax
and %rcx, %rax
ret
.section .note.GNU-stack,"",%progbits
|
usenix-security-verdict/verdict
| 18,944
|
deps/libcrux/sys/hacl/c/vale/src/curve25519-x86_64-linux.S
|
.text
.global add_scalar_e
add_scalar_e:
push %rdi
push %rsi
;# Clear registers to propagate the carry bit
xor %r8d, %r8d
xor %r9d, %r9d
xor %r10d, %r10d
xor %r11d, %r11d
xor %eax, %eax
;# Begin addition chain
addq 0(%rsi), %rdx
movq %rdx, 0(%rdi)
adcxq 8(%rsi), %r8
movq %r8, 8(%rdi)
adcxq 16(%rsi), %r9
movq %r9, 16(%rdi)
adcxq 24(%rsi), %r10
movq %r10, 24(%rdi)
;# Return the carry bit in a register
adcx %r11, %rax
pop %rsi
pop %rdi
ret
.global fadd_e
fadd_e:
;# Compute the raw addition of f1 + f2
movq 0(%rdx), %r8
addq 0(%rsi), %r8
movq 8(%rdx), %r9
adcxq 8(%rsi), %r9
movq 16(%rdx), %r10
adcxq 16(%rsi), %r10
movq 24(%rdx), %r11
adcxq 24(%rsi), %r11
;# Wrap the result back into the field
;# Step 1: Compute carry*38
mov $0, %rax
mov $38, %rdx
cmovc %rdx, %rax
;# Step 2: Add carry*38 to the original sum
xor %ecx, %ecx
add %rax, %r8
adcx %rcx, %r9
movq %r9, 8(%rdi)
adcx %rcx, %r10
movq %r10, 16(%rdi)
adcx %rcx, %r11
movq %r11, 24(%rdi)
;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point
mov $0, %rax
cmovc %rdx, %rax
add %rax, %r8
movq %r8, 0(%rdi)
ret
.global fsub_e
fsub_e:
;# Compute the raw substraction of f1-f2
movq 0(%rsi), %r8
subq 0(%rdx), %r8
movq 8(%rsi), %r9
sbbq 8(%rdx), %r9
movq 16(%rsi), %r10
sbbq 16(%rdx), %r10
movq 24(%rsi), %r11
sbbq 24(%rdx), %r11
;# Wrap the result back into the field
;# Step 1: Compute carry*38
mov $0, %rax
mov $38, %rcx
cmovc %rcx, %rax
;# Step 2: Substract carry*38 from the original difference
sub %rax, %r8
sbb $0, %r9
sbb $0, %r10
sbb $0, %r11
;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point
mov $0, %rax
cmovc %rcx, %rax
sub %rax, %r8
;# Store the result
movq %r8, 0(%rdi)
movq %r9, 8(%rdi)
movq %r10, 16(%rdi)
movq %r11, 24(%rdi)
ret
.global fmul_scalar_e
fmul_scalar_e:
push %rdi
push %r13
push %rbx
;# Compute the raw multiplication of f1*f2
mulxq 0(%rsi), %r8, %rcx
;# f1[0]*f2
mulxq 8(%rsi), %r9, %rbx
;# f1[1]*f2
add %rcx, %r9
mov $0, %rcx
mulxq 16(%rsi), %r10, %r13
;# f1[2]*f2
adcx %rbx, %r10
mulxq 24(%rsi), %r11, %rax
;# f1[3]*f2
adcx %r13, %r11
adcx %rcx, %rax
;# Wrap the result back into the field
;# Step 1: Compute carry*38
mov $38, %rdx
imul %rdx, %rax
;# Step 2: Fold the carry back into dst
add %rax, %r8
adcx %rcx, %r9
movq %r9, 8(%rdi)
adcx %rcx, %r10
movq %r10, 16(%rdi)
adcx %rcx, %r11
movq %r11, 24(%rdi)
;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point
mov $0, %rax
cmovc %rdx, %rax
add %rax, %r8
movq %r8, 0(%rdi)
pop %rbx
pop %r13
pop %rdi
ret
.global fmul_e
fmul_e:
push %r13
push %r14
push %r15
push %rbx
mov %rdx, %r15
;# Compute the raw multiplication: tmp <- src1 * src2
;# Compute src1[0] * src2
movq 0(%rsi), %rdx
mulxq 0(%rcx), %r8, %r9
xor %r10d, %r10d
movq %r8, 0(%rdi)
mulxq 8(%rcx), %r10, %r11
adox %r9, %r10
movq %r10, 8(%rdi)
mulxq 16(%rcx), %rbx, %r13
adox %r11, %rbx
mulxq 24(%rcx), %r14, %rdx
adox %r13, %r14
mov $0, %rax
adox %rdx, %rax
;# Compute src1[1] * src2
movq 8(%rsi), %rdx
mulxq 0(%rcx), %r8, %r9
xor %r10d, %r10d
adcxq 8(%rdi), %r8
movq %r8, 8(%rdi)
mulxq 8(%rcx), %r10, %r11
adox %r9, %r10
adcx %rbx, %r10
movq %r10, 16(%rdi)
mulxq 16(%rcx), %rbx, %r13
adox %r11, %rbx
adcx %r14, %rbx
mov $0, %r8
mulxq 24(%rcx), %r14, %rdx
adox %r13, %r14
adcx %rax, %r14
mov $0, %rax
adox %rdx, %rax
adcx %r8, %rax
;# Compute src1[2] * src2
movq 16(%rsi), %rdx
mulxq 0(%rcx), %r8, %r9
xor %r10d, %r10d
adcxq 16(%rdi), %r8
movq %r8, 16(%rdi)
mulxq 8(%rcx), %r10, %r11
adox %r9, %r10
adcx %rbx, %r10
movq %r10, 24(%rdi)
mulxq 16(%rcx), %rbx, %r13
adox %r11, %rbx
adcx %r14, %rbx
mov $0, %r8
mulxq 24(%rcx), %r14, %rdx
adox %r13, %r14
adcx %rax, %r14
mov $0, %rax
adox %rdx, %rax
adcx %r8, %rax
;# Compute src1[3] * src2
movq 24(%rsi), %rdx
mulxq 0(%rcx), %r8, %r9
xor %r10d, %r10d
adcxq 24(%rdi), %r8
movq %r8, 24(%rdi)
mulxq 8(%rcx), %r10, %r11
adox %r9, %r10
adcx %rbx, %r10
movq %r10, 32(%rdi)
mulxq 16(%rcx), %rbx, %r13
adox %r11, %rbx
adcx %r14, %rbx
movq %rbx, 40(%rdi)
mov $0, %r8
mulxq 24(%rcx), %r14, %rdx
adox %r13, %r14
adcx %rax, %r14
movq %r14, 48(%rdi)
mov $0, %rax
adox %rdx, %rax
adcx %r8, %rax
movq %rax, 56(%rdi)
;# Line up pointers
mov %rdi, %rsi
mov %r15, %rdi
;# Wrap the result back into the field
;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo
mov $38, %rdx
mulxq 32(%rsi), %r8, %r13
xor %ecx, %ecx
adoxq 0(%rsi), %r8
mulxq 40(%rsi), %r9, %rbx
adcx %r13, %r9
adoxq 8(%rsi), %r9
mulxq 48(%rsi), %r10, %r13
adcx %rbx, %r10
adoxq 16(%rsi), %r10
mulxq 56(%rsi), %r11, %rax
adcx %r13, %r11
adoxq 24(%rsi), %r11
adcx %rcx, %rax
adox %rcx, %rax
imul %rdx, %rax
;# Step 2: Fold the carry back into dst
add %rax, %r8
adcx %rcx, %r9
movq %r9, 8(%rdi)
adcx %rcx, %r10
movq %r10, 16(%rdi)
adcx %rcx, %r11
movq %r11, 24(%rdi)
;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point
mov $0, %rax
cmovc %rdx, %rax
add %rax, %r8
movq %r8, 0(%rdi)
pop %rbx
pop %r15
pop %r14
pop %r13
ret
.global fmul2_e
fmul2_e:
push %r13
push %r14
push %r15
push %rbx
mov %rdx, %r15
;# Compute the raw multiplication tmp[0] <- f1[0] * f2[0]
;# Compute src1[0] * src2
movq 0(%rsi), %rdx
mulxq 0(%rcx), %r8, %r9
xor %r10d, %r10d
movq %r8, 0(%rdi)
mulxq 8(%rcx), %r10, %r11
adox %r9, %r10
movq %r10, 8(%rdi)
mulxq 16(%rcx), %rbx, %r13
adox %r11, %rbx
mulxq 24(%rcx), %r14, %rdx
adox %r13, %r14
mov $0, %rax
adox %rdx, %rax
;# Compute src1[1] * src2
movq 8(%rsi), %rdx
mulxq 0(%rcx), %r8, %r9
xor %r10d, %r10d
adcxq 8(%rdi), %r8
movq %r8, 8(%rdi)
mulxq 8(%rcx), %r10, %r11
adox %r9, %r10
adcx %rbx, %r10
movq %r10, 16(%rdi)
mulxq 16(%rcx), %rbx, %r13
adox %r11, %rbx
adcx %r14, %rbx
mov $0, %r8
mulxq 24(%rcx), %r14, %rdx
adox %r13, %r14
adcx %rax, %r14
mov $0, %rax
adox %rdx, %rax
adcx %r8, %rax
;# Compute src1[2] * src2
movq 16(%rsi), %rdx
mulxq 0(%rcx), %r8, %r9
xor %r10d, %r10d
adcxq 16(%rdi), %r8
movq %r8, 16(%rdi)
mulxq 8(%rcx), %r10, %r11
adox %r9, %r10
adcx %rbx, %r10
movq %r10, 24(%rdi)
mulxq 16(%rcx), %rbx, %r13
adox %r11, %rbx
adcx %r14, %rbx
mov $0, %r8
mulxq 24(%rcx), %r14, %rdx
adox %r13, %r14
adcx %rax, %r14
mov $0, %rax
adox %rdx, %rax
adcx %r8, %rax
;# Compute src1[3] * src2
movq 24(%rsi), %rdx
mulxq 0(%rcx), %r8, %r9
xor %r10d, %r10d
adcxq 24(%rdi), %r8
movq %r8, 24(%rdi)
mulxq 8(%rcx), %r10, %r11
adox %r9, %r10
adcx %rbx, %r10
movq %r10, 32(%rdi)
mulxq 16(%rcx), %rbx, %r13
adox %r11, %rbx
adcx %r14, %rbx
movq %rbx, 40(%rdi)
mov $0, %r8
mulxq 24(%rcx), %r14, %rdx
adox %r13, %r14
adcx %rax, %r14
movq %r14, 48(%rdi)
mov $0, %rax
adox %rdx, %rax
adcx %r8, %rax
movq %rax, 56(%rdi)
;# Compute the raw multiplication tmp[1] <- f1[1] * f2[1]
;# Compute src1[0] * src2
movq 32(%rsi), %rdx
mulxq 32(%rcx), %r8, %r9
xor %r10d, %r10d
movq %r8, 64(%rdi)
mulxq 40(%rcx), %r10, %r11
adox %r9, %r10
movq %r10, 72(%rdi)
mulxq 48(%rcx), %rbx, %r13
adox %r11, %rbx
mulxq 56(%rcx), %r14, %rdx
adox %r13, %r14
mov $0, %rax
adox %rdx, %rax
;# Compute src1[1] * src2
movq 40(%rsi), %rdx
mulxq 32(%rcx), %r8, %r9
xor %r10d, %r10d
adcxq 72(%rdi), %r8
movq %r8, 72(%rdi)
mulxq 40(%rcx), %r10, %r11
adox %r9, %r10
adcx %rbx, %r10
movq %r10, 80(%rdi)
mulxq 48(%rcx), %rbx, %r13
adox %r11, %rbx
adcx %r14, %rbx
mov $0, %r8
mulxq 56(%rcx), %r14, %rdx
adox %r13, %r14
adcx %rax, %r14
mov $0, %rax
adox %rdx, %rax
adcx %r8, %rax
;# Compute src1[2] * src2
movq 48(%rsi), %rdx
mulxq 32(%rcx), %r8, %r9
xor %r10d, %r10d
adcxq 80(%rdi), %r8
movq %r8, 80(%rdi)
mulxq 40(%rcx), %r10, %r11
adox %r9, %r10
adcx %rbx, %r10
movq %r10, 88(%rdi)
mulxq 48(%rcx), %rbx, %r13
adox %r11, %rbx
adcx %r14, %rbx
mov $0, %r8
mulxq 56(%rcx), %r14, %rdx
adox %r13, %r14
adcx %rax, %r14
mov $0, %rax
adox %rdx, %rax
adcx %r8, %rax
;# Compute src1[3] * src2
movq 56(%rsi), %rdx
mulxq 32(%rcx), %r8, %r9
xor %r10d, %r10d
adcxq 88(%rdi), %r8
movq %r8, 88(%rdi)
mulxq 40(%rcx), %r10, %r11
adox %r9, %r10
adcx %rbx, %r10
movq %r10, 96(%rdi)
mulxq 48(%rcx), %rbx, %r13
adox %r11, %rbx
adcx %r14, %rbx
movq %rbx, 104(%rdi)
mov $0, %r8
mulxq 56(%rcx), %r14, %rdx
adox %r13, %r14
adcx %rax, %r14
movq %r14, 112(%rdi)
mov $0, %rax
adox %rdx, %rax
adcx %r8, %rax
movq %rax, 120(%rdi)
;# Line up pointers
mov %rdi, %rsi
mov %r15, %rdi
;# Wrap the results back into the field
;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo
mov $38, %rdx
mulxq 32(%rsi), %r8, %r13
xor %ecx, %ecx
adoxq 0(%rsi), %r8
mulxq 40(%rsi), %r9, %rbx
adcx %r13, %r9
adoxq 8(%rsi), %r9
mulxq 48(%rsi), %r10, %r13
adcx %rbx, %r10
adoxq 16(%rsi), %r10
mulxq 56(%rsi), %r11, %rax
adcx %r13, %r11
adoxq 24(%rsi), %r11
adcx %rcx, %rax
adox %rcx, %rax
imul %rdx, %rax
;# Step 2: Fold the carry back into dst
add %rax, %r8
adcx %rcx, %r9
movq %r9, 8(%rdi)
adcx %rcx, %r10
movq %r10, 16(%rdi)
adcx %rcx, %r11
movq %r11, 24(%rdi)
;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point
mov $0, %rax
cmovc %rdx, %rax
add %rax, %r8
movq %r8, 0(%rdi)
;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo
mov $38, %rdx
mulxq 96(%rsi), %r8, %r13
xor %ecx, %ecx
adoxq 64(%rsi), %r8
mulxq 104(%rsi), %r9, %rbx
adcx %r13, %r9
adoxq 72(%rsi), %r9
mulxq 112(%rsi), %r10, %r13
adcx %rbx, %r10
adoxq 80(%rsi), %r10
mulxq 120(%rsi), %r11, %rax
adcx %r13, %r11
adoxq 88(%rsi), %r11
adcx %rcx, %rax
adox %rcx, %rax
imul %rdx, %rax
;# Step 2: Fold the carry back into dst
add %rax, %r8
adcx %rcx, %r9
movq %r9, 40(%rdi)
adcx %rcx, %r10
movq %r10, 48(%rdi)
adcx %rcx, %r11
movq %r11, 56(%rdi)
;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point
mov $0, %rax
cmovc %rdx, %rax
add %rax, %r8
movq %r8, 32(%rdi)
pop %rbx
pop %r15
pop %r14
pop %r13
ret
.global fsqr_e
fsqr_e:
push %r15
push %r13
push %r14
push %r12
push %rbx
mov %rdx, %r12
;# Compute the raw multiplication: tmp <- f * f
;# Step 1: Compute all partial products
movq 0(%rsi), %rdx
;# f[0]
mulxq 8(%rsi), %r8, %r14
xor %r15d, %r15d
;# f[1]*f[0]
mulxq 16(%rsi), %r9, %r10
adcx %r14, %r9
;# f[2]*f[0]
mulxq 24(%rsi), %rax, %rcx
adcx %rax, %r10
;# f[3]*f[0]
movq 24(%rsi), %rdx
;# f[3]
mulxq 8(%rsi), %r11, %rbx
adcx %rcx, %r11
;# f[1]*f[3]
mulxq 16(%rsi), %rax, %r13
adcx %rax, %rbx
;# f[2]*f[3]
movq 8(%rsi), %rdx
adcx %r15, %r13
;# f1
mulxq 16(%rsi), %rax, %rcx
mov $0, %r14
;# f[2]*f[1]
;# Step 2: Compute two parallel carry chains
xor %r15d, %r15d
adox %rax, %r10
adcx %r8, %r8
adox %rcx, %r11
adcx %r9, %r9
adox %r15, %rbx
adcx %r10, %r10
adox %r15, %r13
adcx %r11, %r11
adox %r15, %r14
adcx %rbx, %rbx
adcx %r13, %r13
adcx %r14, %r14
;# Step 3: Compute intermediate squares
movq 0(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[0]^2
movq %rax, 0(%rdi)
add %rcx, %r8
movq %r8, 8(%rdi)
movq 8(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[1]^2
adcx %rax, %r9
movq %r9, 16(%rdi)
adcx %rcx, %r10
movq %r10, 24(%rdi)
movq 16(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[2]^2
adcx %rax, %r11
movq %r11, 32(%rdi)
adcx %rcx, %rbx
movq %rbx, 40(%rdi)
movq 24(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[3]^2
adcx %rax, %r13
movq %r13, 48(%rdi)
adcx %rcx, %r14
movq %r14, 56(%rdi)
;# Line up pointers
mov %rdi, %rsi
mov %r12, %rdi
;# Wrap the result back into the field
;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo
mov $38, %rdx
mulxq 32(%rsi), %r8, %r13
xor %ecx, %ecx
adoxq 0(%rsi), %r8
mulxq 40(%rsi), %r9, %rbx
adcx %r13, %r9
adoxq 8(%rsi), %r9
mulxq 48(%rsi), %r10, %r13
adcx %rbx, %r10
adoxq 16(%rsi), %r10
mulxq 56(%rsi), %r11, %rax
adcx %r13, %r11
adoxq 24(%rsi), %r11
adcx %rcx, %rax
adox %rcx, %rax
imul %rdx, %rax
;# Step 2: Fold the carry back into dst
add %rax, %r8
adcx %rcx, %r9
movq %r9, 8(%rdi)
adcx %rcx, %r10
movq %r10, 16(%rdi)
adcx %rcx, %r11
movq %r11, 24(%rdi)
;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point
mov $0, %rax
cmovc %rdx, %rax
add %rax, %r8
movq %r8, 0(%rdi)
pop %rbx
pop %r12
pop %r14
pop %r13
pop %r15
ret
.global fsqr2_e
fsqr2_e:
push %r15
push %r13
push %r14
push %r12
push %rbx
mov %rdx, %r12
;# Step 1: Compute all partial products
movq 0(%rsi), %rdx
;# f[0]
mulxq 8(%rsi), %r8, %r14
xor %r15d, %r15d
;# f[1]*f[0]
mulxq 16(%rsi), %r9, %r10
adcx %r14, %r9
;# f[2]*f[0]
mulxq 24(%rsi), %rax, %rcx
adcx %rax, %r10
;# f[3]*f[0]
movq 24(%rsi), %rdx
;# f[3]
mulxq 8(%rsi), %r11, %rbx
adcx %rcx, %r11
;# f[1]*f[3]
mulxq 16(%rsi), %rax, %r13
adcx %rax, %rbx
;# f[2]*f[3]
movq 8(%rsi), %rdx
adcx %r15, %r13
;# f1
mulxq 16(%rsi), %rax, %rcx
mov $0, %r14
;# f[2]*f[1]
;# Step 2: Compute two parallel carry chains
xor %r15d, %r15d
adox %rax, %r10
adcx %r8, %r8
adox %rcx, %r11
adcx %r9, %r9
adox %r15, %rbx
adcx %r10, %r10
adox %r15, %r13
adcx %r11, %r11
adox %r15, %r14
adcx %rbx, %rbx
adcx %r13, %r13
adcx %r14, %r14
;# Step 3: Compute intermediate squares
movq 0(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[0]^2
movq %rax, 0(%rdi)
add %rcx, %r8
movq %r8, 8(%rdi)
movq 8(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[1]^2
adcx %rax, %r9
movq %r9, 16(%rdi)
adcx %rcx, %r10
movq %r10, 24(%rdi)
movq 16(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[2]^2
adcx %rax, %r11
movq %r11, 32(%rdi)
adcx %rcx, %rbx
movq %rbx, 40(%rdi)
movq 24(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[3]^2
adcx %rax, %r13
movq %r13, 48(%rdi)
adcx %rcx, %r14
movq %r14, 56(%rdi)
;# Step 1: Compute all partial products
movq 32(%rsi), %rdx
;# f[0]
mulxq 40(%rsi), %r8, %r14
xor %r15d, %r15d
;# f[1]*f[0]
mulxq 48(%rsi), %r9, %r10
adcx %r14, %r9
;# f[2]*f[0]
mulxq 56(%rsi), %rax, %rcx
adcx %rax, %r10
;# f[3]*f[0]
movq 56(%rsi), %rdx
;# f[3]
mulxq 40(%rsi), %r11, %rbx
adcx %rcx, %r11
;# f[1]*f[3]
mulxq 48(%rsi), %rax, %r13
adcx %rax, %rbx
;# f[2]*f[3]
movq 40(%rsi), %rdx
adcx %r15, %r13
;# f1
mulxq 48(%rsi), %rax, %rcx
mov $0, %r14
;# f[2]*f[1]
;# Step 2: Compute two parallel carry chains
xor %r15d, %r15d
adox %rax, %r10
adcx %r8, %r8
adox %rcx, %r11
adcx %r9, %r9
adox %r15, %rbx
adcx %r10, %r10
adox %r15, %r13
adcx %r11, %r11
adox %r15, %r14
adcx %rbx, %rbx
adcx %r13, %r13
adcx %r14, %r14
;# Step 3: Compute intermediate squares
movq 32(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[0]^2
movq %rax, 64(%rdi)
add %rcx, %r8
movq %r8, 72(%rdi)
movq 40(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[1]^2
adcx %rax, %r9
movq %r9, 80(%rdi)
adcx %rcx, %r10
movq %r10, 88(%rdi)
movq 48(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[2]^2
adcx %rax, %r11
movq %r11, 96(%rdi)
adcx %rcx, %rbx
movq %rbx, 104(%rdi)
movq 56(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[3]^2
adcx %rax, %r13
movq %r13, 112(%rdi)
adcx %rcx, %r14
movq %r14, 120(%rdi)
;# Line up pointers
mov %rdi, %rsi
mov %r12, %rdi
;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo
mov $38, %rdx
mulxq 32(%rsi), %r8, %r13
xor %ecx, %ecx
adoxq 0(%rsi), %r8
mulxq 40(%rsi), %r9, %rbx
adcx %r13, %r9
adoxq 8(%rsi), %r9
mulxq 48(%rsi), %r10, %r13
adcx %rbx, %r10
adoxq 16(%rsi), %r10
mulxq 56(%rsi), %r11, %rax
adcx %r13, %r11
adoxq 24(%rsi), %r11
adcx %rcx, %rax
adox %rcx, %rax
imul %rdx, %rax
;# Step 2: Fold the carry back into dst
add %rax, %r8
adcx %rcx, %r9
movq %r9, 8(%rdi)
adcx %rcx, %r10
movq %r10, 16(%rdi)
adcx %rcx, %r11
movq %r11, 24(%rdi)
;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point
mov $0, %rax
cmovc %rdx, %rax
add %rax, %r8
movq %r8, 0(%rdi)
;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo
mov $38, %rdx
mulxq 96(%rsi), %r8, %r13
xor %ecx, %ecx
adoxq 64(%rsi), %r8
mulxq 104(%rsi), %r9, %rbx
adcx %r13, %r9
adoxq 72(%rsi), %r9
mulxq 112(%rsi), %r10, %r13
adcx %rbx, %r10
adoxq 80(%rsi), %r10
mulxq 120(%rsi), %r11, %rax
adcx %r13, %r11
adoxq 88(%rsi), %r11
adcx %rcx, %rax
adox %rcx, %rax
imul %rdx, %rax
;# Step 2: Fold the carry back into dst
add %rax, %r8
adcx %rcx, %r9
movq %r9, 40(%rdi)
adcx %rcx, %r10
movq %r10, 48(%rdi)
adcx %rcx, %r11
movq %r11, 56(%rdi)
;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point
mov $0, %rax
cmovc %rdx, %rax
add %rax, %r8
movq %r8, 32(%rdi)
pop %rbx
pop %r12
pop %r14
pop %r13
pop %r15
ret
.global cswap2_e
cswap2_e:
;# Transfer bit into CF flag
add $18446744073709551615, %rdi
;# cswap p1[0], p2[0]
movq 0(%rsi), %r8
movq 0(%rdx), %r9
mov %r8, %r10
cmovc %r9, %r8
cmovc %r10, %r9
movq %r8, 0(%rsi)
movq %r9, 0(%rdx)
;# cswap p1[1], p2[1]
movq 8(%rsi), %r8
movq 8(%rdx), %r9
mov %r8, %r10
cmovc %r9, %r8
cmovc %r10, %r9
movq %r8, 8(%rsi)
movq %r9, 8(%rdx)
;# cswap p1[2], p2[2]
movq 16(%rsi), %r8
movq 16(%rdx), %r9
mov %r8, %r10
cmovc %r9, %r8
cmovc %r10, %r9
movq %r8, 16(%rsi)
movq %r9, 16(%rdx)
;# cswap p1[3], p2[3]
movq 24(%rsi), %r8
movq 24(%rdx), %r9
mov %r8, %r10
cmovc %r9, %r8
cmovc %r10, %r9
movq %r8, 24(%rsi)
movq %r9, 24(%rdx)
;# cswap p1[4], p2[4]
movq 32(%rsi), %r8
movq 32(%rdx), %r9
mov %r8, %r10
cmovc %r9, %r8
cmovc %r10, %r9
movq %r8, 32(%rsi)
movq %r9, 32(%rdx)
;# cswap p1[5], p2[5]
movq 40(%rsi), %r8
movq 40(%rdx), %r9
mov %r8, %r10
cmovc %r9, %r8
cmovc %r10, %r9
movq %r8, 40(%rsi)
movq %r9, 40(%rdx)
;# cswap p1[6], p2[6]
movq 48(%rsi), %r8
movq 48(%rdx), %r9
mov %r8, %r10
cmovc %r9, %r8
cmovc %r10, %r9
movq %r8, 48(%rsi)
movq %r9, 48(%rdx)
;# cswap p1[7], p2[7]
movq 56(%rsi), %r8
movq 56(%rdx), %r9
mov %r8, %r10
cmovc %r9, %r8
cmovc %r10, %r9
movq %r8, 56(%rsi)
movq %r9, 56(%rdx)
ret
.section .note.GNU-stack,"",%progbits
|
usenix-security-verdict/verdict
| 2,344
|
deps/libcrux/sys/hacl/c/vale/src/cpuid-x86_64-mingw.S
|
.text
.global check_aesni
check_aesni:
mov %rbx, %r9
mov $0, %rcx
mov $1, %rax
cpuid
mov %rcx, %rax
and $33554432, %rax
shr $24, %rax
and $2, %rcx
and %rcx, %rax
mov %r9, %rbx
ret
.global check_sha
check_sha:
mov %rbx, %r9
mov $7, %rax
mov $0, %rcx
cpuid
and $536870912, %rbx
mov %rbx, %rax
mov %r9, %rbx
ret
.global check_adx_bmi2
check_adx_bmi2:
mov %rbx, %r9
mov $7, %rax
mov $0, %rcx
cpuid
mov %rbx, %rax
and $524288, %rax
shr $11, %rax
and $256, %rbx
and %rbx, %rax
mov %r9, %rbx
ret
.global check_avx
check_avx:
mov %rbx, %r9
mov $0, %rcx
mov $1, %rax
cpuid
mov %rcx, %rax
and $268435456, %rax
shr $27, %rax
mov %r9, %rbx
ret
.global check_avx2
check_avx2:
mov %rbx, %r9
mov $7, %rax
mov $0, %rcx
cpuid
and $32, %rbx
mov %rbx, %rax
mov %r9, %rbx
ret
.global check_movbe
check_movbe:
mov %rbx, %r9
mov $0, %rcx
mov $1, %rax
cpuid
mov %rcx, %rax
and $4194304, %rax
shr $21, %rax
mov %r9, %rbx
ret
.global check_sse
check_sse:
mov %rbx, %r9
mov $0, %rcx
mov $1, %rax
cpuid
mov %rcx, %rax
and $524288, %rax
and $512, %rcx
and $67108864, %rdx
shr $10, %rax
shr $17, %rdx
and %rdx, %rax
and %rcx, %rax
mov %r9, %rbx
ret
.global check_rdrand
check_rdrand:
mov %rbx, %r9
mov $0, %rcx
mov $1, %rax
cpuid
mov %rcx, %rax
and $1073741824, %rax
shr $29, %rax
mov %r9, %rbx
ret
.global check_avx512
check_avx512:
mov %rbx, %r9
mov $7, %rax
mov $0, %rcx
cpuid
mov %rbx, %rax
mov %rbx, %r10
mov %rbx, %r11
and $65536, %rbx
and $131072, %rax
and $1073741824, %r10
shr $1, %rax
shr $14, %r10
and %rbx, %rax
mov $2147483648, %rbx
and %rbx, %r11
shr $15, %r11
and %r10, %rax
and %r11, %rax
mov %r9, %rbx
ret
.global check_osxsave
check_osxsave:
mov %rbx, %r9
mov $0, %rcx
mov $1, %rax
cpuid
mov %rcx, %rax
and $134217728, %rax
shr $26, %rax
mov %r9, %rbx
ret
.global check_avx_xcr0
check_avx_xcr0:
mov $0, %rcx
xgetbv
mov %rax, %rcx
and $4, %rax
shr $1, %rax
and $2, %rcx
and %rcx, %rax
ret
.global check_avx512_xcr0
check_avx512_xcr0:
mov $0, %rcx
xgetbv
mov %rax, %rcx
mov %rax, %rdx
and $32, %rax
and $64, %rcx
and $128, %rdx
shr $2, %rdx
shr $1, %rcx
and %rdx, %rax
and %rcx, %rax
ret
|
usenix-security-verdict/verdict
| 19,666
|
deps/libcrux/sys/hacl/c/vale/src/curve25519-x86_64-mingw.S
|
.text
.global add_scalar_e
add_scalar_e:
push %rdi
push %rsi
mov %rcx, %rdi
mov %rdx, %rsi
mov %r8, %rdx
;# Clear registers to propagate the carry bit
xor %r8d, %r8d
xor %r9d, %r9d
xor %r10d, %r10d
xor %r11d, %r11d
xor %eax, %eax
;# Begin addition chain
addq 0(%rsi), %rdx
movq %rdx, 0(%rdi)
adcxq 8(%rsi), %r8
movq %r8, 8(%rdi)
adcxq 16(%rsi), %r9
movq %r9, 16(%rdi)
adcxq 24(%rsi), %r10
movq %r10, 24(%rdi)
;# Return the carry bit in a register
adcx %r11, %rax
pop %rsi
pop %rdi
ret
.global fadd_e
fadd_e:
push %rdi
push %rsi
mov %rcx, %rdi
mov %rdx, %rsi
mov %r8, %rdx
;# Compute the raw addition of f1 + f2
movq 0(%rdx), %r8
addq 0(%rsi), %r8
movq 8(%rdx), %r9
adcxq 8(%rsi), %r9
movq 16(%rdx), %r10
adcxq 16(%rsi), %r10
movq 24(%rdx), %r11
adcxq 24(%rsi), %r11
;# Wrap the result back into the field
;# Step 1: Compute carry*38
mov $0, %rax
mov $38, %rdx
cmovc %rdx, %rax
;# Step 2: Add carry*38 to the original sum
xor %ecx, %ecx
add %rax, %r8
adcx %rcx, %r9
movq %r9, 8(%rdi)
adcx %rcx, %r10
movq %r10, 16(%rdi)
adcx %rcx, %r11
movq %r11, 24(%rdi)
;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point
mov $0, %rax
cmovc %rdx, %rax
add %rax, %r8
movq %r8, 0(%rdi)
pop %rsi
pop %rdi
ret
.global fsub_e
fsub_e:
push %rdi
push %rsi
mov %rcx, %rdi
mov %rdx, %rsi
mov %r8, %rdx
;# Compute the raw substraction of f1-f2
movq 0(%rsi), %r8
subq 0(%rdx), %r8
movq 8(%rsi), %r9
sbbq 8(%rdx), %r9
movq 16(%rsi), %r10
sbbq 16(%rdx), %r10
movq 24(%rsi), %r11
sbbq 24(%rdx), %r11
;# Wrap the result back into the field
;# Step 1: Compute carry*38
mov $0, %rax
mov $38, %rcx
cmovc %rcx, %rax
;# Step 2: Substract carry*38 from the original difference
sub %rax, %r8
sbb $0, %r9
sbb $0, %r10
sbb $0, %r11
;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point
mov $0, %rax
cmovc %rcx, %rax
sub %rax, %r8
;# Store the result
movq %r8, 0(%rdi)
movq %r9, 8(%rdi)
movq %r10, 16(%rdi)
movq %r11, 24(%rdi)
pop %rsi
pop %rdi
ret
.global fmul_scalar_e
fmul_scalar_e:
push %rdi
push %r13
push %rbx
push %rsi
mov %rcx, %rdi
mov %rdx, %rsi
mov %r8, %rdx
;# Compute the raw multiplication of f1*f2
mulxq 0(%rsi), %r8, %rcx
;# f1[0]*f2
mulxq 8(%rsi), %r9, %rbx
;# f1[1]*f2
add %rcx, %r9
mov $0, %rcx
mulxq 16(%rsi), %r10, %r13
;# f1[2]*f2
adcx %rbx, %r10
mulxq 24(%rsi), %r11, %rax
;# f1[3]*f2
adcx %r13, %r11
adcx %rcx, %rax
;# Wrap the result back into the field
;# Step 1: Compute carry*38
mov $38, %rdx
imul %rdx, %rax
;# Step 2: Fold the carry back into dst
add %rax, %r8
adcx %rcx, %r9
movq %r9, 8(%rdi)
adcx %rcx, %r10
movq %r10, 16(%rdi)
adcx %rcx, %r11
movq %r11, 24(%rdi)
;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point
mov $0, %rax
cmovc %rdx, %rax
add %rax, %r8
movq %r8, 0(%rdi)
pop %rsi
pop %rbx
pop %r13
pop %rdi
ret
.global fmul_e
fmul_e:
push %r13
push %r14
push %r15
push %rbx
push %rsi
push %rdi
mov %rcx, %rdi
mov %rdx, %rsi
mov %r8, %r15
mov %r9, %rcx
;# Compute the raw multiplication: tmp <- src1 * src2
;# Compute src1[0] * src2
movq 0(%rsi), %rdx
mulxq 0(%rcx), %r8, %r9
xor %r10d, %r10d
movq %r8, 0(%rdi)
mulxq 8(%rcx), %r10, %r11
adox %r9, %r10
movq %r10, 8(%rdi)
mulxq 16(%rcx), %rbx, %r13
adox %r11, %rbx
mulxq 24(%rcx), %r14, %rdx
adox %r13, %r14
mov $0, %rax
adox %rdx, %rax
;# Compute src1[1] * src2
movq 8(%rsi), %rdx
mulxq 0(%rcx), %r8, %r9
xor %r10d, %r10d
adcxq 8(%rdi), %r8
movq %r8, 8(%rdi)
mulxq 8(%rcx), %r10, %r11
adox %r9, %r10
adcx %rbx, %r10
movq %r10, 16(%rdi)
mulxq 16(%rcx), %rbx, %r13
adox %r11, %rbx
adcx %r14, %rbx
mov $0, %r8
mulxq 24(%rcx), %r14, %rdx
adox %r13, %r14
adcx %rax, %r14
mov $0, %rax
adox %rdx, %rax
adcx %r8, %rax
;# Compute src1[2] * src2
movq 16(%rsi), %rdx
mulxq 0(%rcx), %r8, %r9
xor %r10d, %r10d
adcxq 16(%rdi), %r8
movq %r8, 16(%rdi)
mulxq 8(%rcx), %r10, %r11
adox %r9, %r10
adcx %rbx, %r10
movq %r10, 24(%rdi)
mulxq 16(%rcx), %rbx, %r13
adox %r11, %rbx
adcx %r14, %rbx
mov $0, %r8
mulxq 24(%rcx), %r14, %rdx
adox %r13, %r14
adcx %rax, %r14
mov $0, %rax
adox %rdx, %rax
adcx %r8, %rax
;# Compute src1[3] * src2
movq 24(%rsi), %rdx
mulxq 0(%rcx), %r8, %r9
xor %r10d, %r10d
adcxq 24(%rdi), %r8
movq %r8, 24(%rdi)
mulxq 8(%rcx), %r10, %r11
adox %r9, %r10
adcx %rbx, %r10
movq %r10, 32(%rdi)
mulxq 16(%rcx), %rbx, %r13
adox %r11, %rbx
adcx %r14, %rbx
movq %rbx, 40(%rdi)
mov $0, %r8
mulxq 24(%rcx), %r14, %rdx
adox %r13, %r14
adcx %rax, %r14
movq %r14, 48(%rdi)
mov $0, %rax
adox %rdx, %rax
adcx %r8, %rax
movq %rax, 56(%rdi)
;# Line up pointers
mov %rdi, %rsi
mov %r15, %rdi
;# Wrap the result back into the field
;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo
mov $38, %rdx
mulxq 32(%rsi), %r8, %r13
xor %ecx, %ecx
adoxq 0(%rsi), %r8
mulxq 40(%rsi), %r9, %rbx
adcx %r13, %r9
adoxq 8(%rsi), %r9
mulxq 48(%rsi), %r10, %r13
adcx %rbx, %r10
adoxq 16(%rsi), %r10
mulxq 56(%rsi), %r11, %rax
adcx %r13, %r11
adoxq 24(%rsi), %r11
adcx %rcx, %rax
adox %rcx, %rax
imul %rdx, %rax
;# Step 2: Fold the carry back into dst
add %rax, %r8
adcx %rcx, %r9
movq %r9, 8(%rdi)
adcx %rcx, %r10
movq %r10, 16(%rdi)
adcx %rcx, %r11
movq %r11, 24(%rdi)
;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point
mov $0, %rax
cmovc %rdx, %rax
add %rax, %r8
movq %r8, 0(%rdi)
pop %rdi
pop %rsi
pop %rbx
pop %r15
pop %r14
pop %r13
ret
.global fmul2_e
fmul2_e:
push %r13
push %r14
push %r15
push %rbx
push %rsi
push %rdi
mov %rcx, %rdi
mov %rdx, %rsi
mov %r8, %r15
mov %r9, %rcx
;# Compute the raw multiplication tmp[0] <- f1[0] * f2[0]
;# Compute src1[0] * src2
movq 0(%rsi), %rdx
mulxq 0(%rcx), %r8, %r9
xor %r10d, %r10d
movq %r8, 0(%rdi)
mulxq 8(%rcx), %r10, %r11
adox %r9, %r10
movq %r10, 8(%rdi)
mulxq 16(%rcx), %rbx, %r13
adox %r11, %rbx
mulxq 24(%rcx), %r14, %rdx
adox %r13, %r14
mov $0, %rax
adox %rdx, %rax
;# Compute src1[1] * src2
movq 8(%rsi), %rdx
mulxq 0(%rcx), %r8, %r9
xor %r10d, %r10d
adcxq 8(%rdi), %r8
movq %r8, 8(%rdi)
mulxq 8(%rcx), %r10, %r11
adox %r9, %r10
adcx %rbx, %r10
movq %r10, 16(%rdi)
mulxq 16(%rcx), %rbx, %r13
adox %r11, %rbx
adcx %r14, %rbx
mov $0, %r8
mulxq 24(%rcx), %r14, %rdx
adox %r13, %r14
adcx %rax, %r14
mov $0, %rax
adox %rdx, %rax
adcx %r8, %rax
;# Compute src1[2] * src2
movq 16(%rsi), %rdx
mulxq 0(%rcx), %r8, %r9
xor %r10d, %r10d
adcxq 16(%rdi), %r8
movq %r8, 16(%rdi)
mulxq 8(%rcx), %r10, %r11
adox %r9, %r10
adcx %rbx, %r10
movq %r10, 24(%rdi)
mulxq 16(%rcx), %rbx, %r13
adox %r11, %rbx
adcx %r14, %rbx
mov $0, %r8
mulxq 24(%rcx), %r14, %rdx
adox %r13, %r14
adcx %rax, %r14
mov $0, %rax
adox %rdx, %rax
adcx %r8, %rax
;# Compute src1[3] * src2
movq 24(%rsi), %rdx
mulxq 0(%rcx), %r8, %r9
xor %r10d, %r10d
adcxq 24(%rdi), %r8
movq %r8, 24(%rdi)
mulxq 8(%rcx), %r10, %r11
adox %r9, %r10
adcx %rbx, %r10
movq %r10, 32(%rdi)
mulxq 16(%rcx), %rbx, %r13
adox %r11, %rbx
adcx %r14, %rbx
movq %rbx, 40(%rdi)
mov $0, %r8
mulxq 24(%rcx), %r14, %rdx
adox %r13, %r14
adcx %rax, %r14
movq %r14, 48(%rdi)
mov $0, %rax
adox %rdx, %rax
adcx %r8, %rax
movq %rax, 56(%rdi)
;# Compute the raw multiplication tmp[1] <- f1[1] * f2[1]
;# Compute src1[0] * src2
movq 32(%rsi), %rdx
mulxq 32(%rcx), %r8, %r9
xor %r10d, %r10d
movq %r8, 64(%rdi)
mulxq 40(%rcx), %r10, %r11
adox %r9, %r10
movq %r10, 72(%rdi)
mulxq 48(%rcx), %rbx, %r13
adox %r11, %rbx
mulxq 56(%rcx), %r14, %rdx
adox %r13, %r14
mov $0, %rax
adox %rdx, %rax
;# Compute src1[1] * src2
movq 40(%rsi), %rdx
mulxq 32(%rcx), %r8, %r9
xor %r10d, %r10d
adcxq 72(%rdi), %r8
movq %r8, 72(%rdi)
mulxq 40(%rcx), %r10, %r11
adox %r9, %r10
adcx %rbx, %r10
movq %r10, 80(%rdi)
mulxq 48(%rcx), %rbx, %r13
adox %r11, %rbx
adcx %r14, %rbx
mov $0, %r8
mulxq 56(%rcx), %r14, %rdx
adox %r13, %r14
adcx %rax, %r14
mov $0, %rax
adox %rdx, %rax
adcx %r8, %rax
;# Compute src1[2] * src2
movq 48(%rsi), %rdx
mulxq 32(%rcx), %r8, %r9
xor %r10d, %r10d
adcxq 80(%rdi), %r8
movq %r8, 80(%rdi)
mulxq 40(%rcx), %r10, %r11
adox %r9, %r10
adcx %rbx, %r10
movq %r10, 88(%rdi)
mulxq 48(%rcx), %rbx, %r13
adox %r11, %rbx
adcx %r14, %rbx
mov $0, %r8
mulxq 56(%rcx), %r14, %rdx
adox %r13, %r14
adcx %rax, %r14
mov $0, %rax
adox %rdx, %rax
adcx %r8, %rax
;# Compute src1[3] * src2
movq 56(%rsi), %rdx
mulxq 32(%rcx), %r8, %r9
xor %r10d, %r10d
adcxq 88(%rdi), %r8
movq %r8, 88(%rdi)
mulxq 40(%rcx), %r10, %r11
adox %r9, %r10
adcx %rbx, %r10
movq %r10, 96(%rdi)
mulxq 48(%rcx), %rbx, %r13
adox %r11, %rbx
adcx %r14, %rbx
movq %rbx, 104(%rdi)
mov $0, %r8
mulxq 56(%rcx), %r14, %rdx
adox %r13, %r14
adcx %rax, %r14
movq %r14, 112(%rdi)
mov $0, %rax
adox %rdx, %rax
adcx %r8, %rax
movq %rax, 120(%rdi)
;# Line up pointers
mov %rdi, %rsi
mov %r15, %rdi
;# Wrap the results back into the field
;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo
mov $38, %rdx
mulxq 32(%rsi), %r8, %r13
xor %ecx, %ecx
adoxq 0(%rsi), %r8
mulxq 40(%rsi), %r9, %rbx
adcx %r13, %r9
adoxq 8(%rsi), %r9
mulxq 48(%rsi), %r10, %r13
adcx %rbx, %r10
adoxq 16(%rsi), %r10
mulxq 56(%rsi), %r11, %rax
adcx %r13, %r11
adoxq 24(%rsi), %r11
adcx %rcx, %rax
adox %rcx, %rax
imul %rdx, %rax
;# Step 2: Fold the carry back into dst
add %rax, %r8
adcx %rcx, %r9
movq %r9, 8(%rdi)
adcx %rcx, %r10
movq %r10, 16(%rdi)
adcx %rcx, %r11
movq %r11, 24(%rdi)
;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point
mov $0, %rax
cmovc %rdx, %rax
add %rax, %r8
movq %r8, 0(%rdi)
;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo
mov $38, %rdx
mulxq 96(%rsi), %r8, %r13
xor %ecx, %ecx
adoxq 64(%rsi), %r8
mulxq 104(%rsi), %r9, %rbx
adcx %r13, %r9
adoxq 72(%rsi), %r9
mulxq 112(%rsi), %r10, %r13
adcx %rbx, %r10
adoxq 80(%rsi), %r10
mulxq 120(%rsi), %r11, %rax
adcx %r13, %r11
adoxq 88(%rsi), %r11
adcx %rcx, %rax
adox %rcx, %rax
imul %rdx, %rax
;# Step 2: Fold the carry back into dst
add %rax, %r8
adcx %rcx, %r9
movq %r9, 40(%rdi)
adcx %rcx, %r10
movq %r10, 48(%rdi)
adcx %rcx, %r11
movq %r11, 56(%rdi)
;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point
mov $0, %rax
cmovc %rdx, %rax
add %rax, %r8
movq %r8, 32(%rdi)
pop %rdi
pop %rsi
pop %rbx
pop %r15
pop %r14
pop %r13
ret
.global fsqr_e
fsqr_e:
push %r15
push %r13
push %r14
push %r12
push %rbx
push %rsi
push %rdi
mov %rcx, %rdi
mov %rdx, %rsi
mov %r8, %r12
;# Compute the raw multiplication: tmp <- f * f
;# Step 1: Compute all partial products
movq 0(%rsi), %rdx
;# f[0]
mulxq 8(%rsi), %r8, %r14
xor %r15d, %r15d
;# f[1]*f[0]
mulxq 16(%rsi), %r9, %r10
adcx %r14, %r9
;# f[2]*f[0]
mulxq 24(%rsi), %rax, %rcx
adcx %rax, %r10
;# f[3]*f[0]
movq 24(%rsi), %rdx
;# f[3]
mulxq 8(%rsi), %r11, %rbx
adcx %rcx, %r11
;# f[1]*f[3]
mulxq 16(%rsi), %rax, %r13
adcx %rax, %rbx
;# f[2]*f[3]
movq 8(%rsi), %rdx
adcx %r15, %r13
;# f1
mulxq 16(%rsi), %rax, %rcx
mov $0, %r14
;# f[2]*f[1]
;# Step 2: Compute two parallel carry chains
xor %r15d, %r15d
adox %rax, %r10
adcx %r8, %r8
adox %rcx, %r11
adcx %r9, %r9
adox %r15, %rbx
adcx %r10, %r10
adox %r15, %r13
adcx %r11, %r11
adox %r15, %r14
adcx %rbx, %rbx
adcx %r13, %r13
adcx %r14, %r14
;# Step 3: Compute intermediate squares
movq 0(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[0]^2
movq %rax, 0(%rdi)
add %rcx, %r8
movq %r8, 8(%rdi)
movq 8(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[1]^2
adcx %rax, %r9
movq %r9, 16(%rdi)
adcx %rcx, %r10
movq %r10, 24(%rdi)
movq 16(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[2]^2
adcx %rax, %r11
movq %r11, 32(%rdi)
adcx %rcx, %rbx
movq %rbx, 40(%rdi)
movq 24(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[3]^2
adcx %rax, %r13
movq %r13, 48(%rdi)
adcx %rcx, %r14
movq %r14, 56(%rdi)
;# Line up pointers
mov %rdi, %rsi
mov %r12, %rdi
;# Wrap the result back into the field
;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo
mov $38, %rdx
mulxq 32(%rsi), %r8, %r13
xor %ecx, %ecx
adoxq 0(%rsi), %r8
mulxq 40(%rsi), %r9, %rbx
adcx %r13, %r9
adoxq 8(%rsi), %r9
mulxq 48(%rsi), %r10, %r13
adcx %rbx, %r10
adoxq 16(%rsi), %r10
mulxq 56(%rsi), %r11, %rax
adcx %r13, %r11
adoxq 24(%rsi), %r11
adcx %rcx, %rax
adox %rcx, %rax
imul %rdx, %rax
;# Step 2: Fold the carry back into dst
add %rax, %r8
adcx %rcx, %r9
movq %r9, 8(%rdi)
adcx %rcx, %r10
movq %r10, 16(%rdi)
adcx %rcx, %r11
movq %r11, 24(%rdi)
;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point
mov $0, %rax
cmovc %rdx, %rax
add %rax, %r8
movq %r8, 0(%rdi)
pop %rdi
pop %rsi
pop %rbx
pop %r12
pop %r14
pop %r13
pop %r15
ret
.global fsqr2_e
fsqr2_e:
push %r15
push %r13
push %r14
push %r12
push %rbx
push %rsi
push %rdi
mov %rcx, %rdi
mov %rdx, %rsi
mov %r8, %r12
;# Step 1: Compute all partial products
movq 0(%rsi), %rdx
;# f[0]
mulxq 8(%rsi), %r8, %r14
xor %r15d, %r15d
;# f[1]*f[0]
mulxq 16(%rsi), %r9, %r10
adcx %r14, %r9
;# f[2]*f[0]
mulxq 24(%rsi), %rax, %rcx
adcx %rax, %r10
;# f[3]*f[0]
movq 24(%rsi), %rdx
;# f[3]
mulxq 8(%rsi), %r11, %rbx
adcx %rcx, %r11
;# f[1]*f[3]
mulxq 16(%rsi), %rax, %r13
adcx %rax, %rbx
;# f[2]*f[3]
movq 8(%rsi), %rdx
adcx %r15, %r13
;# f1
mulxq 16(%rsi), %rax, %rcx
mov $0, %r14
;# f[2]*f[1]
;# Step 2: Compute two parallel carry chains
xor %r15d, %r15d
adox %rax, %r10
adcx %r8, %r8
adox %rcx, %r11
adcx %r9, %r9
adox %r15, %rbx
adcx %r10, %r10
adox %r15, %r13
adcx %r11, %r11
adox %r15, %r14
adcx %rbx, %rbx
adcx %r13, %r13
adcx %r14, %r14
;# Step 3: Compute intermediate squares
movq 0(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[0]^2
movq %rax, 0(%rdi)
add %rcx, %r8
movq %r8, 8(%rdi)
movq 8(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[1]^2
adcx %rax, %r9
movq %r9, 16(%rdi)
adcx %rcx, %r10
movq %r10, 24(%rdi)
movq 16(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[2]^2
adcx %rax, %r11
movq %r11, 32(%rdi)
adcx %rcx, %rbx
movq %rbx, 40(%rdi)
movq 24(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[3]^2
adcx %rax, %r13
movq %r13, 48(%rdi)
adcx %rcx, %r14
movq %r14, 56(%rdi)
;# Step 1: Compute all partial products
movq 32(%rsi), %rdx
;# f[0]
mulxq 40(%rsi), %r8, %r14
xor %r15d, %r15d
;# f[1]*f[0]
mulxq 48(%rsi), %r9, %r10
adcx %r14, %r9
;# f[2]*f[0]
mulxq 56(%rsi), %rax, %rcx
adcx %rax, %r10
;# f[3]*f[0]
movq 56(%rsi), %rdx
;# f[3]
mulxq 40(%rsi), %r11, %rbx
adcx %rcx, %r11
;# f[1]*f[3]
mulxq 48(%rsi), %rax, %r13
adcx %rax, %rbx
;# f[2]*f[3]
movq 40(%rsi), %rdx
adcx %r15, %r13
;# f1
mulxq 48(%rsi), %rax, %rcx
mov $0, %r14
;# f[2]*f[1]
;# Step 2: Compute two parallel carry chains
xor %r15d, %r15d
adox %rax, %r10
adcx %r8, %r8
adox %rcx, %r11
adcx %r9, %r9
adox %r15, %rbx
adcx %r10, %r10
adox %r15, %r13
adcx %r11, %r11
adox %r15, %r14
adcx %rbx, %rbx
adcx %r13, %r13
adcx %r14, %r14
;# Step 3: Compute intermediate squares
movq 32(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[0]^2
movq %rax, 64(%rdi)
add %rcx, %r8
movq %r8, 72(%rdi)
movq 40(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[1]^2
adcx %rax, %r9
movq %r9, 80(%rdi)
adcx %rcx, %r10
movq %r10, 88(%rdi)
movq 48(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[2]^2
adcx %rax, %r11
movq %r11, 96(%rdi)
adcx %rcx, %rbx
movq %rbx, 104(%rdi)
movq 56(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[3]^2
adcx %rax, %r13
movq %r13, 112(%rdi)
adcx %rcx, %r14
movq %r14, 120(%rdi)
;# Line up pointers
mov %rdi, %rsi
mov %r12, %rdi
;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo
mov $38, %rdx
mulxq 32(%rsi), %r8, %r13
xor %ecx, %ecx
adoxq 0(%rsi), %r8
mulxq 40(%rsi), %r9, %rbx
adcx %r13, %r9
adoxq 8(%rsi), %r9
mulxq 48(%rsi), %r10, %r13
adcx %rbx, %r10
adoxq 16(%rsi), %r10
mulxq 56(%rsi), %r11, %rax
adcx %r13, %r11
adoxq 24(%rsi), %r11
adcx %rcx, %rax
adox %rcx, %rax
imul %rdx, %rax
;# Step 2: Fold the carry back into dst
add %rax, %r8
adcx %rcx, %r9
movq %r9, 8(%rdi)
adcx %rcx, %r10
movq %r10, 16(%rdi)
adcx %rcx, %r11
movq %r11, 24(%rdi)
;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point
mov $0, %rax
cmovc %rdx, %rax
add %rax, %r8
movq %r8, 0(%rdi)
;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo
mov $38, %rdx
mulxq 96(%rsi), %r8, %r13
xor %ecx, %ecx
adoxq 64(%rsi), %r8
mulxq 104(%rsi), %r9, %rbx
adcx %r13, %r9
adoxq 72(%rsi), %r9
mulxq 112(%rsi), %r10, %r13
adcx %rbx, %r10
adoxq 80(%rsi), %r10
mulxq 120(%rsi), %r11, %rax
adcx %r13, %r11
adoxq 88(%rsi), %r11
adcx %rcx, %rax
adox %rcx, %rax
imul %rdx, %rax
;# Step 2: Fold the carry back into dst
add %rax, %r8
adcx %rcx, %r9
movq %r9, 40(%rdi)
adcx %rcx, %r10
movq %r10, 48(%rdi)
adcx %rcx, %r11
movq %r11, 56(%rdi)
;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point
mov $0, %rax
cmovc %rdx, %rax
add %rax, %r8
movq %r8, 32(%rdi)
pop %rdi
pop %rsi
pop %rbx
pop %r12
pop %r14
pop %r13
pop %r15
ret
.global cswap2_e
cswap2_e:
push %rdi
push %rsi
mov %rcx, %rdi
mov %rdx, %rsi
mov %r8, %rdx
;# Transfer bit into CF flag
add $18446744073709551615, %rdi
;# cswap p1[0], p2[0]
movq 0(%rsi), %r8
movq 0(%rdx), %r9
mov %r8, %r10
cmovc %r9, %r8
cmovc %r10, %r9
movq %r8, 0(%rsi)
movq %r9, 0(%rdx)
;# cswap p1[1], p2[1]
movq 8(%rsi), %r8
movq 8(%rdx), %r9
mov %r8, %r10
cmovc %r9, %r8
cmovc %r10, %r9
movq %r8, 8(%rsi)
movq %r9, 8(%rdx)
;# cswap p1[2], p2[2]
movq 16(%rsi), %r8
movq 16(%rdx), %r9
mov %r8, %r10
cmovc %r9, %r8
cmovc %r10, %r9
movq %r8, 16(%rsi)
movq %r9, 16(%rdx)
;# cswap p1[3], p2[3]
movq 24(%rsi), %r8
movq 24(%rdx), %r9
mov %r8, %r10
cmovc %r9, %r8
cmovc %r10, %r9
movq %r8, 24(%rsi)
movq %r9, 24(%rdx)
;# cswap p1[4], p2[4]
movq 32(%rsi), %r8
movq 32(%rdx), %r9
mov %r8, %r10
cmovc %r9, %r8
cmovc %r10, %r9
movq %r8, 32(%rsi)
movq %r9, 32(%rdx)
;# cswap p1[5], p2[5]
movq 40(%rsi), %r8
movq 40(%rdx), %r9
mov %r8, %r10
cmovc %r9, %r8
cmovc %r10, %r9
movq %r8, 40(%rsi)
movq %r9, 40(%rdx)
;# cswap p1[6], p2[6]
movq 48(%rsi), %r8
movq 48(%rdx), %r9
mov %r8, %r10
cmovc %r9, %r8
cmovc %r10, %r9
movq %r8, 48(%rsi)
movq %r9, 48(%rdx)
;# cswap p1[7], p2[7]
movq 56(%rsi), %r8
movq 56(%rdx), %r9
mov %r8, %r10
cmovc %r9, %r8
cmovc %r10, %r9
movq %r8, 56(%rsi)
movq %r9, 56(%rdx)
pop %rsi
pop %rdi
ret
|
usenix-security-verdict/verdict
| 18,925
|
deps/libcrux/sys/hacl/c/vale/src/curve25519-x86_64-darwin.S
|
.text
.global _add_scalar_e
_add_scalar_e:
push %rdi
push %rsi
;# Clear registers to propagate the carry bit
xor %r8d, %r8d
xor %r9d, %r9d
xor %r10d, %r10d
xor %r11d, %r11d
xor %eax, %eax
;# Begin addition chain
addq 0(%rsi), %rdx
movq %rdx, 0(%rdi)
adcxq 8(%rsi), %r8
movq %r8, 8(%rdi)
adcxq 16(%rsi), %r9
movq %r9, 16(%rdi)
adcxq 24(%rsi), %r10
movq %r10, 24(%rdi)
;# Return the carry bit in a register
adcx %r11, %rax
pop %rsi
pop %rdi
ret
.global _fadd_e
_fadd_e:
;# Compute the raw addition of f1 + f2
movq 0(%rdx), %r8
addq 0(%rsi), %r8
movq 8(%rdx), %r9
adcxq 8(%rsi), %r9
movq 16(%rdx), %r10
adcxq 16(%rsi), %r10
movq 24(%rdx), %r11
adcxq 24(%rsi), %r11
;# Wrap the result back into the field
;# Step 1: Compute carry*38
mov $0, %rax
mov $38, %rdx
cmovc %rdx, %rax
;# Step 2: Add carry*38 to the original sum
xor %ecx, %ecx
add %rax, %r8
adcx %rcx, %r9
movq %r9, 8(%rdi)
adcx %rcx, %r10
movq %r10, 16(%rdi)
adcx %rcx, %r11
movq %r11, 24(%rdi)
;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point
mov $0, %rax
cmovc %rdx, %rax
add %rax, %r8
movq %r8, 0(%rdi)
ret
.global _fsub_e
_fsub_e:
;# Compute the raw substraction of f1-f2
movq 0(%rsi), %r8
subq 0(%rdx), %r8
movq 8(%rsi), %r9
sbbq 8(%rdx), %r9
movq 16(%rsi), %r10
sbbq 16(%rdx), %r10
movq 24(%rsi), %r11
sbbq 24(%rdx), %r11
;# Wrap the result back into the field
;# Step 1: Compute carry*38
mov $0, %rax
mov $38, %rcx
cmovc %rcx, %rax
;# Step 2: Substract carry*38 from the original difference
sub %rax, %r8
sbb $0, %r9
sbb $0, %r10
sbb $0, %r11
;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point
mov $0, %rax
cmovc %rcx, %rax
sub %rax, %r8
;# Store the result
movq %r8, 0(%rdi)
movq %r9, 8(%rdi)
movq %r10, 16(%rdi)
movq %r11, 24(%rdi)
ret
.global _fmul_scalar_e
_fmul_scalar_e:
push %rdi
push %r13
push %rbx
;# Compute the raw multiplication of f1*f2
mulxq 0(%rsi), %r8, %rcx
;# f1[0]*f2
mulxq 8(%rsi), %r9, %rbx
;# f1[1]*f2
add %rcx, %r9
mov $0, %rcx
mulxq 16(%rsi), %r10, %r13
;# f1[2]*f2
adcx %rbx, %r10
mulxq 24(%rsi), %r11, %rax
;# f1[3]*f2
adcx %r13, %r11
adcx %rcx, %rax
;# Wrap the result back into the field
;# Step 1: Compute carry*38
mov $38, %rdx
imul %rdx, %rax
;# Step 2: Fold the carry back into dst
add %rax, %r8
adcx %rcx, %r9
movq %r9, 8(%rdi)
adcx %rcx, %r10
movq %r10, 16(%rdi)
adcx %rcx, %r11
movq %r11, 24(%rdi)
;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point
mov $0, %rax
cmovc %rdx, %rax
add %rax, %r8
movq %r8, 0(%rdi)
pop %rbx
pop %r13
pop %rdi
ret
.global _fmul_e
_fmul_e:
push %r13
push %r14
push %r15
push %rbx
mov %rdx, %r15
;# Compute the raw multiplication: tmp <- src1 * src2
;# Compute src1[0] * src2
movq 0(%rsi), %rdx
mulxq 0(%rcx), %r8, %r9
xor %r10d, %r10d
movq %r8, 0(%rdi)
mulxq 8(%rcx), %r10, %r11
adox %r9, %r10
movq %r10, 8(%rdi)
mulxq 16(%rcx), %rbx, %r13
adox %r11, %rbx
mulxq 24(%rcx), %r14, %rdx
adox %r13, %r14
mov $0, %rax
adox %rdx, %rax
;# Compute src1[1] * src2
movq 8(%rsi), %rdx
mulxq 0(%rcx), %r8, %r9
xor %r10d, %r10d
adcxq 8(%rdi), %r8
movq %r8, 8(%rdi)
mulxq 8(%rcx), %r10, %r11
adox %r9, %r10
adcx %rbx, %r10
movq %r10, 16(%rdi)
mulxq 16(%rcx), %rbx, %r13
adox %r11, %rbx
adcx %r14, %rbx
mov $0, %r8
mulxq 24(%rcx), %r14, %rdx
adox %r13, %r14
adcx %rax, %r14
mov $0, %rax
adox %rdx, %rax
adcx %r8, %rax
;# Compute src1[2] * src2
movq 16(%rsi), %rdx
mulxq 0(%rcx), %r8, %r9
xor %r10d, %r10d
adcxq 16(%rdi), %r8
movq %r8, 16(%rdi)
mulxq 8(%rcx), %r10, %r11
adox %r9, %r10
adcx %rbx, %r10
movq %r10, 24(%rdi)
mulxq 16(%rcx), %rbx, %r13
adox %r11, %rbx
adcx %r14, %rbx
mov $0, %r8
mulxq 24(%rcx), %r14, %rdx
adox %r13, %r14
adcx %rax, %r14
mov $0, %rax
adox %rdx, %rax
adcx %r8, %rax
;# Compute src1[3] * src2
movq 24(%rsi), %rdx
mulxq 0(%rcx), %r8, %r9
xor %r10d, %r10d
adcxq 24(%rdi), %r8
movq %r8, 24(%rdi)
mulxq 8(%rcx), %r10, %r11
adox %r9, %r10
adcx %rbx, %r10
movq %r10, 32(%rdi)
mulxq 16(%rcx), %rbx, %r13
adox %r11, %rbx
adcx %r14, %rbx
movq %rbx, 40(%rdi)
mov $0, %r8
mulxq 24(%rcx), %r14, %rdx
adox %r13, %r14
adcx %rax, %r14
movq %r14, 48(%rdi)
mov $0, %rax
adox %rdx, %rax
adcx %r8, %rax
movq %rax, 56(%rdi)
;# Line up pointers
mov %rdi, %rsi
mov %r15, %rdi
;# Wrap the result back into the field
;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo
mov $38, %rdx
mulxq 32(%rsi), %r8, %r13
xor %ecx, %ecx
adoxq 0(%rsi), %r8
mulxq 40(%rsi), %r9, %rbx
adcx %r13, %r9
adoxq 8(%rsi), %r9
mulxq 48(%rsi), %r10, %r13
adcx %rbx, %r10
adoxq 16(%rsi), %r10
mulxq 56(%rsi), %r11, %rax
adcx %r13, %r11
adoxq 24(%rsi), %r11
adcx %rcx, %rax
adox %rcx, %rax
imul %rdx, %rax
;# Step 2: Fold the carry back into dst
add %rax, %r8
adcx %rcx, %r9
movq %r9, 8(%rdi)
adcx %rcx, %r10
movq %r10, 16(%rdi)
adcx %rcx, %r11
movq %r11, 24(%rdi)
;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point
mov $0, %rax
cmovc %rdx, %rax
add %rax, %r8
movq %r8, 0(%rdi)
pop %rbx
pop %r15
pop %r14
pop %r13
ret
.global _fmul2_e
_fmul2_e:
push %r13
push %r14
push %r15
push %rbx
mov %rdx, %r15
;# Compute the raw multiplication tmp[0] <- f1[0] * f2[0]
;# Compute src1[0] * src2
movq 0(%rsi), %rdx
mulxq 0(%rcx), %r8, %r9
xor %r10d, %r10d
movq %r8, 0(%rdi)
mulxq 8(%rcx), %r10, %r11
adox %r9, %r10
movq %r10, 8(%rdi)
mulxq 16(%rcx), %rbx, %r13
adox %r11, %rbx
mulxq 24(%rcx), %r14, %rdx
adox %r13, %r14
mov $0, %rax
adox %rdx, %rax
;# Compute src1[1] * src2
movq 8(%rsi), %rdx
mulxq 0(%rcx), %r8, %r9
xor %r10d, %r10d
adcxq 8(%rdi), %r8
movq %r8, 8(%rdi)
mulxq 8(%rcx), %r10, %r11
adox %r9, %r10
adcx %rbx, %r10
movq %r10, 16(%rdi)
mulxq 16(%rcx), %rbx, %r13
adox %r11, %rbx
adcx %r14, %rbx
mov $0, %r8
mulxq 24(%rcx), %r14, %rdx
adox %r13, %r14
adcx %rax, %r14
mov $0, %rax
adox %rdx, %rax
adcx %r8, %rax
;# Compute src1[2] * src2
movq 16(%rsi), %rdx
mulxq 0(%rcx), %r8, %r9
xor %r10d, %r10d
adcxq 16(%rdi), %r8
movq %r8, 16(%rdi)
mulxq 8(%rcx), %r10, %r11
adox %r9, %r10
adcx %rbx, %r10
movq %r10, 24(%rdi)
mulxq 16(%rcx), %rbx, %r13
adox %r11, %rbx
adcx %r14, %rbx
mov $0, %r8
mulxq 24(%rcx), %r14, %rdx
adox %r13, %r14
adcx %rax, %r14
mov $0, %rax
adox %rdx, %rax
adcx %r8, %rax
;# Compute src1[3] * src2
movq 24(%rsi), %rdx
mulxq 0(%rcx), %r8, %r9
xor %r10d, %r10d
adcxq 24(%rdi), %r8
movq %r8, 24(%rdi)
mulxq 8(%rcx), %r10, %r11
adox %r9, %r10
adcx %rbx, %r10
movq %r10, 32(%rdi)
mulxq 16(%rcx), %rbx, %r13
adox %r11, %rbx
adcx %r14, %rbx
movq %rbx, 40(%rdi)
mov $0, %r8
mulxq 24(%rcx), %r14, %rdx
adox %r13, %r14
adcx %rax, %r14
movq %r14, 48(%rdi)
mov $0, %rax
adox %rdx, %rax
adcx %r8, %rax
movq %rax, 56(%rdi)
;# Compute the raw multiplication tmp[1] <- f1[1] * f2[1]
;# Compute src1[0] * src2
movq 32(%rsi), %rdx
mulxq 32(%rcx), %r8, %r9
xor %r10d, %r10d
movq %r8, 64(%rdi)
mulxq 40(%rcx), %r10, %r11
adox %r9, %r10
movq %r10, 72(%rdi)
mulxq 48(%rcx), %rbx, %r13
adox %r11, %rbx
mulxq 56(%rcx), %r14, %rdx
adox %r13, %r14
mov $0, %rax
adox %rdx, %rax
;# Compute src1[1] * src2
movq 40(%rsi), %rdx
mulxq 32(%rcx), %r8, %r9
xor %r10d, %r10d
adcxq 72(%rdi), %r8
movq %r8, 72(%rdi)
mulxq 40(%rcx), %r10, %r11
adox %r9, %r10
adcx %rbx, %r10
movq %r10, 80(%rdi)
mulxq 48(%rcx), %rbx, %r13
adox %r11, %rbx
adcx %r14, %rbx
mov $0, %r8
mulxq 56(%rcx), %r14, %rdx
adox %r13, %r14
adcx %rax, %r14
mov $0, %rax
adox %rdx, %rax
adcx %r8, %rax
;# Compute src1[2] * src2
movq 48(%rsi), %rdx
mulxq 32(%rcx), %r8, %r9
xor %r10d, %r10d
adcxq 80(%rdi), %r8
movq %r8, 80(%rdi)
mulxq 40(%rcx), %r10, %r11
adox %r9, %r10
adcx %rbx, %r10
movq %r10, 88(%rdi)
mulxq 48(%rcx), %rbx, %r13
adox %r11, %rbx
adcx %r14, %rbx
mov $0, %r8
mulxq 56(%rcx), %r14, %rdx
adox %r13, %r14
adcx %rax, %r14
mov $0, %rax
adox %rdx, %rax
adcx %r8, %rax
;# Compute src1[3] * src2
movq 56(%rsi), %rdx
mulxq 32(%rcx), %r8, %r9
xor %r10d, %r10d
adcxq 88(%rdi), %r8
movq %r8, 88(%rdi)
mulxq 40(%rcx), %r10, %r11
adox %r9, %r10
adcx %rbx, %r10
movq %r10, 96(%rdi)
mulxq 48(%rcx), %rbx, %r13
adox %r11, %rbx
adcx %r14, %rbx
movq %rbx, 104(%rdi)
mov $0, %r8
mulxq 56(%rcx), %r14, %rdx
adox %r13, %r14
adcx %rax, %r14
movq %r14, 112(%rdi)
mov $0, %rax
adox %rdx, %rax
adcx %r8, %rax
movq %rax, 120(%rdi)
;# Line up pointers
mov %rdi, %rsi
mov %r15, %rdi
;# Wrap the results back into the field
;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo
mov $38, %rdx
mulxq 32(%rsi), %r8, %r13
xor %ecx, %ecx
adoxq 0(%rsi), %r8
mulxq 40(%rsi), %r9, %rbx
adcx %r13, %r9
adoxq 8(%rsi), %r9
mulxq 48(%rsi), %r10, %r13
adcx %rbx, %r10
adoxq 16(%rsi), %r10
mulxq 56(%rsi), %r11, %rax
adcx %r13, %r11
adoxq 24(%rsi), %r11
adcx %rcx, %rax
adox %rcx, %rax
imul %rdx, %rax
;# Step 2: Fold the carry back into dst
add %rax, %r8
adcx %rcx, %r9
movq %r9, 8(%rdi)
adcx %rcx, %r10
movq %r10, 16(%rdi)
adcx %rcx, %r11
movq %r11, 24(%rdi)
;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point
mov $0, %rax
cmovc %rdx, %rax
add %rax, %r8
movq %r8, 0(%rdi)
;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo
mov $38, %rdx
mulxq 96(%rsi), %r8, %r13
xor %ecx, %ecx
adoxq 64(%rsi), %r8
mulxq 104(%rsi), %r9, %rbx
adcx %r13, %r9
adoxq 72(%rsi), %r9
mulxq 112(%rsi), %r10, %r13
adcx %rbx, %r10
adoxq 80(%rsi), %r10
mulxq 120(%rsi), %r11, %rax
adcx %r13, %r11
adoxq 88(%rsi), %r11
adcx %rcx, %rax
adox %rcx, %rax
imul %rdx, %rax
;# Step 2: Fold the carry back into dst
add %rax, %r8
adcx %rcx, %r9
movq %r9, 40(%rdi)
adcx %rcx, %r10
movq %r10, 48(%rdi)
adcx %rcx, %r11
movq %r11, 56(%rdi)
;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point
mov $0, %rax
cmovc %rdx, %rax
add %rax, %r8
movq %r8, 32(%rdi)
pop %rbx
pop %r15
pop %r14
pop %r13
ret
.global _fsqr_e
_fsqr_e:
push %r15
push %r13
push %r14
push %r12
push %rbx
mov %rdx, %r12
;# Compute the raw multiplication: tmp <- f * f
;# Step 1: Compute all partial products
movq 0(%rsi), %rdx
;# f[0]
mulxq 8(%rsi), %r8, %r14
xor %r15d, %r15d
;# f[1]*f[0]
mulxq 16(%rsi), %r9, %r10
adcx %r14, %r9
;# f[2]*f[0]
mulxq 24(%rsi), %rax, %rcx
adcx %rax, %r10
;# f[3]*f[0]
movq 24(%rsi), %rdx
;# f[3]
mulxq 8(%rsi), %r11, %rbx
adcx %rcx, %r11
;# f[1]*f[3]
mulxq 16(%rsi), %rax, %r13
adcx %rax, %rbx
;# f[2]*f[3]
movq 8(%rsi), %rdx
adcx %r15, %r13
;# f1
mulxq 16(%rsi), %rax, %rcx
mov $0, %r14
;# f[2]*f[1]
;# Step 2: Compute two parallel carry chains
xor %r15d, %r15d
adox %rax, %r10
adcx %r8, %r8
adox %rcx, %r11
adcx %r9, %r9
adox %r15, %rbx
adcx %r10, %r10
adox %r15, %r13
adcx %r11, %r11
adox %r15, %r14
adcx %rbx, %rbx
adcx %r13, %r13
adcx %r14, %r14
;# Step 3: Compute intermediate squares
movq 0(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[0]^2
movq %rax, 0(%rdi)
add %rcx, %r8
movq %r8, 8(%rdi)
movq 8(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[1]^2
adcx %rax, %r9
movq %r9, 16(%rdi)
adcx %rcx, %r10
movq %r10, 24(%rdi)
movq 16(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[2]^2
adcx %rax, %r11
movq %r11, 32(%rdi)
adcx %rcx, %rbx
movq %rbx, 40(%rdi)
movq 24(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[3]^2
adcx %rax, %r13
movq %r13, 48(%rdi)
adcx %rcx, %r14
movq %r14, 56(%rdi)
;# Line up pointers
mov %rdi, %rsi
mov %r12, %rdi
;# Wrap the result back into the field
;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo
mov $38, %rdx
mulxq 32(%rsi), %r8, %r13
xor %ecx, %ecx
adoxq 0(%rsi), %r8
mulxq 40(%rsi), %r9, %rbx
adcx %r13, %r9
adoxq 8(%rsi), %r9
mulxq 48(%rsi), %r10, %r13
adcx %rbx, %r10
adoxq 16(%rsi), %r10
mulxq 56(%rsi), %r11, %rax
adcx %r13, %r11
adoxq 24(%rsi), %r11
adcx %rcx, %rax
adox %rcx, %rax
imul %rdx, %rax
;# Step 2: Fold the carry back into dst
add %rax, %r8
adcx %rcx, %r9
movq %r9, 8(%rdi)
adcx %rcx, %r10
movq %r10, 16(%rdi)
adcx %rcx, %r11
movq %r11, 24(%rdi)
;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point
mov $0, %rax
cmovc %rdx, %rax
add %rax, %r8
movq %r8, 0(%rdi)
pop %rbx
pop %r12
pop %r14
pop %r13
pop %r15
ret
.global _fsqr2_e
_fsqr2_e:
push %r15
push %r13
push %r14
push %r12
push %rbx
mov %rdx, %r12
;# Step 1: Compute all partial products
movq 0(%rsi), %rdx
;# f[0]
mulxq 8(%rsi), %r8, %r14
xor %r15d, %r15d
;# f[1]*f[0]
mulxq 16(%rsi), %r9, %r10
adcx %r14, %r9
;# f[2]*f[0]
mulxq 24(%rsi), %rax, %rcx
adcx %rax, %r10
;# f[3]*f[0]
movq 24(%rsi), %rdx
;# f[3]
mulxq 8(%rsi), %r11, %rbx
adcx %rcx, %r11
;# f[1]*f[3]
mulxq 16(%rsi), %rax, %r13
adcx %rax, %rbx
;# f[2]*f[3]
movq 8(%rsi), %rdx
adcx %r15, %r13
;# f1
mulxq 16(%rsi), %rax, %rcx
mov $0, %r14
;# f[2]*f[1]
;# Step 2: Compute two parallel carry chains
xor %r15d, %r15d
adox %rax, %r10
adcx %r8, %r8
adox %rcx, %r11
adcx %r9, %r9
adox %r15, %rbx
adcx %r10, %r10
adox %r15, %r13
adcx %r11, %r11
adox %r15, %r14
adcx %rbx, %rbx
adcx %r13, %r13
adcx %r14, %r14
;# Step 3: Compute intermediate squares
movq 0(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[0]^2
movq %rax, 0(%rdi)
add %rcx, %r8
movq %r8, 8(%rdi)
movq 8(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[1]^2
adcx %rax, %r9
movq %r9, 16(%rdi)
adcx %rcx, %r10
movq %r10, 24(%rdi)
movq 16(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[2]^2
adcx %rax, %r11
movq %r11, 32(%rdi)
adcx %rcx, %rbx
movq %rbx, 40(%rdi)
movq 24(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[3]^2
adcx %rax, %r13
movq %r13, 48(%rdi)
adcx %rcx, %r14
movq %r14, 56(%rdi)
;# Step 1: Compute all partial products
movq 32(%rsi), %rdx
;# f[0]
mulxq 40(%rsi), %r8, %r14
xor %r15d, %r15d
;# f[1]*f[0]
mulxq 48(%rsi), %r9, %r10
adcx %r14, %r9
;# f[2]*f[0]
mulxq 56(%rsi), %rax, %rcx
adcx %rax, %r10
;# f[3]*f[0]
movq 56(%rsi), %rdx
;# f[3]
mulxq 40(%rsi), %r11, %rbx
adcx %rcx, %r11
;# f[1]*f[3]
mulxq 48(%rsi), %rax, %r13
adcx %rax, %rbx
;# f[2]*f[3]
movq 40(%rsi), %rdx
adcx %r15, %r13
;# f1
mulxq 48(%rsi), %rax, %rcx
mov $0, %r14
;# f[2]*f[1]
;# Step 2: Compute two parallel carry chains
xor %r15d, %r15d
adox %rax, %r10
adcx %r8, %r8
adox %rcx, %r11
adcx %r9, %r9
adox %r15, %rbx
adcx %r10, %r10
adox %r15, %r13
adcx %r11, %r11
adox %r15, %r14
adcx %rbx, %rbx
adcx %r13, %r13
adcx %r14, %r14
;# Step 3: Compute intermediate squares
movq 32(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[0]^2
movq %rax, 64(%rdi)
add %rcx, %r8
movq %r8, 72(%rdi)
movq 40(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[1]^2
adcx %rax, %r9
movq %r9, 80(%rdi)
adcx %rcx, %r10
movq %r10, 88(%rdi)
movq 48(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[2]^2
adcx %rax, %r11
movq %r11, 96(%rdi)
adcx %rcx, %rbx
movq %rbx, 104(%rdi)
movq 56(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[3]^2
adcx %rax, %r13
movq %r13, 112(%rdi)
adcx %rcx, %r14
movq %r14, 120(%rdi)
;# Line up pointers
mov %rdi, %rsi
mov %r12, %rdi
;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo
mov $38, %rdx
mulxq 32(%rsi), %r8, %r13
xor %ecx, %ecx
adoxq 0(%rsi), %r8
mulxq 40(%rsi), %r9, %rbx
adcx %r13, %r9
adoxq 8(%rsi), %r9
mulxq 48(%rsi), %r10, %r13
adcx %rbx, %r10
adoxq 16(%rsi), %r10
mulxq 56(%rsi), %r11, %rax
adcx %r13, %r11
adoxq 24(%rsi), %r11
adcx %rcx, %rax
adox %rcx, %rax
imul %rdx, %rax
;# Step 2: Fold the carry back into dst
add %rax, %r8
adcx %rcx, %r9
movq %r9, 8(%rdi)
adcx %rcx, %r10
movq %r10, 16(%rdi)
adcx %rcx, %r11
movq %r11, 24(%rdi)
;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point
mov $0, %rax
cmovc %rdx, %rax
add %rax, %r8
movq %r8, 0(%rdi)
;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo
mov $38, %rdx
mulxq 96(%rsi), %r8, %r13
xor %ecx, %ecx
adoxq 64(%rsi), %r8
mulxq 104(%rsi), %r9, %rbx
adcx %r13, %r9
adoxq 72(%rsi), %r9
mulxq 112(%rsi), %r10, %r13
adcx %rbx, %r10
adoxq 80(%rsi), %r10
mulxq 120(%rsi), %r11, %rax
adcx %r13, %r11
adoxq 88(%rsi), %r11
adcx %rcx, %rax
adox %rcx, %rax
imul %rdx, %rax
;# Step 2: Fold the carry back into dst
add %rax, %r8
adcx %rcx, %r9
movq %r9, 40(%rdi)
adcx %rcx, %r10
movq %r10, 48(%rdi)
adcx %rcx, %r11
movq %r11, 56(%rdi)
;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point
mov $0, %rax
cmovc %rdx, %rax
add %rax, %r8
movq %r8, 32(%rdi)
pop %rbx
pop %r12
pop %r14
pop %r13
pop %r15
ret
.global _cswap2_e
_cswap2_e:
;# Transfer bit into CF flag
add $18446744073709551615, %rdi
;# cswap p1[0], p2[0]
movq 0(%rsi), %r8
movq 0(%rdx), %r9
mov %r8, %r10
cmovc %r9, %r8
cmovc %r10, %r9
movq %r8, 0(%rsi)
movq %r9, 0(%rdx)
;# cswap p1[1], p2[1]
movq 8(%rsi), %r8
movq 8(%rdx), %r9
mov %r8, %r10
cmovc %r9, %r8
cmovc %r10, %r9
movq %r8, 8(%rsi)
movq %r9, 8(%rdx)
;# cswap p1[2], p2[2]
movq 16(%rsi), %r8
movq 16(%rdx), %r9
mov %r8, %r10
cmovc %r9, %r8
cmovc %r10, %r9
movq %r8, 16(%rsi)
movq %r9, 16(%rdx)
;# cswap p1[3], p2[3]
movq 24(%rsi), %r8
movq 24(%rdx), %r9
mov %r8, %r10
cmovc %r9, %r8
cmovc %r10, %r9
movq %r8, 24(%rsi)
movq %r9, 24(%rdx)
;# cswap p1[4], p2[4]
movq 32(%rsi), %r8
movq 32(%rdx), %r9
mov %r8, %r10
cmovc %r9, %r8
cmovc %r10, %r9
movq %r8, 32(%rsi)
movq %r9, 32(%rdx)
;# cswap p1[5], p2[5]
movq 40(%rsi), %r8
movq 40(%rdx), %r9
mov %r8, %r10
cmovc %r9, %r8
cmovc %r10, %r9
movq %r8, 40(%rsi)
movq %r9, 40(%rdx)
;# cswap p1[6], p2[6]
movq 48(%rsi), %r8
movq 48(%rdx), %r9
mov %r8, %r10
cmovc %r9, %r8
cmovc %r10, %r9
movq %r8, 48(%rsi)
movq %r9, 48(%rdx)
;# cswap p1[7], p2[7]
movq 56(%rsi), %r8
movq 56(%rdx), %r9
mov %r8, %r10
cmovc %r9, %r8
cmovc %r10, %r9
movq %r8, 56(%rsi)
movq %r9, 56(%rdx)
ret
|
usenix-security-verdict/verdict
| 199,564
|
deps/libcrux/sys/hacl/c/vale/src/aesgcm-x86_64-darwin.S
|
.text
.global _aes128_key_expansion
_aes128_key_expansion:
movdqu 0(%rdi), %xmm1
mov %rsi, %rdx
movdqu %xmm1, 0(%rdx)
aeskeygenassist $1, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 16(%rdx)
aeskeygenassist $2, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 32(%rdx)
aeskeygenassist $4, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 48(%rdx)
aeskeygenassist $8, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 64(%rdx)
aeskeygenassist $16, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 80(%rdx)
aeskeygenassist $32, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 96(%rdx)
aeskeygenassist $64, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 112(%rdx)
aeskeygenassist $128, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 128(%rdx)
aeskeygenassist $27, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 144(%rdx)
aeskeygenassist $54, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 160(%rdx)
pxor %xmm1, %xmm1
pxor %xmm2, %xmm2
pxor %xmm3, %xmm3
ret
.global _aes128_keyhash_init
_aes128_keyhash_init:
mov $579005069656919567, %r8
pinsrq $0, %r8, %xmm4
mov $283686952306183, %r8
pinsrq $1, %r8, %xmm4
pxor %xmm0, %xmm0
movdqu %xmm0, 80(%rsi)
mov %rdi, %r8
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pshufb %xmm4, %xmm0
mov %rsi, %rcx
movdqu %xmm0, 32(%rcx)
movdqu %xmm6, %xmm0
mov %r12, %rax
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 0(%rcx)
movdqu %xmm6, %xmm1
movdqu %xmm6, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 16(%rcx)
movdqu %xmm6, %xmm2
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 48(%rcx)
movdqu %xmm6, %xmm2
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 64(%rcx)
movdqu %xmm6, %xmm2
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 96(%rcx)
movdqu %xmm6, %xmm2
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 112(%rcx)
movdqu %xmm0, %xmm6
mov %rax, %r12
ret
.global _aes256_key_expansion
_aes256_key_expansion:
movdqu 0(%rdi), %xmm1
movdqu 16(%rdi), %xmm3
mov %rsi, %rdx
movdqu %xmm1, 0(%rdx)
movdqu %xmm3, 16(%rdx)
aeskeygenassist $1, %xmm3, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 32(%rdx)
aeskeygenassist $0, %xmm1, %xmm2
pshufd $170, %xmm2, %xmm2
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
pxor %xmm2, %xmm3
movdqu %xmm3, 48(%rdx)
aeskeygenassist $2, %xmm3, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 64(%rdx)
aeskeygenassist $0, %xmm1, %xmm2
pshufd $170, %xmm2, %xmm2
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
pxor %xmm2, %xmm3
movdqu %xmm3, 80(%rdx)
aeskeygenassist $4, %xmm3, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 96(%rdx)
aeskeygenassist $0, %xmm1, %xmm2
pshufd $170, %xmm2, %xmm2
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
pxor %xmm2, %xmm3
movdqu %xmm3, 112(%rdx)
aeskeygenassist $8, %xmm3, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 128(%rdx)
aeskeygenassist $0, %xmm1, %xmm2
pshufd $170, %xmm2, %xmm2
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
pxor %xmm2, %xmm3
movdqu %xmm3, 144(%rdx)
aeskeygenassist $16, %xmm3, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 160(%rdx)
aeskeygenassist $0, %xmm1, %xmm2
pshufd $170, %xmm2, %xmm2
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
pxor %xmm2, %xmm3
movdqu %xmm3, 176(%rdx)
aeskeygenassist $32, %xmm3, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 192(%rdx)
aeskeygenassist $0, %xmm1, %xmm2
pshufd $170, %xmm2, %xmm2
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
pxor %xmm2, %xmm3
movdqu %xmm3, 208(%rdx)
aeskeygenassist $64, %xmm3, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 224(%rdx)
pxor %xmm1, %xmm1
pxor %xmm2, %xmm2
pxor %xmm3, %xmm3
pxor %xmm4, %xmm4
ret
.global _aes256_keyhash_init
_aes256_keyhash_init:
mov $579005069656919567, %r8
pinsrq $0, %r8, %xmm4
mov $283686952306183, %r8
pinsrq $1, %r8, %xmm4
pxor %xmm0, %xmm0
movdqu %xmm0, 80(%rsi)
mov %rdi, %r8
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pshufb %xmm4, %xmm0
mov %rsi, %rcx
movdqu %xmm0, 32(%rcx)
movdqu %xmm6, %xmm0
mov %r12, %rax
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 0(%rcx)
movdqu %xmm6, %xmm1
movdqu %xmm6, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 16(%rcx)
movdqu %xmm6, %xmm2
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 48(%rcx)
movdqu %xmm6, %xmm2
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 64(%rcx)
movdqu %xmm6, %xmm2
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 96(%rcx)
movdqu %xmm6, %xmm2
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 112(%rcx)
movdqu %xmm0, %xmm6
mov %rax, %r12
ret
.global _gctr128_bytes
_gctr128_bytes:
push %r15
push %r14
push %r13
push %r12
push %rsi
push %rdi
push %rbp
push %rbx
movdqu 0(%r9), %xmm7
mov %rdi, %rax
mov %rdx, %rbx
mov %rcx, %r13
mov 72(%rsp), %rcx
mov %rcx, %rbp
imul $16, %rbp
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm8
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm8
mov %rcx, %rdx
shr $2, %rdx
and $3, %rcx
cmp $0, %rdx
jbe L0
mov %rax, %r9
mov %rbx, %r10
pshufb %xmm8, %xmm7
movdqu %xmm7, %xmm9
mov $579005069656919567, %rax
pinsrq $0, %rax, %xmm0
mov $579005069656919567, %rax
pinsrq $1, %rax, %xmm0
pshufb %xmm0, %xmm9
movdqu %xmm9, %xmm10
pxor %xmm3, %xmm3
mov $1, %rax
pinsrd $2, %eax, %xmm3
paddd %xmm3, %xmm9
mov $3, %rax
pinsrd $2, %eax, %xmm3
mov $2, %rax
pinsrd $0, %eax, %xmm3
paddd %xmm3, %xmm10
pshufb %xmm8, %xmm9
pshufb %xmm8, %xmm10
pextrq $0, %xmm7, %rdi
mov $283686952306183, %rax
pinsrq $0, %rax, %xmm0
mov $579005069656919567, %rax
pinsrq $1, %rax, %xmm0
pxor %xmm15, %xmm15
mov $4, %rax
pinsrd $0, %eax, %xmm15
mov $4, %rax
pinsrd $2, %eax, %xmm15
jmp L3
.balign 16
L2:
pinsrq $0, %rdi, %xmm2
pinsrq $0, %rdi, %xmm12
pinsrq $0, %rdi, %xmm13
pinsrq $0, %rdi, %xmm14
shufpd $2, %xmm9, %xmm2
shufpd $0, %xmm9, %xmm12
shufpd $2, %xmm10, %xmm13
shufpd $0, %xmm10, %xmm14
pshufb %xmm0, %xmm9
pshufb %xmm0, %xmm10
movdqu 0(%r8), %xmm3
movdqu 16(%r8), %xmm4
movdqu 32(%r8), %xmm5
movdqu 48(%r8), %xmm6
paddd %xmm15, %xmm9
paddd %xmm15, %xmm10
pxor %xmm3, %xmm2
pxor %xmm3, %xmm12
pxor %xmm3, %xmm13
pxor %xmm3, %xmm14
pshufb %xmm0, %xmm9
pshufb %xmm0, %xmm10
aesenc %xmm4, %xmm2
aesenc %xmm4, %xmm12
aesenc %xmm4, %xmm13
aesenc %xmm4, %xmm14
aesenc %xmm5, %xmm2
aesenc %xmm5, %xmm12
aesenc %xmm5, %xmm13
aesenc %xmm5, %xmm14
aesenc %xmm6, %xmm2
aesenc %xmm6, %xmm12
aesenc %xmm6, %xmm13
aesenc %xmm6, %xmm14
movdqu 64(%r8), %xmm3
movdqu 80(%r8), %xmm4
movdqu 96(%r8), %xmm5
movdqu 112(%r8), %xmm6
aesenc %xmm3, %xmm2
aesenc %xmm3, %xmm12
aesenc %xmm3, %xmm13
aesenc %xmm3, %xmm14
aesenc %xmm4, %xmm2
aesenc %xmm4, %xmm12
aesenc %xmm4, %xmm13
aesenc %xmm4, %xmm14
aesenc %xmm5, %xmm2
aesenc %xmm5, %xmm12
aesenc %xmm5, %xmm13
aesenc %xmm5, %xmm14
aesenc %xmm6, %xmm2
aesenc %xmm6, %xmm12
aesenc %xmm6, %xmm13
aesenc %xmm6, %xmm14
movdqu 128(%r8), %xmm3
movdqu 144(%r8), %xmm4
movdqu 160(%r8), %xmm5
aesenc %xmm3, %xmm2
aesenc %xmm3, %xmm12
aesenc %xmm3, %xmm13
aesenc %xmm3, %xmm14
aesenc %xmm4, %xmm2
aesenc %xmm4, %xmm12
aesenc %xmm4, %xmm13
aesenc %xmm4, %xmm14
aesenclast %xmm5, %xmm2
aesenclast %xmm5, %xmm12
aesenclast %xmm5, %xmm13
aesenclast %xmm5, %xmm14
movdqu 0(%r9), %xmm7
pxor %xmm7, %xmm2
movdqu 16(%r9), %xmm7
pxor %xmm7, %xmm12
movdqu 32(%r9), %xmm7
pxor %xmm7, %xmm13
movdqu 48(%r9), %xmm7
pxor %xmm7, %xmm14
movdqu %xmm2, 0(%r10)
movdqu %xmm12, 16(%r10)
movdqu %xmm13, 32(%r10)
movdqu %xmm14, 48(%r10)
sub $1, %rdx
add $64, %r9
add $64, %r10
.balign 16
L3:
cmp $0, %rdx
ja L2
movdqu %xmm9, %xmm7
pinsrq $0, %rdi, %xmm7
pshufb %xmm8, %xmm7
mov %r9, %rax
mov %r10, %rbx
jmp L1
L0:
L1:
mov $0, %rdx
mov %rax, %r9
mov %rbx, %r10
pxor %xmm4, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
jmp L5
.balign 16
L4:
movdqu %xmm7, %xmm0
pshufb %xmm8, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
movdqu 0(%r9), %xmm2
pxor %xmm0, %xmm2
movdqu %xmm2, 0(%r10)
add $1, %rdx
add $16, %r9
add $16, %r10
paddd %xmm4, %xmm7
.balign 16
L5:
cmp %rcx, %rdx
jne L4
cmp %rbp, %rsi
jbe L6
movdqu 0(%r13), %xmm1
movdqu %xmm7, %xmm0
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm2
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm2
pshufb %xmm2, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pxor %xmm0, %xmm1
movdqu %xmm1, 0(%r13)
jmp L7
L6:
L7:
pop %rbx
pop %rbp
pop %rdi
pop %rsi
pop %r12
pop %r13
pop %r14
pop %r15
ret
.global _gctr256_bytes
_gctr256_bytes:
push %r15
push %r14
push %r13
push %r12
push %rsi
push %rdi
push %rbp
push %rbx
movdqu 0(%r9), %xmm7
mov %rdi, %rax
mov %rdx, %rbx
mov %rcx, %r13
mov 72(%rsp), %rcx
mov %rcx, %rbp
imul $16, %rbp
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm8
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm8
mov %rcx, %rdx
shr $2, %rdx
and $3, %rcx
cmp $0, %rdx
jbe L8
mov %rax, %r9
mov %rbx, %r10
pshufb %xmm8, %xmm7
movdqu %xmm7, %xmm9
mov $579005069656919567, %rax
pinsrq $0, %rax, %xmm0
mov $579005069656919567, %rax
pinsrq $1, %rax, %xmm0
pshufb %xmm0, %xmm9
movdqu %xmm9, %xmm10
pxor %xmm3, %xmm3
mov $1, %rax
pinsrd $2, %eax, %xmm3
paddd %xmm3, %xmm9
mov $3, %rax
pinsrd $2, %eax, %xmm3
mov $2, %rax
pinsrd $0, %eax, %xmm3
paddd %xmm3, %xmm10
pshufb %xmm8, %xmm9
pshufb %xmm8, %xmm10
pextrq $0, %xmm7, %rdi
mov $283686952306183, %rax
pinsrq $0, %rax, %xmm0
mov $579005069656919567, %rax
pinsrq $1, %rax, %xmm0
pxor %xmm15, %xmm15
mov $4, %rax
pinsrd $0, %eax, %xmm15
mov $4, %rax
pinsrd $2, %eax, %xmm15
jmp L11
.balign 16
L10:
pinsrq $0, %rdi, %xmm2
pinsrq $0, %rdi, %xmm12
pinsrq $0, %rdi, %xmm13
pinsrq $0, %rdi, %xmm14
shufpd $2, %xmm9, %xmm2
shufpd $0, %xmm9, %xmm12
shufpd $2, %xmm10, %xmm13
shufpd $0, %xmm10, %xmm14
pshufb %xmm0, %xmm9
pshufb %xmm0, %xmm10
movdqu 0(%r8), %xmm3
movdqu 16(%r8), %xmm4
movdqu 32(%r8), %xmm5
movdqu 48(%r8), %xmm6
paddd %xmm15, %xmm9
paddd %xmm15, %xmm10
pxor %xmm3, %xmm2
pxor %xmm3, %xmm12
pxor %xmm3, %xmm13
pxor %xmm3, %xmm14
pshufb %xmm0, %xmm9
pshufb %xmm0, %xmm10
aesenc %xmm4, %xmm2
aesenc %xmm4, %xmm12
aesenc %xmm4, %xmm13
aesenc %xmm4, %xmm14
aesenc %xmm5, %xmm2
aesenc %xmm5, %xmm12
aesenc %xmm5, %xmm13
aesenc %xmm5, %xmm14
aesenc %xmm6, %xmm2
aesenc %xmm6, %xmm12
aesenc %xmm6, %xmm13
aesenc %xmm6, %xmm14
movdqu 64(%r8), %xmm3
movdqu 80(%r8), %xmm4
movdqu 96(%r8), %xmm5
movdqu 112(%r8), %xmm6
aesenc %xmm3, %xmm2
aesenc %xmm3, %xmm12
aesenc %xmm3, %xmm13
aesenc %xmm3, %xmm14
aesenc %xmm4, %xmm2
aesenc %xmm4, %xmm12
aesenc %xmm4, %xmm13
aesenc %xmm4, %xmm14
aesenc %xmm5, %xmm2
aesenc %xmm5, %xmm12
aesenc %xmm5, %xmm13
aesenc %xmm5, %xmm14
aesenc %xmm6, %xmm2
aesenc %xmm6, %xmm12
aesenc %xmm6, %xmm13
aesenc %xmm6, %xmm14
movdqu 128(%r8), %xmm3
movdqu 144(%r8), %xmm4
movdqu 160(%r8), %xmm5
aesenc %xmm3, %xmm2
aesenc %xmm3, %xmm12
aesenc %xmm3, %xmm13
aesenc %xmm3, %xmm14
aesenc %xmm4, %xmm2
aesenc %xmm4, %xmm12
aesenc %xmm4, %xmm13
aesenc %xmm4, %xmm14
movdqu %xmm5, %xmm3
movdqu 176(%r8), %xmm4
movdqu 192(%r8), %xmm5
movdqu 208(%r8), %xmm6
aesenc %xmm3, %xmm2
aesenc %xmm3, %xmm12
aesenc %xmm3, %xmm13
aesenc %xmm3, %xmm14
aesenc %xmm4, %xmm2
aesenc %xmm4, %xmm12
aesenc %xmm4, %xmm13
aesenc %xmm4, %xmm14
aesenc %xmm5, %xmm2
aesenc %xmm5, %xmm12
aesenc %xmm5, %xmm13
aesenc %xmm5, %xmm14
aesenc %xmm6, %xmm2
aesenc %xmm6, %xmm12
aesenc %xmm6, %xmm13
aesenc %xmm6, %xmm14
movdqu 224(%r8), %xmm5
aesenclast %xmm5, %xmm2
aesenclast %xmm5, %xmm12
aesenclast %xmm5, %xmm13
aesenclast %xmm5, %xmm14
movdqu 0(%r9), %xmm7
pxor %xmm7, %xmm2
movdqu 16(%r9), %xmm7
pxor %xmm7, %xmm12
movdqu 32(%r9), %xmm7
pxor %xmm7, %xmm13
movdqu 48(%r9), %xmm7
pxor %xmm7, %xmm14
movdqu %xmm2, 0(%r10)
movdqu %xmm12, 16(%r10)
movdqu %xmm13, 32(%r10)
movdqu %xmm14, 48(%r10)
sub $1, %rdx
add $64, %r9
add $64, %r10
.balign 16
L11:
cmp $0, %rdx
ja L10
movdqu %xmm9, %xmm7
pinsrq $0, %rdi, %xmm7
pshufb %xmm8, %xmm7
mov %r9, %rax
mov %r10, %rbx
jmp L9
L8:
L9:
mov $0, %rdx
mov %rax, %r9
mov %rbx, %r10
pxor %xmm4, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
jmp L13
.balign 16
L12:
movdqu %xmm7, %xmm0
pshufb %xmm8, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
movdqu 0(%r9), %xmm2
pxor %xmm0, %xmm2
movdqu %xmm2, 0(%r10)
add $1, %rdx
add $16, %r9
add $16, %r10
paddd %xmm4, %xmm7
.balign 16
L13:
cmp %rcx, %rdx
jne L12
cmp %rbp, %rsi
jbe L14
movdqu 0(%r13), %xmm1
movdqu %xmm7, %xmm0
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm2
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm2
pshufb %xmm2, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pxor %xmm0, %xmm1
movdqu %xmm1, 0(%r13)
jmp L15
L14:
L15:
pop %rbx
pop %rbp
pop %rdi
pop %rsi
pop %r12
pop %r13
pop %r14
pop %r15
ret
.global _compute_iv_stdcall
_compute_iv_stdcall:
cmp $12, %rsi
jne L16
cmp $12, %rsi
jne L18
movdqu 0(%r8), %xmm0
mov $579005069656919567, %rax
pinsrq $0, %rax, %xmm1
mov $283686952306183, %rax
pinsrq $1, %rax, %xmm1
pshufb %xmm1, %xmm0
mov $1, %rax
pinsrd $0, %eax, %xmm0
movdqu %xmm0, 0(%rcx)
jmp L19
L18:
mov %rcx, %rax
add $32, %r9
mov %r8, %rbx
mov %rdx, %rcx
imul $16, %rcx
mov $579005069656919567, %r10
pinsrq $0, %r10, %xmm9
mov $283686952306183, %r10
pinsrq $1, %r10, %xmm9
pxor %xmm8, %xmm8
mov %rdi, %r11
jmp L21
.balign 16
L20:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L21:
cmp $6, %rdx
jae L20
cmp $0, %rdx
jbe L22
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L24
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L25
L24:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L26
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L28
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L30
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L31
L30:
L31:
jmp L29
L28:
L29:
jmp L27
L26:
L27:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L25:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L23
L22:
L23:
mov %rsi, %r15
cmp %rcx, %rsi
jbe L32
movdqu 0(%rbx), %xmm0
mov %rsi, %r10
and $15, %r10
cmp $8, %r10
jae L34
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L35
L34:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L35:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L33
L32:
L33:
mov %rax, %rcx
mov $0, %r11
mov %rsi, %r13
pxor %xmm0, %xmm0
mov %r11, %rax
imul $8, %rax
pinsrq $1, %rax, %xmm0
mov %r13, %rax
imul $8, %rax
pinsrq $0, %rax, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
movdqu %xmm8, 0(%rcx)
L19:
jmp L17
L16:
push %r15
push %r14
push %r13
push %r12
push %rsi
push %rdi
push %rbp
push %rbx
cmp $12, %rsi
jne L36
movdqu 0(%r8), %xmm0
mov $579005069656919567, %rax
pinsrq $0, %rax, %xmm1
mov $283686952306183, %rax
pinsrq $1, %rax, %xmm1
pshufb %xmm1, %xmm0
mov $1, %rax
pinsrd $0, %eax, %xmm0
movdqu %xmm0, 0(%rcx)
jmp L37
L36:
mov %rcx, %rax
add $32, %r9
mov %r8, %rbx
mov %rdx, %rcx
imul $16, %rcx
mov $579005069656919567, %r10
pinsrq $0, %r10, %xmm9
mov $283686952306183, %r10
pinsrq $1, %r10, %xmm9
pxor %xmm8, %xmm8
mov %rdi, %r11
jmp L39
.balign 16
L38:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L39:
cmp $6, %rdx
jae L38
cmp $0, %rdx
jbe L40
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L42
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L43
L42:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L44
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L46
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L48
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L49
L48:
L49:
jmp L47
L46:
L47:
jmp L45
L44:
L45:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L43:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L41
L40:
L41:
mov %rsi, %r15
cmp %rcx, %rsi
jbe L50
movdqu 0(%rbx), %xmm0
mov %rsi, %r10
and $15, %r10
cmp $8, %r10
jae L52
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L53
L52:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L53:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L51
L50:
L51:
mov %rax, %rcx
mov $0, %r11
mov %rsi, %r13
pxor %xmm0, %xmm0
mov %r11, %rax
imul $8, %rax
pinsrq $1, %rax, %xmm0
mov %r13, %rax
imul $8, %rax
pinsrq $0, %rax, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
movdqu %xmm8, 0(%rcx)
L37:
pop %rbx
pop %rbp
pop %rdi
pop %rsi
pop %r12
pop %r13
pop %r14
pop %r15
L17:
ret
.global _gcm128_encrypt_opt
_gcm128_encrypt_opt:
push %r15
push %r14
push %r13
push %r12
push %rsi
push %rdi
push %rbp
push %rbx
mov 144(%rsp), %rbp
mov %rcx, %r13
lea 32(%r9), %r9
mov 72(%rsp), %rbx
mov %rdx, %rcx
imul $16, %rcx
mov $579005069656919567, %r10
pinsrq $0, %r10, %xmm9
mov $283686952306183, %r10
pinsrq $1, %r10, %xmm9
pxor %xmm8, %xmm8
mov %rdi, %r11
jmp L55
.balign 16
L54:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L55:
cmp $6, %rdx
jae L54
cmp $0, %rdx
jbe L56
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L58
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L59
L58:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L60
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L62
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L64
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L65
L64:
L65:
jmp L63
L62:
L63:
jmp L61
L60:
L61:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L59:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L57
L56:
L57:
mov %rsi, %r15
cmp %rcx, %rsi
jbe L66
movdqu 0(%rbx), %xmm0
mov %rsi, %r10
and $15, %r10
cmp $8, %r10
jae L68
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L69
L68:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L69:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L67
L66:
L67:
mov 80(%rsp), %rdi
mov 88(%rsp), %rsi
mov 96(%rsp), %rdx
mov %r13, %rcx
movdqu %xmm9, %xmm0
movdqu 0(%r8), %xmm1
movdqu %xmm1, 0(%rbp)
pxor %xmm10, %xmm10
mov $1, %r11
pinsrq $0, %r11, %xmm10
vpaddd %xmm10, %xmm1, %xmm1
cmp $0, %rdx
jne L70
vpshufb %xmm0, %xmm1, %xmm1
movdqu %xmm1, 32(%rbp)
jmp L71
L70:
movdqu %xmm8, 32(%rbp)
add $128, %rcx
pextrq $0, %xmm1, %rbx
and $255, %rbx
vpshufb %xmm0, %xmm1, %xmm1
lea 96(%rsi), %r14
movdqu -128(%rcx), %xmm4
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
movdqu -112(%rcx), %xmm15
mov %rcx, %r12
sub $96, %r12
vpxor %xmm4, %xmm1, %xmm9
add $6, %rbx
cmp $256, %rbx
jae L72
vpaddd %xmm2, %xmm1, %xmm10
vpaddd %xmm2, %xmm10, %xmm11
vpxor %xmm4, %xmm10, %xmm10
vpaddd %xmm2, %xmm11, %xmm12
vpxor %xmm4, %xmm11, %xmm11
vpaddd %xmm2, %xmm12, %xmm13
vpxor %xmm4, %xmm12, %xmm12
vpaddd %xmm2, %xmm13, %xmm14
vpxor %xmm4, %xmm13, %xmm13
vpaddd %xmm2, %xmm14, %xmm1
vpxor %xmm4, %xmm14, %xmm14
jmp L73
L72:
sub $256, %rbx
vpshufb %xmm0, %xmm1, %xmm6
pxor %xmm5, %xmm5
mov $1, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm10
pxor %xmm5, %xmm5
mov $2, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm11
vpaddd %xmm5, %xmm10, %xmm12
vpshufb %xmm0, %xmm10, %xmm10
vpaddd %xmm5, %xmm11, %xmm13
vpshufb %xmm0, %xmm11, %xmm11
vpxor %xmm4, %xmm10, %xmm10
vpaddd %xmm5, %xmm12, %xmm14
vpshufb %xmm0, %xmm12, %xmm12
vpxor %xmm4, %xmm11, %xmm11
vpaddd %xmm5, %xmm13, %xmm1
vpshufb %xmm0, %xmm13, %xmm13
vpxor %xmm4, %xmm12, %xmm12
vpshufb %xmm0, %xmm14, %xmm14
vpxor %xmm4, %xmm13, %xmm13
vpshufb %xmm0, %xmm1, %xmm1
vpxor %xmm4, %xmm14, %xmm14
L73:
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -96(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -80(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -64(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -48(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -32(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -16(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 0(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 16(%rcx), %xmm15
movdqu 32(%rcx), %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor 0(%rdi), %xmm3, %xmm4
vaesenc %xmm15, %xmm10, %xmm10
vpxor 16(%rdi), %xmm3, %xmm5
vaesenc %xmm15, %xmm11, %xmm11
vpxor 32(%rdi), %xmm3, %xmm6
vaesenc %xmm15, %xmm12, %xmm12
vpxor 48(%rdi), %xmm3, %xmm8
vaesenc %xmm15, %xmm13, %xmm13
vpxor 64(%rdi), %xmm3, %xmm2
vaesenc %xmm15, %xmm14, %xmm14
vpxor 80(%rdi), %xmm3, %xmm3
lea 96(%rdi), %rdi
vaesenclast %xmm4, %xmm9, %xmm9
vaesenclast %xmm5, %xmm10, %xmm10
vaesenclast %xmm6, %xmm11, %xmm11
vaesenclast %xmm8, %xmm12, %xmm12
vaesenclast %xmm2, %xmm13, %xmm13
vaesenclast %xmm3, %xmm14, %xmm14
movdqu %xmm9, 0(%rsi)
movdqu %xmm10, 16(%rsi)
movdqu %xmm11, 32(%rsi)
movdqu %xmm12, 48(%rsi)
movdqu %xmm13, 64(%rsi)
movdqu %xmm14, 80(%rsi)
lea 96(%rsi), %rsi
vpshufb %xmm0, %xmm9, %xmm8
vpshufb %xmm0, %xmm10, %xmm2
movdqu %xmm8, 112(%rbp)
vpshufb %xmm0, %xmm11, %xmm4
movdqu %xmm2, 96(%rbp)
vpshufb %xmm0, %xmm12, %xmm5
movdqu %xmm4, 80(%rbp)
vpshufb %xmm0, %xmm13, %xmm6
movdqu %xmm5, 64(%rbp)
vpshufb %xmm0, %xmm14, %xmm7
movdqu %xmm6, 48(%rbp)
movdqu -128(%rcx), %xmm4
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
movdqu -112(%rcx), %xmm15
mov %rcx, %r12
sub $96, %r12
vpxor %xmm4, %xmm1, %xmm9
add $6, %rbx
cmp $256, %rbx
jae L74
vpaddd %xmm2, %xmm1, %xmm10
vpaddd %xmm2, %xmm10, %xmm11
vpxor %xmm4, %xmm10, %xmm10
vpaddd %xmm2, %xmm11, %xmm12
vpxor %xmm4, %xmm11, %xmm11
vpaddd %xmm2, %xmm12, %xmm13
vpxor %xmm4, %xmm12, %xmm12
vpaddd %xmm2, %xmm13, %xmm14
vpxor %xmm4, %xmm13, %xmm13
vpaddd %xmm2, %xmm14, %xmm1
vpxor %xmm4, %xmm14, %xmm14
jmp L75
L74:
sub $256, %rbx
vpshufb %xmm0, %xmm1, %xmm6
pxor %xmm5, %xmm5
mov $1, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm10
pxor %xmm5, %xmm5
mov $2, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm11
vpaddd %xmm5, %xmm10, %xmm12
vpshufb %xmm0, %xmm10, %xmm10
vpaddd %xmm5, %xmm11, %xmm13
vpshufb %xmm0, %xmm11, %xmm11
vpxor %xmm4, %xmm10, %xmm10
vpaddd %xmm5, %xmm12, %xmm14
vpshufb %xmm0, %xmm12, %xmm12
vpxor %xmm4, %xmm11, %xmm11
vpaddd %xmm5, %xmm13, %xmm1
vpshufb %xmm0, %xmm13, %xmm13
vpxor %xmm4, %xmm12, %xmm12
vpshufb %xmm0, %xmm14, %xmm14
vpxor %xmm4, %xmm13, %xmm13
vpshufb %xmm0, %xmm1, %xmm1
vpxor %xmm4, %xmm14, %xmm14
L75:
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -96(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -80(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -64(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -48(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -32(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -16(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 0(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 16(%rcx), %xmm15
movdqu 32(%rcx), %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor 0(%rdi), %xmm3, %xmm4
vaesenc %xmm15, %xmm10, %xmm10
vpxor 16(%rdi), %xmm3, %xmm5
vaesenc %xmm15, %xmm11, %xmm11
vpxor 32(%rdi), %xmm3, %xmm6
vaesenc %xmm15, %xmm12, %xmm12
vpxor 48(%rdi), %xmm3, %xmm8
vaesenc %xmm15, %xmm13, %xmm13
vpxor 64(%rdi), %xmm3, %xmm2
vaesenc %xmm15, %xmm14, %xmm14
vpxor 80(%rdi), %xmm3, %xmm3
lea 96(%rdi), %rdi
vaesenclast %xmm4, %xmm9, %xmm9
vaesenclast %xmm5, %xmm10, %xmm10
vaesenclast %xmm6, %xmm11, %xmm11
vaesenclast %xmm8, %xmm12, %xmm12
vaesenclast %xmm2, %xmm13, %xmm13
vaesenclast %xmm3, %xmm14, %xmm14
movdqu %xmm9, 0(%rsi)
movdqu %xmm10, 16(%rsi)
movdqu %xmm11, 32(%rsi)
movdqu %xmm12, 48(%rsi)
movdqu %xmm13, 64(%rsi)
movdqu %xmm14, 80(%rsi)
lea 96(%rsi), %rsi
sub $12, %rdx
movdqu 32(%rbp), %xmm8
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
vpxor %xmm4, %xmm4, %xmm4
movdqu -128(%rcx), %xmm15
vpaddd %xmm2, %xmm1, %xmm10
vpaddd %xmm2, %xmm10, %xmm11
vpaddd %xmm2, %xmm11, %xmm12
vpaddd %xmm2, %xmm12, %xmm13
vpaddd %xmm2, %xmm13, %xmm14
vpxor %xmm15, %xmm1, %xmm9
movdqu %xmm4, 16(%rbp)
jmp L77
.balign 16
L76:
add $6, %rbx
cmp $256, %rbx
jb L78
mov $579005069656919567, %r11
pinsrq $0, %r11, %xmm0
mov $283686952306183, %r11
pinsrq $1, %r11, %xmm0
vpshufb %xmm0, %xmm1, %xmm6
pxor %xmm5, %xmm5
mov $1, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm10
pxor %xmm5, %xmm5
mov $2, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm11
movdqu -32(%r9), %xmm3
vpaddd %xmm5, %xmm10, %xmm12
vpshufb %xmm0, %xmm10, %xmm10
vpaddd %xmm5, %xmm11, %xmm13
vpshufb %xmm0, %xmm11, %xmm11
vpxor %xmm15, %xmm10, %xmm10
vpaddd %xmm5, %xmm12, %xmm14
vpshufb %xmm0, %xmm12, %xmm12
vpxor %xmm15, %xmm11, %xmm11
vpaddd %xmm5, %xmm13, %xmm1
vpshufb %xmm0, %xmm13, %xmm13
vpshufb %xmm0, %xmm14, %xmm14
vpshufb %xmm0, %xmm1, %xmm1
sub $256, %rbx
jmp L79
L78:
movdqu -32(%r9), %xmm3
vpaddd %xmm14, %xmm2, %xmm1
vpxor %xmm15, %xmm10, %xmm10
vpxor %xmm15, %xmm11, %xmm11
L79:
movdqu %xmm1, 128(%rbp)
vpclmulqdq $16, %xmm3, %xmm7, %xmm5
vpxor %xmm15, %xmm12, %xmm12
movdqu -112(%rcx), %xmm2
vpclmulqdq $1, %xmm3, %xmm7, %xmm6
vaesenc %xmm2, %xmm9, %xmm9
movdqu 48(%rbp), %xmm0
vpxor %xmm15, %xmm13, %xmm13
vpclmulqdq $0, %xmm3, %xmm7, %xmm1
vaesenc %xmm2, %xmm10, %xmm10
vpxor %xmm15, %xmm14, %xmm14
vpclmulqdq $17, %xmm3, %xmm7, %xmm7
vaesenc %xmm2, %xmm11, %xmm11
movdqu -16(%r9), %xmm3
vaesenc %xmm2, %xmm12, %xmm12
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpxor %xmm4, %xmm8, %xmm8
vaesenc %xmm2, %xmm13, %xmm13
vpxor %xmm5, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vaesenc %xmm2, %xmm14, %xmm14
movdqu -96(%rcx), %xmm15
vpclmulqdq $1, %xmm3, %xmm0, %xmm2
vaesenc %xmm15, %xmm9, %xmm9
vpxor 16(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
movdqu 64(%rbp), %xmm0
vaesenc %xmm15, %xmm10, %xmm10
movbeq 88(%r14), %r13
vaesenc %xmm15, %xmm11, %xmm11
movbeq 80(%r14), %r12
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 32(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 40(%rbp)
movdqu 16(%r9), %xmm5
vaesenc %xmm15, %xmm14, %xmm14
movdqu -80(%rcx), %xmm15
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vaesenc %xmm15, %xmm10, %xmm10
vpxor %xmm3, %xmm7, %xmm7
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vaesenc %xmm15, %xmm11, %xmm11
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 80(%rbp), %xmm0
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vaesenc %xmm15, %xmm14, %xmm14
movdqu -64(%rcx), %xmm15
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vaesenc %xmm15, %xmm10, %xmm10
movbeq 72(%r14), %r13
vpxor %xmm5, %xmm7, %xmm7
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vaesenc %xmm15, %xmm11, %xmm11
movbeq 64(%r14), %r12
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
movdqu 96(%rbp), %xmm0
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 48(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 56(%rbp)
vpxor %xmm2, %xmm4, %xmm4
movdqu 64(%r9), %xmm2
vaesenc %xmm15, %xmm14, %xmm14
movdqu -48(%rcx), %xmm15
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm0, %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm5
vaesenc %xmm15, %xmm10, %xmm10
movbeq 56(%r14), %r13
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor 112(%rbp), %xmm8, %xmm8
vaesenc %xmm15, %xmm11, %xmm11
movbeq 48(%r14), %r12
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 64(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 72(%rbp)
vpxor %xmm3, %xmm4, %xmm4
movdqu 80(%r9), %xmm3
vaesenc %xmm15, %xmm14, %xmm14
movdqu -32(%rcx), %xmm15
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm8, %xmm5
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm3, %xmm8, %xmm1
vaesenc %xmm15, %xmm10, %xmm10
movbeq 40(%r14), %r13
vpxor %xmm2, %xmm7, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm2
vaesenc %xmm15, %xmm11, %xmm11
movbeq 32(%r14), %r12
vpclmulqdq $17, %xmm3, %xmm8, %xmm8
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 80(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 88(%rbp)
vpxor %xmm5, %xmm6, %xmm6
vaesenc %xmm15, %xmm14, %xmm14
vpxor %xmm1, %xmm6, %xmm6
movdqu -16(%rcx), %xmm15
vpslldq $8, %xmm6, %xmm5
vpxor %xmm2, %xmm4, %xmm4
pxor %xmm3, %xmm3
mov $13979173243358019584, %r11
pinsrq $1, %r11, %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm8, %xmm7, %xmm7
vaesenc %xmm15, %xmm10, %xmm10
vpxor %xmm5, %xmm4, %xmm4
movbeq 24(%r14), %r13
vaesenc %xmm15, %xmm11, %xmm11
movbeq 16(%r14), %r12
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
movq %r13, 96(%rbp)
vaesenc %xmm15, %xmm12, %xmm12
movq %r12, 104(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 0(%rcx), %xmm1
vaesenc %xmm1, %xmm9, %xmm9
movdqu 16(%rcx), %xmm15
vaesenc %xmm1, %xmm10, %xmm10
vpsrldq $8, %xmm6, %xmm6
vaesenc %xmm1, %xmm11, %xmm11
vpxor %xmm6, %xmm7, %xmm7
vaesenc %xmm1, %xmm12, %xmm12
vpxor %xmm0, %xmm4, %xmm4
movbeq 8(%r14), %r13
vaesenc %xmm1, %xmm13, %xmm13
movbeq 0(%r14), %r12
vaesenc %xmm1, %xmm14, %xmm14
movdqu 32(%rcx), %xmm1
vaesenc %xmm15, %xmm9, %xmm9
movdqu %xmm7, 16(%rbp)
vpalignr $8, %xmm4, %xmm4, %xmm8
vaesenc %xmm15, %xmm10, %xmm10
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor 0(%rdi), %xmm1, %xmm2
vaesenc %xmm15, %xmm11, %xmm11
vpxor 16(%rdi), %xmm1, %xmm0
vaesenc %xmm15, %xmm12, %xmm12
vpxor 32(%rdi), %xmm1, %xmm5
vaesenc %xmm15, %xmm13, %xmm13
vpxor 48(%rdi), %xmm1, %xmm6
vaesenc %xmm15, %xmm14, %xmm14
vpxor 64(%rdi), %xmm1, %xmm7
vpxor 80(%rdi), %xmm1, %xmm3
movdqu 128(%rbp), %xmm1
vaesenclast %xmm2, %xmm9, %xmm9
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
vaesenclast %xmm0, %xmm10, %xmm10
vpaddd %xmm2, %xmm1, %xmm0
movq %r13, 112(%rbp)
lea 96(%rdi), %rdi
vaesenclast %xmm5, %xmm11, %xmm11
vpaddd %xmm2, %xmm0, %xmm5
movq %r12, 120(%rbp)
lea 96(%rsi), %rsi
movdqu -128(%rcx), %xmm15
vaesenclast %xmm6, %xmm12, %xmm12
vpaddd %xmm2, %xmm5, %xmm6
vaesenclast %xmm7, %xmm13, %xmm13
vpaddd %xmm2, %xmm6, %xmm7
vaesenclast %xmm3, %xmm14, %xmm14
vpaddd %xmm2, %xmm7, %xmm3
sub $6, %rdx
add $96, %r14
cmp $0, %rdx
jbe L80
movdqu %xmm9, -96(%rsi)
vpxor %xmm15, %xmm1, %xmm9
movdqu %xmm10, -80(%rsi)
movdqu %xmm0, %xmm10
movdqu %xmm11, -64(%rsi)
movdqu %xmm5, %xmm11
movdqu %xmm12, -48(%rsi)
movdqu %xmm6, %xmm12
movdqu %xmm13, -32(%rsi)
movdqu %xmm7, %xmm13
movdqu %xmm14, -16(%rsi)
movdqu %xmm3, %xmm14
movdqu 32(%rbp), %xmm7
jmp L81
L80:
vpxor 16(%rbp), %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
L81:
.balign 16
L77:
cmp $0, %rdx
ja L76
movdqu 32(%rbp), %xmm7
movdqu %xmm1, 32(%rbp)
pxor %xmm4, %xmm4
movdqu %xmm4, 16(%rbp)
movdqu -32(%r9), %xmm3
vpclmulqdq $0, %xmm3, %xmm7, %xmm1
vpclmulqdq $16, %xmm3, %xmm7, %xmm5
movdqu 48(%rbp), %xmm0
vpclmulqdq $1, %xmm3, %xmm7, %xmm6
vpclmulqdq $17, %xmm3, %xmm7, %xmm7
movdqu -16(%r9), %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpxor %xmm4, %xmm8, %xmm8
vpxor %xmm5, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vpclmulqdq $1, %xmm3, %xmm0, %xmm2
vpxor 16(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
movdqu 64(%rbp), %xmm0
movdqu 16(%r9), %xmm5
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpxor %xmm3, %xmm7, %xmm7
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 80(%rbp), %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vpxor %xmm5, %xmm7, %xmm7
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
movdqu 96(%rbp), %xmm0
vpxor %xmm2, %xmm4, %xmm4
movdqu 64(%r9), %xmm2
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm0, %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm5
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor 112(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vpxor %xmm3, %xmm4, %xmm4
movdqu 80(%r9), %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm8, %xmm5
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm3, %xmm8, %xmm1
vpxor %xmm2, %xmm7, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm2
vpclmulqdq $17, %xmm3, %xmm8, %xmm8
vpxor %xmm5, %xmm6, %xmm6
vpxor %xmm1, %xmm6, %xmm6
vpxor %xmm2, %xmm4, %xmm4
pxor %xmm3, %xmm3
mov $3254779904, %rax
pinsrd $3, %eax, %xmm3
vpxor %xmm8, %xmm7, %xmm7
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm0
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm0
movdqu %xmm9, -96(%rsi)
vpshufb %xmm0, %xmm9, %xmm9
vpxor %xmm7, %xmm1, %xmm1
movdqu %xmm10, -80(%rsi)
vpshufb %xmm0, %xmm10, %xmm10
movdqu %xmm11, -64(%rsi)
vpshufb %xmm0, %xmm11, %xmm11
movdqu %xmm12, -48(%rsi)
vpshufb %xmm0, %xmm12, %xmm12
movdqu %xmm13, -32(%rsi)
vpshufb %xmm0, %xmm13, %xmm13
movdqu %xmm14, -16(%rsi)
vpshufb %xmm0, %xmm14, %xmm14
pxor %xmm4, %xmm4
movdqu %xmm14, %xmm7
movdqu %xmm4, 16(%rbp)
movdqu %xmm13, 48(%rbp)
movdqu %xmm12, 64(%rbp)
movdqu %xmm11, 80(%rbp)
movdqu %xmm10, 96(%rbp)
movdqu %xmm9, 112(%rbp)
movdqu -32(%r9), %xmm3
vpclmulqdq $0, %xmm3, %xmm7, %xmm1
vpclmulqdq $16, %xmm3, %xmm7, %xmm5
movdqu 48(%rbp), %xmm0
vpclmulqdq $1, %xmm3, %xmm7, %xmm6
vpclmulqdq $17, %xmm3, %xmm7, %xmm7
movdqu -16(%r9), %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpxor %xmm4, %xmm8, %xmm8
vpxor %xmm5, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vpclmulqdq $1, %xmm3, %xmm0, %xmm2
vpxor 16(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
movdqu 64(%rbp), %xmm0
movdqu 16(%r9), %xmm5
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpxor %xmm3, %xmm7, %xmm7
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 80(%rbp), %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vpxor %xmm5, %xmm7, %xmm7
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
movdqu 96(%rbp), %xmm0
vpxor %xmm2, %xmm4, %xmm4
movdqu 64(%r9), %xmm2
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm0, %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm5
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor 112(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vpxor %xmm3, %xmm4, %xmm4
movdqu 80(%r9), %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm8, %xmm5
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm3, %xmm8, %xmm1
vpxor %xmm2, %xmm7, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm2
vpclmulqdq $17, %xmm3, %xmm8, %xmm8
vpxor %xmm5, %xmm6, %xmm6
vpxor %xmm1, %xmm6, %xmm6
vpxor %xmm2, %xmm4, %xmm4
pxor %xmm3, %xmm3
mov $3254779904, %rax
pinsrd $3, %eax, %xmm3
vpxor %xmm8, %xmm7, %xmm7
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
sub $128, %rcx
L71:
movdqu 32(%rbp), %xmm11
mov %rcx, %r8
mov 104(%rsp), %rax
mov 112(%rsp), %rdi
mov 120(%rsp), %rdx
mov %rdx, %r14
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm9
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm9
pshufb %xmm9, %xmm11
pxor %xmm10, %xmm10
mov $1, %rbx
pinsrd $0, %ebx, %xmm10
mov %rax, %r11
mov %rdi, %r10
mov $0, %rbx
jmp L83
.balign 16
L82:
movdqu %xmm11, %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
movdqu 0(%r11), %xmm2
pxor %xmm0, %xmm2
movdqu %xmm2, 0(%r10)
add $1, %rbx
add $16, %r11
add $16, %r10
paddd %xmm10, %xmm11
.balign 16
L83:
cmp %rdx, %rbx
jne L82
mov %rdi, %r11
jmp L85
.balign 16
L84:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L85:
cmp $6, %rdx
jae L84
cmp $0, %rdx
jbe L86
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L88
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L89
L88:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L90
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L92
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L94
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L95
L94:
L95:
jmp L93
L92:
L93:
jmp L91
L90:
L91:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L89:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L87
L86:
L87:
add 96(%rsp), %r14
imul $16, %r14
mov 136(%rsp), %r13
cmp %r14, %r13
jbe L96
mov 128(%rsp), %rax
mov %r13, %r10
and $15, %r10
movdqu %xmm11, %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
movdqu 0(%rax), %xmm4
pxor %xmm4, %xmm0
movdqu %xmm0, 0(%rax)
cmp $8, %r10
jae L98
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L99
L98:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L99:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L97
L96:
L97:
mov %r15, %r11
pxor %xmm0, %xmm0
mov %r11, %rax
imul $8, %rax
pinsrq $1, %rax, %xmm0
mov %r13, %rax
imul $8, %rax
pinsrq $0, %rax, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
movdqu 0(%rbp), %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pshufb %xmm9, %xmm8
pxor %xmm0, %xmm8
mov 152(%rsp), %r15
movdqu %xmm8, 0(%r15)
pop %rbx
pop %rbp
pop %rdi
pop %rsi
pop %r12
pop %r13
pop %r14
pop %r15
ret
.global _gcm256_encrypt_opt
_gcm256_encrypt_opt:
push %r15
push %r14
push %r13
push %r12
push %rsi
push %rdi
push %rbp
push %rbx
mov 144(%rsp), %rbp
mov %rcx, %r13
lea 32(%r9), %r9
mov 72(%rsp), %rbx
mov %rdx, %rcx
imul $16, %rcx
mov $579005069656919567, %r10
pinsrq $0, %r10, %xmm9
mov $283686952306183, %r10
pinsrq $1, %r10, %xmm9
pxor %xmm8, %xmm8
mov %rdi, %r11
jmp L101
.balign 16
L100:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L101:
cmp $6, %rdx
jae L100
cmp $0, %rdx
jbe L102
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L104
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L105
L104:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L106
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L108
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L110
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L111
L110:
L111:
jmp L109
L108:
L109:
jmp L107
L106:
L107:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L105:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L103
L102:
L103:
mov %rsi, %r15
cmp %rcx, %rsi
jbe L112
movdqu 0(%rbx), %xmm0
mov %rsi, %r10
and $15, %r10
cmp $8, %r10
jae L114
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L115
L114:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L115:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L113
L112:
L113:
mov 80(%rsp), %rdi
mov 88(%rsp), %rsi
mov 96(%rsp), %rdx
mov %r13, %rcx
movdqu %xmm9, %xmm0
movdqu 0(%r8), %xmm1
movdqu %xmm1, 0(%rbp)
pxor %xmm10, %xmm10
mov $1, %r11
pinsrq $0, %r11, %xmm10
vpaddd %xmm10, %xmm1, %xmm1
cmp $0, %rdx
jne L116
vpshufb %xmm0, %xmm1, %xmm1
movdqu %xmm1, 32(%rbp)
jmp L117
L116:
movdqu %xmm8, 32(%rbp)
add $128, %rcx
pextrq $0, %xmm1, %rbx
and $255, %rbx
vpshufb %xmm0, %xmm1, %xmm1
lea 96(%rsi), %r14
movdqu -128(%rcx), %xmm4
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
movdqu -112(%rcx), %xmm15
mov %rcx, %r12
sub $96, %r12
vpxor %xmm4, %xmm1, %xmm9
add $6, %rbx
cmp $256, %rbx
jae L118
vpaddd %xmm2, %xmm1, %xmm10
vpaddd %xmm2, %xmm10, %xmm11
vpxor %xmm4, %xmm10, %xmm10
vpaddd %xmm2, %xmm11, %xmm12
vpxor %xmm4, %xmm11, %xmm11
vpaddd %xmm2, %xmm12, %xmm13
vpxor %xmm4, %xmm12, %xmm12
vpaddd %xmm2, %xmm13, %xmm14
vpxor %xmm4, %xmm13, %xmm13
vpaddd %xmm2, %xmm14, %xmm1
vpxor %xmm4, %xmm14, %xmm14
jmp L119
L118:
sub $256, %rbx
vpshufb %xmm0, %xmm1, %xmm6
pxor %xmm5, %xmm5
mov $1, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm10
pxor %xmm5, %xmm5
mov $2, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm11
vpaddd %xmm5, %xmm10, %xmm12
vpshufb %xmm0, %xmm10, %xmm10
vpaddd %xmm5, %xmm11, %xmm13
vpshufb %xmm0, %xmm11, %xmm11
vpxor %xmm4, %xmm10, %xmm10
vpaddd %xmm5, %xmm12, %xmm14
vpshufb %xmm0, %xmm12, %xmm12
vpxor %xmm4, %xmm11, %xmm11
vpaddd %xmm5, %xmm13, %xmm1
vpshufb %xmm0, %xmm13, %xmm13
vpxor %xmm4, %xmm12, %xmm12
vpshufb %xmm0, %xmm14, %xmm14
vpxor %xmm4, %xmm13, %xmm13
vpshufb %xmm0, %xmm1, %xmm1
vpxor %xmm4, %xmm14, %xmm14
L119:
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -96(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -80(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -64(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -48(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -32(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -16(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 0(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 16(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 32(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 48(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 64(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 80(%rcx), %xmm15
movdqu 96(%rcx), %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor 0(%rdi), %xmm3, %xmm4
vaesenc %xmm15, %xmm10, %xmm10
vpxor 16(%rdi), %xmm3, %xmm5
vaesenc %xmm15, %xmm11, %xmm11
vpxor 32(%rdi), %xmm3, %xmm6
vaesenc %xmm15, %xmm12, %xmm12
vpxor 48(%rdi), %xmm3, %xmm8
vaesenc %xmm15, %xmm13, %xmm13
vpxor 64(%rdi), %xmm3, %xmm2
vaesenc %xmm15, %xmm14, %xmm14
vpxor 80(%rdi), %xmm3, %xmm3
lea 96(%rdi), %rdi
vaesenclast %xmm4, %xmm9, %xmm9
vaesenclast %xmm5, %xmm10, %xmm10
vaesenclast %xmm6, %xmm11, %xmm11
vaesenclast %xmm8, %xmm12, %xmm12
vaesenclast %xmm2, %xmm13, %xmm13
vaesenclast %xmm3, %xmm14, %xmm14
movdqu %xmm9, 0(%rsi)
movdqu %xmm10, 16(%rsi)
movdqu %xmm11, 32(%rsi)
movdqu %xmm12, 48(%rsi)
movdqu %xmm13, 64(%rsi)
movdqu %xmm14, 80(%rsi)
lea 96(%rsi), %rsi
vpshufb %xmm0, %xmm9, %xmm8
vpshufb %xmm0, %xmm10, %xmm2
movdqu %xmm8, 112(%rbp)
vpshufb %xmm0, %xmm11, %xmm4
movdqu %xmm2, 96(%rbp)
vpshufb %xmm0, %xmm12, %xmm5
movdqu %xmm4, 80(%rbp)
vpshufb %xmm0, %xmm13, %xmm6
movdqu %xmm5, 64(%rbp)
vpshufb %xmm0, %xmm14, %xmm7
movdqu %xmm6, 48(%rbp)
movdqu -128(%rcx), %xmm4
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
movdqu -112(%rcx), %xmm15
mov %rcx, %r12
sub $96, %r12
vpxor %xmm4, %xmm1, %xmm9
add $6, %rbx
cmp $256, %rbx
jae L120
vpaddd %xmm2, %xmm1, %xmm10
vpaddd %xmm2, %xmm10, %xmm11
vpxor %xmm4, %xmm10, %xmm10
vpaddd %xmm2, %xmm11, %xmm12
vpxor %xmm4, %xmm11, %xmm11
vpaddd %xmm2, %xmm12, %xmm13
vpxor %xmm4, %xmm12, %xmm12
vpaddd %xmm2, %xmm13, %xmm14
vpxor %xmm4, %xmm13, %xmm13
vpaddd %xmm2, %xmm14, %xmm1
vpxor %xmm4, %xmm14, %xmm14
jmp L121
L120:
sub $256, %rbx
vpshufb %xmm0, %xmm1, %xmm6
pxor %xmm5, %xmm5
mov $1, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm10
pxor %xmm5, %xmm5
mov $2, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm11
vpaddd %xmm5, %xmm10, %xmm12
vpshufb %xmm0, %xmm10, %xmm10
vpaddd %xmm5, %xmm11, %xmm13
vpshufb %xmm0, %xmm11, %xmm11
vpxor %xmm4, %xmm10, %xmm10
vpaddd %xmm5, %xmm12, %xmm14
vpshufb %xmm0, %xmm12, %xmm12
vpxor %xmm4, %xmm11, %xmm11
vpaddd %xmm5, %xmm13, %xmm1
vpshufb %xmm0, %xmm13, %xmm13
vpxor %xmm4, %xmm12, %xmm12
vpshufb %xmm0, %xmm14, %xmm14
vpxor %xmm4, %xmm13, %xmm13
vpshufb %xmm0, %xmm1, %xmm1
vpxor %xmm4, %xmm14, %xmm14
L121:
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -96(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -80(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -64(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -48(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -32(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -16(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 0(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 16(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 32(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 48(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 64(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 80(%rcx), %xmm15
movdqu 96(%rcx), %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor 0(%rdi), %xmm3, %xmm4
vaesenc %xmm15, %xmm10, %xmm10
vpxor 16(%rdi), %xmm3, %xmm5
vaesenc %xmm15, %xmm11, %xmm11
vpxor 32(%rdi), %xmm3, %xmm6
vaesenc %xmm15, %xmm12, %xmm12
vpxor 48(%rdi), %xmm3, %xmm8
vaesenc %xmm15, %xmm13, %xmm13
vpxor 64(%rdi), %xmm3, %xmm2
vaesenc %xmm15, %xmm14, %xmm14
vpxor 80(%rdi), %xmm3, %xmm3
lea 96(%rdi), %rdi
vaesenclast %xmm4, %xmm9, %xmm9
vaesenclast %xmm5, %xmm10, %xmm10
vaesenclast %xmm6, %xmm11, %xmm11
vaesenclast %xmm8, %xmm12, %xmm12
vaesenclast %xmm2, %xmm13, %xmm13
vaesenclast %xmm3, %xmm14, %xmm14
movdqu %xmm9, 0(%rsi)
movdqu %xmm10, 16(%rsi)
movdqu %xmm11, 32(%rsi)
movdqu %xmm12, 48(%rsi)
movdqu %xmm13, 64(%rsi)
movdqu %xmm14, 80(%rsi)
lea 96(%rsi), %rsi
sub $12, %rdx
movdqu 32(%rbp), %xmm8
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
vpxor %xmm4, %xmm4, %xmm4
movdqu -128(%rcx), %xmm15
vpaddd %xmm2, %xmm1, %xmm10
vpaddd %xmm2, %xmm10, %xmm11
vpaddd %xmm2, %xmm11, %xmm12
vpaddd %xmm2, %xmm12, %xmm13
vpaddd %xmm2, %xmm13, %xmm14
vpxor %xmm15, %xmm1, %xmm9
movdqu %xmm4, 16(%rbp)
jmp L123
.balign 16
L122:
add $6, %rbx
cmp $256, %rbx
jb L124
mov $579005069656919567, %r11
pinsrq $0, %r11, %xmm0
mov $283686952306183, %r11
pinsrq $1, %r11, %xmm0
vpshufb %xmm0, %xmm1, %xmm6
pxor %xmm5, %xmm5
mov $1, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm10
pxor %xmm5, %xmm5
mov $2, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm11
movdqu -32(%r9), %xmm3
vpaddd %xmm5, %xmm10, %xmm12
vpshufb %xmm0, %xmm10, %xmm10
vpaddd %xmm5, %xmm11, %xmm13
vpshufb %xmm0, %xmm11, %xmm11
vpxor %xmm15, %xmm10, %xmm10
vpaddd %xmm5, %xmm12, %xmm14
vpshufb %xmm0, %xmm12, %xmm12
vpxor %xmm15, %xmm11, %xmm11
vpaddd %xmm5, %xmm13, %xmm1
vpshufb %xmm0, %xmm13, %xmm13
vpshufb %xmm0, %xmm14, %xmm14
vpshufb %xmm0, %xmm1, %xmm1
sub $256, %rbx
jmp L125
L124:
movdqu -32(%r9), %xmm3
vpaddd %xmm14, %xmm2, %xmm1
vpxor %xmm15, %xmm10, %xmm10
vpxor %xmm15, %xmm11, %xmm11
L125:
movdqu %xmm1, 128(%rbp)
vpclmulqdq $16, %xmm3, %xmm7, %xmm5
vpxor %xmm15, %xmm12, %xmm12
movdqu -112(%rcx), %xmm2
vpclmulqdq $1, %xmm3, %xmm7, %xmm6
vaesenc %xmm2, %xmm9, %xmm9
movdqu 48(%rbp), %xmm0
vpxor %xmm15, %xmm13, %xmm13
vpclmulqdq $0, %xmm3, %xmm7, %xmm1
vaesenc %xmm2, %xmm10, %xmm10
vpxor %xmm15, %xmm14, %xmm14
vpclmulqdq $17, %xmm3, %xmm7, %xmm7
vaesenc %xmm2, %xmm11, %xmm11
movdqu -16(%r9), %xmm3
vaesenc %xmm2, %xmm12, %xmm12
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpxor %xmm4, %xmm8, %xmm8
vaesenc %xmm2, %xmm13, %xmm13
vpxor %xmm5, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vaesenc %xmm2, %xmm14, %xmm14
movdqu -96(%rcx), %xmm15
vpclmulqdq $1, %xmm3, %xmm0, %xmm2
vaesenc %xmm15, %xmm9, %xmm9
vpxor 16(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
movdqu 64(%rbp), %xmm0
vaesenc %xmm15, %xmm10, %xmm10
movbeq 88(%r14), %r13
vaesenc %xmm15, %xmm11, %xmm11
movbeq 80(%r14), %r12
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 32(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 40(%rbp)
movdqu 16(%r9), %xmm5
vaesenc %xmm15, %xmm14, %xmm14
movdqu -80(%rcx), %xmm15
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vaesenc %xmm15, %xmm10, %xmm10
vpxor %xmm3, %xmm7, %xmm7
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vaesenc %xmm15, %xmm11, %xmm11
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 80(%rbp), %xmm0
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vaesenc %xmm15, %xmm14, %xmm14
movdqu -64(%rcx), %xmm15
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vaesenc %xmm15, %xmm10, %xmm10
movbeq 72(%r14), %r13
vpxor %xmm5, %xmm7, %xmm7
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vaesenc %xmm15, %xmm11, %xmm11
movbeq 64(%r14), %r12
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
movdqu 96(%rbp), %xmm0
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 48(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 56(%rbp)
vpxor %xmm2, %xmm4, %xmm4
movdqu 64(%r9), %xmm2
vaesenc %xmm15, %xmm14, %xmm14
movdqu -48(%rcx), %xmm15
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm0, %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm5
vaesenc %xmm15, %xmm10, %xmm10
movbeq 56(%r14), %r13
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor 112(%rbp), %xmm8, %xmm8
vaesenc %xmm15, %xmm11, %xmm11
movbeq 48(%r14), %r12
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 64(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 72(%rbp)
vpxor %xmm3, %xmm4, %xmm4
movdqu 80(%r9), %xmm3
vaesenc %xmm15, %xmm14, %xmm14
movdqu -32(%rcx), %xmm15
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm8, %xmm5
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm3, %xmm8, %xmm1
vaesenc %xmm15, %xmm10, %xmm10
movbeq 40(%r14), %r13
vpxor %xmm2, %xmm7, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm2
vaesenc %xmm15, %xmm11, %xmm11
movbeq 32(%r14), %r12
vpclmulqdq $17, %xmm3, %xmm8, %xmm8
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 80(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 88(%rbp)
vpxor %xmm5, %xmm6, %xmm6
vaesenc %xmm15, %xmm14, %xmm14
vpxor %xmm1, %xmm6, %xmm6
movdqu -16(%rcx), %xmm15
vpslldq $8, %xmm6, %xmm5
vpxor %xmm2, %xmm4, %xmm4
pxor %xmm3, %xmm3
mov $13979173243358019584, %r11
pinsrq $1, %r11, %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm8, %xmm7, %xmm7
vaesenc %xmm15, %xmm10, %xmm10
vpxor %xmm5, %xmm4, %xmm4
movbeq 24(%r14), %r13
vaesenc %xmm15, %xmm11, %xmm11
movbeq 16(%r14), %r12
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
movq %r13, 96(%rbp)
vaesenc %xmm15, %xmm12, %xmm12
movq %r12, 104(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 0(%rcx), %xmm1
vaesenc %xmm1, %xmm9, %xmm9
movdqu 16(%rcx), %xmm15
vaesenc %xmm1, %xmm10, %xmm10
vpsrldq $8, %xmm6, %xmm6
vaesenc %xmm1, %xmm11, %xmm11
vpxor %xmm6, %xmm7, %xmm7
vaesenc %xmm1, %xmm12, %xmm12
vpxor %xmm0, %xmm4, %xmm4
movbeq 8(%r14), %r13
vaesenc %xmm1, %xmm13, %xmm13
movbeq 0(%r14), %r12
vaesenc %xmm1, %xmm14, %xmm14
movdqu 32(%rcx), %xmm1
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
vaesenc %xmm1, %xmm9, %xmm9
vaesenc %xmm1, %xmm10, %xmm10
vaesenc %xmm1, %xmm11, %xmm11
vaesenc %xmm1, %xmm12, %xmm12
vaesenc %xmm1, %xmm13, %xmm13
movdqu 48(%rcx), %xmm15
vaesenc %xmm1, %xmm14, %xmm14
movdqu 64(%rcx), %xmm1
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
vaesenc %xmm1, %xmm9, %xmm9
vaesenc %xmm1, %xmm10, %xmm10
vaesenc %xmm1, %xmm11, %xmm11
vaesenc %xmm1, %xmm12, %xmm12
vaesenc %xmm1, %xmm13, %xmm13
movdqu 80(%rcx), %xmm15
vaesenc %xmm1, %xmm14, %xmm14
movdqu 96(%rcx), %xmm1
vaesenc %xmm15, %xmm9, %xmm9
movdqu %xmm7, 16(%rbp)
vpalignr $8, %xmm4, %xmm4, %xmm8
vaesenc %xmm15, %xmm10, %xmm10
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor 0(%rdi), %xmm1, %xmm2
vaesenc %xmm15, %xmm11, %xmm11
vpxor 16(%rdi), %xmm1, %xmm0
vaesenc %xmm15, %xmm12, %xmm12
vpxor 32(%rdi), %xmm1, %xmm5
vaesenc %xmm15, %xmm13, %xmm13
vpxor 48(%rdi), %xmm1, %xmm6
vaesenc %xmm15, %xmm14, %xmm14
vpxor 64(%rdi), %xmm1, %xmm7
vpxor 80(%rdi), %xmm1, %xmm3
movdqu 128(%rbp), %xmm1
vaesenclast %xmm2, %xmm9, %xmm9
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
vaesenclast %xmm0, %xmm10, %xmm10
vpaddd %xmm2, %xmm1, %xmm0
movq %r13, 112(%rbp)
lea 96(%rdi), %rdi
vaesenclast %xmm5, %xmm11, %xmm11
vpaddd %xmm2, %xmm0, %xmm5
movq %r12, 120(%rbp)
lea 96(%rsi), %rsi
movdqu -128(%rcx), %xmm15
vaesenclast %xmm6, %xmm12, %xmm12
vpaddd %xmm2, %xmm5, %xmm6
vaesenclast %xmm7, %xmm13, %xmm13
vpaddd %xmm2, %xmm6, %xmm7
vaesenclast %xmm3, %xmm14, %xmm14
vpaddd %xmm2, %xmm7, %xmm3
sub $6, %rdx
add $96, %r14
cmp $0, %rdx
jbe L126
movdqu %xmm9, -96(%rsi)
vpxor %xmm15, %xmm1, %xmm9
movdqu %xmm10, -80(%rsi)
movdqu %xmm0, %xmm10
movdqu %xmm11, -64(%rsi)
movdqu %xmm5, %xmm11
movdqu %xmm12, -48(%rsi)
movdqu %xmm6, %xmm12
movdqu %xmm13, -32(%rsi)
movdqu %xmm7, %xmm13
movdqu %xmm14, -16(%rsi)
movdqu %xmm3, %xmm14
movdqu 32(%rbp), %xmm7
jmp L127
L126:
vpxor 16(%rbp), %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
L127:
.balign 16
L123:
cmp $0, %rdx
ja L122
movdqu 32(%rbp), %xmm7
movdqu %xmm1, 32(%rbp)
pxor %xmm4, %xmm4
movdqu %xmm4, 16(%rbp)
movdqu -32(%r9), %xmm3
vpclmulqdq $0, %xmm3, %xmm7, %xmm1
vpclmulqdq $16, %xmm3, %xmm7, %xmm5
movdqu 48(%rbp), %xmm0
vpclmulqdq $1, %xmm3, %xmm7, %xmm6
vpclmulqdq $17, %xmm3, %xmm7, %xmm7
movdqu -16(%r9), %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpxor %xmm4, %xmm8, %xmm8
vpxor %xmm5, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vpclmulqdq $1, %xmm3, %xmm0, %xmm2
vpxor 16(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
movdqu 64(%rbp), %xmm0
movdqu 16(%r9), %xmm5
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpxor %xmm3, %xmm7, %xmm7
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 80(%rbp), %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vpxor %xmm5, %xmm7, %xmm7
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
movdqu 96(%rbp), %xmm0
vpxor %xmm2, %xmm4, %xmm4
movdqu 64(%r9), %xmm2
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm0, %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm5
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor 112(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vpxor %xmm3, %xmm4, %xmm4
movdqu 80(%r9), %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm8, %xmm5
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm3, %xmm8, %xmm1
vpxor %xmm2, %xmm7, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm2
vpclmulqdq $17, %xmm3, %xmm8, %xmm8
vpxor %xmm5, %xmm6, %xmm6
vpxor %xmm1, %xmm6, %xmm6
vpxor %xmm2, %xmm4, %xmm4
pxor %xmm3, %xmm3
mov $3254779904, %rax
pinsrd $3, %eax, %xmm3
vpxor %xmm8, %xmm7, %xmm7
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm0
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm0
movdqu %xmm9, -96(%rsi)
vpshufb %xmm0, %xmm9, %xmm9
vpxor %xmm7, %xmm1, %xmm1
movdqu %xmm10, -80(%rsi)
vpshufb %xmm0, %xmm10, %xmm10
movdqu %xmm11, -64(%rsi)
vpshufb %xmm0, %xmm11, %xmm11
movdqu %xmm12, -48(%rsi)
vpshufb %xmm0, %xmm12, %xmm12
movdqu %xmm13, -32(%rsi)
vpshufb %xmm0, %xmm13, %xmm13
movdqu %xmm14, -16(%rsi)
vpshufb %xmm0, %xmm14, %xmm14
pxor %xmm4, %xmm4
movdqu %xmm14, %xmm7
movdqu %xmm4, 16(%rbp)
movdqu %xmm13, 48(%rbp)
movdqu %xmm12, 64(%rbp)
movdqu %xmm11, 80(%rbp)
movdqu %xmm10, 96(%rbp)
movdqu %xmm9, 112(%rbp)
movdqu -32(%r9), %xmm3
vpclmulqdq $0, %xmm3, %xmm7, %xmm1
vpclmulqdq $16, %xmm3, %xmm7, %xmm5
movdqu 48(%rbp), %xmm0
vpclmulqdq $1, %xmm3, %xmm7, %xmm6
vpclmulqdq $17, %xmm3, %xmm7, %xmm7
movdqu -16(%r9), %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpxor %xmm4, %xmm8, %xmm8
vpxor %xmm5, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vpclmulqdq $1, %xmm3, %xmm0, %xmm2
vpxor 16(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
movdqu 64(%rbp), %xmm0
movdqu 16(%r9), %xmm5
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpxor %xmm3, %xmm7, %xmm7
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 80(%rbp), %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vpxor %xmm5, %xmm7, %xmm7
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
movdqu 96(%rbp), %xmm0
vpxor %xmm2, %xmm4, %xmm4
movdqu 64(%r9), %xmm2
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm0, %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm5
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor 112(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vpxor %xmm3, %xmm4, %xmm4
movdqu 80(%r9), %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm8, %xmm5
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm3, %xmm8, %xmm1
vpxor %xmm2, %xmm7, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm2
vpclmulqdq $17, %xmm3, %xmm8, %xmm8
vpxor %xmm5, %xmm6, %xmm6
vpxor %xmm1, %xmm6, %xmm6
vpxor %xmm2, %xmm4, %xmm4
pxor %xmm3, %xmm3
mov $3254779904, %rax
pinsrd $3, %eax, %xmm3
vpxor %xmm8, %xmm7, %xmm7
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
sub $128, %rcx
L117:
movdqu 32(%rbp), %xmm11
mov %rcx, %r8
mov 104(%rsp), %rax
mov 112(%rsp), %rdi
mov 120(%rsp), %rdx
mov %rdx, %r14
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm9
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm9
pshufb %xmm9, %xmm11
pxor %xmm10, %xmm10
mov $1, %rbx
pinsrd $0, %ebx, %xmm10
mov %rax, %r11
mov %rdi, %r10
mov $0, %rbx
jmp L129
.balign 16
L128:
movdqu %xmm11, %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
movdqu 0(%r11), %xmm2
pxor %xmm0, %xmm2
movdqu %xmm2, 0(%r10)
add $1, %rbx
add $16, %r11
add $16, %r10
paddd %xmm10, %xmm11
.balign 16
L129:
cmp %rdx, %rbx
jne L128
mov %rdi, %r11
jmp L131
.balign 16
L130:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L131:
cmp $6, %rdx
jae L130
cmp $0, %rdx
jbe L132
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L134
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L135
L134:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L136
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L138
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L140
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L141
L140:
L141:
jmp L139
L138:
L139:
jmp L137
L136:
L137:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L135:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L133
L132:
L133:
add 96(%rsp), %r14
imul $16, %r14
mov 136(%rsp), %r13
cmp %r14, %r13
jbe L142
mov 128(%rsp), %rax
mov %r13, %r10
and $15, %r10
movdqu %xmm11, %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
movdqu 0(%rax), %xmm4
pxor %xmm4, %xmm0
movdqu %xmm0, 0(%rax)
cmp $8, %r10
jae L144
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L145
L144:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L145:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L143
L142:
L143:
mov %r15, %r11
pxor %xmm0, %xmm0
mov %r11, %rax
imul $8, %rax
pinsrq $1, %rax, %xmm0
mov %r13, %rax
imul $8, %rax
pinsrq $0, %rax, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
movdqu 0(%rbp), %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pshufb %xmm9, %xmm8
pxor %xmm0, %xmm8
mov 152(%rsp), %r15
movdqu %xmm8, 0(%r15)
pop %rbx
pop %rbp
pop %rdi
pop %rsi
pop %r12
pop %r13
pop %r14
pop %r15
ret
.global _gcm128_decrypt_opt
_gcm128_decrypt_opt:
push %r15
push %r14
push %r13
push %r12
push %rsi
push %rdi
push %rbp
push %rbx
mov 144(%rsp), %rbp
mov %rcx, %r13
lea 32(%r9), %r9
mov 72(%rsp), %rbx
mov %rdx, %rcx
imul $16, %rcx
mov $579005069656919567, %r10
pinsrq $0, %r10, %xmm9
mov $283686952306183, %r10
pinsrq $1, %r10, %xmm9
pxor %xmm8, %xmm8
mov %rdi, %r11
jmp L147
.balign 16
L146:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L147:
cmp $6, %rdx
jae L146
cmp $0, %rdx
jbe L148
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L150
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L151
L150:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L152
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L154
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L156
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L157
L156:
L157:
jmp L155
L154:
L155:
jmp L153
L152:
L153:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L151:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L149
L148:
L149:
mov %rsi, %r15
cmp %rcx, %rsi
jbe L158
movdqu 0(%rbx), %xmm0
mov %rsi, %r10
and $15, %r10
cmp $8, %r10
jae L160
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L161
L160:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L161:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L159
L158:
L159:
mov 80(%rsp), %rdi
mov 88(%rsp), %rsi
mov 96(%rsp), %rdx
mov %r13, %rcx
movdqu %xmm9, %xmm0
movdqu 0(%r8), %xmm1
movdqu %xmm1, 0(%rbp)
pxor %xmm10, %xmm10
mov $1, %r11
pinsrq $0, %r11, %xmm10
vpaddd %xmm10, %xmm1, %xmm1
cmp $0, %rdx
jne L162
vpshufb %xmm0, %xmm1, %xmm1
movdqu %xmm1, 32(%rbp)
jmp L163
L162:
movdqu %xmm8, 32(%rbp)
add $128, %rcx
pextrq $0, %xmm1, %rbx
and $255, %rbx
vpshufb %xmm0, %xmm1, %xmm1
lea 96(%rdi), %r14
movdqu 32(%rbp), %xmm8
movdqu 80(%rdi), %xmm7
movdqu 64(%rdi), %xmm4
movdqu 48(%rdi), %xmm5
movdqu 32(%rdi), %xmm6
vpshufb %xmm0, %xmm7, %xmm7
movdqu 16(%rdi), %xmm2
vpshufb %xmm0, %xmm4, %xmm4
movdqu 0(%rdi), %xmm3
vpshufb %xmm0, %xmm5, %xmm5
movdqu %xmm4, 48(%rbp)
vpshufb %xmm0, %xmm6, %xmm6
movdqu %xmm5, 64(%rbp)
vpshufb %xmm0, %xmm2, %xmm2
movdqu %xmm6, 80(%rbp)
vpshufb %xmm0, %xmm3, %xmm3
movdqu %xmm2, 96(%rbp)
movdqu %xmm3, 112(%rbp)
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
vpxor %xmm4, %xmm4, %xmm4
movdqu -128(%rcx), %xmm15
vpaddd %xmm2, %xmm1, %xmm10
vpaddd %xmm2, %xmm10, %xmm11
vpaddd %xmm2, %xmm11, %xmm12
vpaddd %xmm2, %xmm12, %xmm13
vpaddd %xmm2, %xmm13, %xmm14
vpxor %xmm15, %xmm1, %xmm9
movdqu %xmm4, 16(%rbp)
cmp $6, %rdx
jne L164
sub $96, %r14
jmp L165
L164:
L165:
jmp L167
.balign 16
L166:
add $6, %rbx
cmp $256, %rbx
jb L168
mov $579005069656919567, %r11
pinsrq $0, %r11, %xmm0
mov $283686952306183, %r11
pinsrq $1, %r11, %xmm0
vpshufb %xmm0, %xmm1, %xmm6
pxor %xmm5, %xmm5
mov $1, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm10
pxor %xmm5, %xmm5
mov $2, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm11
movdqu -32(%r9), %xmm3
vpaddd %xmm5, %xmm10, %xmm12
vpshufb %xmm0, %xmm10, %xmm10
vpaddd %xmm5, %xmm11, %xmm13
vpshufb %xmm0, %xmm11, %xmm11
vpxor %xmm15, %xmm10, %xmm10
vpaddd %xmm5, %xmm12, %xmm14
vpshufb %xmm0, %xmm12, %xmm12
vpxor %xmm15, %xmm11, %xmm11
vpaddd %xmm5, %xmm13, %xmm1
vpshufb %xmm0, %xmm13, %xmm13
vpshufb %xmm0, %xmm14, %xmm14
vpshufb %xmm0, %xmm1, %xmm1
sub $256, %rbx
jmp L169
L168:
movdqu -32(%r9), %xmm3
vpaddd %xmm14, %xmm2, %xmm1
vpxor %xmm15, %xmm10, %xmm10
vpxor %xmm15, %xmm11, %xmm11
L169:
movdqu %xmm1, 128(%rbp)
vpclmulqdq $16, %xmm3, %xmm7, %xmm5
vpxor %xmm15, %xmm12, %xmm12
movdqu -112(%rcx), %xmm2
vpclmulqdq $1, %xmm3, %xmm7, %xmm6
vaesenc %xmm2, %xmm9, %xmm9
movdqu 48(%rbp), %xmm0
vpxor %xmm15, %xmm13, %xmm13
vpclmulqdq $0, %xmm3, %xmm7, %xmm1
vaesenc %xmm2, %xmm10, %xmm10
vpxor %xmm15, %xmm14, %xmm14
vpclmulqdq $17, %xmm3, %xmm7, %xmm7
vaesenc %xmm2, %xmm11, %xmm11
movdqu -16(%r9), %xmm3
vaesenc %xmm2, %xmm12, %xmm12
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpxor %xmm4, %xmm8, %xmm8
vaesenc %xmm2, %xmm13, %xmm13
vpxor %xmm5, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vaesenc %xmm2, %xmm14, %xmm14
movdqu -96(%rcx), %xmm15
vpclmulqdq $1, %xmm3, %xmm0, %xmm2
vaesenc %xmm15, %xmm9, %xmm9
vpxor 16(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
movdqu 64(%rbp), %xmm0
vaesenc %xmm15, %xmm10, %xmm10
movbeq 88(%r14), %r13
vaesenc %xmm15, %xmm11, %xmm11
movbeq 80(%r14), %r12
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 32(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 40(%rbp)
movdqu 16(%r9), %xmm5
vaesenc %xmm15, %xmm14, %xmm14
movdqu -80(%rcx), %xmm15
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vaesenc %xmm15, %xmm10, %xmm10
vpxor %xmm3, %xmm7, %xmm7
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vaesenc %xmm15, %xmm11, %xmm11
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 80(%rbp), %xmm0
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vaesenc %xmm15, %xmm14, %xmm14
movdqu -64(%rcx), %xmm15
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vaesenc %xmm15, %xmm10, %xmm10
movbeq 72(%r14), %r13
vpxor %xmm5, %xmm7, %xmm7
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vaesenc %xmm15, %xmm11, %xmm11
movbeq 64(%r14), %r12
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
movdqu 96(%rbp), %xmm0
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 48(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 56(%rbp)
vpxor %xmm2, %xmm4, %xmm4
movdqu 64(%r9), %xmm2
vaesenc %xmm15, %xmm14, %xmm14
movdqu -48(%rcx), %xmm15
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm0, %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm5
vaesenc %xmm15, %xmm10, %xmm10
movbeq 56(%r14), %r13
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor 112(%rbp), %xmm8, %xmm8
vaesenc %xmm15, %xmm11, %xmm11
movbeq 48(%r14), %r12
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 64(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 72(%rbp)
vpxor %xmm3, %xmm4, %xmm4
movdqu 80(%r9), %xmm3
vaesenc %xmm15, %xmm14, %xmm14
movdqu -32(%rcx), %xmm15
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm8, %xmm5
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm3, %xmm8, %xmm1
vaesenc %xmm15, %xmm10, %xmm10
movbeq 40(%r14), %r13
vpxor %xmm2, %xmm7, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm2
vaesenc %xmm15, %xmm11, %xmm11
movbeq 32(%r14), %r12
vpclmulqdq $17, %xmm3, %xmm8, %xmm8
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 80(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 88(%rbp)
vpxor %xmm5, %xmm6, %xmm6
vaesenc %xmm15, %xmm14, %xmm14
vpxor %xmm1, %xmm6, %xmm6
movdqu -16(%rcx), %xmm15
vpslldq $8, %xmm6, %xmm5
vpxor %xmm2, %xmm4, %xmm4
pxor %xmm3, %xmm3
mov $13979173243358019584, %r11
pinsrq $1, %r11, %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm8, %xmm7, %xmm7
vaesenc %xmm15, %xmm10, %xmm10
vpxor %xmm5, %xmm4, %xmm4
movbeq 24(%r14), %r13
vaesenc %xmm15, %xmm11, %xmm11
movbeq 16(%r14), %r12
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
movq %r13, 96(%rbp)
vaesenc %xmm15, %xmm12, %xmm12
movq %r12, 104(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 0(%rcx), %xmm1
vaesenc %xmm1, %xmm9, %xmm9
movdqu 16(%rcx), %xmm15
vaesenc %xmm1, %xmm10, %xmm10
vpsrldq $8, %xmm6, %xmm6
vaesenc %xmm1, %xmm11, %xmm11
vpxor %xmm6, %xmm7, %xmm7
vaesenc %xmm1, %xmm12, %xmm12
vpxor %xmm0, %xmm4, %xmm4
movbeq 8(%r14), %r13
vaesenc %xmm1, %xmm13, %xmm13
movbeq 0(%r14), %r12
vaesenc %xmm1, %xmm14, %xmm14
movdqu 32(%rcx), %xmm1
vaesenc %xmm15, %xmm9, %xmm9
movdqu %xmm7, 16(%rbp)
vpalignr $8, %xmm4, %xmm4, %xmm8
vaesenc %xmm15, %xmm10, %xmm10
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor 0(%rdi), %xmm1, %xmm2
vaesenc %xmm15, %xmm11, %xmm11
vpxor 16(%rdi), %xmm1, %xmm0
vaesenc %xmm15, %xmm12, %xmm12
vpxor 32(%rdi), %xmm1, %xmm5
vaesenc %xmm15, %xmm13, %xmm13
vpxor 48(%rdi), %xmm1, %xmm6
vaesenc %xmm15, %xmm14, %xmm14
vpxor 64(%rdi), %xmm1, %xmm7
vpxor 80(%rdi), %xmm1, %xmm3
movdqu 128(%rbp), %xmm1
vaesenclast %xmm2, %xmm9, %xmm9
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
vaesenclast %xmm0, %xmm10, %xmm10
vpaddd %xmm2, %xmm1, %xmm0
movq %r13, 112(%rbp)
lea 96(%rdi), %rdi
vaesenclast %xmm5, %xmm11, %xmm11
vpaddd %xmm2, %xmm0, %xmm5
movq %r12, 120(%rbp)
lea 96(%rsi), %rsi
movdqu -128(%rcx), %xmm15
vaesenclast %xmm6, %xmm12, %xmm12
vpaddd %xmm2, %xmm5, %xmm6
vaesenclast %xmm7, %xmm13, %xmm13
vpaddd %xmm2, %xmm6, %xmm7
vaesenclast %xmm3, %xmm14, %xmm14
vpaddd %xmm2, %xmm7, %xmm3
sub $6, %rdx
cmp $6, %rdx
jbe L170
add $96, %r14
jmp L171
L170:
L171:
cmp $0, %rdx
jbe L172
movdqu %xmm9, -96(%rsi)
vpxor %xmm15, %xmm1, %xmm9
movdqu %xmm10, -80(%rsi)
movdqu %xmm0, %xmm10
movdqu %xmm11, -64(%rsi)
movdqu %xmm5, %xmm11
movdqu %xmm12, -48(%rsi)
movdqu %xmm6, %xmm12
movdqu %xmm13, -32(%rsi)
movdqu %xmm7, %xmm13
movdqu %xmm14, -16(%rsi)
movdqu %xmm3, %xmm14
movdqu 32(%rbp), %xmm7
jmp L173
L172:
vpxor 16(%rbp), %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
L173:
.balign 16
L167:
cmp $0, %rdx
ja L166
movdqu %xmm1, 32(%rbp)
movdqu %xmm9, -96(%rsi)
movdqu %xmm10, -80(%rsi)
movdqu %xmm11, -64(%rsi)
movdqu %xmm12, -48(%rsi)
movdqu %xmm13, -32(%rsi)
movdqu %xmm14, -16(%rsi)
sub $128, %rcx
L163:
movdqu 32(%rbp), %xmm11
mov %rcx, %r8
mov 104(%rsp), %rax
mov 112(%rsp), %rdi
mov 120(%rsp), %rdx
mov %rdx, %r14
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm9
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm9
pshufb %xmm9, %xmm11
mov %rdi, %rbx
mov %rdx, %r12
mov %rax, %rdi
mov %rdi, %r11
jmp L175
.balign 16
L174:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L175:
cmp $6, %rdx
jae L174
cmp $0, %rdx
jbe L176
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L178
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L179
L178:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L180
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L182
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L184
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L185
L184:
L185:
jmp L183
L182:
L183:
jmp L181
L180:
L181:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L179:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L177
L176:
L177:
mov %rbx, %rdi
mov %r12, %rdx
pxor %xmm10, %xmm10
mov $1, %rbx
pinsrd $0, %ebx, %xmm10
mov %rax, %r11
mov %rdi, %r10
mov $0, %rbx
jmp L187
.balign 16
L186:
movdqu %xmm11, %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
movdqu 0(%r11), %xmm2
pxor %xmm0, %xmm2
movdqu %xmm2, 0(%r10)
add $1, %rbx
add $16, %r11
add $16, %r10
paddd %xmm10, %xmm11
.balign 16
L187:
cmp %rdx, %rbx
jne L186
add 96(%rsp), %r14
imul $16, %r14
mov 136(%rsp), %r13
cmp %r14, %r13
jbe L188
mov 128(%rsp), %rax
mov %r13, %r10
and $15, %r10
movdqu 0(%rax), %xmm0
movdqu %xmm0, %xmm10
cmp $8, %r10
jae L190
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L191
L190:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L191:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
movdqu %xmm11, %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pxor %xmm0, %xmm10
movdqu %xmm10, 0(%rax)
jmp L189
L188:
L189:
mov %r15, %r11
pxor %xmm0, %xmm0
mov %r11, %rax
imul $8, %rax
pinsrq $1, %rax, %xmm0
mov %r13, %rax
imul $8, %rax
pinsrq $0, %rax, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
movdqu 0(%rbp), %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pshufb %xmm9, %xmm8
pxor %xmm0, %xmm8
mov 152(%rsp), %r15
movdqu 0(%r15), %xmm0
pcmpeqd %xmm8, %xmm0
pextrq $0, %xmm0, %rdx
sub $18446744073709551615, %rdx
mov $0, %rax
adc $0, %rax
pextrq $1, %xmm0, %rdx
sub $18446744073709551615, %rdx
mov $0, %rdx
adc $0, %rdx
add %rdx, %rax
mov %rax, %rcx
pop %rbx
pop %rbp
pop %rdi
pop %rsi
pop %r12
pop %r13
pop %r14
pop %r15
mov %rcx, %rax
ret
.global _gcm256_decrypt_opt
_gcm256_decrypt_opt:
push %r15
push %r14
push %r13
push %r12
push %rsi
push %rdi
push %rbp
push %rbx
mov 144(%rsp), %rbp
mov %rcx, %r13
lea 32(%r9), %r9
mov 72(%rsp), %rbx
mov %rdx, %rcx
imul $16, %rcx
mov $579005069656919567, %r10
pinsrq $0, %r10, %xmm9
mov $283686952306183, %r10
pinsrq $1, %r10, %xmm9
pxor %xmm8, %xmm8
mov %rdi, %r11
jmp L193
.balign 16
L192:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L193:
cmp $6, %rdx
jae L192
cmp $0, %rdx
jbe L194
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L196
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L197
L196:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L198
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L200
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L202
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L203
L202:
L203:
jmp L201
L200:
L201:
jmp L199
L198:
L199:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L197:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L195
L194:
L195:
mov %rsi, %r15
cmp %rcx, %rsi
jbe L204
movdqu 0(%rbx), %xmm0
mov %rsi, %r10
and $15, %r10
cmp $8, %r10
jae L206
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L207
L206:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L207:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L205
L204:
L205:
mov 80(%rsp), %rdi
mov 88(%rsp), %rsi
mov 96(%rsp), %rdx
mov %r13, %rcx
movdqu %xmm9, %xmm0
movdqu 0(%r8), %xmm1
movdqu %xmm1, 0(%rbp)
pxor %xmm10, %xmm10
mov $1, %r11
pinsrq $0, %r11, %xmm10
vpaddd %xmm10, %xmm1, %xmm1
cmp $0, %rdx
jne L208
vpshufb %xmm0, %xmm1, %xmm1
movdqu %xmm1, 32(%rbp)
jmp L209
L208:
movdqu %xmm8, 32(%rbp)
add $128, %rcx
pextrq $0, %xmm1, %rbx
and $255, %rbx
vpshufb %xmm0, %xmm1, %xmm1
lea 96(%rdi), %r14
movdqu 32(%rbp), %xmm8
movdqu 80(%rdi), %xmm7
movdqu 64(%rdi), %xmm4
movdqu 48(%rdi), %xmm5
movdqu 32(%rdi), %xmm6
vpshufb %xmm0, %xmm7, %xmm7
movdqu 16(%rdi), %xmm2
vpshufb %xmm0, %xmm4, %xmm4
movdqu 0(%rdi), %xmm3
vpshufb %xmm0, %xmm5, %xmm5
movdqu %xmm4, 48(%rbp)
vpshufb %xmm0, %xmm6, %xmm6
movdqu %xmm5, 64(%rbp)
vpshufb %xmm0, %xmm2, %xmm2
movdqu %xmm6, 80(%rbp)
vpshufb %xmm0, %xmm3, %xmm3
movdqu %xmm2, 96(%rbp)
movdqu %xmm3, 112(%rbp)
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
vpxor %xmm4, %xmm4, %xmm4
movdqu -128(%rcx), %xmm15
vpaddd %xmm2, %xmm1, %xmm10
vpaddd %xmm2, %xmm10, %xmm11
vpaddd %xmm2, %xmm11, %xmm12
vpaddd %xmm2, %xmm12, %xmm13
vpaddd %xmm2, %xmm13, %xmm14
vpxor %xmm15, %xmm1, %xmm9
movdqu %xmm4, 16(%rbp)
cmp $6, %rdx
jne L210
sub $96, %r14
jmp L211
L210:
L211:
jmp L213
.balign 16
L212:
add $6, %rbx
cmp $256, %rbx
jb L214
mov $579005069656919567, %r11
pinsrq $0, %r11, %xmm0
mov $283686952306183, %r11
pinsrq $1, %r11, %xmm0
vpshufb %xmm0, %xmm1, %xmm6
pxor %xmm5, %xmm5
mov $1, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm10
pxor %xmm5, %xmm5
mov $2, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm11
movdqu -32(%r9), %xmm3
vpaddd %xmm5, %xmm10, %xmm12
vpshufb %xmm0, %xmm10, %xmm10
vpaddd %xmm5, %xmm11, %xmm13
vpshufb %xmm0, %xmm11, %xmm11
vpxor %xmm15, %xmm10, %xmm10
vpaddd %xmm5, %xmm12, %xmm14
vpshufb %xmm0, %xmm12, %xmm12
vpxor %xmm15, %xmm11, %xmm11
vpaddd %xmm5, %xmm13, %xmm1
vpshufb %xmm0, %xmm13, %xmm13
vpshufb %xmm0, %xmm14, %xmm14
vpshufb %xmm0, %xmm1, %xmm1
sub $256, %rbx
jmp L215
L214:
movdqu -32(%r9), %xmm3
vpaddd %xmm14, %xmm2, %xmm1
vpxor %xmm15, %xmm10, %xmm10
vpxor %xmm15, %xmm11, %xmm11
L215:
movdqu %xmm1, 128(%rbp)
vpclmulqdq $16, %xmm3, %xmm7, %xmm5
vpxor %xmm15, %xmm12, %xmm12
movdqu -112(%rcx), %xmm2
vpclmulqdq $1, %xmm3, %xmm7, %xmm6
vaesenc %xmm2, %xmm9, %xmm9
movdqu 48(%rbp), %xmm0
vpxor %xmm15, %xmm13, %xmm13
vpclmulqdq $0, %xmm3, %xmm7, %xmm1
vaesenc %xmm2, %xmm10, %xmm10
vpxor %xmm15, %xmm14, %xmm14
vpclmulqdq $17, %xmm3, %xmm7, %xmm7
vaesenc %xmm2, %xmm11, %xmm11
movdqu -16(%r9), %xmm3
vaesenc %xmm2, %xmm12, %xmm12
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpxor %xmm4, %xmm8, %xmm8
vaesenc %xmm2, %xmm13, %xmm13
vpxor %xmm5, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vaesenc %xmm2, %xmm14, %xmm14
movdqu -96(%rcx), %xmm15
vpclmulqdq $1, %xmm3, %xmm0, %xmm2
vaesenc %xmm15, %xmm9, %xmm9
vpxor 16(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
movdqu 64(%rbp), %xmm0
vaesenc %xmm15, %xmm10, %xmm10
movbeq 88(%r14), %r13
vaesenc %xmm15, %xmm11, %xmm11
movbeq 80(%r14), %r12
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 32(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 40(%rbp)
movdqu 16(%r9), %xmm5
vaesenc %xmm15, %xmm14, %xmm14
movdqu -80(%rcx), %xmm15
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vaesenc %xmm15, %xmm10, %xmm10
vpxor %xmm3, %xmm7, %xmm7
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vaesenc %xmm15, %xmm11, %xmm11
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 80(%rbp), %xmm0
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vaesenc %xmm15, %xmm14, %xmm14
movdqu -64(%rcx), %xmm15
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vaesenc %xmm15, %xmm10, %xmm10
movbeq 72(%r14), %r13
vpxor %xmm5, %xmm7, %xmm7
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vaesenc %xmm15, %xmm11, %xmm11
movbeq 64(%r14), %r12
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
movdqu 96(%rbp), %xmm0
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 48(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 56(%rbp)
vpxor %xmm2, %xmm4, %xmm4
movdqu 64(%r9), %xmm2
vaesenc %xmm15, %xmm14, %xmm14
movdqu -48(%rcx), %xmm15
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm0, %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm5
vaesenc %xmm15, %xmm10, %xmm10
movbeq 56(%r14), %r13
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor 112(%rbp), %xmm8, %xmm8
vaesenc %xmm15, %xmm11, %xmm11
movbeq 48(%r14), %r12
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 64(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 72(%rbp)
vpxor %xmm3, %xmm4, %xmm4
movdqu 80(%r9), %xmm3
vaesenc %xmm15, %xmm14, %xmm14
movdqu -32(%rcx), %xmm15
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm8, %xmm5
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm3, %xmm8, %xmm1
vaesenc %xmm15, %xmm10, %xmm10
movbeq 40(%r14), %r13
vpxor %xmm2, %xmm7, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm2
vaesenc %xmm15, %xmm11, %xmm11
movbeq 32(%r14), %r12
vpclmulqdq $17, %xmm3, %xmm8, %xmm8
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 80(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 88(%rbp)
vpxor %xmm5, %xmm6, %xmm6
vaesenc %xmm15, %xmm14, %xmm14
vpxor %xmm1, %xmm6, %xmm6
movdqu -16(%rcx), %xmm15
vpslldq $8, %xmm6, %xmm5
vpxor %xmm2, %xmm4, %xmm4
pxor %xmm3, %xmm3
mov $13979173243358019584, %r11
pinsrq $1, %r11, %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm8, %xmm7, %xmm7
vaesenc %xmm15, %xmm10, %xmm10
vpxor %xmm5, %xmm4, %xmm4
movbeq 24(%r14), %r13
vaesenc %xmm15, %xmm11, %xmm11
movbeq 16(%r14), %r12
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
movq %r13, 96(%rbp)
vaesenc %xmm15, %xmm12, %xmm12
movq %r12, 104(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 0(%rcx), %xmm1
vaesenc %xmm1, %xmm9, %xmm9
movdqu 16(%rcx), %xmm15
vaesenc %xmm1, %xmm10, %xmm10
vpsrldq $8, %xmm6, %xmm6
vaesenc %xmm1, %xmm11, %xmm11
vpxor %xmm6, %xmm7, %xmm7
vaesenc %xmm1, %xmm12, %xmm12
vpxor %xmm0, %xmm4, %xmm4
movbeq 8(%r14), %r13
vaesenc %xmm1, %xmm13, %xmm13
movbeq 0(%r14), %r12
vaesenc %xmm1, %xmm14, %xmm14
movdqu 32(%rcx), %xmm1
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
vaesenc %xmm1, %xmm9, %xmm9
vaesenc %xmm1, %xmm10, %xmm10
vaesenc %xmm1, %xmm11, %xmm11
vaesenc %xmm1, %xmm12, %xmm12
vaesenc %xmm1, %xmm13, %xmm13
movdqu 48(%rcx), %xmm15
vaesenc %xmm1, %xmm14, %xmm14
movdqu 64(%rcx), %xmm1
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
vaesenc %xmm1, %xmm9, %xmm9
vaesenc %xmm1, %xmm10, %xmm10
vaesenc %xmm1, %xmm11, %xmm11
vaesenc %xmm1, %xmm12, %xmm12
vaesenc %xmm1, %xmm13, %xmm13
movdqu 80(%rcx), %xmm15
vaesenc %xmm1, %xmm14, %xmm14
movdqu 96(%rcx), %xmm1
vaesenc %xmm15, %xmm9, %xmm9
movdqu %xmm7, 16(%rbp)
vpalignr $8, %xmm4, %xmm4, %xmm8
vaesenc %xmm15, %xmm10, %xmm10
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor 0(%rdi), %xmm1, %xmm2
vaesenc %xmm15, %xmm11, %xmm11
vpxor 16(%rdi), %xmm1, %xmm0
vaesenc %xmm15, %xmm12, %xmm12
vpxor 32(%rdi), %xmm1, %xmm5
vaesenc %xmm15, %xmm13, %xmm13
vpxor 48(%rdi), %xmm1, %xmm6
vaesenc %xmm15, %xmm14, %xmm14
vpxor 64(%rdi), %xmm1, %xmm7
vpxor 80(%rdi), %xmm1, %xmm3
movdqu 128(%rbp), %xmm1
vaesenclast %xmm2, %xmm9, %xmm9
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
vaesenclast %xmm0, %xmm10, %xmm10
vpaddd %xmm2, %xmm1, %xmm0
movq %r13, 112(%rbp)
lea 96(%rdi), %rdi
vaesenclast %xmm5, %xmm11, %xmm11
vpaddd %xmm2, %xmm0, %xmm5
movq %r12, 120(%rbp)
lea 96(%rsi), %rsi
movdqu -128(%rcx), %xmm15
vaesenclast %xmm6, %xmm12, %xmm12
vpaddd %xmm2, %xmm5, %xmm6
vaesenclast %xmm7, %xmm13, %xmm13
vpaddd %xmm2, %xmm6, %xmm7
vaesenclast %xmm3, %xmm14, %xmm14
vpaddd %xmm2, %xmm7, %xmm3
sub $6, %rdx
cmp $6, %rdx
jbe L216
add $96, %r14
jmp L217
L216:
L217:
cmp $0, %rdx
jbe L218
movdqu %xmm9, -96(%rsi)
vpxor %xmm15, %xmm1, %xmm9
movdqu %xmm10, -80(%rsi)
movdqu %xmm0, %xmm10
movdqu %xmm11, -64(%rsi)
movdqu %xmm5, %xmm11
movdqu %xmm12, -48(%rsi)
movdqu %xmm6, %xmm12
movdqu %xmm13, -32(%rsi)
movdqu %xmm7, %xmm13
movdqu %xmm14, -16(%rsi)
movdqu %xmm3, %xmm14
movdqu 32(%rbp), %xmm7
jmp L219
L218:
vpxor 16(%rbp), %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
L219:
.balign 16
L213:
cmp $0, %rdx
ja L212
movdqu %xmm1, 32(%rbp)
movdqu %xmm9, -96(%rsi)
movdqu %xmm10, -80(%rsi)
movdqu %xmm11, -64(%rsi)
movdqu %xmm12, -48(%rsi)
movdqu %xmm13, -32(%rsi)
movdqu %xmm14, -16(%rsi)
sub $128, %rcx
L209:
movdqu 32(%rbp), %xmm11
mov %rcx, %r8
mov 104(%rsp), %rax
mov 112(%rsp), %rdi
mov 120(%rsp), %rdx
mov %rdx, %r14
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm9
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm9
pshufb %xmm9, %xmm11
mov %rdi, %rbx
mov %rdx, %r12
mov %rax, %rdi
mov %rdi, %r11
jmp L221
.balign 16
L220:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L221:
cmp $6, %rdx
jae L220
cmp $0, %rdx
jbe L222
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L224
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L225
L224:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L226
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L228
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L230
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L231
L230:
L231:
jmp L229
L228:
L229:
jmp L227
L226:
L227:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L225:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L223
L222:
L223:
mov %rbx, %rdi
mov %r12, %rdx
pxor %xmm10, %xmm10
mov $1, %rbx
pinsrd $0, %ebx, %xmm10
mov %rax, %r11
mov %rdi, %r10
mov $0, %rbx
jmp L233
.balign 16
L232:
movdqu %xmm11, %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
movdqu 0(%r11), %xmm2
pxor %xmm0, %xmm2
movdqu %xmm2, 0(%r10)
add $1, %rbx
add $16, %r11
add $16, %r10
paddd %xmm10, %xmm11
.balign 16
L233:
cmp %rdx, %rbx
jne L232
add 96(%rsp), %r14
imul $16, %r14
mov 136(%rsp), %r13
cmp %r14, %r13
jbe L234
mov 128(%rsp), %rax
mov %r13, %r10
and $15, %r10
movdqu 0(%rax), %xmm0
movdqu %xmm0, %xmm10
cmp $8, %r10
jae L236
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L237
L236:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L237:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
movdqu %xmm11, %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pxor %xmm0, %xmm10
movdqu %xmm10, 0(%rax)
jmp L235
L234:
L235:
mov %r15, %r11
pxor %xmm0, %xmm0
mov %r11, %rax
imul $8, %rax
pinsrq $1, %rax, %xmm0
mov %r13, %rax
imul $8, %rax
pinsrq $0, %rax, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
movdqu 0(%rbp), %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pshufb %xmm9, %xmm8
pxor %xmm0, %xmm8
mov 152(%rsp), %r15
movdqu 0(%r15), %xmm0
pcmpeqd %xmm8, %xmm0
pextrq $0, %xmm0, %rdx
sub $18446744073709551615, %rdx
mov $0, %rax
adc $0, %rax
pextrq $1, %xmm0, %rdx
sub $18446744073709551615, %rdx
mov $0, %rdx
adc $0, %rdx
add %rdx, %rax
mov %rax, %rcx
pop %rbx
pop %rbp
pop %rdi
pop %rsi
pop %r12
pop %r13
pop %r14
pop %r15
mov %rcx, %rax
ret
|
USTB-806/chaos-double-pagetable
| 1,688
|
os/src/trap/init_entry.S
|
.altmacro
.section .text
.globl __init_entry
.globl __user_entry
.align 2
__init_entry:
# a0: *TrapContext of initproc; a1: initproc token
# switch to user space
csrw satp, a1
sfence.vma
csrw sscratch, a0
mv sp, a0
# now sp points to TrapContext in user space, start restoring based on it
# restore sstatus/sepc
ld t0, 32*8(sp)
ld t1, 33*8(sp)
csrw sstatus, t0
csrw sepc, t1
# restore general purpose registers except x0/sp/tp
ld x1, 1*8(sp)
ld x3, 3*8(sp)
.set n, 5
.rept 27
LOAD_GP %n
.set n, n+1
.endr
# back to user stack
ld sp, 2*8(sp)
sret
__user_entry:
# a0: *TrapContext in user space(Constant); a1: user space token
# switch to user space
csrw satp, a1
sfence.vma
csrw sscratch, a0
mv sp, a0
# now sp points to TrapContext in user space, start restoring based on it
# restore sstatus/sepc
ld t0, 32*8(sp)
ld t1, 33*8(sp)
csrw sstatus, t0
csrw sepc, t1
# restore general purpose registers except x0/sp/tp
ld x1, 1*8(sp)
ld x3, 3*8(sp)
.set n, 5
.rept 27
LOAD_GP %n
.set n, n+1
.endr
# back to user stack
ld sp, 2*8(sp)
sret
__wait_return:
# a0: *TrapContext in user space(Constant); a1: user space token
# switch to user space
csrw satp, a1
sfence.vma
# csrw sscratch, a0
# mv sp, a0
# # now sp points to TrapContext in user space, start restoring based on it
# # restore general purpose registers except x0/sp/tp
# ld x3, 3*8(sp)
# .set n, 5
# .rept 27
# LOAD_GP %n
# .set n, n+1
# .endr
ret
|
USTB-806/chaos-double-pagetable
| 1,882
|
os/src/trap/trap.S
|
.altmacro
.macro SAVE_GP n
sd x\n, \n*8(sp)
.endm
.macro LOAD_GP n
ld x\n, \n*8(sp)
.endm
.section .text
.globl __alltraps
.globl __restore
.align 2
__alltraps:
csrrw sp, sscratch, sp
# now sp->*TrapContext in user space, sscratch->user stack
# save other general purpose registers
sd x1, 1*8(sp)
# skip sp(x2), we will save it later
sd x3, 3*8(sp)
# skip tp(x4), application does not use it
# save x5~x31
.set n, 5
.rept 27
SAVE_GP %n
.set n, n+1
.endr
# we can use t0/t1/t2 freely, because they have been saved in TrapContext
csrr t0, sstatus
csrr t1, sepc
sd t0, 32*8(sp)
sd t1, 33*8(sp)
# read user stack from sscratch and save it in TrapContext
csrr t2, sscratch
sd t2, 2*8(sp)
# load kernel_satp into t0
ld t0, 34*8(sp)
# load trap_handler into t1
ld t1, 36*8(sp)
# move to kernel_sp
ld sp, 35*8(sp)
# jump to trap_handler
jr t1
__restore:
# a0: *TrapContext in user space(Constant); a1: user space token
csrw sscratch, a0
mv sp, a0
# now sp points to TrapContext in user space, start restoring based on it
# restore sstatus/sepc
ld t0, 32*8(sp)
ld t1, 33*8(sp)
csrw sstatus, t0
csrw sepc, t1
# restore general purpose registers except x0/sp/tp
ld x1, 1*8(sp)
ld x3, 3*8(sp)
.set n, 5
.rept 27
LOAD_GP %n
.set n, n+1
.endr
# back to user stack
ld sp, 2*8(sp)
sret
.section .data
# emergency stack for kernel trap
# in order to print trap info even if the kernel stack is corrupted.
__emergency:
.align 4
.space 1024 * 4
__emergency_end:
.section .text
.globl __trap_from_kernel
# 2^2=4 bytes aligned for stvec
.align 2
__trap_from_kernel:
la sp, __emergency_end
j trap_from_kernel
|
USTB-806/chaos-double-pagetable
| 1,237
|
os/src/task/switch.S
|
.altmacro
.macro SAVE_SN n
sd s\n, (\n+2)*8(a0)
.endm
.macro LOAD_SN n
ld s\n, (\n+2)*8(a1)
.endm
.section .text
.globl __switch
.globl __schedule
__switch:
# __switch(
# current_task_cx_ptr: *mut TaskContext,
# next_task_cx_ptr: *const TaskContext
# )
# save kernel stack of current task
sd sp, 8(a0)
# save ra & s0~s11 of current execution
sd ra, 0(a0)
.set n, 0
.rept 12
SAVE_SN %n
.set n, n + 1
.endr
# restore ra & s0~s11 of next execution
ld ra, 0(a1)
.set n, 0
.rept 12
LOAD_SN %n
.set n, n + 1
.endr
# restore kernel stack of next task
ld sp, 8(a1)
ret
__schedule:
# __schedule(
# current_task_cx_ptr: *mut TaskContext,
# next_task_cx_ptr: *const TaskContext
# )
# save kernel stack of current task
sd sp, 8(a0)
# save ra & s0~s11 of current execution
sd ra, 0(a0)
.set n, 0
.rept 12
SAVE_SN %n
.set n, n + 1
.endr
# restore ra & s0~s11 of next execution
ld ra, 0(a1)
.set n, 0
.rept 12
LOAD_SN %n
.set n, n + 1
.endr
# restore kernel stack of next task
ld sp, 8(a1)
ret
|
UNIX-73/baremetal_v3
| 1,696
|
src_asm/boot.S
|
/* SPDX-License-Identifier: MIT OR Apache-2.0
*
* Bootloader simplificado:
* - Inicializa la BSS (pone a cero el segmento .bss).
* - Configura el puntero de pila.
* - Salta a la entrada de Rust (_start_rust) en EL1.
*/
/* Macro para cargar una dirección de un símbolo de forma PC-relativa */
.macro ADR_REL reg, sym
adrp \reg, \sym
add \reg, \reg, #:lo12:\sym
.endm
.section .text._start
.global _start
_start:
/* Inicialización de la BSS */
ADR_REL x0, __bss_start /* Dirección de inicio de .bss */
ADR_REL x1, __bss_end_exclusive /* Dirección final de .bss */
.L_bss_init_loop:
cmp x0, x1
beq .L_prepare_rust /* Si se ha recorrido toda la BSS, saltar */
stp xzr, xzr, [x0], #16 /* Escribe 0 en dos registros de 64 bits y avanza 16 bytes */
b .L_bss_init_loop
.L_prepare_rust:
/* Configurar el puntero de pila para EL1 */
ADR_REL x0, __boot_core_stack_end_exclusive /* Carga la dirección final de la pila */
mov sp, x0 /* Usar la pila actual para la fase de boot */
msr SP_EL1, x0 /* Establecer SP_EL1 para EL1 */
/* Configurar SPSR_EL2 para regresar a EL1 en modo AArch64 con SP_EL1 (EL1h)
y con interrupciones enmascaradas (por ejemplo, con valor 0x3c5) */
mov x0, #0x3c5
msr SPSR_EL2, x0
/* Configurar HCR_EL2 para que EL1 se ejecute en AArch64 */
mov x0, #(1 << 31) /* Establece RW=1 */
msr HCR_EL2, x0
/* Configurar ELR_EL2 con la dirección de entrada en EL1 (switch_to_el1) */
ADR_REL x0, switch_to_el1
msr ELR_EL2, x0
/* Realiza la transición a EL1: eret usará SPSR_EL2 y ELR_EL2 para cambiar a EL1 */
eret
.size _start, . - _start
|
UNIX-73/baremetal_v3
| 3,340
|
src_asm/irq/entry.S
|
#include "entry.h"
//D13.2.137
.globl irq_init_vectors
irq_init_vectors:
adr x0, vectors
msr vbar_el1, x0
ret
//C5.2.2
.globl irq_enable
irq_enable:
msr daifclr, #2
ret
.globl irq_disable
irq_disable:
msr daifset, #2
ret
.macro kernel_entry
sub sp, sp, #S_FRAME_SIZE
stp x0, x1, [sp, #16 * 0]
stp x2, x3, [sp, #16 * 1]
stp x4, x5, [sp, #16 * 2]
stp x6, x7, [sp, #16 * 3]
stp x8, x9, [sp, #16 * 4]
stp x10, x11, [sp, #16 * 5]
stp x12, x13, [sp, #16 * 6]
stp x14, x15, [sp, #16 * 7]
stp x16, x17, [sp, #16 * 8]
stp x18, x19, [sp, #16 * 9]
stp x20, x21, [sp, #16 * 10]
stp x22, x23, [sp, #16 * 11]
stp x24, x25, [sp, #16 * 12]
stp x26, x27, [sp, #16 * 13]
stp x28, x29, [sp, #16 * 14]
str x30, [sp, #16 * 15]
.endm
.macro kernel_exit
ldp x0, x1, [sp, #16 * 0]
ldp x2, x3, [sp, #16 * 1]
ldp x4, x5, [sp, #16 * 2]
ldp x6, x7, [sp, #16 * 3]
ldp x8, x9, [sp, #16 * 4]
ldp x10, x11, [sp, #16 * 5]
ldp x12, x13, [sp, #16 * 6]
ldp x14, x15, [sp, #16 * 7]
ldp x16, x17, [sp, #16 * 8]
ldp x18, x19, [sp, #16 * 9]
ldp x20, x21, [sp, #16 * 10]
ldp x22, x23, [sp, #16 * 11]
ldp x24, x25, [sp, #16 * 12]
ldp x26, x27, [sp, #16 * 13]
ldp x28, x29, [sp, #16 * 14]
ldr x30, [sp, #16 * 15]
add sp, sp, #S_FRAME_SIZE
eret
.endm
.macro handle_invalid_entry type
kernel_entry
mov x0, #\type
mrs x1, esr_el1
mrs x2, elr_el1
bl show_invalid_entry_message
b err_hang
.endm
.macro ventry label
.align 7
b \label
.endm
//Exception vectors table
.align 11
.globl vectors
vectors:
ventry sync_invalid_el1t // Synchronous EL1t
ventry irq_invalid_el1t // IRQ EL1t
ventry fiq_invalid_el1t // FIQ EL1t
ventry error_invalid_el1t // Error EL1t
ventry sync_invalid_el1h // Synchronous EL1h
ventry handle_el1_irq // IRQ EL1h
ventry fiq_invalid_el1h // FIQ EL1h
ventry error_invalid_el1h // Error EL1h
ventry sync_invalid_el0_64 // Synchronous 64-bit EL0
ventry irq_invalid_el0_64 // IRQ 64-bit EL0
ventry fiq_invalid_el0_64 // FIQ 64-bit EL0
ventry error_invalid_el0_64 // Error 64-bit EL0
ventry sync_invalid_el0_32 // Synchronous 32-bit EL0
ventry irq_invalid_el0_32 // IRQ 32-bit EL0
ventry fiq_invalid_el0_32 // FIQ 32-bit EL0
ventry error_invalid_el0_32 // Error 32-bit EL0
sync_invalid_el1t:
handle_invalid_entry SYNC_INVALID_EL1t
irq_invalid_el1t:
handle_invalid_entry IRQ_INVALID_EL1t
fiq_invalid_el1t:
handle_invalid_entry FIQ_INVALID_EL1t
error_invalid_el1t:
handle_invalid_entry ERROR_INVALID_EL1t
sync_invalid_el1h:
handle_invalid_entry SYNC_INVALID_EL1h
fiq_invalid_el1h:
handle_invalid_entry FIQ_INVALID_EL1h
error_invalid_el1h:
handle_invalid_entry ERROR_INVALID_EL1h
sync_invalid_el0_64:
handle_invalid_entry SYNC_INVALID_EL0_64
irq_invalid_el0_64:
handle_invalid_entry IRQ_INVALID_EL0_64
fiq_invalid_el0_64:
handle_invalid_entry FIQ_INVALID_EL0_64
error_invalid_el0_64:
handle_invalid_entry ERROR_INVALID_EL0_64
sync_invalid_el0_32:
handle_invalid_entry SYNC_INVALID_EL0_32
irq_invalid_el0_32:
handle_invalid_entry IRQ_INVALID_EL0_32
fiq_invalid_el0_32:
handle_invalid_entry FIQ_INVALID_EL0_32
error_invalid_el0_32:
handle_invalid_entry ERROR_INVALID_EL0_32
handle_el1_irq:
kernel_entry
bl handle_irq
kernel_exit
.globl err_hang
err_hang: b err_hang
|
UnpluggedAOSP12/bootable_libbootloader
| 9,565
|
gbl/efi/arch/riscv64/riscv64_efi_header.S
|
/*
* Copyright (C) 2023 The Android Open Source Project
*
* Licensed under the Apache License, Version 2.0 (the "License");
* you may not use this file except in compliance with the License.
* You may obtain a copy of the License at
*
* http://www.apache.org/licenses/LICENSE-2.0
*
* Unless required by applicable law or agreed to in writing, software
* distributed under the License is distributed on an "AS IS" BASIS,
* WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
* See the License for the specific language governing permissions and
* limitations under the License.
*/
// Refer to https://llvm.org/doxygen/Object_2COFF_8h_source.html and Microsoft Portable Executable
// and Common Object File Format Specification for more detail.
// See https://learn.microsoft.com/en-us/windows/win32/debug/pe-format#machine-types
#define IMAGE_FILE_MACHINE_RISCV64 0x5064
// See https://learn.microsoft.com/en-us/windows/win32/debug/pe-format#characteristics
#define IMAGE_FILE_EXECUTABLE_IMAGE 0x0002
// See https://learn.microsoft.com/en-us/windows/win32/debug/pe-format#optional-header-image-only
#define PE32_PLUS_HEADER_MAGIC 0x020b
// See https://learn.microsoft.com/en-us/windows/win32/debug/pe-format#windows-subsystem
#define IMAGE_SUBSYSTEM_EFI_APPLICATION 10
.macro DATA_DIRECTORY name
\name\()_data_directory:
.long 0 // support::ulittle32_t RelativeVirtualAddress;
.long 0 // support::ulittle32_t Size;
.endm
.section .efi_header,"a"
.global dos_header
// MS-DOS Stub
dos_header:
.short 0x5a4d // Magic 'MZ'
.short 0 // support::ulittle16_t UsedBytesInTheLastPage;
.short 0 // support::ulittle16_t FileSizeInPages;
.short 0 // support::ulittle16_t NumberOfRelocationItems;
.short 0 // support::ulittle16_t HeaderSizeInParagraphs;
.short 0 // support::ulittle16_t MinimumExtraParagraphs;
.short 0 // support::ulittle16_t MaximumExtraParagraphs;
.short 0 // support::ulittle16_t InitialRelativeSS;
.short 0 // support::ulittle16_t InitialSP;
.short 0 // support::ulittle16_t Checksum;
.short 0 // support::ulittle16_t InitialIP;
.short 0 // support::ulittle16_t InitialRelativeCS;
.short 0 // support::ulittle16_t AddressOfRelocationTable;
.short 0 // support::ulittle16_t OverlayNumber;
.skip 2*4 // support::ulittle16_t Reserved[4];
.short 0 // support::ulittle16_t OEMid;
.short 0 // support::ulittle16_t OEMinfo;
.skip 2*10 // support::ulittle16_t Reserved2[10];
// Even though we fixed `dos_header` at 0x00, we still need to subtract it to
// indicate this is relative offset. Otherwise linker complains about referencing
// an absolute address when linking with `-fPIE` (position independent executable)
.long signature - dos_header // support::ulittle32_t AddressOfNewExeHeader;
// Signature
signature:
.long 0x00004550 // "PE\0\0"
// COFF File Header
coff_file_header:
.short IMAGE_FILE_MACHINE_RISCV64 // support::ulittle16_t Machine;
// ".reloc" and ".text"
.short 2 // support::ulittle16_t NumberOfSections;
.long 0 // support::ulittle32_t TimeDateStamp;
.long 0 // support::ulittle32_t PointerToSymbolTable;
.long 0 // support::ulittle32_t NumberOfSymbols;
.short section_table_start - pe32plus_header // support::ulittle16_t SizeOfOptionalHeader;
.short IMAGE_FILE_EXECUTABLE_IMAGE // support::ulittle16_t Characteristics;
// PE32+ Optional Header
pe32plus_header:
.short PE32_PLUS_HEADER_MAGIC // support::ulittle16_t Magic;
.byte 0 // uint8_t MajorLinkerVersion;
.byte 0 // uint8_t MinorLinkerVersion;
.long _end - dos_header // support::ulittle32_t SizeOfCode;
.long 0 // support::ulittle32_t SizeOfInitializedData;
.long 0 // support::ulittle32_t SizeOfUninitializedData;
.long _start - dos_header // support::ulittle32_t AddressOfEntryPoint;
.long dos_header - dos_header // support::ulittle32_t BaseOfCode;
.quad 0 // support::ulittle64_t ImageBase;
.long 512 // support::ulittle32_t SectionAlignment;
.long 512 // support::ulittle32_t FileAlignment;
.short 0 // support::ulittle16_t MajorOperatingSystemVersion;
.short 0 // support::ulittle16_t MinorOperatingSystemVersion;
.short 0 // support::ulittle16_t MajorImageVersion;
.short 0 // support::ulittle16_t MinorImageVersion;
.short 0 // support::ulittle16_t MajorSubsystemVersion;
.short 0 // support::ulittle16_t MinorSubsystemVersion;
.long 0 // support::ulittle32_t Win32VersionValue;
.long _end - dos_header // support::ulittle32_t SizeOfImage;
.long end_of_header - dos_header // support::ulittle32_t SizeOfHeaders;
.long 0 // support::ulittle32_t CheckSum;
.short IMAGE_SUBSYSTEM_EFI_APPLICATION // support::ulittle16_t Subsystem;
.short 0 // support::ulittle16_t DLLCharacteristics;
.quad 0 // support::ulittle64_t SizeOfStackReserve;
.quad 0 // support::ulittle64_t SizeOfStackCommit;
.quad 0 // support::ulittle64_t SizeOfHeapReserve;
.quad 0 // support::ulittle64_t SizeOfHeapCommit;
.long 0 // support::ulittle32_t LoaderFlags;
// 16 data directories in total
.long 16 // support::ulittle32_t NumberOfRvaAndSize;
// The following are data directories mostly for place holder purpose for now. Entries
// such as certification_table might be needed for secure boot in the future.
DATA_DIRECTORY export_table
DATA_DIRECTORY import_table
DATA_DIRECTORY resource_table
DATA_DIRECTORY exception_table
DATA_DIRECTORY certification_table
DATA_DIRECTORY base_relocation_table
DATA_DIRECTORY debug
DATA_DIRECTORY architecture_data
DATA_DIRECTORY global_ptr
DATA_DIRECTORY tls_table
DATA_DIRECTORY load_config_table
DATA_DIRECTORY bound_inport
DATA_DIRECTORY import_address_table
DATA_DIRECTORY delay_import_descriptor
DATA_DIRECTORY CLR_runtime_header
.quad 0
// Section Table
section_table_start:
// .reloc. May be expected by some PE32+ loader
reloc_section:
.ascii ".reloc"
.byte 0
.byte 0 // 8 bytes of `char Name[COFF::NameSize];`
.long 0 // support::ulittle32_t VirtualSize;
.long 0 // support::ulittle32_t VirtualAddress;
.long 0 // support::ulittle32_t SizeOfRawData;
.long 0 // support::ulittle32_t PointerToRawData;
.long 0 // support::ulittle32_t PointerToRelocations;
.long 0 // support::ulittle32_t PointerToLinenumbers;
.short 0 // support::ulittle16_t NumberOfRelocations;
.short 0 // support::ulittle16_t NumberOfLinenumbers;
// https://learn.microsoft.com/en-us/windows/win32/debug/pe-format#section-flags
// We use the same value as Clang would generate with "-Wl,/subsystem:efi_application"
// IMAGE_SCN_CNT_INITIALIZED_DATA | IMAGE_SCN_MEM_DISCARDABLE |
// IMAGE_SCN_MEM_READ
.long 0x42000040 // support::ulittle32_t Characteristics;
// .text
text_section:
.ascii ".text"
.byte 0
.byte 0
.byte 0 // 8 bytes of `char Name[COFF::NameSize];`
.long _end - end_of_header // support::ulittle32_t VirtualSize;
.long end_of_header - dos_header // support::ulittle32_t VirtualAddress;
.long _end - end_of_header // support::ulittle32_t SizeOfRawData;
.long end_of_header - dos_header // support::ulittle32_t PointerToRawData;
.long 0 // support::ulittle32_t PointerToRelocations;
.long 0 // support::ulittle32_t PointerToLinenumbers;
.short 0 // support::ulittle16_t NumberOfRelocations;
.short 0 // support::ulittle16_t NumberOfLinenumbers;
// IMAGE_SCN_CNT_CODE | IMAGE_SCN_CNT_INITIALIZED_DATA |
// IMAGE_SCN_MEM_EXECUTE | IMAGE_SCN_MEM_READ
// We use the same value as Clang would generate with "-Wl,/subsystem:efi_application"
.long 0x60000020 // support::ulittle32_t Characteristics;
end_of_header:
// Traditionally, PE/COFF header occupies the entire first page. We keep this pattern.
.align 9
_start:
// Behave like a function call.
addi sp, sp, -8*3
sd ra, 0(sp)
sd s0, 8(sp)
sd s1, 16(sp)
// Save the EFI image handle from a0
mv s0, a0
// Save the EFI system table from a1
mv s1, a1
// Get the program load address (same as dos_header), and .dynamic section address.
lla a0, dos_header
lla a1, _DYNAMIC
// Apply relocation fixup
call ApplyRelocationHangIfFail
// Now call efi_main.
mv a0, s0
mv a1, s1
call efi_main
// Prepare to return.
ld ra, 0(sp)
ld s0, 8(sp)
ld s1, 16(sp)
add sp, sp, 8*3
ret
|
UnpluggedAOSP12/bootable_libbootloader
| 1,706
|
gbl/libboot/aarch64_cache_helper/disable_cache_mmu.S
|
/*
* Copyright (C) 2023 The Android Open Source Project
*
* Licensed under the Apache License, Version 2.0 (the "License");
* you may not use this file except in compliance with the License.
* You may obtain a copy of the License at
*
* http://www.apache.org/licenses/LICENSE-2.0
*
* Unless required by applicable law or agreed to in writing, software
* distributed under the License is distributed on an "AS IS" BASIS,
* WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
* See the License for the specific language governing permissions and
* limitations under the License.
*/
#include <arch.h>
.global disable_cache_mmu_and_jump
/* ---------------------------------------------------------------
* Disable cache, MMU and jump to the given address with arguments
*
* x0 - x3: Arguments for the target jump address.
* x4: The jump address.
* ---------------------------------------------------------------
*/
disable_cache_mmu_and_jump:
// Query current EL
mrs x5, CurrentEL
cmp x5, #(1 << 3)
beq asm_disable_cache_mmu_el2
/*
* Invalidate instruction cache before disabling it.
*/
ic iallu
isb
asm_disable_cache_mmu_el1:
mrs x5, sctlr_el1
bic x5, x5, #SCTLR_M_BIT
bic x5, x5, #SCTLR_C_BIT
bic x5, x5, #SCTLR_I_BIT
msr sctlr_el1, x5
b asm_finish
asm_disable_cache_mmu_el2:
mrs x5, sctlr_el2
bic x5, x5, #SCTLR_M_BIT
bic x5, x5, #SCTLR_C_BIT
bic x5, x5, #SCTLR_I_BIT
msr sctlr_el2, x5
asm_finish:
ic iallu
isb
/*
* Invalidate TLB.
*/
tlbi vmalle1
br x4
/*
* Prevent speculative execution.
*/
dsb nsh
isb
|
UnpluggedAOSP12/bootable_libbootloader
| 1,306
|
gbl/libboot/aarch64_cache_helper/include/common/asm_macros_common.S
|
/*
* Copyright (C) 2023 The Android Open Source Project
*
* Licensed under the Apache License, Version 2.0 (the "License");
* you may not use this file except in compliance with the License.
* You may obtain a copy of the License at
*
* http://www.apache.org/licenses/LICENSE-2.0
*
* Unless required by applicable law or agreed to in writing, software
* distributed under the License is distributed on an "AS IS" BASIS,
* WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
* See the License for the specific language governing permissions and
* limitations under the License.
*/
/*
* This file replaces "external/arm-trusted-firmware/include/common/asm_macros_common.S" for
* building "external/arm-trusted-firmware/lib/aarch64/cache_helper.S". It defines the "func"
* macro for declaring assembly function. However the original file uses assembly directives
* such as ".size" for debug information which are not recogized by LLVM when building for
* windows/msvc target. Thus we use our custom definition to workaround.
*/
/*
* This macro marks the begin of a function. It simply creates a label.
*/
.macro func _name
\_name:
.endm
/*
* This macro is used to mark the end of a function. For our usage, it's simply a noop.
*/
.macro endfunc _name
.endm
|
unvariant/advent-of-code-2024
| 2,033
|
src/day4.s
|
.pushsection .text
inline:
push rbp
push rbx
push r15
push r14
push r13
push r12
vpbroadcastb ymm4, byte ptr [rip + ascii_x]
vmovdqu ymm0, ymmword ptr [rdi]
vmovdqu ymm8, ymmword ptr [rdi + 141 * 0 + 32 * 0]
vpcmpeqb ymm9, ymm8, ymm4
vpcmpeqb ymm10, ymm8, ymm5
vpcmpeqb ymm11, ymm8, ymm6
vpcmpeqb ymm12, ymm8, ymm7
vpmovmskb eax, ymm9
vpmovmskb edx, ymm10
vpmovmskb ecx, ymm11
vpmovmskb ebx, ymm12
vpinsrd xmm16, eax, 0
vpinsrd xmm17, edx, 0
vpinsrd xmm18, ecx, 0
vpinsrd xmm19, ebx, 0
vmovdqu ymm8, ymmword ptr [rdi + 141 * 0 + 32 * 1]
vpcmpeqb ymm9, ymm8, ymm4
vpcmpeqb ymm10, ymm8, ymm5
vpcmpeqb ymm11, ymm8, ymm6
vpcmpeqb ymm12, ymm8, ymm7
vpmovmskb eax, ymm9
vpmovmskb edx, ymm10
vpmovmskb ecx, ymm11
vpmovmskb ebx, ymm12
vpinsrd xmm16, eax, 1
vpinsrd xmm17, edx, 1
vpinsrd xmm18, ecx, 1
vpinsrd xmm19, ebx, 1
vmovdqu ymm8, ymmword ptr [rdi + 141 * 0 + 32 * 2]
vpcmpeqb ymm9, ymm8, ymm4
vpcmpeqb ymm10, ymm8, ymm5
vpcmpeqb ymm11, ymm8, ymm6
vpcmpeqb ymm12, ymm8, ymm7
vpmovmskb eax, ymm9
vpmovmskb edx, ymm10
vpmovmskb ecx, ymm11
vpmovmskb ebx, ymm12
vpinsrd xmm16, eax, 2
vpinsrd xmm17, edx, 2
vpinsrd xmm18, ecx, 2
vpinsrd xmm19, ebx, 2
vmovdqu ymm8, ymmword ptr [rdi + 141 * 0 + 32 * 3]
vpcmpeqb ymm9, ymm8, ymm4
vpcmpeqb ymm10, ymm8, ymm5
vpcmpeqb ymm11, ymm8, ymm6
vpcmpeqb ymm12, ymm8, ymm7
vpmovmskb eax, ymm9
vpmovmskb edx, ymm10
vpmovmskb ecx, ymm11
vpmovmskb ebx, ymm12
vpinsrd xmm16, eax, 3
vpinsrd xmm17, edx, 3
vpinsrd xmm18, ecx, 3
vpinsrd xmm19, ebx, 3
mov r15, 140
1:
dec r15
jne 1b
pop r12
pop r13
pop r14
pop r15
pop rbx
pop rbp
ret
.popsection
.pushsection .data
ascii_x: .byte 'X'
ascii_m: .byte 'M'
ascii_a: .byte 'A'
ascii_s: .byte 'S'
.popsection
|
uzogoduyah/uzogoduyah-gmail.com
| 14,166
|
contents/tree_traversal/code/asm-x64/tree_traversal.s
|
.intel_syntax noprefix
# System V calling convention cheatsheet
# Params: rdi, rsi, rdx, rcx, r8, r9, xmm0-7
# Return: rax (int 64 bits), rax:rdx (int 128 bits), xmm0 (float)
# Callee cleanup: rbx, rbp, r12-15
# Scratch: rax, rdi, rsi, rdx, rcx, r8, r9, r10, r11
.section .rodata
not_bt: .string "This is not a binary tree.\n"
fmt_tree: .string "%d \n"
.equ stack_size, 16
.equ stack_array, 0
.equ stack_top, 8
.equ stack_cap, 12
.equ queue_size, 20
.equ queue_array, 0
.equ queue_front, 8
.equ queue_back, 12
.equ queue_cap, 16
.equ tree_children, 0
.equ tree_num_children, 8
.equ tree_value, 12
.equ tree_size, 16
.section .text
.global main
.extern printf, malloc, free, memcpy
# rdi - stack ptr
get_stack:
push r12
mov r12, rdi
mov rdi, 32 # Creating a 32 byte array
call malloc
mov QWORD PTR [r12], rax # Saving the data into the stack
mov DWORD PTR [r12 + 8], 0
mov DWORD PTR [r12 + 12], 32
pop r12
ret
# rdi - stack ptr
# rsi - element ptr
stack_push:
push r12
push r13
push r14
mov r12, rdi # Saving the variables
mov r13, rsi
mov r14d, DWORD PTR [r12 + 8]
mov esi, DWORD PTR [r12 + 12]
cmp rsi, r14 # Check if top is equal to capacity
jne stack_push_append
shl rsi, 1 # Calculate new capacity in bytes
mov DWORD PTR [r12 + 12], esi # Saving new capcaity
mov rdi, [r12]
call realloc # Making the array bigger
mov QWORD PTR [r12], rax
stack_push_append:
add r14, 8
mov rax, QWORD PTR [r12]
lea rax, [rax + r14]
mov QWORD PTR [rax], r13 # Saving element and new top
mov DWORD PTR [r12 + 8], r14d
pop r14
pop r13
pop r12
ret
# rdi - stack ptr
# RET rax - element ptr
stack_pop:
push r12
mov r12d, DWORD PTR [rdi + 8] # Get top
test r12, r12 # Check if top is zero
jne stack_pop_element
xor rax, rax # Return 0
jmp stack_pop_return
stack_pop_element:
mov rax, [rdi]
lea rax, [rax + r12] # Get the element
mov rax, QWORD PTR [rax]
sub r12, 8 # Subtract 1 from top and save it
mov DWORD PTR [rdi + 8], r12d
stack_pop_return:
pop r12
ret
# rdi - stack ptr
free_stack:
mov rdi, QWORD PTR [rdi]
call free # Free stack array
ret
# rdi - queue ptr
get_queue:
push r12
mov r12, rdi
mov rdi, 32 # Create a 32 byte array
call malloc
mov QWORD PTR [r12], rax # Saving data to the queue pointer
mov QWORD PTR [r12 + 8], 0
mov DWORD PTR [r12 + 16], 32
pop r12
ret
# rdi - queue ptr
queue_resize:
push r12
push r13
push r14
mov r12, rdi
mov edi, DWORD PTR [r12 + 16] # Get new capacity and create new array
shl rdi, 1
call malloc
mov r13, rax
mov r14, QWORD PTR[r12]
mov rdi, r13 # Copy data from front to capacity
mov eax, DWORD PTR [r12 + 8]
lea rsi, [r14 + rax]
mov edx, DWORD PTR [r12 + 16]
sub edx, DWORD PTR [r12 + 8]
call memcpy
mov eax, DWORD PTR [r12 + 16] # Copy data from start of array to front
sub eax, DWORD PTR [r12 + 8]
lea rdi, [r13 + rax]
mov rsi, r14
mov edx, DWORD PTR [r12 + 8]
call memcpy
mov rdi, r14 # New array has front at 0 and back at the old capacity
call free # So free the old array then save the new queue
mov QWORD PTR [r12], r13
mov eax, DWORD PTR [r12 + 16]
sub rax, 8
mov DWORD PTR [r12 + 12], eax
mov DWORD PTR [r12 + 8], 0
mov eax, DWORD PTR [r12 + 16]
shl rax, 1
mov DWORD PTR [r12 + 16], eax
pop r14
pop r13
pop r12
ret
# rdi - queue ptr
# rsi - element
enqueue:
push r12
push r13
push r14
push r15
mov r12, rdi # Saving parameters
mov r13, rsi
mov r14d, DWORD PTR [rdi + 8]
mov eax, DWORD PTR [rdi + 12]# Calculating new back
add eax, 8
mov edi, DWORD PTR [r12 + 16]
cdq
idiv edi
cmp rdx, r14 # Check if front and new back are equal
jne enqueue_append
mov rdi, r12 # If so resize the queue
call queue_resize
enqueue_append:
mov r14, QWORD PTR [r12] # Saving the element
mov r15d, DWORD PTR [r12 + 12]
lea r14, [r14 + r15]
mov QWORD PTR [r14], r13
mov r14d, DWORD PTR [r12 + 16]# Calculating new back and then saving it
add r15, 8
mov rax, r15
cdq
idiv r14d
mov DWORD PTR [r12 + 12], edx
pop r15
pop r14
pop r13
pop r12
ret
# rdi - queue ptr
# RET rax - element
dequeue:
push r12
push r13
mov r12d, DWORD PTR [rdi + 8] # Check if queue is empty
mov r13d, DWORD PTR [rdi + 12]
xor rax, rax
cmp r12, r13
je dequeue_return # if empty return null
mov r12, QWORD PTR [rdi] # else return element pointer
mov r13d, DWORD PTR [rdi + 8]
lea r13, [r12 + r13]
mov eax, DWORD PTR [rdi + 8]
add eax, 8
mov r12d, DWORD PTR [rdi + 16] # Calculate new front
cdq
idiv r12d
mov DWORD PTR [rdi + 8], edx # Save new front
mov rax, QWORD PTR [r13]
dequeue_return:
pop r13
pop r12
ret
# rdi - queue ptr
free_queue:
mov rdi, QWORD PTR [rdi] # Free queue array
call free
ret
# rdi - levels
# rsi - children_size
# RET rax:rdx - the tree - children|value|children_size
create_tree:
push rbx
push r12
push r13
push r14
push r15
mov r12, rdi
mov r13, rsi
test rdi, rdi
jz create_tree_leaf
mov r14, rsi # We'll allocate sizeof(tree) * children_size bytes of memory
shl r14, 4 # save the size calculation to a callee-saved register so we can reuse it after the malloc
mov rdi, r14
call malloc
mov r15, rax # Save the children address twice, once for the return value, once for the loop variable
mov rbx, rax
lea r14, [rax + r14] # Calculate the address of the element after last of the children array
create_tree_children:
cmp rbx, r14
je create_tree_return
lea rdi, [r12 - 1] # levels - 1
mov rsi, r13
call create_tree
mov QWORD PTR [rbx], rax # Save the created tree to memory
mov QWORD PTR [rbx + 8], rdx # The offset of children_size, writing out explicitly would've made the line way too long
add rbx, tree_size
jmp create_tree_children
create_tree_leaf:
mov r15, 0
xor r13, r13 # Leaves won't have any children
create_tree_return:
mov rax, r15 # The children pointer will be in r15
mov rdx, r12
shl rdx, 32 # The tree's value will be the current "levels"
shl r13, 4
or rdx, r13 # Generate the return value by moving the value to the upper 32 bits
pop r15
pop r14
pop r13
pop r12
pop rbx
ret
# rdi - children ptr
# rsi - children size
free_tree:
push r12
push r13
push r14
push r15
test rdi, rdi # Make sure the pointer is non-zero
jz free_tree_return
mov r12, rdi # Saving array
lea r13, [r12 + rsi] # Get start and end of the array
mov r14, r12
free_tree_free_kid:
cmp r14, r13 # Loop thought the array and free all children
je free_tree_free_array
mov rdi, QWORD PTR [r14]
mov esi, DWORD PTR [r14 + 8]
call free_tree
add r14, tree_size
jmp free_tree_free_kid
free_tree_free_array:
mov rdi, r12 # Free the array
call free
free_tree_return:
pop r15
pop r14
pop r13
pop r12
ret
# rdi - children ptr
# rsi - value|children_size
dfs_recursive:
push r12
push r13
mov r12, rdi
mov r13, rsi
mov rdi, OFFSET fmt_tree # Handle the current node
shr rsi, 32 # The tree value is in the upper 32 bits
xor rax, rax
call printf
mov r13d, r13d # Zero out the top 32 bits
add r13, r12 # Pointer pointing after the last element of the children array
dfs_recursive_children:
cmp r12, r13 # If we reached the end, return
je dfs_recursive_return
mov rdi, QWORD PTR [r12]
mov rsi, QWORD PTR [r12 + 8]
call dfs_recursive
add r12, tree_size
jmp dfs_recursive_children
dfs_recursive_return:
pop r13
pop r12
ret
# rdi - children ptr
# rsi - value|children_size
dfs_recursive_postorder:
push r12
push r13
push r14
mov r12, rdi
mov r13, rsi
mov r14, rsi
mov r13d, r13d # Zero out the top 32 bits
add r13, r12 # Pointer pointing after the last element of the children array
dfs_recursive_po_children:
cmp r12, r13 # If we reached the end, return
je dfs_recursive_po_return
mov rdi, QWORD PTR [r12]
mov rsi, QWORD PTR [r12 + 8]
call dfs_recursive_postorder
add r12, tree_size
jmp dfs_recursive_po_children
dfs_recursive_po_return:
mov rdi, OFFSET fmt_tree # Handle the current node
mov rsi, r14
shr rsi, 32 # The tree value is in the upper 32 bits
xor rax, rax
call printf
pop r14
pop r13
pop r12
ret
# rdi - children ptr
# rsi - value|children_size
dfs_recursive_inorder_btree:
push r12
push r13
mov r12, rdi
mov r13, rsi
mov rax, rsi
mov eax, eax
cmp rax, 0 # Check what type of tree it is.
je dfs_recursive_bt_size0
cmp rax, 16
je dfs_recursive_bt_size1
cmp rax, 32
je dfs_recursive_bt_size2
mov rdi, OFFSET not_bt # If the tree is not binary then print a warning
xor rax, rax
call printf
jmp dfs_recursive_bt_return
dfs_recursive_bt_size0:
mov rdi, OFFSET fmt_tree # If the node is a leaf then print its id
shr rsi, 32
xor rax, rax
call printf
jmp dfs_recursive_bt_return
dfs_recursive_bt_size1:
mov rdi, QWORD PTR [r12] # If the node has 1 child then call the function and print the id
mov rsi, QWORD PTR [r12 + 8]
call dfs_recursive_inorder_btree
mov rdi, OFFSET fmt_tree
mov rsi, r13
shr rsi, 32
xor rax, rax
call printf
jmp dfs_recursive_bt_return
dfs_recursive_bt_size2:
mov rdi, QWORD PTR [r12] # Same as above just print id inbetween the calls
mov rsi, QWORD PTR [r12 + 8]
call dfs_recursive_inorder_btree
mov rdi, OFFSET fmt_tree
mov rsi, r13
shr rsi, 32
xor rax, rax
call printf
mov rdi, QWORD PTR [r12 + 16]
mov rsi, QWORD PTR [r12 + 24]
call dfs_recursive_inorder_btree
dfs_recursive_bt_return:
pop r13
pop r12
ret
# rdi - children ptr
# rsi - value|children_size
dfs_stack:
push r12
push r13
push r14
sub rsp, 16 # Create stack
mov r12, rsp
push rsi # Save node to use as pointer
push rdi
mov rdi, r12
call get_stack # Init stack
mov rdi, r12
mov rsi, rsp
call stack_push # Push node
mov rdi, r12 # Pop stack
call stack_pop
dfs_stack_loop:
test rax, rax # Test if stack is empty
jz dfs_stack_return
mov r13, rax
mov rdi, OFFSET fmt_tree # Print id
mov esi, DWORD PTR [r13 + 12]
xor rax, rax
call printf
mov eax, DWORD PTR [r13 + 8] # Get start and end of array
mov r13, QWORD PTR [r13]
lea r14, [r13 + rax]
dfs_stack_push_child:
cmp r13, r14 # Check if the pointers are the same
je dfs_stack_end_push
mov rdi, r12 # Push node into the stack
mov rsi, r13
call stack_push
add r13, tree_size
jmp dfs_stack_push_child
dfs_stack_end_push:
mov rdi, r12 # Pop stack
call stack_pop
jmp dfs_stack_loop
dfs_stack_return:
mov rdi, r12 # Free stack
call free_stack
add rsp, 32
pop r14
pop r13
pop r12
ret
# rdi - children ptr
# rsi - value|children_size
bfs_queue:
push r12
push r13
push r14
sub rsp, 20 # Create queue
mov r12, rsp
push rsi # Save node to use as pointer
push rdi
mov rdi, r12
call get_queue # Init queue
mov rdi, r12
mov rsi, rsp
call enqueue # enqueue node
mov eax, DWORD PTR [r12 + 8]
mov edi, DWORD PTR [r12 + 12]
bfs_queue_loop:
cmp eax, edi
je bfs_queue_return
mov rdi, r12 # dequeue
call dequeue
test rax, rax # Test if queue is empty
jz bfs_queue_return
mov r13, rax
mov rdi, OFFSET fmt_tree # Print id
mov esi, DWORD PTR [r13 + 12]
xor rax, rax
call printf
mov eax, DWORD PTR [r13 + 8] # Get start and end of array
mov r13, QWORD PTR [r13]
lea r14, [r13 + rax]
bfs_queue_push_child:
cmp r13, r14 # Check if the pointers are the same
je bfs_queue_end_push
mov rdi, r12 # enqueue node
mov rsi, r13
call enqueue
add r13, tree_size
jmp bfs_queue_push_child
bfs_queue_end_push:
mov eax, DWORD PTR [r12 + 8]
mov edi, DWORD PTR [r12 + 12]
jmp bfs_queue_loop
bfs_queue_return:
mov rdi, r12 # Free queue
call free_queue
add rsp, 36
pop r14
pop r13
pop r12
ret
main:
push r12
push r13
mov rdi, 3
mov rsi, 3
call create_tree
mov r12, rax
mov r13, rdx
mov rdi, rax
mov rsi, rdx
call bfs_queue
mov rdi, r12
mov rsi, r13
mov esi, esi
call free_tree
pop r13
pop r12
ret
|
uzogoduyah/uzogoduyah-gmail.com
| 2,489
|
contents/monte_carlo_integration/code/asm-x64/monte_carlo.s
|
.intel_syntax noprefix
.section .rodata
pi: .double 3.141592653589793
one: .double 1.0
four: .double 4.0
hundred: .double 100.0
rand_max: .long 4290772992
.long 1105199103
fabs_const: .long 4294967295
.long 2147483647
.long 0
.long 0
estimate_fmt: .string "The estaimate of pi is %lf\n"
error_fmt: .string "Percentage error: %0.2f\n"
.section .text
.global main
.extern printf, srand, time, rand
# xmm0 - x
# xmm1 - y
# RET rax - bool
in_circle:
mulsd xmm0, xmm0 # Calculate x * x + y * y
mulsd xmm1, xmm1
addsd xmm0, xmm1
movsd xmm1, one # Set circle radius to 1
xor rax, rax
comisd xmm1, xmm0 # Return bool xmm0 < xmm1
seta al
ret
# rdi - samples
# RET xmm0 - estimate
monte_carlo:
pxor xmm2, xmm2 # Setting it to zero for loop
cvtsi2sd xmm3, rdi # From int to double
pxor xmm4, xmm4 # Setting to zero for counter
monte_carlo_iter:
comisd xmm2, xmm3 # Check if we went through all samples
je monte_carlo_return
call rand # Get random point in the first quartile
cvtsi2sd xmm0, rax
divsd xmm0, rand_max
call rand
cvtsi2sd xmm1, rax
divsd xmm1, rand_max
call in_circle # Check if its in the circle
test rax, rax
jz monte_carlo_false
addsd xmm4, one # if so increment counter
monte_carlo_false:
addsd xmm2, one
jmp monte_carlo_iter
monte_carlo_return:
mulsd xmm4, four # Return estimate
divsd xmm4, xmm2
movsd xmm0, xmm4
ret
main:
push rbp
sub rsp, 16
mov rdi, 0
call time
mov rdi, rax
call srand
mov rdi, 1000000
call monte_carlo
movsd QWORD PTR [rsp], xmm0 # Save estimate to stack
mov rdi, OFFSET estimate_fmt # Print estimate
mov rax, 1
call printf
movsd xmm0, QWORD PTR [rsp] # Get estimate from stack
movsd xmm1, pi # Calculate fabs(M_PI - estimate)
subsd xmm0, xmm1
movq xmm1, fabs_const
andpd xmm0, xmm1
divsd xmm0, pi # Print percentage error on pi
mulsd xmm0, hundred
mov rdi, OFFSET error_fmt
mov rax, 1
call printf
add rsp, 16
pop rbp
xor rax, rax # Set exit code to 0
ret
|
uzogoduyah/uzogoduyah-gmail.com
| 4,183
|
contents/verlet_integration/code/asm-x64/verlet.s
|
.intel_syntax noprefix
.section .rodata
zero: .double 0.0
two: .double 2.0
half: .double 0.5
verlet_fmt: .string "[#]\nTime for Verlet integration is:\n%lf\n"
stormer_fmt: .string "[#]\nTime for Stormer Verlet Integration is:\n%lf\n[#]\nVelocity for Stormer Verlet Integration is:\n%lf\n"
velocity_fmt: .string "[#]\nTime for Velocity Verlet Integration is:\n%lf\n[#]\nVelocity for Velocity Verlet Integration is:\n%lf\n"
pos: .double 5.0
acc: .double -10.0
dt: .double 0.01
.section .text
.global main
.extern printf
# xmm0 - pos
# xmm1 - acc
# xmm2 - dt
# RET xmm0 - time
verlet:
pxor xmm7, xmm7 # Holds 0 for comparisons
pxor xmm3, xmm3 # Holds time value
comisd xmm0, xmm7 # Check if pos is greater then 0.0
jbe verlet_return
movsd xmm6, xmm1 # xmm6 = acc * dt * dt
mulsd xmm6, xmm2
mulsd xmm6, xmm2
movsd xmm5, xmm0 # Holds previous position
verlet_loop:
addsd xmm3, xmm2 # Adding dt to time
movsd xmm4, xmm0 # Hold old value of posistion
addsd xmm0, xmm0 # Calculating new position
subsd xmm0, xmm5
addsd xmm0, xmm6
movsd xmm5, xmm4
comisd xmm0, xmm7 # Check if position is greater then 0.0
ja verlet_loop
verlet_return:
movsd xmm0, xmm3 # Saving time value
ret
# xmm0 - pos
# xmm1 - acc
# xmm2 - dt
# RET xmm0 - time
# RET xmm1 - velocity
stormer_verlet:
pxor xmm7, xmm7 # Holds 0 for comparisons
pxor xmm3, xmm3 # Holds time value
comisd xmm0, xmm7 # Check if pos is greater then 0.0
jbe stormer_verlet_return
movsd xmm6, xmm1 # xmm6 = acc * dt * dt
mulsd xmm6, xmm2
mulsd xmm6, xmm2
movsd xmm5, xmm0 # Holds previous position
stormer_verlet_loop:
addsd xmm3, xmm2 # Adding dt to time
movsd xmm4, xmm0 # Hold old value of posistion
addsd xmm0, xmm0 # Calculating new position
subsd xmm0, xmm5
addsd xmm0, xmm6
movsd xmm5, xmm4
comisd xmm0, xmm7 # Check if position is greater then 0.0
ja stormer_verlet_loop
stormer_verlet_return:
movsd xmm0, xmm3 # Saving time and velocity
mulsd xmm3, xmm1
movsd xmm1, xmm3
ret
# xmm0 - pos
# xmm1 - acc
# xmm2 - dt
# RET xmm0 - time
# RET xmm1 - velocity
velocity_verlet:
pxor xmm7, xmm7 # Holds 0 for comparisons
pxor xmm3, xmm3 # Holds the velocity value
pxor xmm4, xmm4 # Holds the time value
comisd xmm0, xmm7 # Check if pos is greater then 0.0
jbe velocity_verlet_return
movsd xmm5, half # xmm5 = 0.5 * dt * dt * acc
mulsd xmm5, xmm2
mulsd xmm5, xmm2
mulsd xmm5, xmm1
velocity_verlet_loop:
movsd xmm6, xmm3 # Move velocity into register
mulsd xmm6, xmm2 # Calculate new position
addsd xmm6, xmm5
addsd xmm0, xmm6
addsd xmm4, xmm2 # Incrementing time
movsd xmm3, xmm4 # Updating velocity
mulsd xmm3, xmm1
comisd xmm0, xmm7
ja velocity_verlet_loop
velocity_verlet_return:
movsd xmm0, xmm4 # Saving time and velocity
movsd xmm1, xmm3
ret
main:
push rbp
movsd xmm0, pos # Calling verlet
movsd xmm1, acc
movsd xmm2, dt
call verlet
mov rdi, OFFSET verlet_fmt # Print output
mov rax, 1
call printf
movsd xmm0, pos # Calling stormer_verlet
movsd xmm1, acc
movsd xmm2, dt
call stormer_verlet
mov rdi, OFFSET stormer_fmt # Print output
mov rax, 1
call printf
movsd xmm0, pos # Calling velocity_verlet
movsd xmm1, acc
movsd xmm2, dt
call velocity_verlet
mov rdi, OFFSET velocity_fmt # Print output
mov rax, 1
call printf
pop rbp
xor rax, rax # Set exit code to 0
ret
|
uzogoduyah/uzogoduyah-gmail.com
| 1,840
|
contents/euclidean_algorithm/code/asm-x64/euclidean_example.s
|
.intel_syntax noprefix
.section .rodata
euclid_mod_fmt: .string "[#]\nModulus-based euclidean algorithm result:\n%d\n"
euclid_sub_fmt: .string "[#]\nSubtraction-based euclidean algorithm result:\n%d\n"
.section .text
.global main
.extern printf
# rdi - a
# rsi - b
# RET rax - gcd of a and b
euclid_mod:
mov rax, rdi # Get abs of a
sar rax, 31
xor rdi, rax
sub rdi, rax
mov rax, rsi # Get abs of b
sar rax, 31
xor rsi, rax
sub rsi, rax
jmp mod_check
mod_loop:
xor rdx, rdx # Take the mod of a and b
mov rax, rdi
div rsi
mov rdi, rsi # Set b to the mod of a and b
mov rsi, rdx # Set a to b
mod_check:
cmp rsi, 0 # Check if b is non-zero
jne mod_loop
mov rax, rdi # Return the result
ret
euclid_sub:
mov rax, rdi # Get abs of a
sar rax, 31
xor rdi, rax
sub rdi, rax
mov rax, rsi # Get abs of b
sar rax, 31
xor rsi, rax
sub rsi, rax
jmp check
loop:
cmp rdi, rsi # Find which is bigger
jle if_true
sub rdi, rsi # If a is bigger then a -= b
jmp check
if_true:
sub rsi, rdi # Else b -= a
check:
cmp rsi, rdi # Check if a and b are not equal
jne loop
mov rax, rdi # Return results
ret
main:
mov rdi, 4288 # Call euclid_mod
mov rsi, 5184
call euclid_mod
mov rdi, OFFSET euclid_mod_fmt # Print output
mov rsi, rax
xor rax, rax
call printf
mov rdi, 1536 # Call euclid_sub
mov rsi, 9856
call euclid_sub
mov rdi, OFFSET euclid_sub_fmt # Print output
mov rsi, rax
xor rax, rax
call printf
xor rax, rax # Return 0
ret
|
uzogoduyah/uzogoduyah-gmail.com
| 2,783
|
contents/forward_euler_method/code/asm-x64/euler.s
|
.intel_syntax noprefix
.section .rodata
three: .double -3.0
fabs_const:
.long 4294967295
.long 2147483647
.long 0
.long 0
inital_val: .double 1.0
threshold: .double 0.01
timestep: .double 0.01
error_fmt: .string "%f %f\n"
fmt: .string "%d\n"
.section .text
.global main
.extern printf
.extern exp
# rdi - array size
# rsi - array ptr
# xmm0 - timestep
solve_euler:
movsd xmm1, inital_val
lea rax, [rsi + 8 * rdi + 8] # Set to end of the array
solve_euler_loop:
movsd xmm3, three # Set to -3.0
mulsd xmm2, xmm1 # xmm2 = -3.0 * array[i-1] * timestep
mulsd xmm2, xmm0
subsd xmm1, xmm2 # xmm1 = xmm1 - xmm2
movsd QWORD PTR [rsi], xmm1
add rsi, 8
cmp rsi, rax # Test if we have gone through the array
jne solve_euler_loop
solve_euler_return:
ret
# rdi - array size
# rsi - array ptr
# xmm0 - timestep
# xmm1 - threshold
# RET rax - success code 0 if sucess else 1
check_result:
push r12
push r13
xor rax, rax # Return code is 0
xor r12, r12 # The index is set to 0
mov r13, rdi # Moving array size to free rdi for printf
movsd xmm2, xmm0 # Moving timestep to free xmm0 for exp
jmp loop_check
results_loop:
cvtsi2sd xmm0, r12 # Making int to a double
movsd xmm3, three # Calculating exp(-3.0 * i * timestep)
mulsd xmm0, xmm3
mulsd xmm0, xmm2
call exp
movsd xmm3, QWORD PTR [rsi + r12 * 8] # Calculating abs(array[i] - xmm0)
subsd xmm2, xmm3
movq xmm3, fabs_const
andpd xmm0, xmm3
comisd xmm0, xmm1 # Check if abs(...) > threshold
jbe if_false
mov rdi, OFFSET error_fmt # If true print out array[i] and solution
mov rax, 1
call printf
mov rax, 1 # and set sucess code to failed (rax = 1)
if_false:
add r12, 1
loop_check:
cmp r12, r13 # Check if index is less the array size
jle results_loop
pop r13
pop r12
ret
main:
push rbp
sub rsp, 800 # Making double array[100]
mov rdi, 100
mov rsi, rsp
movsd xmm0, timestep
call solve_euler # Calling solve_euler
mov rdi, 100
mov rsi, rsp
movsd xmm0, timestep
movsd xmm1, threshold
call check_result # Check if results are correct
mov rdi, OFFSET fmt
mov rsi, rax
xor rax, rax
call printf # Print out success code
add rsp, 800 # Deallocating array
pop rbp
xor rax, rax
ret
|
uzogoduyah/uzogoduyah-gmail.com
| 24,157
|
contents/huffman_encoding/code/asm-x64/huffman.s
|
.intel_syntax noprefix
# System V calling convention cheatsheet
# Params: rdi, rsi, rdx, rcx, r8, r9, xmm0-7
# Return: rax (int 64 bits), rax:rdx (int 128 bits), xmm0 (float)
# Callee cleanup: rbx, rbp, r12-15
# Scratch: rax, rdi, rsi, rdx, rcx, r8, r9, r10, r11
.section .rodata
text: .string "bibbity bobbity"
original: .string "Original message: %s\n"
encoded: .string "Encoded message: "
decoded: .string "Decoded message: %s\n"
.equ bitstr_len, 32
.equ bitstr_size, 40
.equ codebook_size, 256 * bitstr_size
.equ tree_left, 0
.equ tree_right, 8
.equ tree_count, 16
.equ tree_value, 20
.equ tree_size, 24
.equ heap_len, 0
.equ heap_data, 4
.equ heap_size, 512 * 8 + 16 # 512 ptrs + 4 byte length + 12 byte padding
.equ counts_size, 256 * 4
.equ msg_len, 0
.equ msg_data, 8
.section .text
.global main
.extern printf, calloc, malloc, memset, puts
main:
push r12
push r13
sub rsp, codebook_size + 16 # 8 extra bytes for the Huffman-tree ptr, 8 bytes for padding
# Print the original text
mov rdi, OFFSET original
mov rsi, OFFSET text
xor rax, rax
call printf
# First encode the text. This will also initialize the Huffman-tree and the codebook
mov rdi, OFFSET text
mov rsi, rsp
lea rdx, [rsp + codebook_size]
call encode
mov r12, rax # Save the returned message ptr
# Print the codebook and the encoded message
mov rdi, rsp
call print_codebook
mov rdi, OFFSET encoded
xor rax, rax
call printf
mov rdi, r12
call print_message
# Decode and print the message
mov rdi, r12
mov rsi, QWORD PTR [rsp + codebook_size]
call decode
mov r13, rax
mov rdi, OFFSET decoded
mov rsi, r13
xor rax, rax
call printf
# Free allocated resources
mov rdi, r12
call free
mov rdi, r13
call free
mov rdi, QWORD PTR [rsp + codebook_size]
call free_tree
add rsp, codebook_size + 16
pop r13
pop r12
# Indiciate success with a 0 exit code
xor rax, rax
ret
# rdi - text
# rsi - codebook ptr
# rdx - Huffman-tree ptr
# RET rax - encoded message ptr
encode:
push r12
push r13
push r14
mov r12, rdi # Save the original arguments
mov r13, rsi
mov r14, rdx
call generate_tree # The text is already in rdi
mov QWORD PTR [r14], rax # Save the Huffman-tree's root
mov rdi, r13 # Set up the parameters for codebook generation: codebook ptr, Huffman-tree root
mov rsi, rax
call generate_codebook
xor rax, rax
xor r14, r14 # We'll use r14 to keep track of the length of the message
mov rcx, r12 # Make a copy of the pointer to the message to be encoded
encode_calculate_length:
mov al, BYTE PTR [rcx]
test al, al # If we're at the terminating null character then we're ready to encode
jz encode_message
lea rdx, [rax + 4*rax] # We get the codebook entry at the specific index
lea r8, [r13 + 8*rdx]
add r14, QWORD PTR [r8 + bitstr_len] # And add the encoded word length to the total
inc rcx
jmp encode_calculate_length
encode_message:
mov rdi, 1
lea rsi, [r14 + 7] # Calculate the number of bytes we need to allocate to fit all the bits
shr rsi, 3 # length % 8 rounded up = (length + 8 - 1) / 8
lea rsi, [rsi + 8] # Make space for an 8-byte length field
call calloc # Allocate the necessary memory, the message will be in rax
mov QWORD PTR [rax], r14 # Save the length of the message
# Registers:
# - r12: text
# - r13: codebook_ptr
# - rax: message ptr
# - free to use: rdi, rsi, rcx, rdx, r8, r9, r10, r11, r14
xor r8, r8 # Bit offset
lea r9, [rax + 8] # 8-byte message block
encode_message_bits:
xor rdi, rdi # We need to clear rdi because moving a single byte to dil doesn't do so
mov dil, BYTE PTR [r12] # Iterate the message again
test dil, dil # If we're at the the null terminator we're done
jz encode_done
lea rdx, [rdi + 4*rdi] # Get the codebook entry
lea r10, [r13 + 8*rdx]
mov r11, QWORD PTR [r10 + bitstr_len] # Load the bitstring length
lea r14, [r10] # The bitstring qword we're currently processing
encode_message_bits_qword:
mov rdi, QWORD PTR [r14] # Calculate the first mask: [code qword] << [bit offset]
mov rsi, rdi # Get a second copy of the code's current qword
mov rcx, r8
shl rdi, cl
or QWORD PTR [r9], rdi # Apply the mask to the current block
mov rcx, 64 # Calculate the second mask: [code qword] >> [64 - bit offset]
sub rcx, r8
shr rsi, cl
mov rcx, r11 # Copy the code length so we can manipulate it without destroying the original value
sub rcx, 64
jle encode_message_bits_try_overflow # If the length was less than or equal to 64, check if the code qword would overflow the current message block
mov r11, rcx # We wanted to subtract 64 from the code length anyway
lea r9, [r9 + 8] # Load the next message block
or QWORD PTR [r9], rsi # Save the second mask to the new message block
jmp encode_message_bits_qword
encode_message_bits_try_overflow:
add rcx, r8 # Calculate [code length] + [bit offset] - 64
jl encode_calculate_new_bit_offset # If the result is less than 0 then we have no remaining bits -> calculate the new bit offset
mov r8, rcx # Otherwise this also happens to be our new bit offset
lea r9, [r9 + 8] # Load the next message block
or QWORD PTR [r9], rsi # Save the second mask to the new message block
inc r12 # Go to the next character in the input
jmp encode_message_bits
encode_calculate_new_bit_offset:
lea r8, [r8 + r11] # Calculate the bit offset for the next code qword
inc r12
jmp encode_message_bits
encode_done:
pop r14
pop r13
pop r12
ret
# rdi - encoded message
# rsi - Huffman-tree root (ptr)
# RET rax - the decoded message
decode:
push r12
push r13
push r14
mov r12, rdi
mov r13, rsi
mov rdi, QWORD PTR [r12] # Load the length of the message
mov r14, rdi # We'll use the length of the message as a loop counter later
lea rdi, [rdi + 1] # The null terminator
call malloc # This will usually be more than enough memory to contain the whole decoded message (we don't handle pathological cases right now)
mov rdi, r12 # The single-character decoder doesn't touch rdi so we can hoist it before the loop
xor rcx, rcx
mov rdx, rax # The current byte in the output string
decode_loop:
cmp rcx, r14 # The encoded message bit counter
jge decode_done
mov rsi, r13 # The current node in the Huffman-tree
decode_loop_char:
test rsi, rsi # If the Huffman-tree node is null then we reached a dead-end -> start over
jz decode_loop
cmp QWORD PTR [rsi + tree_left], 0 # If the node has either a left or a right child, treat it as a branch
jnz decode_loop_char_branch
cmp QWORD PTR [rsi + tree_right], 0
jnz decode_loop_char_branch
mov r9d, DWORD PTR [rsi + tree_value] # Load the value in this node in case the next iteration needs it
mov BYTE PTR [rdx], r9b # And save it to the output
lea rdx, [rdx + 1] # Advance the output string
jmp decode_loop
decode_loop_char_branch:
mov r9, rcx # First, load the byte of the message the current bit is in
shr r9, 3
mov r10b, BYTE PTR [rdi + r9 + msg_data]
mov r11, rcx # Save rcx in another register temporarily so we can restore it without push/pop
and rcx, 7
shr r10, cl # Get the bit we're interested in to position 0
lea rcx, [r11 + 1] # Restore rcx and immediately add 1 to get the next bit to decode
and r10, 0x1 # Zero out all other bits
mov r8, rsi
mov rsi, QWORD PTR [r8 + tree_left] # Take the left branch for 0, the right branch for a non-zero bit
cmovnz rsi, QWORD PTR [r8 + tree_right]
jmp decode_loop_char
decode_done:
mov BYTE PTR [rdx], 0 # Write the null terminator at the end of the string
pop r14
pop r13
pop r12
ret
# rdi - The starting address of the codebook we want to generate
# rsi - Huffman-tree root (ptr)
generate_codebook:
push r12
sub rsp, bitstr_size + 16 # 16 extra bytes for alignment
mov r12, rsi
xorps xmm0, xmm0 # Create a 0-initialized bitstring. This will be
movaps XMMWORD PTR [rsp], xmm0 # used in the recursive function calls
movaps XMMWORD PTR [rsp + 16], xmm0
mov QWORD PTR [rsp + 32], 0
xor rsi, rsi
mov rdx, codebook_size
call memset
mov rdi, rax
mov rsi, r12
mov rdx, rsp
call generate_codebook_recurse
add rsp, bitstr_size + 16
pop r12
ret
# rdi - The codebook's starting address
# rsi - The current Huffman-tree node
# rdx - The bitstring used for code generation
generate_codebook_recurse:
push rbp
push r12
push r13
test rsi, rsi # If we reached a null pointer we're done
jz generate_codebook_recurse_done
mov r12, rsi
cmp QWORD PTR [r12 + tree_left], 0 # If at least one of the children is not null
jnz generate_codebook_branch # then we need to treat the current node as a branch
cmp QWORD PTR [r12 + tree_right], 0
jnz generate_codebook_branch
mov r8d, DWORD PTR [r12 + tree_value] # Get the value of the current node
movaps xmm0, XMMWORD PTR [rdx] # Get the values of the current bitstring into some registers
movaps xmm1, XMMWORD PTR [rdx + 16]
mov r9, QWORD PTR [rdx + 32]
lea rax, [r8 + 4*r8] # The index calculation needs to add 40 * index. With lea arithmetic this can be represented as
lea r10, [rdi + 8*rax] # base address + 8 * (5 * index). This is done in two lea instructions
movups XMMWORD PTR [r10], xmm0 # And copy the data over to it
movups XMMWORD PTR [r10 + 16], xmm1
mov QWORD PTR [r10 + 32], r9
jmp generate_codebook_recurse_done
generate_codebook_branch:
# First, calculate the necessary indices and bitmask to use for the bitstring
mov r13, QWORD PTR [rdx + bitstr_len] # Load the current length of the bitstring
mov rcx, r13 # This will be used to index into the bitstring data. We'll need two copies for it
shr r13, 6 # We first get which 64 bit chunk of the bitstring we want to modify
and rcx, 63 # Then the bit we want to change
mov rbp, 1 # Generate the mask we'll use to set the correct bit
shl rbp, cl
# We'll start with the right branch
or QWORD PTR [rdx + 8*r13], rbp # Set the bit
inc QWORD PTR [rdx + bitstr_len] # Increase the bitstring length
mov rsi, QWORD PTR [r12 + tree_right]
call generate_codebook_recurse
# Now we move on to the left branch: rbx - left child, r13 - bitstring index, rbp - mask
not rbp
and QWORD PTR [rdx + 8*r13], rbp
mov rsi, QWORD PTR [r12 + tree_left]
call generate_codebook_recurse
dec QWORD PTR [rdx + bitstr_len] # Decrease the bitstring length
generate_codebook_recurse_done:
pop r13
pop r12
pop rbp
ret
# rdi - text
# RET rax - Huffman-tree root (ptr)
generate_tree:
push r12
push r13
sub rsp, 5128 # 1024 bytes for the char counts, 4 bytes for heap length, 4096 bytes for the heap, 4 byte padding
mov r12, rdi # Save the original text so it doesn't get clobbered
mov rdi, rsp # Zero out the character counts and the heap length
xor rsi, rsi
mov rdx, 1040
call memset
xor rax, rax
generate_tree_count_chars:
mov al, BYTE PTR [r12]
test al, al
jz generate_tree_leaves_setup
inc DWORD PTR [rsp + 4*rax]
inc r12
jmp generate_tree_count_chars
generate_tree_leaves_setup:
mov r12, 255 # The loop counter. We can only get here if the "test" on line 301 resulted in a zero so the next jl instruction will do the right thing
generate_tree_leaves:
jl generate_tree_one_leaf # If not then it's time to generate the branches
mov r13d, DWORD PTR [rsp + 4*r12] # Load the count at the ith position
test r13d, r13d # And check if it's zero
jz generate_tree_leaves_counters # If it is we can skip this iteration
mov rdi, 1 # If not, we need to allocate a new leaf node
mov rsi, tree_size
call calloc
mov DWORD PTR [rax + tree_value], r12d # Save the value and the count to the tree
mov DWORD PTR [rax + tree_count], r13d
lea rdi, [rsp + counts_size] # Then push it onto the heap
mov rsi, rax
call heap_push
generate_tree_leaves_counters:
dec r12 # Decrement the loop counter and start over
jmp generate_tree_leaves
generate_tree_one_leaf:
cmp DWORD PTR [rsp + counts_size], 1 # Check if there is only one element in the heap
jne generate_tree_branches
lea rdi, [rsp + counts_size] # Get the element
call heap_pop
mov r12, rax
mov rdi, tree_size # Create the new tree node, the pointer to it will be in rax
call malloc
mov QWORD PTR [rax + tree_left], r12 # Save element in the left node
mov ecx, DWORD PTR [r12 + tree_count] # Save element count in branch
mov DWORD PTR [rax + tree_count], ecx
jmp generate_tree_ret # Returning
generate_tree_branches:
cmp DWORD PTR [rsp + counts_size], 1 # Check if there are still at least two elements in the heap
jle generate_tree_done # If not, we're done
lea rdi, [rsp + counts_size] # Get the left child
call heap_pop
mov r12, rax
lea rdi, [rsp + counts_size] # Get the right child
call heap_pop
mov r13, rax
mov rdi, tree_size # Create the new tree node, the pointer to it will be in rax
call malloc
mov ecx, DWORD PTR [r12 + tree_count] # The new node's count: left count + right count
add ecx, DWORD PTR [r13 + tree_count]
mov QWORD PTR [rax + tree_left], r12 # Save the new node's fields: left, right, count (leave value unititialized, it shouldn't be used with branch nodes)
mov QWORD PTR [rax + tree_right], r13
mov DWORD PTR [rax + tree_count], ecx
lea rdi, [rsp + counts_size] # Add the branch to the heap
mov rsi, rax
call heap_push
jmp generate_tree_branches
generate_tree_done:
lea rdi, [rsp + counts_size] # The tree's root will be in rax after the pop
call heap_pop
generate_tree_ret:
add rsp, 5128
pop r13
pop r12
ret
# rdi - heap ptr
# rsi - tree ptr
heap_push:
lea rax, QWORD PTR [rdi + heap_data] # We load the heap's data ptr and length to the respective registers
mov ecx, DWORD PTR [rdi + heap_len] # Load the current length
lea edx, [ecx + 1] # First, calculate the new length (length + 1)
mov DWORD PTR [rdi + heap_len], edx # Then save it
mov QWORD PTR [rax + 8*rcx], rsi # And finally add the new value at the end of the array
heap_push_sift_up:
test rcx, rcx # Test if we got to the root (index == 0)
jz heap_push_done
lea rdx, [rcx - 1] # Calculate the parent index: (index - 1) / 2
shr rdx, 1
lea r8, [rax + 8*rcx] # Get the pointer to the current and parent elements
lea r9, [rax + 8*rdx]
mov r10, QWORD PTR [r8] # Load the current and the parent elements
mov r11, QWORD PTR [r9]
mov esi, DWORD PTR [r10 + tree_count] # Load the current tree's count
cmp DWORD PTR [r11 + tree_count], esi # If parent count <= current count
jle heap_push_done # Then we're done
mov QWORD PTR [r8], r11 # Otherwise swap the two elements
mov QWORD PTR [r9], r10
mov rcx, rdx
jmp heap_push_sift_up
heap_push_done:
ret
# rdi - heap ptr
# RET rax - tree ptr
heap_pop:
mov r8d, DWORD PTR [rdi + heap_len] # Load the heap's length
test r8d, r8d # If it's 0 then the heap's empty
jz heap_empty
lea rdx, [rdi + heap_data] # Get the heap's data ptr
mov rax, QWORD PTR [rdx] # The return value will be the tree's current root
lea r8d, [r8d - 1] # Calculate the new length
mov DWORD PTR [rdi + heap_len], r8d # And save it
mov rsi, QWORD PTR [rdx + 8*r8] # Load the element we're going to swap with the root
mov QWORD PTR [rdx], rsi # Swap the root and the last element
mov QWORD PTR [rdx + 8*r8], rax
xor r9, r9 # The loop index
heap_pop_sift_down:
mov rcx, r9 # Save the target index at the start of the loop
lea r10, [r9 + r9 + 1] # The left child index
lea r11, [r9 + r9 + 2] # The right child index
cmp r10, r8
jge heap_pop_check_right
mov rdi, QWORD PTR [rdx + 8*r10] # Load the left child
mov rsi, QWORD PTR [rdx + 8*rcx] # Load the target
mov esi, DWORD PTR [rsi + tree_count] # Load the target tree count
cmp DWORD PTR [rdi + tree_count], esi # If the left tree count < target tree count
jge heap_pop_check_right
mov rcx, r10
heap_pop_check_right:
cmp r11, r8
jge heap_pop_compare_indices
mov rdi, QWORD PTR [rdx + 8*r11] # Load the right child
mov rsi, QWORD PTR [rdx + 8*rcx] # Load the target
mov esi, DWORD PTR [rsi + tree_count] # Load the target tree count
cmp DWORD PTR [rdi + tree_count], esi # If the right tree count < target tree count
jge heap_pop_compare_indices
mov rcx, r11
heap_pop_compare_indices:
cmp r9, rcx # If the target index == current index we're done
je heap_pop_done
mov rdi, QWORD PTR [rdx + 8*r9] # Otherwise we swap the values
mov rsi, QWORD PTR [rdx + 8*rcx]
mov QWORD PTR [rdx + 8*r9], rsi
mov QWORD PTR [rdx + 8*rcx], rdi
mov r9, rcx
jmp heap_pop_sift_down
heap_empty:
xor rax, rax # Return a null pointer to indicate the heap was empty
heap_pop_done:
ret
# rdi - codebook start ptr
print_codebook:
push rbx
push r12
sub rsp, 272 # The bitstring we're going to print
mov r12, rdi
xor rbx, rbx # Save the loop counter into a register that doesn't get clobbered
print_codebook_loop:
cmp rbx, 255
jg print_codebook_done
lea rax, [rbx + 4*rbx] # We get the codebook entry at the specific index
lea r10, [r12 + 8*rax]
mov rdx, QWORD PTR [r10 + bitstr_len] # Load the length of the bitstring
test rdx, rdx # If it's zero then the codepoint didn't exist in the original alphabet, skip
jz print_codebook_counters
print_codebook_char:
mov BYTE PTR [rsp], bl # First, the character we're printing the code for
mov WORD PTR [rsp + 1], 0x203a # Then ": "
mov BYTE PTR [rsp + rdx + 3], 0x00 # At the end add the null terminator
print_codebook_generate_binary:
dec rdx
jl print_codebook_binary
mov r9, rdx # Two copies of the loop counter
mov rcx, rdx
shr r9, 6 # Calculate the bitstring part we're going to load
and rcx, 63 # The bit we're interested in
mov rsi, QWORD PTR [r10 + r9] # One of the 4, 64 bit parts of the bitstring we're going to print
shr rsi, cl # Get the relevant bit into the 0th position
and rsi, 1 # Mask the rest of the bits
add rsi, '0' # Convert it to ASCII
mov BYTE PTR [rsp + rdx + 3], sil # And copy it into the string
jmp print_codebook_generate_binary
print_codebook_binary:
mov rdi, rsp # Print the current bitstring
call puts
print_codebook_counters:
inc rbx # And go to the next codebook entry
jmp print_codebook_loop
print_codebook_done:
add rsp, 272
pop r12
pop rbx
ret
# rdi - message ptr
# This would run out of stack space for long messages but it will do for now
print_message:
push r12
push r13
mov r12, rdi
mov r13, QWORD PTR [rdi] # Get the length of the message
lea rdi, [r13 + 1] # For the length of the string we'll need an additional the null terminator
call malloc
xor rdx, rdx
print_message_generate_string:
cmp rdx, r13
jge print_message_puts
mov r8, rdx # Get two copies of the current index
mov rcx, rdx
shr r8, 3 # We first get the byte we want to print
mov r10b, BYTE PTR [r12 + r8 + msg_data]
and rcx, 7 # Then the bit in that byte
shr r10, cl
and r10, 0x1 # Mask it so only the bit we're interested in is visible
add r10, '0' # Convert it to ASCII
mov BYTE PTR [rax + rdx], r10b # Write it into the printable string
inc rdx
jmp print_message_generate_string
print_message_puts:
mov BYTE PTR [rax + rdx], 0x00 # Write the null terminator
mov rdi, rax # And print the string
call puts
pop r13
pop r12
ret
# rdi - tree ptr
free_tree:
push rbx
mov rbx, rdi
test rbx, rbx # When the tree ptr we're trying to free is already null we reached the termination condition
jz free_tree_done
mov rdi, [rbx + tree_left] # Otherwise free the left child first
call free_tree
mov rdi, [rbx + tree_right] # Then the right child
call free_tree
mov rdi, rbx # And finally, the node itself
call free
free_tree_done:
pop rbx
ret
|
uzogoduyah/uzogoduyah-gmail.com
| 10,437
|
contents/cooley_tukey/code/asm-x64/fft.s
|
.intel_syntax noprefix
.section .rodata
two: .double 2.0
one: .double 1.0
two_pi: .double -6.28318530718
rand_max: .long 4290772992
.long 1105199103
fmt: .string "%g\n"
.section .text
.global main
.extern printf, memset, memcpy, srand, rand, time, cexp, __muldc3, cabs, log2
# rdi - array ptr
# rsi - array size
dft:
push rbx
push r12
push r13
push r14
push r15
mov r12, rdi # Save parameters
mov r13, rsi
sub rsp, r13 # Make a double complex array
xor r14, r14 # Set index to 0
dft_loop_i:
cmp r14, r13 # Check if index is equal to array size
je dft_end_i
lea rax, [rsp + r14] # Set tmp array to zero at r14
mov QWORD PTR [rax], 0
mov QWORD PTR [rax + 8], 0
xor r15, r15 # Set second index to 0
dft_loop_j:
cmp r15, r13 # Check if the index is equal to array size
je dft_end_j
movsd xmm1, two_pi # Calculate xmm1 = -2pi * i * j / N
mov rax, r14
imul rax, r15
shr rax, 4
cvtsi2sdq xmm2, rax
mulsd xmm1, xmm2
cvtsi2sdq xmm2, r13
divsd xmm1, xmm2
pxor xmm0, xmm0 # Set xmm0 to 0
call cexp
lea rax, [r12 + r15] # Calculate X[i] * cexp(-2pi * i * j / N)
movsd xmm2, QWORD PTR [rax]
movsd xmm3, QWORD PTR [rax + 8]
call __muldc3
lea rax, [rsp + r14]
movsd xmm6, QWORD PTR [rax] # Sum to tmp array
movsd xmm7, QWORD PTR [rax + 8]
addsd xmm6, xmm0
addsd xmm7, xmm1
movsd QWORD PTR [rax], xmm6 # Save to tmp array
movsd QWORD PTR [rax + 8], xmm7
add r15, 16
jmp dft_loop_j
dft_end_j:
add r14, 16
jmp dft_loop_i
dft_end_i:
mov rdi, r12 # Move tmp array to array ptr
mov rsi, rsp
mov rdx, r13
call memcpy
add rsp, r13
pop r15
pop r14
pop r13
pop r12
pop rbx
ret
# rdi - array ptr
# rsi - array size
cooley_tukey:
cmp rsi, 16 # Check if size if greater then 1
jle cooley_tukey_return
push rbx
push r12
push r13
push r14
push r15
mov r12, rdi # Save parameters
mov r13, rsi
mov r14, rsi # Save N / 2
shr r14, 1
sub rsp, r14 # Make a tmp array
xor r15, r15
mov rbx, r12
cooley_tukey_spliting:
cmp r15, r14
je cooley_tukey_split
lea rax, [r12 + 2 * r15] # Moving all odd entries to the front of the array
movaps xmm0, XMMWORD PTR [rax + 16]
movaps xmm1, XMMWORD PTR [rax]
movaps XMMWORD PTR [rsp + r15], xmm0
movaps XMMWORD PTR [rbx], xmm1
add rbx, 16
add r15, 16
jmp cooley_tukey_spliting
cooley_tukey_split:
mov rax, rsp
lea rdi, [r12 + r13]
cooley_tukey_mov_data:
cmp rbx, rdi
je cooley_tukey_moved
movaps xmm0, XMMWORD PTR [rax]
movaps XMMWORD PTR [rbx], xmm0
add rbx, 16
add rax, 16
jmp cooley_tukey_mov_data
cooley_tukey_moved:
add rsp, r14
mov rdi, r12 # Makking a recursive call
mov rsi, r14
call cooley_tukey
lea rdi, [r12 + r14] # Makking a recursive call
mov rsi, r14
call cooley_tukey
lea rbx, [r12 + r14]
mov r14, rbx
mov r15, r12
cooley_tukey_loop:
cmp r15, rbx
je cooley_tukey_end
pxor xmm0, xmm0 # Calculate cexp(-2.0 * I * M_PI * i / N)
movsd xmm1, two_pi
mov rax, r14
sub rax, rbx
cvtsi2sdq xmm2, rax
cvtsi2sdq xmm3, r13
divsd xmm2, xmm3
mulsd xmm1, xmm2
call cexp
movq xmm2, QWORD PTR [r14] # Calculating X[i] - cexp() * X[i + N / 2]
movq xmm3, QWORD PTR [r14 + 8]
call __muldc3
movq xmm2, QWORD PTR [r15]
movq xmm3, QWORD PTR [r15 + 8]
subsd xmm2, xmm0
subsd xmm3, xmm1
movq QWORD PTR [r14], xmm2 # Save value in X[i + N / 2]
movq QWORD PTR [r14 + 8], xmm3
movq xmm0, QWORD PTR [r15] # Calculating X[i] -= X[i + N / 2] - X[i]
movq xmm1, QWORD PTR [r15 + 8]
subsd xmm2, xmm0
subsd xmm3, xmm1
subsd xmm0, xmm2
subsd xmm1, xmm3
movq QWORD PTR [r15], xmm0
movq QWORD PTR [r15 + 8], xmm1
add r14, 16
add r15, 16
jmp cooley_tukey_loop
cooley_tukey_end:
pop r15
pop r14
pop r13
pop r12
pop rbx
cooley_tukey_return:
ret
# rdi - array ptr
# rsi - array size
bit_reverse:
push rbx
push r12
push r13
push r14
push r15
mov r12, rdi # Save parameters
mov r13, rsi
shr r13, 4
xor r14, r14 # Loop through all entries
bit_reverse_entries:
cmp r14, r13
je bit_reverse_return
cvtsi2sdq xmm0, r13 # Calculating the number of bit in N
call log2
cvttsd2si rcx, xmm0
mov rdi, 1 # Calculating (1 << log2(N)) - 1
sal edi, cl
sub edi, 1
sub ecx, 1
mov rax, r14
mov r15, r14
bit_reverse_loop:
sar r15 # Check if r15 is 0
je bit_reverse_reversed
sal rax, 1 # Calculating (rax << 1) | (r15 & 1)
mov rsi, r15
and rsi, 1
or rax, rsi
sub ecx, 1 # Decrement bit count
jmp bit_reverse_loop
bit_reverse_reversed:
sal eax, cl # Calculate (rax << rcx) & (1 << bit count)
and rax, rdi
cmp rax, r14 # Check if rax is greater then r14
jle bit_reverse_no_swap # If so then swap entries
shl rax, 4 # Times index by 16 to get bytes to entry
shl r14, 4
movaps xmm0, XMMWORD PTR [r12 + rax]
movaps xmm1, XMMWORD PTR [r12 + r14]
movaps XMMWORD PTR [r12 + rax], xmm1
movaps XMMWORD PTR [r12 + r14], xmm0
shr r14, 4
bit_reverse_no_swap:
add r14, 1
jmp bit_reverse_entries
bit_reverse_return:
pop r15
pop r14
pop r13
pop r12
pop rbx
ret
# rdi - array ptr
# rsi - array size
iterative_cooley_tukey:
push r12
push r13
push r14
push r15
push rbx
sub rsp, 48
mov r12, rdi
mov r13, rsi
call bit_reverse # Bit reversing array
sar r13, 4 # Calculate log2(N)
cvtsi2sdq xmm0, r13
call log2
cvttsd2si rax, xmm0
mov QWORD PTR [rsp], rax # Save it to the stack
mov r14, 1
iter_ct_loop_i:
cmp r14, rax # Check if r14 is greater then log2(N)
jg iter_ct_end_i
movsd xmm0, two # Calculate stride = 2^(r14)
cvtsi2sdq xmm1, r14
call pow
cvttsd2si r10, xmm0
mov QWORD PTR [rsp + 40], r10# move stride to stack
movsd xmm1, two_pi # Calculating cexp(-2pi * I / stride)
divsd xmm1, xmm0
pxor xmm0, xmm0
call cexp
movq QWORD PTR [rsp + 8], xmm0 # Save it to stack
movq QWORD PTR [rsp + 16], xmm1
xor r15, r15
iter_ct_loop_j:
cmp r15, r13 # Check if r15 is less then array size
je iter_ct_end_j
movsd xmm4, one # Save 1 + 0i to stack
pxor xmm5, xmm5
movsd QWORD PTR [rsp + 24], xmm4
movsd QWORD PTR [rsp + 32], xmm5
xor rbx, rbx
mov rax, QWORD PTR [rsp + 40]# Calculate stride / 2
sar rax, 1
iter_ct_loop_k:
cmp rbx, rax # Check if rbx is less then stride / 2
je iter_ct_end_k
mov r8, r15 # Saving pointers to X[k + j + stride / 2] and X[k + j]
add r8, rbx
sal r8, 4
mov r9, QWORD PTR [rsp + 40]
sal r9, 3
add r9, r8
lea r9, [r12 + r9]
lea r8, [r12 + r8]
movsd xmm0, QWORD PTR [r9] # Calculate X[k + j] - v * X[k + j + stride / 2]
movsd xmm1, QWORD PTR [r9 + 8]
movsd xmm2, QWORD PTR [rsp + 24]
movsd xmm3, QWORD PTR [rsp + 32]
call __muldc3
movsd xmm2, QWORD PTR [r8]
movsd xmm3, QWORD PTR [r8 + 8]
subsd xmm2, xmm0
subsd xmm3, xmm1
movsd QWORD PTR [r9], xmm2 # Saving answer
movsd QWORD PTR [r9 + 8], xmm3
movsd xmm0, QWORD PTR [r8] # Calculating X[k + j] - (X[k + j + stride / 2] - X[k + j])
movsd xmm1, QWORD PTR [r8 + 8]
subsd xmm2, xmm0
subsd xmm3, xmm1
subsd xmm0, xmm2
subsd xmm1, xmm3
movsd QWORD PTR [r8], xmm0 # Saving answer
movsd QWORD PTR [r8 + 8], xmm1
movsd xmm0, QWORD PTR [rsp + 24] # Calculating v * w
movsd xmm1, QWORD PTR [rsp + 32]
movsd xmm2, QWORD PTR [rsp + 8]
movsd xmm3, QWORD PTR [rsp + 16]
call __muldc3
movsd QWORD PTR [rsp + 24], xmm0 # Saving answer
movsd QWORD PTR [rsp + 32], xmm1
add rbx, 1
mov rax, QWORD PTR [rsp + 40]
sar rax, 1
jmp iter_ct_loop_k
iter_ct_end_k:
add r15, QWORD PTR [rsp + 40]
jmp iter_ct_loop_j
iter_ct_end_j:
add r14, 1
mov rax, QWORD PTR [rsp]
jmp iter_ct_loop_i
iter_ct_end_i:
add rsp, 48
pop rbx
pop r15
pop r14
pop r13
pop r12
ret
# rdi - array a ptr
# rsi - array b ptr
# rdx - array size
approx:
push r12
push r13
push r14
push r15
mov r12, rdi
mov r13, rsi
mov r14, rdx
lea r15, [rdi + rdx]
sub rsp, 8
approx_loop:
cmp r12, r15
je approx_return
movsd xmm0, QWORD PTR[r13]
movsd xmm1, QWORD PTR[r13 + 8]
call cabs
movsd QWORD PTR [rsp], xmm0
movsd xmm0, QWORD PTR[r12]
movsd xmm1, QWORD PTR[r12 + 8]
call cabs
movsd xmm1, QWORD PTR [rsp]
subsd xmm0, xmm1
mov rdi, OFFSET fmt
mov rax, 1
call printf
add r12, 16
add r13, 16
jmp approx_loop
approx_return:
add rsp, 8
pop r15
pop r14
pop r13
pop r12
ret
main:
push r12
sub rsp, 2048
mov rdi, 0
call time
mov edi, eax
call srand
lea r12, [rsp + 1024]
loop:
cmp r12, rsp
je end_loop
sub r12, 16
call rand
cvtsi2sd xmm0, rax
divsd xmm0, rand_max
lea rax, [r12 + 1024]
movsd QWORD PTR [r12], xmm0
movsd QWORD PTR [rax], xmm0
mov QWORD PTR [r12 + 8], 0
mov QWORD PTR [rax + 8], 0
jmp loop
end_loop:
mov rdi, rsp
mov rsi, 1024
call iterative_cooley_tukey
lea rdi, [rsp + 1024]
mov rsi, 1024
call cooley_tukey
mov rdi, rsp
lea rsi, [rsp + 1024]
mov rdx, 1024
call approx
xor rax, rax
add rsp, 2048
pop r12
ret
|
usenix-security-verdict/verdict
| 70,025
|
deps/libcrux/sys/libjade/jazz/chacha20_avx2.s
|
.att_syntax
.text
.p2align 5
.globl _jade_stream_chacha_chacha20_ietf_amd64_avx2
.globl jade_stream_chacha_chacha20_ietf_amd64_avx2
.globl _jade_stream_chacha_chacha20_ietf_amd64_avx2_xor
.globl jade_stream_chacha_chacha20_ietf_amd64_avx2_xor
_jade_stream_chacha_chacha20_ietf_amd64_avx2:
jade_stream_chacha_chacha20_ietf_amd64_avx2:
movq %rsp, %r10
leaq -1152(%rsp), %rsp
andq $-32, %rsp
cmpq $257, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$1
vmovdqu glob_data + 160(%rip), %ymm0
vmovdqu glob_data + 128(%rip), %ymm1
vmovdqu %ymm0, (%rsp)
vmovdqu %ymm1, 32(%rsp)
vmovdqu glob_data + 256(%rip), %ymm0
vmovdqu glob_data + 288(%rip), %ymm1
vmovdqu glob_data + 320(%rip), %ymm2
vmovdqu glob_data + 352(%rip), %ymm3
vpbroadcastd (%rcx), %ymm4
vpbroadcastd 4(%rcx), %ymm5
vpbroadcastd 8(%rcx), %ymm6
vpbroadcastd 12(%rcx), %ymm7
vpbroadcastd 16(%rcx), %ymm8
vpbroadcastd 20(%rcx), %ymm9
vpbroadcastd 24(%rcx), %ymm10
vpbroadcastd 28(%rcx), %ymm11
vmovdqu glob_data + 224(%rip), %ymm12
vpbroadcastd (%rdx), %ymm13
vpbroadcastd 4(%rdx), %ymm14
vpbroadcastd 8(%rdx), %ymm15
vmovdqu %ymm0, 640(%rsp)
vmovdqu %ymm1, 672(%rsp)
vmovdqu %ymm2, 704(%rsp)
vmovdqu %ymm3, 736(%rsp)
vmovdqu %ymm4, 768(%rsp)
vmovdqu %ymm5, 800(%rsp)
vmovdqu %ymm6, 832(%rsp)
vmovdqu %ymm7, 864(%rsp)
vmovdqu %ymm8, 896(%rsp)
vmovdqu %ymm9, 928(%rsp)
vmovdqu %ymm10, 960(%rsp)
vmovdqu %ymm11, 992(%rsp)
vmovdqu %ymm12, 1024(%rsp)
vmovdqu %ymm13, 1056(%rsp)
vmovdqu %ymm14, 1088(%rsp)
vmovdqu %ymm15, 1120(%rsp)
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2$32
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$33:
vmovdqu 640(%rsp), %ymm0
vmovdqu 672(%rsp), %ymm1
vmovdqu 704(%rsp), %ymm2
vmovdqu 736(%rsp), %ymm3
vmovdqu 768(%rsp), %ymm4
vmovdqu 800(%rsp), %ymm5
vmovdqu 832(%rsp), %ymm6
vmovdqu 864(%rsp), %ymm7
vmovdqu 896(%rsp), %ymm8
vmovdqu 928(%rsp), %ymm9
vmovdqu 960(%rsp), %ymm10
vmovdqu 992(%rsp), %ymm11
vmovdqu 1024(%rsp), %ymm12
vmovdqu 1056(%rsp), %ymm13
vmovdqu 1088(%rsp), %ymm14
vmovdqu 1120(%rsp), %ymm15
vmovdqu %ymm15, 64(%rsp)
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$34:
vpaddd %ymm4, %ymm0, %ymm0
vpxor %ymm0, %ymm12, %ymm12
vpshufb (%rsp), %ymm12, %ymm12
vpaddd %ymm12, %ymm8, %ymm8
vpaddd %ymm6, %ymm2, %ymm2
vpxor %ymm8, %ymm4, %ymm4
vpxor %ymm2, %ymm14, %ymm14
vpslld $12, %ymm4, %ymm15
vpsrld $20, %ymm4, %ymm4
vpxor %ymm15, %ymm4, %ymm4
vpshufb (%rsp), %ymm14, %ymm14
vpaddd %ymm4, %ymm0, %ymm0
vpaddd %ymm14, %ymm10, %ymm10
vpxor %ymm0, %ymm12, %ymm12
vpxor %ymm10, %ymm6, %ymm6
vpshufb 32(%rsp), %ymm12, %ymm12
vpslld $12, %ymm6, %ymm15
vpsrld $20, %ymm6, %ymm6
vpxor %ymm15, %ymm6, %ymm6
vpaddd %ymm12, %ymm8, %ymm8
vpaddd %ymm6, %ymm2, %ymm2
vpxor %ymm8, %ymm4, %ymm4
vpxor %ymm2, %ymm14, %ymm14
vpslld $7, %ymm4, %ymm15
vpsrld $25, %ymm4, %ymm4
vpxor %ymm15, %ymm4, %ymm4
vpshufb 32(%rsp), %ymm14, %ymm14
vpaddd %ymm14, %ymm10, %ymm10
vpxor %ymm10, %ymm6, %ymm6
vpslld $7, %ymm6, %ymm15
vpsrld $25, %ymm6, %ymm6
vpxor %ymm15, %ymm6, %ymm6
vmovdqu 64(%rsp), %ymm15
vmovdqu %ymm14, 96(%rsp)
vpaddd %ymm5, %ymm1, %ymm1
vpxor %ymm1, %ymm13, %ymm13
vpshufb (%rsp), %ymm13, %ymm13
vpaddd %ymm13, %ymm9, %ymm9
vpaddd %ymm7, %ymm3, %ymm3
vpxor %ymm9, %ymm5, %ymm5
vpxor %ymm3, %ymm15, %ymm14
vpslld $12, %ymm5, %ymm15
vpsrld $20, %ymm5, %ymm5
vpxor %ymm15, %ymm5, %ymm5
vpshufb (%rsp), %ymm14, %ymm14
vpaddd %ymm5, %ymm1, %ymm1
vpaddd %ymm14, %ymm11, %ymm11
vpxor %ymm1, %ymm13, %ymm13
vpxor %ymm11, %ymm7, %ymm7
vpshufb 32(%rsp), %ymm13, %ymm13
vpslld $12, %ymm7, %ymm15
vpsrld $20, %ymm7, %ymm7
vpxor %ymm15, %ymm7, %ymm7
vpaddd %ymm13, %ymm9, %ymm9
vpaddd %ymm7, %ymm3, %ymm3
vpxor %ymm9, %ymm5, %ymm5
vpxor %ymm3, %ymm14, %ymm14
vpslld $7, %ymm5, %ymm15
vpsrld $25, %ymm5, %ymm5
vpxor %ymm15, %ymm5, %ymm5
vpshufb 32(%rsp), %ymm14, %ymm14
vpaddd %ymm14, %ymm11, %ymm11
vpxor %ymm11, %ymm7, %ymm7
vpslld $7, %ymm7, %ymm15
vpsrld $25, %ymm7, %ymm7
vpxor %ymm15, %ymm7, %ymm7
vpaddd %ymm6, %ymm1, %ymm1
vpxor %ymm1, %ymm12, %ymm12
vpshufb (%rsp), %ymm12, %ymm12
vpaddd %ymm12, %ymm11, %ymm11
vpaddd %ymm5, %ymm0, %ymm0
vpxor %ymm11, %ymm6, %ymm6
vpxor %ymm0, %ymm14, %ymm14
vpslld $12, %ymm6, %ymm15
vpsrld $20, %ymm6, %ymm6
vpxor %ymm15, %ymm6, %ymm6
vpshufb (%rsp), %ymm14, %ymm14
vpaddd %ymm6, %ymm1, %ymm1
vpaddd %ymm14, %ymm10, %ymm10
vpxor %ymm1, %ymm12, %ymm12
vpxor %ymm10, %ymm5, %ymm5
vpshufb 32(%rsp), %ymm12, %ymm12
vpslld $12, %ymm5, %ymm15
vpsrld $20, %ymm5, %ymm5
vpxor %ymm15, %ymm5, %ymm5
vpaddd %ymm12, %ymm11, %ymm11
vpaddd %ymm5, %ymm0, %ymm0
vpxor %ymm11, %ymm6, %ymm6
vpxor %ymm0, %ymm14, %ymm14
vpslld $7, %ymm6, %ymm15
vpsrld $25, %ymm6, %ymm6
vpxor %ymm15, %ymm6, %ymm6
vpshufb 32(%rsp), %ymm14, %ymm14
vpaddd %ymm14, %ymm10, %ymm10
vpxor %ymm10, %ymm5, %ymm5
vpslld $7, %ymm5, %ymm15
vpsrld $25, %ymm5, %ymm5
vpxor %ymm15, %ymm5, %ymm5
vmovdqu 96(%rsp), %ymm15
vmovdqu %ymm14, 64(%rsp)
vpaddd %ymm7, %ymm2, %ymm2
vpxor %ymm2, %ymm13, %ymm13
vpshufb (%rsp), %ymm13, %ymm13
vpaddd %ymm13, %ymm8, %ymm8
vpaddd %ymm4, %ymm3, %ymm3
vpxor %ymm8, %ymm7, %ymm7
vpxor %ymm3, %ymm15, %ymm14
vpslld $12, %ymm7, %ymm15
vpsrld $20, %ymm7, %ymm7
vpxor %ymm15, %ymm7, %ymm7
vpshufb (%rsp), %ymm14, %ymm14
vpaddd %ymm7, %ymm2, %ymm2
vpaddd %ymm14, %ymm9, %ymm9
vpxor %ymm2, %ymm13, %ymm13
vpxor %ymm9, %ymm4, %ymm4
vpshufb 32(%rsp), %ymm13, %ymm13
vpslld $12, %ymm4, %ymm15
vpsrld $20, %ymm4, %ymm4
vpxor %ymm15, %ymm4, %ymm4
vpaddd %ymm13, %ymm8, %ymm8
vpaddd %ymm4, %ymm3, %ymm3
vpxor %ymm8, %ymm7, %ymm7
vpxor %ymm3, %ymm14, %ymm14
vpslld $7, %ymm7, %ymm15
vpsrld $25, %ymm7, %ymm7
vpxor %ymm15, %ymm7, %ymm7
vpshufb 32(%rsp), %ymm14, %ymm14
vpaddd %ymm14, %ymm9, %ymm9
vpxor %ymm9, %ymm4, %ymm4
vpslld $7, %ymm4, %ymm15
vpsrld $25, %ymm4, %ymm4
vpxor %ymm15, %ymm4, %ymm4
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$34
vmovdqu 64(%rsp), %ymm15
vpaddd 640(%rsp), %ymm0, %ymm0
vpaddd 672(%rsp), %ymm1, %ymm1
vpaddd 704(%rsp), %ymm2, %ymm2
vpaddd 736(%rsp), %ymm3, %ymm3
vpaddd 768(%rsp), %ymm4, %ymm4
vpaddd 800(%rsp), %ymm5, %ymm5
vpaddd 832(%rsp), %ymm6, %ymm6
vpaddd 864(%rsp), %ymm7, %ymm7
vpaddd 896(%rsp), %ymm8, %ymm8
vpaddd 928(%rsp), %ymm9, %ymm9
vpaddd 960(%rsp), %ymm10, %ymm10
vpaddd 992(%rsp), %ymm11, %ymm11
vpaddd 1024(%rsp), %ymm12, %ymm12
vpaddd 1056(%rsp), %ymm13, %ymm13
vpaddd 1088(%rsp), %ymm14, %ymm14
vpaddd 1120(%rsp), %ymm15, %ymm15
vmovdqu %ymm8, 128(%rsp)
vmovdqu %ymm9, 160(%rsp)
vmovdqu %ymm10, 192(%rsp)
vmovdqu %ymm11, 224(%rsp)
vmovdqu %ymm12, 256(%rsp)
vmovdqu %ymm13, 288(%rsp)
vmovdqu %ymm14, 320(%rsp)
vmovdqu %ymm15, 352(%rsp)
vpunpckldq %ymm1, %ymm0, %ymm8
vpunpckhdq %ymm1, %ymm0, %ymm0
vpunpckldq %ymm3, %ymm2, %ymm1
vpunpckhdq %ymm3, %ymm2, %ymm2
vpunpckldq %ymm5, %ymm4, %ymm3
vpunpckhdq %ymm5, %ymm4, %ymm4
vpunpckldq %ymm7, %ymm6, %ymm5
vpunpckhdq %ymm7, %ymm6, %ymm6
vpunpcklqdq %ymm1, %ymm8, %ymm7
vpunpcklqdq %ymm5, %ymm3, %ymm9
vpunpckhqdq %ymm1, %ymm8, %ymm1
vpunpckhqdq %ymm5, %ymm3, %ymm3
vpunpcklqdq %ymm2, %ymm0, %ymm5
vpunpcklqdq %ymm6, %ymm4, %ymm8
vpunpckhqdq %ymm2, %ymm0, %ymm0
vpunpckhqdq %ymm6, %ymm4, %ymm2
vperm2i128 $32, %ymm9, %ymm7, %ymm4
vperm2i128 $49, %ymm9, %ymm7, %ymm6
vperm2i128 $32, %ymm3, %ymm1, %ymm7
vperm2i128 $49, %ymm3, %ymm1, %ymm1
vperm2i128 $32, %ymm8, %ymm5, %ymm3
vperm2i128 $49, %ymm8, %ymm5, %ymm5
vperm2i128 $32, %ymm2, %ymm0, %ymm8
vperm2i128 $49, %ymm2, %ymm0, %ymm0
vmovdqu %ymm4, (%rdi)
vmovdqu %ymm7, 64(%rdi)
vmovdqu %ymm3, 128(%rdi)
vmovdqu %ymm8, 192(%rdi)
vmovdqu %ymm6, 256(%rdi)
vmovdqu %ymm1, 320(%rdi)
vmovdqu %ymm5, 384(%rdi)
vmovdqu %ymm0, 448(%rdi)
vmovdqu 128(%rsp), %ymm0
vmovdqu 192(%rsp), %ymm1
vmovdqu 256(%rsp), %ymm2
vmovdqu 320(%rsp), %ymm3
vpunpckldq 160(%rsp), %ymm0, %ymm4
vpunpckhdq 160(%rsp), %ymm0, %ymm0
vpunpckldq 224(%rsp), %ymm1, %ymm5
vpunpckhdq 224(%rsp), %ymm1, %ymm1
vpunpckldq 288(%rsp), %ymm2, %ymm6
vpunpckhdq 288(%rsp), %ymm2, %ymm2
vpunpckldq 352(%rsp), %ymm3, %ymm7
vpunpckhdq 352(%rsp), %ymm3, %ymm3
vpunpcklqdq %ymm5, %ymm4, %ymm8
vpunpcklqdq %ymm7, %ymm6, %ymm9
vpunpckhqdq %ymm5, %ymm4, %ymm4
vpunpckhqdq %ymm7, %ymm6, %ymm5
vpunpcklqdq %ymm1, %ymm0, %ymm6
vpunpcklqdq %ymm3, %ymm2, %ymm7
vpunpckhqdq %ymm1, %ymm0, %ymm0
vpunpckhqdq %ymm3, %ymm2, %ymm1
vperm2i128 $32, %ymm9, %ymm8, %ymm2
vperm2i128 $49, %ymm9, %ymm8, %ymm3
vperm2i128 $32, %ymm5, %ymm4, %ymm8
vperm2i128 $49, %ymm5, %ymm4, %ymm4
vperm2i128 $32, %ymm7, %ymm6, %ymm5
vperm2i128 $49, %ymm7, %ymm6, %ymm6
vperm2i128 $32, %ymm1, %ymm0, %ymm7
vperm2i128 $49, %ymm1, %ymm0, %ymm0
vmovdqu %ymm2, 32(%rdi)
vmovdqu %ymm8, 96(%rdi)
vmovdqu %ymm5, 160(%rdi)
vmovdqu %ymm7, 224(%rdi)
vmovdqu %ymm3, 288(%rdi)
vmovdqu %ymm4, 352(%rdi)
vmovdqu %ymm6, 416(%rdi)
vmovdqu %ymm0, 480(%rdi)
addq $512, %rdi
addq $-512, %rsi
vmovdqu glob_data + 0(%rip), %ymm0
vpaddd 1024(%rsp), %ymm0, %ymm0
vmovdqu %ymm0, 1024(%rsp)
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$32:
cmpq $512, %rsi
jnb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$33
cmpq $0, %rsi
jbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$2
vmovdqu 640(%rsp), %ymm0
vmovdqu 672(%rsp), %ymm1
vmovdqu 704(%rsp), %ymm2
vmovdqu 736(%rsp), %ymm3
vmovdqu 768(%rsp), %ymm4
vmovdqu 800(%rsp), %ymm5
vmovdqu 832(%rsp), %ymm6
vmovdqu 864(%rsp), %ymm7
vmovdqu 896(%rsp), %ymm8
vmovdqu 928(%rsp), %ymm9
vmovdqu 960(%rsp), %ymm10
vmovdqu 992(%rsp), %ymm11
vmovdqu 1024(%rsp), %ymm12
vmovdqu 1056(%rsp), %ymm13
vmovdqu 1088(%rsp), %ymm14
vmovdqu 1120(%rsp), %ymm15
vmovdqu %ymm15, 64(%rsp)
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$31:
vpaddd %ymm4, %ymm0, %ymm0
vpxor %ymm0, %ymm12, %ymm12
vpshufb (%rsp), %ymm12, %ymm12
vpaddd %ymm12, %ymm8, %ymm8
vpaddd %ymm6, %ymm2, %ymm2
vpxor %ymm8, %ymm4, %ymm4
vpxor %ymm2, %ymm14, %ymm14
vpslld $12, %ymm4, %ymm15
vpsrld $20, %ymm4, %ymm4
vpxor %ymm15, %ymm4, %ymm4
vpshufb (%rsp), %ymm14, %ymm14
vpaddd %ymm4, %ymm0, %ymm0
vpaddd %ymm14, %ymm10, %ymm10
vpxor %ymm0, %ymm12, %ymm12
vpxor %ymm10, %ymm6, %ymm6
vpshufb 32(%rsp), %ymm12, %ymm12
vpslld $12, %ymm6, %ymm15
vpsrld $20, %ymm6, %ymm6
vpxor %ymm15, %ymm6, %ymm6
vpaddd %ymm12, %ymm8, %ymm8
vpaddd %ymm6, %ymm2, %ymm2
vpxor %ymm8, %ymm4, %ymm4
vpxor %ymm2, %ymm14, %ymm14
vpslld $7, %ymm4, %ymm15
vpsrld $25, %ymm4, %ymm4
vpxor %ymm15, %ymm4, %ymm4
vpshufb 32(%rsp), %ymm14, %ymm14
vpaddd %ymm14, %ymm10, %ymm10
vpxor %ymm10, %ymm6, %ymm6
vpslld $7, %ymm6, %ymm15
vpsrld $25, %ymm6, %ymm6
vpxor %ymm15, %ymm6, %ymm6
vmovdqu 64(%rsp), %ymm15
vmovdqu %ymm14, 96(%rsp)
vpaddd %ymm5, %ymm1, %ymm1
vpxor %ymm1, %ymm13, %ymm13
vpshufb (%rsp), %ymm13, %ymm13
vpaddd %ymm13, %ymm9, %ymm9
vpaddd %ymm7, %ymm3, %ymm3
vpxor %ymm9, %ymm5, %ymm5
vpxor %ymm3, %ymm15, %ymm14
vpslld $12, %ymm5, %ymm15
vpsrld $20, %ymm5, %ymm5
vpxor %ymm15, %ymm5, %ymm5
vpshufb (%rsp), %ymm14, %ymm14
vpaddd %ymm5, %ymm1, %ymm1
vpaddd %ymm14, %ymm11, %ymm11
vpxor %ymm1, %ymm13, %ymm13
vpxor %ymm11, %ymm7, %ymm7
vpshufb 32(%rsp), %ymm13, %ymm13
vpslld $12, %ymm7, %ymm15
vpsrld $20, %ymm7, %ymm7
vpxor %ymm15, %ymm7, %ymm7
vpaddd %ymm13, %ymm9, %ymm9
vpaddd %ymm7, %ymm3, %ymm3
vpxor %ymm9, %ymm5, %ymm5
vpxor %ymm3, %ymm14, %ymm14
vpslld $7, %ymm5, %ymm15
vpsrld $25, %ymm5, %ymm5
vpxor %ymm15, %ymm5, %ymm5
vpshufb 32(%rsp), %ymm14, %ymm14
vpaddd %ymm14, %ymm11, %ymm11
vpxor %ymm11, %ymm7, %ymm7
vpslld $7, %ymm7, %ymm15
vpsrld $25, %ymm7, %ymm7
vpxor %ymm15, %ymm7, %ymm7
vpaddd %ymm6, %ymm1, %ymm1
vpxor %ymm1, %ymm12, %ymm12
vpshufb (%rsp), %ymm12, %ymm12
vpaddd %ymm12, %ymm11, %ymm11
vpaddd %ymm5, %ymm0, %ymm0
vpxor %ymm11, %ymm6, %ymm6
vpxor %ymm0, %ymm14, %ymm14
vpslld $12, %ymm6, %ymm15
vpsrld $20, %ymm6, %ymm6
vpxor %ymm15, %ymm6, %ymm6
vpshufb (%rsp), %ymm14, %ymm14
vpaddd %ymm6, %ymm1, %ymm1
vpaddd %ymm14, %ymm10, %ymm10
vpxor %ymm1, %ymm12, %ymm12
vpxor %ymm10, %ymm5, %ymm5
vpshufb 32(%rsp), %ymm12, %ymm12
vpslld $12, %ymm5, %ymm15
vpsrld $20, %ymm5, %ymm5
vpxor %ymm15, %ymm5, %ymm5
vpaddd %ymm12, %ymm11, %ymm11
vpaddd %ymm5, %ymm0, %ymm0
vpxor %ymm11, %ymm6, %ymm6
vpxor %ymm0, %ymm14, %ymm14
vpslld $7, %ymm6, %ymm15
vpsrld $25, %ymm6, %ymm6
vpxor %ymm15, %ymm6, %ymm6
vpshufb 32(%rsp), %ymm14, %ymm14
vpaddd %ymm14, %ymm10, %ymm10
vpxor %ymm10, %ymm5, %ymm5
vpslld $7, %ymm5, %ymm15
vpsrld $25, %ymm5, %ymm5
vpxor %ymm15, %ymm5, %ymm5
vmovdqu 96(%rsp), %ymm15
vmovdqu %ymm14, 64(%rsp)
vpaddd %ymm7, %ymm2, %ymm2
vpxor %ymm2, %ymm13, %ymm13
vpshufb (%rsp), %ymm13, %ymm13
vpaddd %ymm13, %ymm8, %ymm8
vpaddd %ymm4, %ymm3, %ymm3
vpxor %ymm8, %ymm7, %ymm7
vpxor %ymm3, %ymm15, %ymm14
vpslld $12, %ymm7, %ymm15
vpsrld $20, %ymm7, %ymm7
vpxor %ymm15, %ymm7, %ymm7
vpshufb (%rsp), %ymm14, %ymm14
vpaddd %ymm7, %ymm2, %ymm2
vpaddd %ymm14, %ymm9, %ymm9
vpxor %ymm2, %ymm13, %ymm13
vpxor %ymm9, %ymm4, %ymm4
vpshufb 32(%rsp), %ymm13, %ymm13
vpslld $12, %ymm4, %ymm15
vpsrld $20, %ymm4, %ymm4
vpxor %ymm15, %ymm4, %ymm4
vpaddd %ymm13, %ymm8, %ymm8
vpaddd %ymm4, %ymm3, %ymm3
vpxor %ymm8, %ymm7, %ymm7
vpxor %ymm3, %ymm14, %ymm14
vpslld $7, %ymm7, %ymm15
vpsrld $25, %ymm7, %ymm7
vpxor %ymm15, %ymm7, %ymm7
vpshufb 32(%rsp), %ymm14, %ymm14
vpaddd %ymm14, %ymm9, %ymm9
vpxor %ymm9, %ymm4, %ymm4
vpslld $7, %ymm4, %ymm15
vpsrld $25, %ymm4, %ymm4
vpxor %ymm15, %ymm4, %ymm4
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$31
vmovdqu 64(%rsp), %ymm15
vpaddd 640(%rsp), %ymm0, %ymm0
vpaddd 672(%rsp), %ymm1, %ymm1
vpaddd 704(%rsp), %ymm2, %ymm2
vpaddd 736(%rsp), %ymm3, %ymm3
vpaddd 768(%rsp), %ymm4, %ymm4
vpaddd 800(%rsp), %ymm5, %ymm5
vpaddd 832(%rsp), %ymm6, %ymm6
vpaddd 864(%rsp), %ymm7, %ymm7
vpaddd 896(%rsp), %ymm8, %ymm8
vpaddd 928(%rsp), %ymm9, %ymm9
vpaddd 960(%rsp), %ymm10, %ymm10
vpaddd 992(%rsp), %ymm11, %ymm11
vpaddd 1024(%rsp), %ymm12, %ymm12
vpaddd 1056(%rsp), %ymm13, %ymm13
vpaddd 1088(%rsp), %ymm14, %ymm14
vpaddd 1120(%rsp), %ymm15, %ymm15
vmovdqu %ymm8, 128(%rsp)
vmovdqu %ymm9, 160(%rsp)
vmovdqu %ymm10, 192(%rsp)
vmovdqu %ymm11, 224(%rsp)
vmovdqu %ymm12, 256(%rsp)
vmovdqu %ymm13, 288(%rsp)
vmovdqu %ymm14, 320(%rsp)
vmovdqu %ymm15, 352(%rsp)
vpunpckldq %ymm1, %ymm0, %ymm8
vpunpckhdq %ymm1, %ymm0, %ymm0
vpunpckldq %ymm3, %ymm2, %ymm1
vpunpckhdq %ymm3, %ymm2, %ymm2
vpunpckldq %ymm5, %ymm4, %ymm3
vpunpckhdq %ymm5, %ymm4, %ymm4
vpunpckldq %ymm7, %ymm6, %ymm5
vpunpckhdq %ymm7, %ymm6, %ymm6
vpunpcklqdq %ymm1, %ymm8, %ymm7
vpunpcklqdq %ymm5, %ymm3, %ymm9
vpunpckhqdq %ymm1, %ymm8, %ymm1
vpunpckhqdq %ymm5, %ymm3, %ymm3
vpunpcklqdq %ymm2, %ymm0, %ymm5
vpunpcklqdq %ymm6, %ymm4, %ymm8
vpunpckhqdq %ymm2, %ymm0, %ymm0
vpunpckhqdq %ymm6, %ymm4, %ymm2
vperm2i128 $32, %ymm9, %ymm7, %ymm4
vperm2i128 $49, %ymm9, %ymm7, %ymm6
vperm2i128 $32, %ymm3, %ymm1, %ymm7
vperm2i128 $49, %ymm3, %ymm1, %ymm1
vperm2i128 $32, %ymm8, %ymm5, %ymm3
vperm2i128 $49, %ymm8, %ymm5, %ymm5
vperm2i128 $32, %ymm2, %ymm0, %ymm8
vperm2i128 $49, %ymm2, %ymm0, %ymm0
vmovdqu %ymm4, 384(%rsp)
vmovdqu %ymm7, 416(%rsp)
vmovdqu %ymm3, 448(%rsp)
vmovdqu %ymm8, 480(%rsp)
vmovdqu %ymm6, 512(%rsp)
vmovdqu %ymm1, 544(%rsp)
vmovdqu %ymm5, 576(%rsp)
vmovdqu %ymm0, 608(%rsp)
vmovdqu 128(%rsp), %ymm0
vmovdqu 192(%rsp), %ymm1
vmovdqu 256(%rsp), %ymm2
vmovdqu 320(%rsp), %ymm3
vpunpckldq 160(%rsp), %ymm0, %ymm4
vpunpckhdq 160(%rsp), %ymm0, %ymm0
vpunpckldq 224(%rsp), %ymm1, %ymm5
vpunpckhdq 224(%rsp), %ymm1, %ymm1
vpunpckldq 288(%rsp), %ymm2, %ymm6
vpunpckhdq 288(%rsp), %ymm2, %ymm2
vpunpckldq 352(%rsp), %ymm3, %ymm7
vpunpckhdq 352(%rsp), %ymm3, %ymm3
vpunpcklqdq %ymm5, %ymm4, %ymm8
vpunpcklqdq %ymm7, %ymm6, %ymm9
vpunpckhqdq %ymm5, %ymm4, %ymm4
vpunpckhqdq %ymm7, %ymm6, %ymm5
vpunpcklqdq %ymm1, %ymm0, %ymm6
vpunpcklqdq %ymm3, %ymm2, %ymm7
vpunpckhqdq %ymm1, %ymm0, %ymm0
vpunpckhqdq %ymm3, %ymm2, %ymm1
vperm2i128 $32, %ymm9, %ymm8, %ymm2
vperm2i128 $49, %ymm9, %ymm8, %ymm3
vperm2i128 $32, %ymm5, %ymm4, %ymm8
vperm2i128 $49, %ymm5, %ymm4, %ymm4
vperm2i128 $32, %ymm7, %ymm6, %ymm5
vperm2i128 $49, %ymm7, %ymm6, %ymm6
vperm2i128 $32, %ymm1, %ymm0, %ymm7
vperm2i128 $49, %ymm1, %ymm0, %ymm0
vmovdqu 384(%rsp), %ymm12
vmovdqu %ymm2, %ymm11
vmovdqu 416(%rsp), %ymm10
vmovdqu %ymm8, %ymm9
vmovdqu 448(%rsp), %ymm8
vmovdqu 480(%rsp), %ymm2
vmovdqu %ymm7, %ymm1
cmpq $256, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$30
vmovdqu %ymm12, (%rdi)
vmovdqu %ymm11, 32(%rdi)
vmovdqu %ymm10, 64(%rdi)
vmovdqu %ymm9, 96(%rdi)
vmovdqu %ymm8, 128(%rdi)
vmovdqu %ymm5, 160(%rdi)
vmovdqu %ymm2, 192(%rdi)
vmovdqu %ymm1, 224(%rdi)
addq $256, %rdi
addq $-256, %rsi
vmovdqu 512(%rsp), %ymm12
vmovdqu %ymm3, %ymm11
vmovdqu 544(%rsp), %ymm10
vmovdqu %ymm4, %ymm9
vmovdqu 576(%rsp), %ymm8
vmovdqu %ymm6, %ymm5
vmovdqu 608(%rsp), %ymm2
vmovdqu %ymm0, %ymm1
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$30:
cmpq $128, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$29
vmovdqu %ymm12, (%rdi)
vmovdqu %ymm11, 32(%rdi)
vmovdqu %ymm10, 64(%rdi)
vmovdqu %ymm9, 96(%rdi)
addq $128, %rdi
addq $-128, %rsi
vmovdqu %ymm8, %ymm12
vmovdqu %ymm5, %ymm11
vmovdqu %ymm2, %ymm10
vmovdqu %ymm1, %ymm9
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$29:
cmpq $64, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$28
vmovdqu %ymm12, (%rdi)
vmovdqu %ymm11, 32(%rdi)
addq $64, %rdi
addq $-64, %rsi
vmovdqu %ymm10, %ymm12
vmovdqu %ymm9, %ymm11
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$28:
cmpq $32, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$27
vmovdqu %ymm12, (%rdi)
addq $32, %rdi
addq $-32, %rsi
vmovdqu %ymm11, %ymm12
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$27:
vmovdqu %xmm12, %xmm0
cmpq $16, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$26
vmovdqu %xmm0, (%rdi)
addq $16, %rdi
addq $-16, %rsi
vextracti128 $1, %ymm12, %xmm0
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$26:
vpextrq $0, %xmm0, %rax
cmpq $8, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$23
movq %rax, (%rdi)
addq $8, %rdi
addq $-8, %rsi
vpextrq $1, %xmm0, %rax
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$25:
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2$23
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$24:
movb %al, %cl
movb %cl, (%rdi)
shrq $8, %rax
incq %rdi
addq $-1, %rsi
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$23:
cmpq $0, %rsi
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$24
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$22:
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2$2
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$1:
vmovdqu glob_data + 160(%rip), %ymm0
vmovdqu glob_data + 128(%rip), %ymm1
vmovdqu glob_data + 480(%rip), %ymm2
vbroadcasti128 (%rcx), %ymm3
vbroadcasti128 16(%rcx), %ymm4
vpxor %xmm5, %xmm5, %xmm5
vpinsrd $1, (%rdx), %xmm5, %xmm5
vpinsrq $1, 4(%rdx), %xmm5, %xmm5
vpxor %ymm6, %ymm6, %ymm6
vinserti128 $0, %xmm5, %ymm6, %ymm6
vinserti128 $1, %xmm5, %ymm6, %ymm5
vpaddd glob_data + 96(%rip), %ymm5, %ymm5
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2$19
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$20:
vmovdqu %ymm2, %ymm6
vmovdqu %ymm3, %ymm7
vmovdqu %ymm4, %ymm8
vmovdqu %ymm5, %ymm9
vmovdqu %ymm2, %ymm10
vmovdqu %ymm3, %ymm11
vmovdqu %ymm4, %ymm12
vmovdqu %ymm5, %ymm13
vpaddd glob_data + 64(%rip), %ymm13, %ymm13
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$21:
vpaddd %ymm7, %ymm6, %ymm6
vpaddd %ymm11, %ymm10, %ymm10
vpxor %ymm6, %ymm9, %ymm9
vpxor %ymm10, %ymm13, %ymm13
vpshufb %ymm0, %ymm9, %ymm9
vpshufb %ymm0, %ymm13, %ymm13
vpaddd %ymm9, %ymm8, %ymm8
vpaddd %ymm13, %ymm12, %ymm12
vpxor %ymm8, %ymm7, %ymm7
vpslld $12, %ymm7, %ymm14
vpsrld $20, %ymm7, %ymm7
vpxor %ymm12, %ymm11, %ymm11
vpxor %ymm14, %ymm7, %ymm7
vpslld $12, %ymm11, %ymm14
vpsrld $20, %ymm11, %ymm11
vpxor %ymm14, %ymm11, %ymm11
vpaddd %ymm7, %ymm6, %ymm6
vpaddd %ymm11, %ymm10, %ymm10
vpxor %ymm6, %ymm9, %ymm9
vpxor %ymm10, %ymm13, %ymm13
vpshufb %ymm1, %ymm9, %ymm9
vpshufb %ymm1, %ymm13, %ymm13
vpaddd %ymm9, %ymm8, %ymm8
vpaddd %ymm13, %ymm12, %ymm12
vpxor %ymm8, %ymm7, %ymm7
vpslld $7, %ymm7, %ymm14
vpsrld $25, %ymm7, %ymm7
vpxor %ymm12, %ymm11, %ymm11
vpxor %ymm14, %ymm7, %ymm7
vpslld $7, %ymm11, %ymm14
vpsrld $25, %ymm11, %ymm11
vpxor %ymm14, %ymm11, %ymm11
vpshufd $57, %ymm7, %ymm7
vpshufd $78, %ymm8, %ymm8
vpshufd $-109, %ymm9, %ymm9
vpshufd $57, %ymm11, %ymm11
vpshufd $78, %ymm12, %ymm12
vpshufd $-109, %ymm13, %ymm13
vpaddd %ymm7, %ymm6, %ymm6
vpaddd %ymm11, %ymm10, %ymm10
vpxor %ymm6, %ymm9, %ymm9
vpxor %ymm10, %ymm13, %ymm13
vpshufb %ymm0, %ymm9, %ymm9
vpshufb %ymm0, %ymm13, %ymm13
vpaddd %ymm9, %ymm8, %ymm8
vpaddd %ymm13, %ymm12, %ymm12
vpxor %ymm8, %ymm7, %ymm7
vpslld $12, %ymm7, %ymm14
vpsrld $20, %ymm7, %ymm7
vpxor %ymm12, %ymm11, %ymm11
vpxor %ymm14, %ymm7, %ymm7
vpslld $12, %ymm11, %ymm14
vpsrld $20, %ymm11, %ymm11
vpxor %ymm14, %ymm11, %ymm11
vpaddd %ymm7, %ymm6, %ymm6
vpaddd %ymm11, %ymm10, %ymm10
vpxor %ymm6, %ymm9, %ymm9
vpxor %ymm10, %ymm13, %ymm13
vpshufb %ymm1, %ymm9, %ymm9
vpshufb %ymm1, %ymm13, %ymm13
vpaddd %ymm9, %ymm8, %ymm8
vpaddd %ymm13, %ymm12, %ymm12
vpxor %ymm8, %ymm7, %ymm7
vpslld $7, %ymm7, %ymm14
vpsrld $25, %ymm7, %ymm7
vpxor %ymm12, %ymm11, %ymm11
vpxor %ymm14, %ymm7, %ymm7
vpslld $7, %ymm11, %ymm14
vpsrld $25, %ymm11, %ymm11
vpxor %ymm14, %ymm11, %ymm11
vpshufd $-109, %ymm7, %ymm7
vpshufd $78, %ymm8, %ymm8
vpshufd $57, %ymm9, %ymm9
vpshufd $-109, %ymm11, %ymm11
vpshufd $78, %ymm12, %ymm12
vpshufd $57, %ymm13, %ymm13
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$21
vpaddd %ymm2, %ymm6, %ymm6
vpaddd %ymm3, %ymm7, %ymm7
vpaddd %ymm4, %ymm8, %ymm8
vpaddd %ymm5, %ymm9, %ymm9
vpaddd %ymm2, %ymm10, %ymm10
vpaddd %ymm3, %ymm11, %ymm11
vpaddd %ymm4, %ymm12, %ymm12
vpaddd %ymm5, %ymm13, %ymm13
vpaddd glob_data + 64(%rip), %ymm13, %ymm13
vperm2i128 $32, %ymm7, %ymm6, %ymm14
vperm2i128 $32, %ymm9, %ymm8, %ymm15
vperm2i128 $49, %ymm7, %ymm6, %ymm6
vperm2i128 $49, %ymm9, %ymm8, %ymm7
vperm2i128 $32, %ymm11, %ymm10, %ymm8
vperm2i128 $32, %ymm13, %ymm12, %ymm9
vperm2i128 $49, %ymm11, %ymm10, %ymm10
vperm2i128 $49, %ymm13, %ymm12, %ymm11
vmovdqu %ymm14, (%rdi)
vmovdqu %ymm15, 32(%rdi)
vmovdqu %ymm6, 64(%rdi)
vmovdqu %ymm7, 96(%rdi)
vmovdqu %ymm8, 128(%rdi)
vmovdqu %ymm9, 160(%rdi)
vmovdqu %ymm10, 192(%rdi)
vmovdqu %ymm11, 224(%rdi)
addq $256, %rdi
addq $-256, %rsi
vpaddd glob_data + 32(%rip), %ymm5, %ymm5
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$19:
cmpq $256, %rsi
jnb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$20
cmpq $128, %rsi
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$3
vmovdqu %ymm2, %ymm6
vmovdqu %ymm3, %ymm7
vmovdqu %ymm4, %ymm8
vmovdqu %ymm5, %ymm9
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$18:
vpaddd %ymm7, %ymm6, %ymm6
vpxor %ymm6, %ymm9, %ymm9
vpshufb %ymm0, %ymm9, %ymm9
vpaddd %ymm9, %ymm8, %ymm8
vpxor %ymm8, %ymm7, %ymm7
vpslld $12, %ymm7, %ymm10
vpsrld $20, %ymm7, %ymm7
vpxor %ymm10, %ymm7, %ymm7
vpaddd %ymm7, %ymm6, %ymm6
vpxor %ymm6, %ymm9, %ymm9
vpshufb %ymm1, %ymm9, %ymm9
vpaddd %ymm9, %ymm8, %ymm8
vpxor %ymm8, %ymm7, %ymm7
vpslld $7, %ymm7, %ymm10
vpsrld $25, %ymm7, %ymm7
vpxor %ymm10, %ymm7, %ymm7
vpshufd $57, %ymm7, %ymm7
vpshufd $78, %ymm8, %ymm8
vpshufd $-109, %ymm9, %ymm9
vpaddd %ymm7, %ymm6, %ymm6
vpxor %ymm6, %ymm9, %ymm9
vpshufb %ymm0, %ymm9, %ymm9
vpaddd %ymm9, %ymm8, %ymm8
vpxor %ymm8, %ymm7, %ymm7
vpslld $12, %ymm7, %ymm10
vpsrld $20, %ymm7, %ymm7
vpxor %ymm10, %ymm7, %ymm7
vpaddd %ymm7, %ymm6, %ymm6
vpxor %ymm6, %ymm9, %ymm9
vpshufb %ymm1, %ymm9, %ymm9
vpaddd %ymm9, %ymm8, %ymm8
vpxor %ymm8, %ymm7, %ymm7
vpslld $7, %ymm7, %ymm10
vpsrld $25, %ymm7, %ymm7
vpxor %ymm10, %ymm7, %ymm7
vpshufd $-109, %ymm7, %ymm7
vpshufd $78, %ymm8, %ymm8
vpshufd $57, %ymm9, %ymm9
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$18
vpaddd %ymm2, %ymm6, %ymm0
vpaddd %ymm3, %ymm7, %ymm1
vpaddd %ymm4, %ymm8, %ymm2
vpaddd %ymm5, %ymm9, %ymm3
vperm2i128 $32, %ymm1, %ymm0, %ymm5
vperm2i128 $32, %ymm3, %ymm2, %ymm4
vperm2i128 $49, %ymm1, %ymm0, %ymm0
vperm2i128 $49, %ymm3, %ymm2, %ymm1
cmpq $64, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$17
vmovdqu %ymm5, (%rdi)
vmovdqu %ymm4, 32(%rdi)
addq $64, %rdi
addq $-64, %rsi
vmovdqu %ymm0, %ymm5
vmovdqu %ymm1, %ymm4
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$17:
cmpq $32, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$16
vmovdqu %ymm5, (%rdi)
addq $32, %rdi
addq $-32, %rsi
vmovdqu %ymm4, %ymm5
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$16:
vmovdqu %xmm5, %xmm0
cmpq $16, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$15
vmovdqu %xmm0, (%rdi)
addq $16, %rdi
addq $-16, %rsi
vextracti128 $1, %ymm5, %xmm0
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$15:
vpextrq $0, %xmm0, %rax
cmpq $8, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$12
movq %rax, (%rdi)
addq $8, %rdi
addq $-8, %rsi
vpextrq $1, %xmm0, %rax
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$14:
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2$12
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$13:
movb %al, %cl
movb %cl, (%rdi)
shrq $8, %rax
incq %rdi
addq $-1, %rsi
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$12:
cmpq $0, %rsi
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$13
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2$2
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$3:
vmovdqu %ymm2, %ymm6
vmovdqu %ymm3, %ymm7
vmovdqu %ymm4, %ymm8
vmovdqu %ymm5, %ymm9
vmovdqu %ymm2, %ymm10
vmovdqu %ymm3, %ymm11
vmovdqu %ymm4, %ymm12
vmovdqu %ymm5, %ymm13
vpaddd glob_data + 64(%rip), %ymm13, %ymm13
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$11:
vpaddd %ymm7, %ymm6, %ymm6
vpaddd %ymm11, %ymm10, %ymm10
vpxor %ymm6, %ymm9, %ymm9
vpxor %ymm10, %ymm13, %ymm13
vpshufb %ymm0, %ymm9, %ymm9
vpshufb %ymm0, %ymm13, %ymm13
vpaddd %ymm9, %ymm8, %ymm8
vpaddd %ymm13, %ymm12, %ymm12
vpxor %ymm8, %ymm7, %ymm7
vpslld $12, %ymm7, %ymm14
vpsrld $20, %ymm7, %ymm7
vpxor %ymm12, %ymm11, %ymm11
vpxor %ymm14, %ymm7, %ymm7
vpslld $12, %ymm11, %ymm14
vpsrld $20, %ymm11, %ymm11
vpxor %ymm14, %ymm11, %ymm11
vpaddd %ymm7, %ymm6, %ymm6
vpaddd %ymm11, %ymm10, %ymm10
vpxor %ymm6, %ymm9, %ymm9
vpxor %ymm10, %ymm13, %ymm13
vpshufb %ymm1, %ymm9, %ymm9
vpshufb %ymm1, %ymm13, %ymm13
vpaddd %ymm9, %ymm8, %ymm8
vpaddd %ymm13, %ymm12, %ymm12
vpxor %ymm8, %ymm7, %ymm7
vpslld $7, %ymm7, %ymm14
vpsrld $25, %ymm7, %ymm7
vpxor %ymm12, %ymm11, %ymm11
vpxor %ymm14, %ymm7, %ymm7
vpslld $7, %ymm11, %ymm14
vpsrld $25, %ymm11, %ymm11
vpxor %ymm14, %ymm11, %ymm11
vpshufd $57, %ymm7, %ymm7
vpshufd $78, %ymm8, %ymm8
vpshufd $-109, %ymm9, %ymm9
vpshufd $57, %ymm11, %ymm11
vpshufd $78, %ymm12, %ymm12
vpshufd $-109, %ymm13, %ymm13
vpaddd %ymm7, %ymm6, %ymm6
vpaddd %ymm11, %ymm10, %ymm10
vpxor %ymm6, %ymm9, %ymm9
vpxor %ymm10, %ymm13, %ymm13
vpshufb %ymm0, %ymm9, %ymm9
vpshufb %ymm0, %ymm13, %ymm13
vpaddd %ymm9, %ymm8, %ymm8
vpaddd %ymm13, %ymm12, %ymm12
vpxor %ymm8, %ymm7, %ymm7
vpslld $12, %ymm7, %ymm14
vpsrld $20, %ymm7, %ymm7
vpxor %ymm12, %ymm11, %ymm11
vpxor %ymm14, %ymm7, %ymm7
vpslld $12, %ymm11, %ymm14
vpsrld $20, %ymm11, %ymm11
vpxor %ymm14, %ymm11, %ymm11
vpaddd %ymm7, %ymm6, %ymm6
vpaddd %ymm11, %ymm10, %ymm10
vpxor %ymm6, %ymm9, %ymm9
vpxor %ymm10, %ymm13, %ymm13
vpshufb %ymm1, %ymm9, %ymm9
vpshufb %ymm1, %ymm13, %ymm13
vpaddd %ymm9, %ymm8, %ymm8
vpaddd %ymm13, %ymm12, %ymm12
vpxor %ymm8, %ymm7, %ymm7
vpslld $7, %ymm7, %ymm14
vpsrld $25, %ymm7, %ymm7
vpxor %ymm12, %ymm11, %ymm11
vpxor %ymm14, %ymm7, %ymm7
vpslld $7, %ymm11, %ymm14
vpsrld $25, %ymm11, %ymm11
vpxor %ymm14, %ymm11, %ymm11
vpshufd $-109, %ymm7, %ymm7
vpshufd $78, %ymm8, %ymm8
vpshufd $57, %ymm9, %ymm9
vpshufd $-109, %ymm11, %ymm11
vpshufd $78, %ymm12, %ymm12
vpshufd $57, %ymm13, %ymm13
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$11
vpaddd %ymm2, %ymm6, %ymm0
vpaddd %ymm3, %ymm7, %ymm1
vpaddd %ymm4, %ymm8, %ymm6
vpaddd %ymm5, %ymm9, %ymm7
vpaddd %ymm2, %ymm10, %ymm2
vpaddd %ymm3, %ymm11, %ymm3
vpaddd %ymm4, %ymm12, %ymm4
vpaddd %ymm5, %ymm13, %ymm5
vpaddd glob_data + 64(%rip), %ymm5, %ymm5
vperm2i128 $32, %ymm1, %ymm0, %ymm8
vperm2i128 $32, %ymm7, %ymm6, %ymm9
vperm2i128 $49, %ymm1, %ymm0, %ymm0
vperm2i128 $49, %ymm7, %ymm6, %ymm1
vperm2i128 $32, %ymm3, %ymm2, %ymm7
vperm2i128 $32, %ymm5, %ymm4, %ymm6
vperm2i128 $49, %ymm3, %ymm2, %ymm2
vperm2i128 $49, %ymm5, %ymm4, %ymm3
vmovdqu %ymm8, (%rdi)
vmovdqu %ymm9, 32(%rdi)
vmovdqu %ymm0, 64(%rdi)
vmovdqu %ymm1, 96(%rdi)
addq $128, %rdi
addq $-128, %rsi
cmpq $64, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$10
vmovdqu %ymm7, (%rdi)
vmovdqu %ymm6, 32(%rdi)
addq $64, %rdi
addq $-64, %rsi
vmovdqu %ymm2, %ymm7
vmovdqu %ymm3, %ymm6
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$10:
cmpq $32, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$9
vmovdqu %ymm7, (%rdi)
addq $32, %rdi
addq $-32, %rsi
vmovdqu %ymm6, %ymm7
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$9:
vmovdqu %xmm7, %xmm0
cmpq $16, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$8
vmovdqu %xmm0, (%rdi)
addq $16, %rdi
addq $-16, %rsi
vextracti128 $1, %ymm7, %xmm0
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$8:
vpextrq $0, %xmm0, %rax
cmpq $8, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$5
movq %rax, (%rdi)
addq $8, %rdi
addq $-8, %rsi
vpextrq $1, %xmm0, %rax
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$7:
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2$5
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$6:
movb %al, %cl
movb %cl, (%rdi)
shrq $8, %rax
incq %rdi
addq $-1, %rsi
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$5:
cmpq $0, %rsi
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$6
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$4:
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$2:
xorq %rax, %rax
movq %r10, %rsp
ret
_jade_stream_chacha_chacha20_ietf_amd64_avx2_xor:
jade_stream_chacha_chacha20_ietf_amd64_avx2_xor:
movq %rsp, %r10
leaq -1152(%rsp), %rsp
andq $-32, %rsp
cmpq $257, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$1
vmovdqu glob_data + 160(%rip), %ymm0
vmovdqu glob_data + 128(%rip), %ymm1
vmovdqu %ymm0, (%rsp)
vmovdqu %ymm1, 32(%rsp)
vmovdqu glob_data + 256(%rip), %ymm0
vmovdqu glob_data + 288(%rip), %ymm1
vmovdqu glob_data + 320(%rip), %ymm2
vmovdqu glob_data + 352(%rip), %ymm3
vpbroadcastd (%r8), %ymm4
vpbroadcastd 4(%r8), %ymm5
vpbroadcastd 8(%r8), %ymm6
vpbroadcastd 12(%r8), %ymm7
vpbroadcastd 16(%r8), %ymm8
vpbroadcastd 20(%r8), %ymm9
vpbroadcastd 24(%r8), %ymm10
vpbroadcastd 28(%r8), %ymm11
vmovdqu glob_data + 224(%rip), %ymm12
vpbroadcastd (%rcx), %ymm13
vpbroadcastd 4(%rcx), %ymm14
vpbroadcastd 8(%rcx), %ymm15
vmovdqu %ymm0, 640(%rsp)
vmovdqu %ymm1, 672(%rsp)
vmovdqu %ymm2, 704(%rsp)
vmovdqu %ymm3, 736(%rsp)
vmovdqu %ymm4, 768(%rsp)
vmovdqu %ymm5, 800(%rsp)
vmovdqu %ymm6, 832(%rsp)
vmovdqu %ymm7, 864(%rsp)
vmovdqu %ymm8, 896(%rsp)
vmovdqu %ymm9, 928(%rsp)
vmovdqu %ymm10, 960(%rsp)
vmovdqu %ymm11, 992(%rsp)
vmovdqu %ymm12, 1024(%rsp)
vmovdqu %ymm13, 1056(%rsp)
vmovdqu %ymm14, 1088(%rsp)
vmovdqu %ymm15, 1120(%rsp)
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$32
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$33:
vmovdqu 640(%rsp), %ymm0
vmovdqu 672(%rsp), %ymm1
vmovdqu 704(%rsp), %ymm2
vmovdqu 736(%rsp), %ymm3
vmovdqu 768(%rsp), %ymm4
vmovdqu 800(%rsp), %ymm5
vmovdqu 832(%rsp), %ymm6
vmovdqu 864(%rsp), %ymm7
vmovdqu 896(%rsp), %ymm8
vmovdqu 928(%rsp), %ymm9
vmovdqu 960(%rsp), %ymm10
vmovdqu 992(%rsp), %ymm11
vmovdqu 1024(%rsp), %ymm12
vmovdqu 1056(%rsp), %ymm13
vmovdqu 1088(%rsp), %ymm14
vmovdqu 1120(%rsp), %ymm15
vmovdqu %ymm15, 64(%rsp)
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$34:
vpaddd %ymm4, %ymm0, %ymm0
vpxor %ymm0, %ymm12, %ymm12
vpshufb (%rsp), %ymm12, %ymm12
vpaddd %ymm12, %ymm8, %ymm8
vpaddd %ymm6, %ymm2, %ymm2
vpxor %ymm8, %ymm4, %ymm4
vpxor %ymm2, %ymm14, %ymm14
vpslld $12, %ymm4, %ymm15
vpsrld $20, %ymm4, %ymm4
vpxor %ymm15, %ymm4, %ymm4
vpshufb (%rsp), %ymm14, %ymm14
vpaddd %ymm4, %ymm0, %ymm0
vpaddd %ymm14, %ymm10, %ymm10
vpxor %ymm0, %ymm12, %ymm12
vpxor %ymm10, %ymm6, %ymm6
vpshufb 32(%rsp), %ymm12, %ymm12
vpslld $12, %ymm6, %ymm15
vpsrld $20, %ymm6, %ymm6
vpxor %ymm15, %ymm6, %ymm6
vpaddd %ymm12, %ymm8, %ymm8
vpaddd %ymm6, %ymm2, %ymm2
vpxor %ymm8, %ymm4, %ymm4
vpxor %ymm2, %ymm14, %ymm14
vpslld $7, %ymm4, %ymm15
vpsrld $25, %ymm4, %ymm4
vpxor %ymm15, %ymm4, %ymm4
vpshufb 32(%rsp), %ymm14, %ymm14
vpaddd %ymm14, %ymm10, %ymm10
vpxor %ymm10, %ymm6, %ymm6
vpslld $7, %ymm6, %ymm15
vpsrld $25, %ymm6, %ymm6
vpxor %ymm15, %ymm6, %ymm6
vmovdqu 64(%rsp), %ymm15
vmovdqu %ymm14, 96(%rsp)
vpaddd %ymm5, %ymm1, %ymm1
vpxor %ymm1, %ymm13, %ymm13
vpshufb (%rsp), %ymm13, %ymm13
vpaddd %ymm13, %ymm9, %ymm9
vpaddd %ymm7, %ymm3, %ymm3
vpxor %ymm9, %ymm5, %ymm5
vpxor %ymm3, %ymm15, %ymm14
vpslld $12, %ymm5, %ymm15
vpsrld $20, %ymm5, %ymm5
vpxor %ymm15, %ymm5, %ymm5
vpshufb (%rsp), %ymm14, %ymm14
vpaddd %ymm5, %ymm1, %ymm1
vpaddd %ymm14, %ymm11, %ymm11
vpxor %ymm1, %ymm13, %ymm13
vpxor %ymm11, %ymm7, %ymm7
vpshufb 32(%rsp), %ymm13, %ymm13
vpslld $12, %ymm7, %ymm15
vpsrld $20, %ymm7, %ymm7
vpxor %ymm15, %ymm7, %ymm7
vpaddd %ymm13, %ymm9, %ymm9
vpaddd %ymm7, %ymm3, %ymm3
vpxor %ymm9, %ymm5, %ymm5
vpxor %ymm3, %ymm14, %ymm14
vpslld $7, %ymm5, %ymm15
vpsrld $25, %ymm5, %ymm5
vpxor %ymm15, %ymm5, %ymm5
vpshufb 32(%rsp), %ymm14, %ymm14
vpaddd %ymm14, %ymm11, %ymm11
vpxor %ymm11, %ymm7, %ymm7
vpslld $7, %ymm7, %ymm15
vpsrld $25, %ymm7, %ymm7
vpxor %ymm15, %ymm7, %ymm7
vpaddd %ymm6, %ymm1, %ymm1
vpxor %ymm1, %ymm12, %ymm12
vpshufb (%rsp), %ymm12, %ymm12
vpaddd %ymm12, %ymm11, %ymm11
vpaddd %ymm5, %ymm0, %ymm0
vpxor %ymm11, %ymm6, %ymm6
vpxor %ymm0, %ymm14, %ymm14
vpslld $12, %ymm6, %ymm15
vpsrld $20, %ymm6, %ymm6
vpxor %ymm15, %ymm6, %ymm6
vpshufb (%rsp), %ymm14, %ymm14
vpaddd %ymm6, %ymm1, %ymm1
vpaddd %ymm14, %ymm10, %ymm10
vpxor %ymm1, %ymm12, %ymm12
vpxor %ymm10, %ymm5, %ymm5
vpshufb 32(%rsp), %ymm12, %ymm12
vpslld $12, %ymm5, %ymm15
vpsrld $20, %ymm5, %ymm5
vpxor %ymm15, %ymm5, %ymm5
vpaddd %ymm12, %ymm11, %ymm11
vpaddd %ymm5, %ymm0, %ymm0
vpxor %ymm11, %ymm6, %ymm6
vpxor %ymm0, %ymm14, %ymm14
vpslld $7, %ymm6, %ymm15
vpsrld $25, %ymm6, %ymm6
vpxor %ymm15, %ymm6, %ymm6
vpshufb 32(%rsp), %ymm14, %ymm14
vpaddd %ymm14, %ymm10, %ymm10
vpxor %ymm10, %ymm5, %ymm5
vpslld $7, %ymm5, %ymm15
vpsrld $25, %ymm5, %ymm5
vpxor %ymm15, %ymm5, %ymm5
vmovdqu 96(%rsp), %ymm15
vmovdqu %ymm14, 64(%rsp)
vpaddd %ymm7, %ymm2, %ymm2
vpxor %ymm2, %ymm13, %ymm13
vpshufb (%rsp), %ymm13, %ymm13
vpaddd %ymm13, %ymm8, %ymm8
vpaddd %ymm4, %ymm3, %ymm3
vpxor %ymm8, %ymm7, %ymm7
vpxor %ymm3, %ymm15, %ymm14
vpslld $12, %ymm7, %ymm15
vpsrld $20, %ymm7, %ymm7
vpxor %ymm15, %ymm7, %ymm7
vpshufb (%rsp), %ymm14, %ymm14
vpaddd %ymm7, %ymm2, %ymm2
vpaddd %ymm14, %ymm9, %ymm9
vpxor %ymm2, %ymm13, %ymm13
vpxor %ymm9, %ymm4, %ymm4
vpshufb 32(%rsp), %ymm13, %ymm13
vpslld $12, %ymm4, %ymm15
vpsrld $20, %ymm4, %ymm4
vpxor %ymm15, %ymm4, %ymm4
vpaddd %ymm13, %ymm8, %ymm8
vpaddd %ymm4, %ymm3, %ymm3
vpxor %ymm8, %ymm7, %ymm7
vpxor %ymm3, %ymm14, %ymm14
vpslld $7, %ymm7, %ymm15
vpsrld $25, %ymm7, %ymm7
vpxor %ymm15, %ymm7, %ymm7
vpshufb 32(%rsp), %ymm14, %ymm14
vpaddd %ymm14, %ymm9, %ymm9
vpxor %ymm9, %ymm4, %ymm4
vpslld $7, %ymm4, %ymm15
vpsrld $25, %ymm4, %ymm4
vpxor %ymm15, %ymm4, %ymm4
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$34
vmovdqu 64(%rsp), %ymm15
vpaddd 640(%rsp), %ymm0, %ymm0
vpaddd 672(%rsp), %ymm1, %ymm1
vpaddd 704(%rsp), %ymm2, %ymm2
vpaddd 736(%rsp), %ymm3, %ymm3
vpaddd 768(%rsp), %ymm4, %ymm4
vpaddd 800(%rsp), %ymm5, %ymm5
vpaddd 832(%rsp), %ymm6, %ymm6
vpaddd 864(%rsp), %ymm7, %ymm7
vpaddd 896(%rsp), %ymm8, %ymm8
vpaddd 928(%rsp), %ymm9, %ymm9
vpaddd 960(%rsp), %ymm10, %ymm10
vpaddd 992(%rsp), %ymm11, %ymm11
vpaddd 1024(%rsp), %ymm12, %ymm12
vpaddd 1056(%rsp), %ymm13, %ymm13
vpaddd 1088(%rsp), %ymm14, %ymm14
vpaddd 1120(%rsp), %ymm15, %ymm15
vmovdqu %ymm8, 128(%rsp)
vmovdqu %ymm9, 160(%rsp)
vmovdqu %ymm10, 192(%rsp)
vmovdqu %ymm11, 224(%rsp)
vmovdqu %ymm12, 256(%rsp)
vmovdqu %ymm13, 288(%rsp)
vmovdqu %ymm14, 320(%rsp)
vmovdqu %ymm15, 352(%rsp)
vpunpckldq %ymm1, %ymm0, %ymm8
vpunpckhdq %ymm1, %ymm0, %ymm0
vpunpckldq %ymm3, %ymm2, %ymm1
vpunpckhdq %ymm3, %ymm2, %ymm2
vpunpckldq %ymm5, %ymm4, %ymm3
vpunpckhdq %ymm5, %ymm4, %ymm4
vpunpckldq %ymm7, %ymm6, %ymm5
vpunpckhdq %ymm7, %ymm6, %ymm6
vpunpcklqdq %ymm1, %ymm8, %ymm7
vpunpcklqdq %ymm5, %ymm3, %ymm9
vpunpckhqdq %ymm1, %ymm8, %ymm1
vpunpckhqdq %ymm5, %ymm3, %ymm3
vpunpcklqdq %ymm2, %ymm0, %ymm5
vpunpcklqdq %ymm6, %ymm4, %ymm8
vpunpckhqdq %ymm2, %ymm0, %ymm0
vpunpckhqdq %ymm6, %ymm4, %ymm2
vperm2i128 $32, %ymm9, %ymm7, %ymm4
vperm2i128 $49, %ymm9, %ymm7, %ymm6
vperm2i128 $32, %ymm3, %ymm1, %ymm7
vperm2i128 $49, %ymm3, %ymm1, %ymm1
vperm2i128 $32, %ymm8, %ymm5, %ymm3
vperm2i128 $49, %ymm8, %ymm5, %ymm5
vperm2i128 $32, %ymm2, %ymm0, %ymm8
vperm2i128 $49, %ymm2, %ymm0, %ymm0
vpxor (%rsi), %ymm4, %ymm2
vpxor 64(%rsi), %ymm7, %ymm4
vpxor 128(%rsi), %ymm3, %ymm3
vpxor 192(%rsi), %ymm8, %ymm7
vpxor 256(%rsi), %ymm6, %ymm6
vpxor 320(%rsi), %ymm1, %ymm1
vpxor 384(%rsi), %ymm5, %ymm5
vpxor 448(%rsi), %ymm0, %ymm0
vmovdqu %ymm2, (%rdi)
vmovdqu %ymm4, 64(%rdi)
vmovdqu %ymm3, 128(%rdi)
vmovdqu %ymm7, 192(%rdi)
vmovdqu %ymm6, 256(%rdi)
vmovdqu %ymm1, 320(%rdi)
vmovdqu %ymm5, 384(%rdi)
vmovdqu %ymm0, 448(%rdi)
vmovdqu 128(%rsp), %ymm0
vmovdqu 192(%rsp), %ymm1
vmovdqu 256(%rsp), %ymm2
vmovdqu 320(%rsp), %ymm3
vpunpckldq 160(%rsp), %ymm0, %ymm4
vpunpckhdq 160(%rsp), %ymm0, %ymm0
vpunpckldq 224(%rsp), %ymm1, %ymm5
vpunpckhdq 224(%rsp), %ymm1, %ymm1
vpunpckldq 288(%rsp), %ymm2, %ymm6
vpunpckhdq 288(%rsp), %ymm2, %ymm2
vpunpckldq 352(%rsp), %ymm3, %ymm7
vpunpckhdq 352(%rsp), %ymm3, %ymm3
vpunpcklqdq %ymm5, %ymm4, %ymm8
vpunpcklqdq %ymm7, %ymm6, %ymm9
vpunpckhqdq %ymm5, %ymm4, %ymm4
vpunpckhqdq %ymm7, %ymm6, %ymm5
vpunpcklqdq %ymm1, %ymm0, %ymm6
vpunpcklqdq %ymm3, %ymm2, %ymm7
vpunpckhqdq %ymm1, %ymm0, %ymm0
vpunpckhqdq %ymm3, %ymm2, %ymm1
vperm2i128 $32, %ymm9, %ymm8, %ymm2
vperm2i128 $49, %ymm9, %ymm8, %ymm3
vperm2i128 $32, %ymm5, %ymm4, %ymm8
vperm2i128 $49, %ymm5, %ymm4, %ymm4
vperm2i128 $32, %ymm7, %ymm6, %ymm5
vperm2i128 $49, %ymm7, %ymm6, %ymm6
vperm2i128 $32, %ymm1, %ymm0, %ymm7
vperm2i128 $49, %ymm1, %ymm0, %ymm0
vpxor 32(%rsi), %ymm2, %ymm1
vpxor 96(%rsi), %ymm8, %ymm2
vpxor 160(%rsi), %ymm5, %ymm5
vpxor 224(%rsi), %ymm7, %ymm7
vpxor 288(%rsi), %ymm3, %ymm3
vpxor 352(%rsi), %ymm4, %ymm4
vpxor 416(%rsi), %ymm6, %ymm6
vpxor 480(%rsi), %ymm0, %ymm0
vmovdqu %ymm1, 32(%rdi)
vmovdqu %ymm2, 96(%rdi)
vmovdqu %ymm5, 160(%rdi)
vmovdqu %ymm7, 224(%rdi)
vmovdqu %ymm3, 288(%rdi)
vmovdqu %ymm4, 352(%rdi)
vmovdqu %ymm6, 416(%rdi)
vmovdqu %ymm0, 480(%rdi)
addq $512, %rdi
addq $512, %rsi
addq $-512, %rdx
vmovdqu glob_data + 0(%rip), %ymm0
vpaddd 1024(%rsp), %ymm0, %ymm0
vmovdqu %ymm0, 1024(%rsp)
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$32:
cmpq $512, %rdx
jnb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$33
cmpq $0, %rdx
jbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$2
vmovdqu 640(%rsp), %ymm0
vmovdqu 672(%rsp), %ymm1
vmovdqu 704(%rsp), %ymm2
vmovdqu 736(%rsp), %ymm3
vmovdqu 768(%rsp), %ymm4
vmovdqu 800(%rsp), %ymm5
vmovdqu 832(%rsp), %ymm6
vmovdqu 864(%rsp), %ymm7
vmovdqu 896(%rsp), %ymm8
vmovdqu 928(%rsp), %ymm9
vmovdqu 960(%rsp), %ymm10
vmovdqu 992(%rsp), %ymm11
vmovdqu 1024(%rsp), %ymm12
vmovdqu 1056(%rsp), %ymm13
vmovdqu 1088(%rsp), %ymm14
vmovdqu 1120(%rsp), %ymm15
vmovdqu %ymm15, 64(%rsp)
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$31:
vpaddd %ymm4, %ymm0, %ymm0
vpxor %ymm0, %ymm12, %ymm12
vpshufb (%rsp), %ymm12, %ymm12
vpaddd %ymm12, %ymm8, %ymm8
vpaddd %ymm6, %ymm2, %ymm2
vpxor %ymm8, %ymm4, %ymm4
vpxor %ymm2, %ymm14, %ymm14
vpslld $12, %ymm4, %ymm15
vpsrld $20, %ymm4, %ymm4
vpxor %ymm15, %ymm4, %ymm4
vpshufb (%rsp), %ymm14, %ymm14
vpaddd %ymm4, %ymm0, %ymm0
vpaddd %ymm14, %ymm10, %ymm10
vpxor %ymm0, %ymm12, %ymm12
vpxor %ymm10, %ymm6, %ymm6
vpshufb 32(%rsp), %ymm12, %ymm12
vpslld $12, %ymm6, %ymm15
vpsrld $20, %ymm6, %ymm6
vpxor %ymm15, %ymm6, %ymm6
vpaddd %ymm12, %ymm8, %ymm8
vpaddd %ymm6, %ymm2, %ymm2
vpxor %ymm8, %ymm4, %ymm4
vpxor %ymm2, %ymm14, %ymm14
vpslld $7, %ymm4, %ymm15
vpsrld $25, %ymm4, %ymm4
vpxor %ymm15, %ymm4, %ymm4
vpshufb 32(%rsp), %ymm14, %ymm14
vpaddd %ymm14, %ymm10, %ymm10
vpxor %ymm10, %ymm6, %ymm6
vpslld $7, %ymm6, %ymm15
vpsrld $25, %ymm6, %ymm6
vpxor %ymm15, %ymm6, %ymm6
vmovdqu 64(%rsp), %ymm15
vmovdqu %ymm14, 96(%rsp)
vpaddd %ymm5, %ymm1, %ymm1
vpxor %ymm1, %ymm13, %ymm13
vpshufb (%rsp), %ymm13, %ymm13
vpaddd %ymm13, %ymm9, %ymm9
vpaddd %ymm7, %ymm3, %ymm3
vpxor %ymm9, %ymm5, %ymm5
vpxor %ymm3, %ymm15, %ymm14
vpslld $12, %ymm5, %ymm15
vpsrld $20, %ymm5, %ymm5
vpxor %ymm15, %ymm5, %ymm5
vpshufb (%rsp), %ymm14, %ymm14
vpaddd %ymm5, %ymm1, %ymm1
vpaddd %ymm14, %ymm11, %ymm11
vpxor %ymm1, %ymm13, %ymm13
vpxor %ymm11, %ymm7, %ymm7
vpshufb 32(%rsp), %ymm13, %ymm13
vpslld $12, %ymm7, %ymm15
vpsrld $20, %ymm7, %ymm7
vpxor %ymm15, %ymm7, %ymm7
vpaddd %ymm13, %ymm9, %ymm9
vpaddd %ymm7, %ymm3, %ymm3
vpxor %ymm9, %ymm5, %ymm5
vpxor %ymm3, %ymm14, %ymm14
vpslld $7, %ymm5, %ymm15
vpsrld $25, %ymm5, %ymm5
vpxor %ymm15, %ymm5, %ymm5
vpshufb 32(%rsp), %ymm14, %ymm14
vpaddd %ymm14, %ymm11, %ymm11
vpxor %ymm11, %ymm7, %ymm7
vpslld $7, %ymm7, %ymm15
vpsrld $25, %ymm7, %ymm7
vpxor %ymm15, %ymm7, %ymm7
vpaddd %ymm6, %ymm1, %ymm1
vpxor %ymm1, %ymm12, %ymm12
vpshufb (%rsp), %ymm12, %ymm12
vpaddd %ymm12, %ymm11, %ymm11
vpaddd %ymm5, %ymm0, %ymm0
vpxor %ymm11, %ymm6, %ymm6
vpxor %ymm0, %ymm14, %ymm14
vpslld $12, %ymm6, %ymm15
vpsrld $20, %ymm6, %ymm6
vpxor %ymm15, %ymm6, %ymm6
vpshufb (%rsp), %ymm14, %ymm14
vpaddd %ymm6, %ymm1, %ymm1
vpaddd %ymm14, %ymm10, %ymm10
vpxor %ymm1, %ymm12, %ymm12
vpxor %ymm10, %ymm5, %ymm5
vpshufb 32(%rsp), %ymm12, %ymm12
vpslld $12, %ymm5, %ymm15
vpsrld $20, %ymm5, %ymm5
vpxor %ymm15, %ymm5, %ymm5
vpaddd %ymm12, %ymm11, %ymm11
vpaddd %ymm5, %ymm0, %ymm0
vpxor %ymm11, %ymm6, %ymm6
vpxor %ymm0, %ymm14, %ymm14
vpslld $7, %ymm6, %ymm15
vpsrld $25, %ymm6, %ymm6
vpxor %ymm15, %ymm6, %ymm6
vpshufb 32(%rsp), %ymm14, %ymm14
vpaddd %ymm14, %ymm10, %ymm10
vpxor %ymm10, %ymm5, %ymm5
vpslld $7, %ymm5, %ymm15
vpsrld $25, %ymm5, %ymm5
vpxor %ymm15, %ymm5, %ymm5
vmovdqu 96(%rsp), %ymm15
vmovdqu %ymm14, 64(%rsp)
vpaddd %ymm7, %ymm2, %ymm2
vpxor %ymm2, %ymm13, %ymm13
vpshufb (%rsp), %ymm13, %ymm13
vpaddd %ymm13, %ymm8, %ymm8
vpaddd %ymm4, %ymm3, %ymm3
vpxor %ymm8, %ymm7, %ymm7
vpxor %ymm3, %ymm15, %ymm14
vpslld $12, %ymm7, %ymm15
vpsrld $20, %ymm7, %ymm7
vpxor %ymm15, %ymm7, %ymm7
vpshufb (%rsp), %ymm14, %ymm14
vpaddd %ymm7, %ymm2, %ymm2
vpaddd %ymm14, %ymm9, %ymm9
vpxor %ymm2, %ymm13, %ymm13
vpxor %ymm9, %ymm4, %ymm4
vpshufb 32(%rsp), %ymm13, %ymm13
vpslld $12, %ymm4, %ymm15
vpsrld $20, %ymm4, %ymm4
vpxor %ymm15, %ymm4, %ymm4
vpaddd %ymm13, %ymm8, %ymm8
vpaddd %ymm4, %ymm3, %ymm3
vpxor %ymm8, %ymm7, %ymm7
vpxor %ymm3, %ymm14, %ymm14
vpslld $7, %ymm7, %ymm15
vpsrld $25, %ymm7, %ymm7
vpxor %ymm15, %ymm7, %ymm7
vpshufb 32(%rsp), %ymm14, %ymm14
vpaddd %ymm14, %ymm9, %ymm9
vpxor %ymm9, %ymm4, %ymm4
vpslld $7, %ymm4, %ymm15
vpsrld $25, %ymm4, %ymm4
vpxor %ymm15, %ymm4, %ymm4
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$31
vmovdqu 64(%rsp), %ymm15
vpaddd 640(%rsp), %ymm0, %ymm0
vpaddd 672(%rsp), %ymm1, %ymm1
vpaddd 704(%rsp), %ymm2, %ymm2
vpaddd 736(%rsp), %ymm3, %ymm3
vpaddd 768(%rsp), %ymm4, %ymm4
vpaddd 800(%rsp), %ymm5, %ymm5
vpaddd 832(%rsp), %ymm6, %ymm6
vpaddd 864(%rsp), %ymm7, %ymm7
vpaddd 896(%rsp), %ymm8, %ymm8
vpaddd 928(%rsp), %ymm9, %ymm9
vpaddd 960(%rsp), %ymm10, %ymm10
vpaddd 992(%rsp), %ymm11, %ymm11
vpaddd 1024(%rsp), %ymm12, %ymm12
vpaddd 1056(%rsp), %ymm13, %ymm13
vpaddd 1088(%rsp), %ymm14, %ymm14
vpaddd 1120(%rsp), %ymm15, %ymm15
vmovdqu %ymm8, 128(%rsp)
vmovdqu %ymm9, 160(%rsp)
vmovdqu %ymm10, 192(%rsp)
vmovdqu %ymm11, 224(%rsp)
vmovdqu %ymm12, 256(%rsp)
vmovdqu %ymm13, 288(%rsp)
vmovdqu %ymm14, 320(%rsp)
vmovdqu %ymm15, 352(%rsp)
vpunpckldq %ymm1, %ymm0, %ymm8
vpunpckhdq %ymm1, %ymm0, %ymm0
vpunpckldq %ymm3, %ymm2, %ymm1
vpunpckhdq %ymm3, %ymm2, %ymm2
vpunpckldq %ymm5, %ymm4, %ymm3
vpunpckhdq %ymm5, %ymm4, %ymm4
vpunpckldq %ymm7, %ymm6, %ymm5
vpunpckhdq %ymm7, %ymm6, %ymm6
vpunpcklqdq %ymm1, %ymm8, %ymm7
vpunpcklqdq %ymm5, %ymm3, %ymm9
vpunpckhqdq %ymm1, %ymm8, %ymm1
vpunpckhqdq %ymm5, %ymm3, %ymm3
vpunpcklqdq %ymm2, %ymm0, %ymm5
vpunpcklqdq %ymm6, %ymm4, %ymm8
vpunpckhqdq %ymm2, %ymm0, %ymm0
vpunpckhqdq %ymm6, %ymm4, %ymm2
vperm2i128 $32, %ymm9, %ymm7, %ymm4
vperm2i128 $49, %ymm9, %ymm7, %ymm6
vperm2i128 $32, %ymm3, %ymm1, %ymm7
vperm2i128 $49, %ymm3, %ymm1, %ymm1
vperm2i128 $32, %ymm8, %ymm5, %ymm3
vperm2i128 $49, %ymm8, %ymm5, %ymm5
vperm2i128 $32, %ymm2, %ymm0, %ymm8
vperm2i128 $49, %ymm2, %ymm0, %ymm0
vmovdqu %ymm4, 384(%rsp)
vmovdqu %ymm7, 416(%rsp)
vmovdqu %ymm3, 448(%rsp)
vmovdqu %ymm8, 480(%rsp)
vmovdqu %ymm6, 512(%rsp)
vmovdqu %ymm1, 544(%rsp)
vmovdqu %ymm5, 576(%rsp)
vmovdqu %ymm0, 608(%rsp)
vmovdqu 128(%rsp), %ymm0
vmovdqu 192(%rsp), %ymm1
vmovdqu 256(%rsp), %ymm2
vmovdqu 320(%rsp), %ymm3
vpunpckldq 160(%rsp), %ymm0, %ymm4
vpunpckhdq 160(%rsp), %ymm0, %ymm0
vpunpckldq 224(%rsp), %ymm1, %ymm5
vpunpckhdq 224(%rsp), %ymm1, %ymm1
vpunpckldq 288(%rsp), %ymm2, %ymm6
vpunpckhdq 288(%rsp), %ymm2, %ymm2
vpunpckldq 352(%rsp), %ymm3, %ymm7
vpunpckhdq 352(%rsp), %ymm3, %ymm3
vpunpcklqdq %ymm5, %ymm4, %ymm8
vpunpcklqdq %ymm7, %ymm6, %ymm9
vpunpckhqdq %ymm5, %ymm4, %ymm4
vpunpckhqdq %ymm7, %ymm6, %ymm5
vpunpcklqdq %ymm1, %ymm0, %ymm6
vpunpcklqdq %ymm3, %ymm2, %ymm7
vpunpckhqdq %ymm1, %ymm0, %ymm0
vpunpckhqdq %ymm3, %ymm2, %ymm1
vperm2i128 $32, %ymm9, %ymm8, %ymm2
vperm2i128 $49, %ymm9, %ymm8, %ymm3
vperm2i128 $32, %ymm5, %ymm4, %ymm8
vperm2i128 $49, %ymm5, %ymm4, %ymm4
vperm2i128 $32, %ymm7, %ymm6, %ymm5
vperm2i128 $49, %ymm7, %ymm6, %ymm6
vperm2i128 $32, %ymm1, %ymm0, %ymm7
vperm2i128 $49, %ymm1, %ymm0, %ymm0
vmovdqu 384(%rsp), %ymm1
vmovdqu %ymm2, %ymm12
vmovdqu 416(%rsp), %ymm11
vmovdqu %ymm8, %ymm10
vmovdqu 448(%rsp), %ymm9
vmovdqu %ymm5, %ymm8
vmovdqu 480(%rsp), %ymm5
vmovdqu %ymm7, %ymm2
cmpq $256, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$30
vpxor (%rsi), %ymm1, %ymm1
vmovdqu %ymm1, (%rdi)
vpxor 32(%rsi), %ymm12, %ymm1
vmovdqu %ymm1, 32(%rdi)
vpxor 64(%rsi), %ymm11, %ymm1
vmovdqu %ymm1, 64(%rdi)
vpxor 96(%rsi), %ymm10, %ymm1
vmovdqu %ymm1, 96(%rdi)
vpxor 128(%rsi), %ymm9, %ymm1
vmovdqu %ymm1, 128(%rdi)
vpxor 160(%rsi), %ymm8, %ymm1
vmovdqu %ymm1, 160(%rdi)
vpxor 192(%rsi), %ymm5, %ymm1
vmovdqu %ymm1, 192(%rdi)
vpxor 224(%rsi), %ymm2, %ymm1
vmovdqu %ymm1, 224(%rdi)
addq $256, %rdi
addq $256, %rsi
addq $-256, %rdx
vmovdqu 512(%rsp), %ymm1
vmovdqu %ymm3, %ymm12
vmovdqu 544(%rsp), %ymm11
vmovdqu %ymm4, %ymm10
vmovdqu 576(%rsp), %ymm9
vmovdqu %ymm6, %ymm8
vmovdqu 608(%rsp), %ymm5
vmovdqu %ymm0, %ymm2
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$30:
cmpq $128, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$29
vpxor (%rsi), %ymm1, %ymm0
vmovdqu %ymm0, (%rdi)
vpxor 32(%rsi), %ymm12, %ymm0
vmovdqu %ymm0, 32(%rdi)
vpxor 64(%rsi), %ymm11, %ymm0
vmovdqu %ymm0, 64(%rdi)
vpxor 96(%rsi), %ymm10, %ymm0
vmovdqu %ymm0, 96(%rdi)
addq $128, %rdi
addq $128, %rsi
addq $-128, %rdx
vmovdqu %ymm9, %ymm1
vmovdqu %ymm8, %ymm12
vmovdqu %ymm5, %ymm11
vmovdqu %ymm2, %ymm10
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$29:
cmpq $64, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$28
vpxor (%rsi), %ymm1, %ymm0
vmovdqu %ymm0, (%rdi)
vpxor 32(%rsi), %ymm12, %ymm0
vmovdqu %ymm0, 32(%rdi)
addq $64, %rdi
addq $64, %rsi
addq $-64, %rdx
vmovdqu %ymm11, %ymm1
vmovdqu %ymm10, %ymm12
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$28:
cmpq $32, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$27
vpxor (%rsi), %ymm1, %ymm0
vmovdqu %ymm0, (%rdi)
addq $32, %rdi
addq $32, %rsi
addq $-32, %rdx
vmovdqu %ymm12, %ymm1
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$27:
vmovdqu %xmm1, %xmm0
cmpq $16, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$26
vpxor (%rsi), %xmm0, %xmm0
vmovdqu %xmm0, (%rdi)
addq $16, %rdi
addq $16, %rsi
addq $-16, %rdx
vextracti128 $1, %ymm1, %xmm0
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$26:
vpextrq $0, %xmm0, %rax
cmpq $8, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$23
xorq (%rsi), %rax
movq %rax, (%rdi)
addq $8, %rdi
addq $8, %rsi
addq $-8, %rdx
vpextrq $1, %xmm0, %rax
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$25:
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$23
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$24:
movb %al, %cl
xorb (%rsi), %cl
movb %cl, (%rdi)
shrq $8, %rax
incq %rdi
incq %rsi
addq $-1, %rdx
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$23:
cmpq $0, %rdx
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$24
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$22:
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$2
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$1:
vmovdqu glob_data + 160(%rip), %ymm0
vmovdqu glob_data + 128(%rip), %ymm1
vmovdqu glob_data + 480(%rip), %ymm2
vbroadcasti128 (%r8), %ymm3
vbroadcasti128 16(%r8), %ymm4
vpxor %xmm5, %xmm5, %xmm5
vpinsrd $1, (%rcx), %xmm5, %xmm5
vpinsrq $1, 4(%rcx), %xmm5, %xmm5
vpxor %ymm6, %ymm6, %ymm6
vinserti128 $0, %xmm5, %ymm6, %ymm6
vinserti128 $1, %xmm5, %ymm6, %ymm5
vpaddd glob_data + 96(%rip), %ymm5, %ymm5
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$19
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$20:
vmovdqu %ymm2, %ymm6
vmovdqu %ymm3, %ymm7
vmovdqu %ymm4, %ymm8
vmovdqu %ymm5, %ymm9
vmovdqu %ymm2, %ymm10
vmovdqu %ymm3, %ymm11
vmovdqu %ymm4, %ymm12
vmovdqu %ymm5, %ymm13
vpaddd glob_data + 64(%rip), %ymm13, %ymm13
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$21:
vpaddd %ymm7, %ymm6, %ymm6
vpaddd %ymm11, %ymm10, %ymm10
vpxor %ymm6, %ymm9, %ymm9
vpxor %ymm10, %ymm13, %ymm13
vpshufb %ymm0, %ymm9, %ymm9
vpshufb %ymm0, %ymm13, %ymm13
vpaddd %ymm9, %ymm8, %ymm8
vpaddd %ymm13, %ymm12, %ymm12
vpxor %ymm8, %ymm7, %ymm7
vpslld $12, %ymm7, %ymm14
vpsrld $20, %ymm7, %ymm7
vpxor %ymm12, %ymm11, %ymm11
vpxor %ymm14, %ymm7, %ymm7
vpslld $12, %ymm11, %ymm14
vpsrld $20, %ymm11, %ymm11
vpxor %ymm14, %ymm11, %ymm11
vpaddd %ymm7, %ymm6, %ymm6
vpaddd %ymm11, %ymm10, %ymm10
vpxor %ymm6, %ymm9, %ymm9
vpxor %ymm10, %ymm13, %ymm13
vpshufb %ymm1, %ymm9, %ymm9
vpshufb %ymm1, %ymm13, %ymm13
vpaddd %ymm9, %ymm8, %ymm8
vpaddd %ymm13, %ymm12, %ymm12
vpxor %ymm8, %ymm7, %ymm7
vpslld $7, %ymm7, %ymm14
vpsrld $25, %ymm7, %ymm7
vpxor %ymm12, %ymm11, %ymm11
vpxor %ymm14, %ymm7, %ymm7
vpslld $7, %ymm11, %ymm14
vpsrld $25, %ymm11, %ymm11
vpxor %ymm14, %ymm11, %ymm11
vpshufd $57, %ymm7, %ymm7
vpshufd $78, %ymm8, %ymm8
vpshufd $-109, %ymm9, %ymm9
vpshufd $57, %ymm11, %ymm11
vpshufd $78, %ymm12, %ymm12
vpshufd $-109, %ymm13, %ymm13
vpaddd %ymm7, %ymm6, %ymm6
vpaddd %ymm11, %ymm10, %ymm10
vpxor %ymm6, %ymm9, %ymm9
vpxor %ymm10, %ymm13, %ymm13
vpshufb %ymm0, %ymm9, %ymm9
vpshufb %ymm0, %ymm13, %ymm13
vpaddd %ymm9, %ymm8, %ymm8
vpaddd %ymm13, %ymm12, %ymm12
vpxor %ymm8, %ymm7, %ymm7
vpslld $12, %ymm7, %ymm14
vpsrld $20, %ymm7, %ymm7
vpxor %ymm12, %ymm11, %ymm11
vpxor %ymm14, %ymm7, %ymm7
vpslld $12, %ymm11, %ymm14
vpsrld $20, %ymm11, %ymm11
vpxor %ymm14, %ymm11, %ymm11
vpaddd %ymm7, %ymm6, %ymm6
vpaddd %ymm11, %ymm10, %ymm10
vpxor %ymm6, %ymm9, %ymm9
vpxor %ymm10, %ymm13, %ymm13
vpshufb %ymm1, %ymm9, %ymm9
vpshufb %ymm1, %ymm13, %ymm13
vpaddd %ymm9, %ymm8, %ymm8
vpaddd %ymm13, %ymm12, %ymm12
vpxor %ymm8, %ymm7, %ymm7
vpslld $7, %ymm7, %ymm14
vpsrld $25, %ymm7, %ymm7
vpxor %ymm12, %ymm11, %ymm11
vpxor %ymm14, %ymm7, %ymm7
vpslld $7, %ymm11, %ymm14
vpsrld $25, %ymm11, %ymm11
vpxor %ymm14, %ymm11, %ymm11
vpshufd $-109, %ymm7, %ymm7
vpshufd $78, %ymm8, %ymm8
vpshufd $57, %ymm9, %ymm9
vpshufd $-109, %ymm11, %ymm11
vpshufd $78, %ymm12, %ymm12
vpshufd $57, %ymm13, %ymm13
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$21
vpaddd %ymm2, %ymm6, %ymm6
vpaddd %ymm3, %ymm7, %ymm7
vpaddd %ymm4, %ymm8, %ymm8
vpaddd %ymm5, %ymm9, %ymm9
vpaddd %ymm2, %ymm10, %ymm10
vpaddd %ymm3, %ymm11, %ymm11
vpaddd %ymm4, %ymm12, %ymm12
vpaddd %ymm5, %ymm13, %ymm13
vpaddd glob_data + 64(%rip), %ymm13, %ymm13
vperm2i128 $32, %ymm7, %ymm6, %ymm14
vperm2i128 $32, %ymm9, %ymm8, %ymm15
vperm2i128 $49, %ymm7, %ymm6, %ymm6
vperm2i128 $49, %ymm9, %ymm8, %ymm7
vperm2i128 $32, %ymm11, %ymm10, %ymm8
vperm2i128 $32, %ymm13, %ymm12, %ymm9
vperm2i128 $49, %ymm11, %ymm10, %ymm10
vperm2i128 $49, %ymm13, %ymm12, %ymm11
vpxor (%rsi), %ymm14, %ymm12
vmovdqu %ymm12, (%rdi)
vpxor 32(%rsi), %ymm15, %ymm12
vmovdqu %ymm12, 32(%rdi)
vpxor 64(%rsi), %ymm6, %ymm6
vmovdqu %ymm6, 64(%rdi)
vpxor 96(%rsi), %ymm7, %ymm6
vmovdqu %ymm6, 96(%rdi)
vpxor 128(%rsi), %ymm8, %ymm6
vmovdqu %ymm6, 128(%rdi)
vpxor 160(%rsi), %ymm9, %ymm6
vmovdqu %ymm6, 160(%rdi)
vpxor 192(%rsi), %ymm10, %ymm6
vmovdqu %ymm6, 192(%rdi)
vpxor 224(%rsi), %ymm11, %ymm6
vmovdqu %ymm6, 224(%rdi)
addq $256, %rdi
addq $256, %rsi
addq $-256, %rdx
vpaddd glob_data + 32(%rip), %ymm5, %ymm5
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$19:
cmpq $256, %rdx
jnb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$20
cmpq $128, %rdx
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$3
vmovdqu %ymm2, %ymm6
vmovdqu %ymm3, %ymm7
vmovdqu %ymm4, %ymm8
vmovdqu %ymm5, %ymm9
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$18:
vpaddd %ymm7, %ymm6, %ymm6
vpxor %ymm6, %ymm9, %ymm9
vpshufb %ymm0, %ymm9, %ymm9
vpaddd %ymm9, %ymm8, %ymm8
vpxor %ymm8, %ymm7, %ymm7
vpslld $12, %ymm7, %ymm10
vpsrld $20, %ymm7, %ymm7
vpxor %ymm10, %ymm7, %ymm7
vpaddd %ymm7, %ymm6, %ymm6
vpxor %ymm6, %ymm9, %ymm9
vpshufb %ymm1, %ymm9, %ymm9
vpaddd %ymm9, %ymm8, %ymm8
vpxor %ymm8, %ymm7, %ymm7
vpslld $7, %ymm7, %ymm10
vpsrld $25, %ymm7, %ymm7
vpxor %ymm10, %ymm7, %ymm7
vpshufd $57, %ymm7, %ymm7
vpshufd $78, %ymm8, %ymm8
vpshufd $-109, %ymm9, %ymm9
vpaddd %ymm7, %ymm6, %ymm6
vpxor %ymm6, %ymm9, %ymm9
vpshufb %ymm0, %ymm9, %ymm9
vpaddd %ymm9, %ymm8, %ymm8
vpxor %ymm8, %ymm7, %ymm7
vpslld $12, %ymm7, %ymm10
vpsrld $20, %ymm7, %ymm7
vpxor %ymm10, %ymm7, %ymm7
vpaddd %ymm7, %ymm6, %ymm6
vpxor %ymm6, %ymm9, %ymm9
vpshufb %ymm1, %ymm9, %ymm9
vpaddd %ymm9, %ymm8, %ymm8
vpxor %ymm8, %ymm7, %ymm7
vpslld $7, %ymm7, %ymm10
vpsrld $25, %ymm7, %ymm7
vpxor %ymm10, %ymm7, %ymm7
vpshufd $-109, %ymm7, %ymm7
vpshufd $78, %ymm8, %ymm8
vpshufd $57, %ymm9, %ymm9
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$18
vpaddd %ymm2, %ymm6, %ymm0
vpaddd %ymm3, %ymm7, %ymm1
vpaddd %ymm4, %ymm8, %ymm2
vpaddd %ymm5, %ymm9, %ymm3
vperm2i128 $32, %ymm1, %ymm0, %ymm5
vperm2i128 $32, %ymm3, %ymm2, %ymm4
vperm2i128 $49, %ymm1, %ymm0, %ymm0
vperm2i128 $49, %ymm3, %ymm2, %ymm1
cmpq $64, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$17
vpxor (%rsi), %ymm5, %ymm2
vmovdqu %ymm2, (%rdi)
vpxor 32(%rsi), %ymm4, %ymm2
vmovdqu %ymm2, 32(%rdi)
addq $64, %rdi
addq $64, %rsi
addq $-64, %rdx
vmovdqu %ymm0, %ymm5
vmovdqu %ymm1, %ymm4
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$17:
cmpq $32, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$16
vpxor (%rsi), %ymm5, %ymm0
vmovdqu %ymm0, (%rdi)
addq $32, %rdi
addq $32, %rsi
addq $-32, %rdx
vmovdqu %ymm4, %ymm5
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$16:
vmovdqu %xmm5, %xmm0
cmpq $16, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$15
vpxor (%rsi), %xmm0, %xmm0
vmovdqu %xmm0, (%rdi)
addq $16, %rdi
addq $16, %rsi
addq $-16, %rdx
vextracti128 $1, %ymm5, %xmm0
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$15:
vpextrq $0, %xmm0, %rax
cmpq $8, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$12
xorq (%rsi), %rax
movq %rax, (%rdi)
addq $8, %rdi
addq $8, %rsi
addq $-8, %rdx
vpextrq $1, %xmm0, %rax
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$14:
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$12
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$13:
movb %al, %cl
xorb (%rsi), %cl
movb %cl, (%rdi)
shrq $8, %rax
incq %rdi
incq %rsi
addq $-1, %rdx
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$12:
cmpq $0, %rdx
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$13
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$2
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$3:
vmovdqu %ymm2, %ymm6
vmovdqu %ymm3, %ymm7
vmovdqu %ymm4, %ymm8
vmovdqu %ymm5, %ymm9
vmovdqu %ymm2, %ymm10
vmovdqu %ymm3, %ymm11
vmovdqu %ymm4, %ymm12
vmovdqu %ymm5, %ymm13
vpaddd glob_data + 64(%rip), %ymm13, %ymm13
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$11:
vpaddd %ymm7, %ymm6, %ymm6
vpaddd %ymm11, %ymm10, %ymm10
vpxor %ymm6, %ymm9, %ymm9
vpxor %ymm10, %ymm13, %ymm13
vpshufb %ymm0, %ymm9, %ymm9
vpshufb %ymm0, %ymm13, %ymm13
vpaddd %ymm9, %ymm8, %ymm8
vpaddd %ymm13, %ymm12, %ymm12
vpxor %ymm8, %ymm7, %ymm7
vpslld $12, %ymm7, %ymm14
vpsrld $20, %ymm7, %ymm7
vpxor %ymm12, %ymm11, %ymm11
vpxor %ymm14, %ymm7, %ymm7
vpslld $12, %ymm11, %ymm14
vpsrld $20, %ymm11, %ymm11
vpxor %ymm14, %ymm11, %ymm11
vpaddd %ymm7, %ymm6, %ymm6
vpaddd %ymm11, %ymm10, %ymm10
vpxor %ymm6, %ymm9, %ymm9
vpxor %ymm10, %ymm13, %ymm13
vpshufb %ymm1, %ymm9, %ymm9
vpshufb %ymm1, %ymm13, %ymm13
vpaddd %ymm9, %ymm8, %ymm8
vpaddd %ymm13, %ymm12, %ymm12
vpxor %ymm8, %ymm7, %ymm7
vpslld $7, %ymm7, %ymm14
vpsrld $25, %ymm7, %ymm7
vpxor %ymm12, %ymm11, %ymm11
vpxor %ymm14, %ymm7, %ymm7
vpslld $7, %ymm11, %ymm14
vpsrld $25, %ymm11, %ymm11
vpxor %ymm14, %ymm11, %ymm11
vpshufd $57, %ymm7, %ymm7
vpshufd $78, %ymm8, %ymm8
vpshufd $-109, %ymm9, %ymm9
vpshufd $57, %ymm11, %ymm11
vpshufd $78, %ymm12, %ymm12
vpshufd $-109, %ymm13, %ymm13
vpaddd %ymm7, %ymm6, %ymm6
vpaddd %ymm11, %ymm10, %ymm10
vpxor %ymm6, %ymm9, %ymm9
vpxor %ymm10, %ymm13, %ymm13
vpshufb %ymm0, %ymm9, %ymm9
vpshufb %ymm0, %ymm13, %ymm13
vpaddd %ymm9, %ymm8, %ymm8
vpaddd %ymm13, %ymm12, %ymm12
vpxor %ymm8, %ymm7, %ymm7
vpslld $12, %ymm7, %ymm14
vpsrld $20, %ymm7, %ymm7
vpxor %ymm12, %ymm11, %ymm11
vpxor %ymm14, %ymm7, %ymm7
vpslld $12, %ymm11, %ymm14
vpsrld $20, %ymm11, %ymm11
vpxor %ymm14, %ymm11, %ymm11
vpaddd %ymm7, %ymm6, %ymm6
vpaddd %ymm11, %ymm10, %ymm10
vpxor %ymm6, %ymm9, %ymm9
vpxor %ymm10, %ymm13, %ymm13
vpshufb %ymm1, %ymm9, %ymm9
vpshufb %ymm1, %ymm13, %ymm13
vpaddd %ymm9, %ymm8, %ymm8
vpaddd %ymm13, %ymm12, %ymm12
vpxor %ymm8, %ymm7, %ymm7
vpslld $7, %ymm7, %ymm14
vpsrld $25, %ymm7, %ymm7
vpxor %ymm12, %ymm11, %ymm11
vpxor %ymm14, %ymm7, %ymm7
vpslld $7, %ymm11, %ymm14
vpsrld $25, %ymm11, %ymm11
vpxor %ymm14, %ymm11, %ymm11
vpshufd $-109, %ymm7, %ymm7
vpshufd $78, %ymm8, %ymm8
vpshufd $57, %ymm9, %ymm9
vpshufd $-109, %ymm11, %ymm11
vpshufd $78, %ymm12, %ymm12
vpshufd $57, %ymm13, %ymm13
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$11
vpaddd %ymm2, %ymm6, %ymm0
vpaddd %ymm3, %ymm7, %ymm1
vpaddd %ymm4, %ymm8, %ymm6
vpaddd %ymm5, %ymm9, %ymm7
vpaddd %ymm2, %ymm10, %ymm2
vpaddd %ymm3, %ymm11, %ymm3
vpaddd %ymm4, %ymm12, %ymm4
vpaddd %ymm5, %ymm13, %ymm5
vpaddd glob_data + 64(%rip), %ymm5, %ymm5
vperm2i128 $32, %ymm1, %ymm0, %ymm8
vperm2i128 $32, %ymm7, %ymm6, %ymm9
vperm2i128 $49, %ymm1, %ymm0, %ymm0
vperm2i128 $49, %ymm7, %ymm6, %ymm1
vperm2i128 $32, %ymm3, %ymm2, %ymm7
vperm2i128 $32, %ymm5, %ymm4, %ymm6
vperm2i128 $49, %ymm3, %ymm2, %ymm2
vperm2i128 $49, %ymm5, %ymm4, %ymm3
vpxor (%rsi), %ymm8, %ymm4
vmovdqu %ymm4, (%rdi)
vpxor 32(%rsi), %ymm9, %ymm4
vmovdqu %ymm4, 32(%rdi)
vpxor 64(%rsi), %ymm0, %ymm0
vmovdqu %ymm0, 64(%rdi)
vpxor 96(%rsi), %ymm1, %ymm0
vmovdqu %ymm0, 96(%rdi)
addq $128, %rdi
addq $128, %rsi
addq $-128, %rdx
cmpq $64, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$10
vpxor (%rsi), %ymm7, %ymm0
vmovdqu %ymm0, (%rdi)
vpxor 32(%rsi), %ymm6, %ymm0
vmovdqu %ymm0, 32(%rdi)
addq $64, %rdi
addq $64, %rsi
addq $-64, %rdx
vmovdqu %ymm2, %ymm7
vmovdqu %ymm3, %ymm6
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$10:
cmpq $32, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$9
vpxor (%rsi), %ymm7, %ymm0
vmovdqu %ymm0, (%rdi)
addq $32, %rdi
addq $32, %rsi
addq $-32, %rdx
vmovdqu %ymm6, %ymm7
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$9:
vmovdqu %xmm7, %xmm0
cmpq $16, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$8
vpxor (%rsi), %xmm0, %xmm0
vmovdqu %xmm0, (%rdi)
addq $16, %rdi
addq $16, %rsi
addq $-16, %rdx
vextracti128 $1, %ymm7, %xmm0
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$8:
vpextrq $0, %xmm0, %rax
cmpq $8, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$5
xorq (%rsi), %rax
movq %rax, (%rdi)
addq $8, %rdi
addq $8, %rsi
addq $-8, %rdx
vpextrq $1, %xmm0, %rax
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$7:
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$5
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$6:
movb %al, %cl
xorb (%rsi), %cl
movb %cl, (%rdi)
shrq $8, %rax
incq %rdi
incq %rsi
addq $-1, %rdx
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$5:
cmpq $0, %rdx
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$6
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$4:
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$2:
xorq %rax, %rax
movq %r10, %rsp
ret
.data
.p2align 5
_glob_data:
glob_data:
.byte 8
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 4
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 4
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 2
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 2
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 3
.byte 0
.byte 1
.byte 2
.byte 7
.byte 4
.byte 5
.byte 6
.byte 11
.byte 8
.byte 9
.byte 10
.byte 15
.byte 12
.byte 13
.byte 14
.byte 3
.byte 0
.byte 1
.byte 2
.byte 7
.byte 4
.byte 5
.byte 6
.byte 11
.byte 8
.byte 9
.byte 10
.byte 15
.byte 12
.byte 13
.byte 14
.byte 2
.byte 3
.byte 0
.byte 1
.byte 6
.byte 7
.byte 4
.byte 5
.byte 10
.byte 11
.byte 8
.byte 9
.byte 14
.byte 15
.byte 12
.byte 13
.byte 2
.byte 3
.byte 0
.byte 1
.byte 6
.byte 7
.byte 4
.byte 5
.byte 10
.byte 11
.byte 8
.byte 9
.byte 14
.byte 15
.byte 12
.byte 13
.byte 8
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 2
.byte 0
.byte 0
.byte 0
.byte 3
.byte 0
.byte 0
.byte 0
.byte 4
.byte 0
.byte 0
.byte 0
.byte 5
.byte 0
.byte 0
.byte 0
.byte 6
.byte 0
.byte 0
.byte 0
.byte 7
.byte 0
.byte 0
.byte 0
.byte 101
.byte 120
.byte 112
.byte 97
.byte 101
.byte 120
.byte 112
.byte 97
.byte 101
.byte 120
.byte 112
.byte 97
.byte 101
.byte 120
.byte 112
.byte 97
.byte 101
.byte 120
.byte 112
.byte 97
.byte 101
.byte 120
.byte 112
.byte 97
.byte 101
.byte 120
.byte 112
.byte 97
.byte 101
.byte 120
.byte 112
.byte 97
.byte 110
.byte 100
.byte 32
.byte 51
.byte 110
.byte 100
.byte 32
.byte 51
.byte 110
.byte 100
.byte 32
.byte 51
.byte 110
.byte 100
.byte 32
.byte 51
.byte 110
.byte 100
.byte 32
.byte 51
.byte 110
.byte 100
.byte 32
.byte 51
.byte 110
.byte 100
.byte 32
.byte 51
.byte 110
.byte 100
.byte 32
.byte 51
.byte 50
.byte 45
.byte 98
.byte 121
.byte 50
.byte 45
.byte 98
.byte 121
.byte 50
.byte 45
.byte 98
.byte 121
.byte 50
.byte 45
.byte 98
.byte 121
.byte 50
.byte 45
.byte 98
.byte 121
.byte 50
.byte 45
.byte 98
.byte 121
.byte 50
.byte 45
.byte 98
.byte 121
.byte 50
.byte 45
.byte 98
.byte 121
.byte 116
.byte 101
.byte 32
.byte 107
.byte 116
.byte 101
.byte 32
.byte 107
.byte 116
.byte 101
.byte 32
.byte 107
.byte 116
.byte 101
.byte 32
.byte 107
.byte 116
.byte 101
.byte 32
.byte 107
.byte 116
.byte 101
.byte 32
.byte 107
.byte 116
.byte 101
.byte 32
.byte 107
.byte 116
.byte 101
.byte 32
.byte 107
.byte 4
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 4
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 2
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 2
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 101
.byte 120
.byte 112
.byte 97
.byte 110
.byte 100
.byte 32
.byte 51
.byte 50
.byte 45
.byte 98
.byte 121
.byte 116
.byte 101
.byte 32
.byte 107
.byte 101
.byte 120
.byte 112
.byte 97
.byte 110
.byte 100
.byte 32
.byte 51
.byte 50
.byte 45
.byte 98
.byte 121
.byte 116
.byte 101
.byte 32
.byte 107
|
usenix-security-verdict/verdict
| 34,209
|
deps/libcrux/sys/libjade/jazz/sha3_224_avx2.s
|
.att_syntax
.text
.p2align 5
.globl _jade_hash_sha3_224_amd64_avx2
.globl jade_hash_sha3_224_amd64_avx2
_jade_hash_sha3_224_amd64_avx2:
jade_hash_sha3_224_amd64_avx2:
movq %rsp, %rax
leaq -40(%rsp), %rsp
andq $-32, %rsp
movq %rax, 32(%rsp)
movq %rbx, (%rsp)
movq %rbp, 8(%rsp)
movq %r12, 16(%rsp)
movq %r13, 24(%rsp)
movq $28, %r9
movb $6, %al
movq $144, %rcx
leaq -224(%rsp), %rsp
leaq Ljade_hash_sha3_224_amd64_avx2$1(%rip), %r10
jmp L_keccak1600_avx2$1
Ljade_hash_sha3_224_amd64_avx2$1:
leaq 224(%rsp), %rsp
xorq %rax, %rax
movq (%rsp), %rbx
movq 8(%rsp), %rbp
movq 16(%rsp), %r12
movq 24(%rsp), %r13
movq 32(%rsp), %rsp
ret
L_keccak1600_avx2$1:
vpxor %ymm6, %ymm6, %ymm6
vpxor %ymm3, %ymm3, %ymm3
vpxor %ymm4, %ymm4, %ymm4
vpxor %ymm0, %ymm0, %ymm0
vpxor %ymm5, %ymm5, %ymm5
vpxor %ymm1, %ymm1, %ymm1
vpxor %ymm2, %ymm2, %ymm2
leaq glob_data + 1152(%rip), %r8
vpxor %ymm7, %ymm7, %ymm7
vmovdqu %ymm7, (%rsp)
vmovdqu %ymm7, 32(%rsp)
vmovdqu %ymm7, 64(%rsp)
vmovdqu %ymm7, 96(%rsp)
vmovdqu %ymm7, 128(%rsp)
vmovdqu %ymm7, 160(%rsp)
vmovdqu %ymm7, 192(%rsp)
jmp L_keccak1600_avx2$16
L_keccak1600_avx2$17:
movq %rcx, %r11
shrq $3, %r11
movq $0, %rbx
jmp L_keccak1600_avx2$19
L_keccak1600_avx2$20:
movq (%rsi,%rbx,8), %rbp
movq (%r8,%rbx,8), %r12
movq %rbp, (%rsp,%r12,8)
incq %rbx
L_keccak1600_avx2$19:
cmpq %r11, %rbx
jb L_keccak1600_avx2$20
movq (%rsp), %r11
movq %r11, 8(%rsp)
movq %r11, 16(%rsp)
movq %r11, 24(%rsp)
vpxor (%rsp), %ymm6, %ymm6
vpxor 32(%rsp), %ymm3, %ymm3
vpxor 64(%rsp), %ymm4, %ymm4
vpxor 96(%rsp), %ymm0, %ymm0
vpxor 128(%rsp), %ymm5, %ymm5
vpxor 160(%rsp), %ymm1, %ymm1
vpxor 192(%rsp), %ymm2, %ymm2
addq %rcx, %rsi
subq %rcx, %rdx
leaq glob_data + 384(%rip), %r11
movq $0, %rbx
leaq glob_data + 192(%rip), %rbp
leaq glob_data + 0(%rip), %r12
movq $24, %r13
L_keccak1600_avx2$18:
vpshufd $78, %ymm4, %ymm8
vpxor %ymm0, %ymm1, %ymm7
vpxor %ymm2, %ymm5, %ymm9
vpxor %ymm3, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm4, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm4, %ymm4
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rbp), %ymm4, %ymm7
vpsrlvq (%r12), %ymm4, %ymm4
vpor %ymm7, %ymm4, %ymm4
vpxor %ymm9, %ymm0, %ymm0
vpsllvq 64(%rbp), %ymm0, %ymm7
vpsrlvq 64(%r12), %ymm0, %ymm0
vpor %ymm7, %ymm0, %ymm0
vpxor %ymm9, %ymm5, %ymm5
vpsllvq 96(%rbp), %ymm5, %ymm7
vpsrlvq 96(%r12), %ymm5, %ymm5
vpor %ymm7, %ymm5, %ymm10
vpxor %ymm9, %ymm1, %ymm1
vpsllvq 128(%rbp), %ymm1, %ymm5
vpsrlvq 128(%r12), %ymm1, %ymm1
vpor %ymm5, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpermq $-115, %ymm4, %ymm5
vpermq $-115, %ymm0, %ymm7
vpsllvq 160(%rbp), %ymm2, %ymm0
vpsrlvq 160(%r12), %ymm2, %ymm2
vpor %ymm0, %ymm2, %ymm8
vpxor %ymm9, %ymm3, %ymm0
vpermq $27, %ymm10, %ymm3
vpermq $114, %ymm1, %ymm9
vpsllvq 32(%rbp), %ymm0, %ymm1
vpsrlvq 32(%r12), %ymm0, %ymm0
vpor %ymm1, %ymm0, %ymm10
vpsrldq $8, %ymm8, %ymm0
vpandn %ymm0, %ymm8, %ymm0
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm2
vpblendd $12, %ymm7, %ymm5, %ymm4
vpblendd $12, %ymm5, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm2, %ymm2
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm2, %ymm2
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm2, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm2
vpblendd $12, %ymm10, %ymm3, %ymm4
vpblendd $12, %ymm3, %ymm5, %ymm11
vpxor %ymm5, %ymm1, %ymm1
vpblendd $48, %ymm5, %ymm4, %ymm4
vpblendd $48, %ymm7, %ymm11, %ymm11
vpxor %ymm3, %ymm2, %ymm2
vpblendd $-64, %ymm7, %ymm4, %ymm4
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm4, %ymm4
vpxor %ymm9, %ymm4, %ymm12
vpermq $30, %ymm8, %ymm4
vpblendd $48, %ymm6, %ymm4, %ymm4
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm4, %ymm11, %ymm11
vpblendd $12, %ymm3, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm4, %ymm4
vpblendd $48, %ymm5, %ymm13, %ymm13
vpblendd $-64, %ymm5, %ymm4, %ymm4
vpblendd $-64, %ymm3, %ymm13, %ymm13
vpandn %ymm13, %ymm4, %ymm4
vpxor %ymm10, %ymm4, %ymm4
vpermq $0, %ymm0, %ymm13
vpermq $27, %ymm1, %ymm0
vpermq $-115, %ymm2, %ymm1
vpermq $114, %ymm12, %ymm2
vpblendd $12, %ymm5, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm3, %ymm9
vpblendd $48, %ymm3, %ymm12, %ymm3
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm3, %ymm3
vpblendd $-64, %ymm5, %ymm9, %ymm5
vpandn %ymm5, %ymm3, %ymm5
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm3
vpxor %ymm7, %ymm5, %ymm5
vpxor (%r11,%rbx), %ymm6, %ymm6
addq $32, %rbx
decq %r13
jne L_keccak1600_avx2$18
L_keccak1600_avx2$16:
cmpq %rcx, %rdx
jnb L_keccak1600_avx2$17
vpxor %ymm7, %ymm7, %ymm7
vmovdqu %ymm7, (%rsp)
vmovdqu %ymm7, 32(%rsp)
vmovdqu %ymm7, 64(%rsp)
vmovdqu %ymm7, 96(%rsp)
vmovdqu %ymm7, 128(%rsp)
vmovdqu %ymm7, 160(%rsp)
vmovdqu %ymm7, 192(%rsp)
movq %rdx, %r11
shrq $3, %r11
movq $0, %rbx
jmp L_keccak1600_avx2$14
L_keccak1600_avx2$15:
movq (%rsi,%rbx,8), %rbp
movq (%r8,%rbx,8), %r12
movq %rbp, (%rsp,%r12,8)
incq %rbx
L_keccak1600_avx2$14:
cmpq %r11, %rbx
jb L_keccak1600_avx2$15
movq (%r8,%rbx,8), %r11
shlq $3, %r11
shlq $3, %rbx
jmp L_keccak1600_avx2$12
L_keccak1600_avx2$13:
movb (%rsi,%rbx), %bpl
movb %bpl, (%rsp,%r11)
incq %rbx
incq %r11
L_keccak1600_avx2$12:
cmpq %rdx, %rbx
jb L_keccak1600_avx2$13
movb %al, (%rsp,%r11)
movq %rcx, %rax
addq $-1, %rax
shrq $3, %rax
movq (%r8,%rax,8), %rax
shlq $3, %rax
movq %rcx, %rdx
addq $-1, %rdx
andq $7, %rdx
addq %rdx, %rax
xorb $-128, (%rsp,%rax)
movq (%rsp), %rax
movq %rax, 8(%rsp)
movq %rax, 16(%rsp)
movq %rax, 24(%rsp)
vpxor (%rsp), %ymm6, %ymm6
vpxor 32(%rsp), %ymm3, %ymm3
vpxor 64(%rsp), %ymm4, %ymm4
vpxor 96(%rsp), %ymm0, %ymm0
vpxor 128(%rsp), %ymm5, %ymm5
vpxor 160(%rsp), %ymm1, %ymm1
vpxor 192(%rsp), %ymm2, %ymm2
leaq glob_data + 1152(%rip), %rax
jmp L_keccak1600_avx2$7
L_keccak1600_avx2$8:
leaq glob_data + 384(%rip), %rdx
movq $0, %rsi
leaq glob_data + 192(%rip), %r8
leaq glob_data + 0(%rip), %r11
movq $24, %rbx
L_keccak1600_avx2$11:
vpshufd $78, %ymm4, %ymm8
vpxor %ymm0, %ymm1, %ymm7
vpxor %ymm2, %ymm5, %ymm9
vpxor %ymm3, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm4, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm4, %ymm4
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%r8), %ymm4, %ymm7
vpsrlvq (%r11), %ymm4, %ymm4
vpor %ymm7, %ymm4, %ymm4
vpxor %ymm9, %ymm0, %ymm0
vpsllvq 64(%r8), %ymm0, %ymm7
vpsrlvq 64(%r11), %ymm0, %ymm0
vpor %ymm7, %ymm0, %ymm0
vpxor %ymm9, %ymm5, %ymm5
vpsllvq 96(%r8), %ymm5, %ymm7
vpsrlvq 96(%r11), %ymm5, %ymm5
vpor %ymm7, %ymm5, %ymm10
vpxor %ymm9, %ymm1, %ymm1
vpsllvq 128(%r8), %ymm1, %ymm5
vpsrlvq 128(%r11), %ymm1, %ymm1
vpor %ymm5, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpermq $-115, %ymm4, %ymm5
vpermq $-115, %ymm0, %ymm7
vpsllvq 160(%r8), %ymm2, %ymm0
vpsrlvq 160(%r11), %ymm2, %ymm2
vpor %ymm0, %ymm2, %ymm8
vpxor %ymm9, %ymm3, %ymm0
vpermq $27, %ymm10, %ymm3
vpermq $114, %ymm1, %ymm9
vpsllvq 32(%r8), %ymm0, %ymm1
vpsrlvq 32(%r11), %ymm0, %ymm0
vpor %ymm1, %ymm0, %ymm10
vpsrldq $8, %ymm8, %ymm0
vpandn %ymm0, %ymm8, %ymm0
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm2
vpblendd $12, %ymm7, %ymm5, %ymm4
vpblendd $12, %ymm5, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm2, %ymm2
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm2, %ymm2
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm2, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm2
vpblendd $12, %ymm10, %ymm3, %ymm4
vpblendd $12, %ymm3, %ymm5, %ymm11
vpxor %ymm5, %ymm1, %ymm1
vpblendd $48, %ymm5, %ymm4, %ymm4
vpblendd $48, %ymm7, %ymm11, %ymm11
vpxor %ymm3, %ymm2, %ymm2
vpblendd $-64, %ymm7, %ymm4, %ymm4
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm4, %ymm4
vpxor %ymm9, %ymm4, %ymm12
vpermq $30, %ymm8, %ymm4
vpblendd $48, %ymm6, %ymm4, %ymm4
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm4, %ymm11, %ymm11
vpblendd $12, %ymm3, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm4, %ymm4
vpblendd $48, %ymm5, %ymm13, %ymm13
vpblendd $-64, %ymm5, %ymm4, %ymm4
vpblendd $-64, %ymm3, %ymm13, %ymm13
vpandn %ymm13, %ymm4, %ymm4
vpxor %ymm10, %ymm4, %ymm4
vpermq $0, %ymm0, %ymm13
vpermq $27, %ymm1, %ymm0
vpermq $-115, %ymm2, %ymm1
vpermq $114, %ymm12, %ymm2
vpblendd $12, %ymm5, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm3, %ymm9
vpblendd $48, %ymm3, %ymm12, %ymm3
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm3, %ymm3
vpblendd $-64, %ymm5, %ymm9, %ymm5
vpandn %ymm5, %ymm3, %ymm5
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm3
vpxor %ymm7, %ymm5, %ymm5
vpxor (%rdx,%rsi), %ymm6, %ymm6
addq $32, %rsi
decq %rbx
jne L_keccak1600_avx2$11
vmovdqu %ymm6, (%rsp)
vmovdqu %ymm3, 32(%rsp)
vmovdqu %ymm4, 64(%rsp)
vmovdqu %ymm0, 96(%rsp)
vmovdqu %ymm5, 128(%rsp)
vmovdqu %ymm1, 160(%rsp)
vmovdqu %ymm2, 192(%rsp)
movq %rcx, %rdx
shrq $3, %rdx
movq $0, %rsi
jmp L_keccak1600_avx2$9
L_keccak1600_avx2$10:
movq (%rax,%rsi,8), %r8
movq (%rsp,%r8,8), %r8
movq %r8, (%rdi,%rsi,8)
incq %rsi
L_keccak1600_avx2$9:
cmpq %rdx, %rsi
jb L_keccak1600_avx2$10
addq %rcx, %rdi
subq %rcx, %r9
L_keccak1600_avx2$7:
cmpq %rcx, %r9
jnbe L_keccak1600_avx2$8
leaq glob_data + 384(%rip), %rcx
movq $0, %rdx
leaq glob_data + 192(%rip), %rsi
leaq glob_data + 0(%rip), %r8
movq $24, %r11
L_keccak1600_avx2$6:
vpshufd $78, %ymm4, %ymm8
vpxor %ymm0, %ymm1, %ymm7
vpxor %ymm2, %ymm5, %ymm9
vpxor %ymm3, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm4, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm4, %ymm4
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm4, %ymm7
vpsrlvq (%r8), %ymm4, %ymm4
vpor %ymm7, %ymm4, %ymm4
vpxor %ymm9, %ymm0, %ymm0
vpsllvq 64(%rsi), %ymm0, %ymm7
vpsrlvq 64(%r8), %ymm0, %ymm0
vpor %ymm7, %ymm0, %ymm0
vpxor %ymm9, %ymm5, %ymm5
vpsllvq 96(%rsi), %ymm5, %ymm7
vpsrlvq 96(%r8), %ymm5, %ymm5
vpor %ymm7, %ymm5, %ymm10
vpxor %ymm9, %ymm1, %ymm1
vpsllvq 128(%rsi), %ymm1, %ymm5
vpsrlvq 128(%r8), %ymm1, %ymm1
vpor %ymm5, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpermq $-115, %ymm4, %ymm5
vpermq $-115, %ymm0, %ymm7
vpsllvq 160(%rsi), %ymm2, %ymm0
vpsrlvq 160(%r8), %ymm2, %ymm2
vpor %ymm0, %ymm2, %ymm8
vpxor %ymm9, %ymm3, %ymm0
vpermq $27, %ymm10, %ymm3
vpermq $114, %ymm1, %ymm9
vpsllvq 32(%rsi), %ymm0, %ymm1
vpsrlvq 32(%r8), %ymm0, %ymm0
vpor %ymm1, %ymm0, %ymm10
vpsrldq $8, %ymm8, %ymm0
vpandn %ymm0, %ymm8, %ymm0
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm2
vpblendd $12, %ymm7, %ymm5, %ymm4
vpblendd $12, %ymm5, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm2, %ymm2
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm2, %ymm2
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm2, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm2
vpblendd $12, %ymm10, %ymm3, %ymm4
vpblendd $12, %ymm3, %ymm5, %ymm11
vpxor %ymm5, %ymm1, %ymm1
vpblendd $48, %ymm5, %ymm4, %ymm4
vpblendd $48, %ymm7, %ymm11, %ymm11
vpxor %ymm3, %ymm2, %ymm2
vpblendd $-64, %ymm7, %ymm4, %ymm4
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm4, %ymm4
vpxor %ymm9, %ymm4, %ymm12
vpermq $30, %ymm8, %ymm4
vpblendd $48, %ymm6, %ymm4, %ymm4
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm4, %ymm11, %ymm11
vpblendd $12, %ymm3, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm4, %ymm4
vpblendd $48, %ymm5, %ymm13, %ymm13
vpblendd $-64, %ymm5, %ymm4, %ymm4
vpblendd $-64, %ymm3, %ymm13, %ymm13
vpandn %ymm13, %ymm4, %ymm4
vpxor %ymm10, %ymm4, %ymm4
vpermq $0, %ymm0, %ymm13
vpermq $27, %ymm1, %ymm0
vpermq $-115, %ymm2, %ymm1
vpermq $114, %ymm12, %ymm2
vpblendd $12, %ymm5, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm3, %ymm9
vpblendd $48, %ymm3, %ymm12, %ymm3
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm3, %ymm3
vpblendd $-64, %ymm5, %ymm9, %ymm5
vpandn %ymm5, %ymm3, %ymm5
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm3
vpxor %ymm7, %ymm5, %ymm5
vpxor (%rcx,%rdx), %ymm6, %ymm6
addq $32, %rdx
decq %r11
jne L_keccak1600_avx2$6
vmovdqu %ymm6, (%rsp)
vmovdqu %ymm3, 32(%rsp)
vmovdqu %ymm4, 64(%rsp)
vmovdqu %ymm0, 96(%rsp)
vmovdqu %ymm5, 128(%rsp)
vmovdqu %ymm1, 160(%rsp)
vmovdqu %ymm2, 192(%rsp)
movq %r9, %rcx
shrq $3, %rcx
movq $0, %rdx
jmp L_keccak1600_avx2$4
L_keccak1600_avx2$5:
movq (%rax,%rdx,8), %rsi
movq (%rsp,%rsi,8), %rsi
movq %rsi, (%rdi,%rdx,8)
incq %rdx
L_keccak1600_avx2$4:
cmpq %rcx, %rdx
jb L_keccak1600_avx2$5
movq (%rax,%rdx,8), %rax
shlq $3, %rdx
shlq $3, %rax
jmp L_keccak1600_avx2$2
L_keccak1600_avx2$3:
movb (%rsp,%rax), %cl
movb %cl, (%rdi,%rdx)
incq %rdx
incq %rax
L_keccak1600_avx2$2:
cmpq %r9, %rdx
jb L_keccak1600_avx2$3
jmp *%r10
.data
.p2align 5
_glob_data:
glob_data:
.byte 61
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 46
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 28
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 23
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 63
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 2
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 36
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 37
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 19
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 58
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 25
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 54
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 3
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 56
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 62
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 49
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 39
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 44
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 20
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 21
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 43
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 50
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 3
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 18
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 36
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 41
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 62
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 28
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 27
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 45
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 6
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 56
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 39
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 61
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 55
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 2
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 15
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 25
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 20
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 44
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 43
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 21
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 14
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 4
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 5
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 6
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 7
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 24
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 13
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 18
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 23
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 16
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 25
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 22
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 15
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 11
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 12
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 21
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 26
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 19
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 20
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 17
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 14
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 27
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
|
usenix-security-verdict/verdict
| 32,893
|
deps/libcrux/sys/libjade/jazz/poly1305_avx2.s
|
.att_syntax
.text
.p2align 5
.globl _jade_onetimeauth_poly1305_amd64_avx2_verify
.globl jade_onetimeauth_poly1305_amd64_avx2_verify
.globl _jade_onetimeauth_poly1305_amd64_avx2
.globl jade_onetimeauth_poly1305_amd64_avx2
_jade_onetimeauth_poly1305_amd64_avx2_verify:
jade_onetimeauth_poly1305_amd64_avx2_verify:
movq %rsp, %rax
leaq -696(%rsp), %rsp
andq $-32, %rsp
movq %rax, 688(%rsp)
movq %rbx, 640(%rsp)
movq %rbp, 648(%rsp)
movq %r12, 656(%rsp)
movq %r13, 664(%rsp)
movq %r14, 672(%rsp)
movq %r15, 680(%rsp)
movq %rdx, %r14
movq %rcx, %r15
cmpq $256, %r14
jnb Ljade_onetimeauth_poly1305_amd64_avx2_verify$1
movq $0, %rbx
movq $0, %r12
movq $0, %r8
movq (%r15), %rbp
movq 8(%r15), %r13
movq $1152921487695413247, %rax
andq %rax, %rbp
movq $1152921487695413244, %rax
andq %rax, %r13
movq %r13, %r9
shrq $2, %r9
addq %r13, %r9
addq $16, %r15
jmp Ljade_onetimeauth_poly1305_amd64_avx2_verify$9
Ljade_onetimeauth_poly1305_amd64_avx2_verify$10:
addq (%rsi), %rbx
adcq 8(%rsi), %r12
adcq $1, %r8
movq %r9, %r11
imulq %r8, %r11
imulq %rbp, %r8
movq %rbp, %rax
mulq %rbx
movq %rax, %rcx
movq %rdx, %r10
movq %rbp, %rax
mulq %r12
addq %rax, %r10
adcq %rdx, %r8
movq %r9, %rax
mulq %r12
movq %rdx, %r12
addq %r11, %r12
movq %rax, %r11
movq %r13, %rax
mulq %rbx
addq %r11, %rcx
adcq %rax, %r10
adcq %rdx, %r8
movq $-4, %rbx
movq %r8, %rax
shrq $2, %rax
andq %r8, %rbx
addq %rax, %rbx
andq $3, %r8
addq %rcx, %rbx
adcq %r10, %r12
adcq $0, %r8
addq $16, %rsi
addq $-16, %r14
Ljade_onetimeauth_poly1305_amd64_avx2_verify$9:
cmpq $16, %r14
jnb Ljade_onetimeauth_poly1305_amd64_avx2_verify$10
cmpq $0, %r14
jbe Ljade_onetimeauth_poly1305_amd64_avx2_verify$8
xorq %rcx, %rcx
movq %r14, %rax
andq $7, %rax
shlq $3, %rax
shrq $3, %r14
movq %r14, %rdx
xorq $1, %rdx
movq %r14, %r10
addq $-1, %r10
movq %rax, %r11
andq %r10, %r11
xorq %r11, %rcx
xorq %r11, %rax
shlq %cl, %rdx
movq %rax, %rcx
shlq %cl, %r14
movq %rdx, %rax
movq %r14, %rcx
subq $1, %rax
sbbq $0, %rcx
movq (%rsi), %r10
andq %rax, %r10
orq %rdx, %r10
movq 8(%rsi), %rax
andq %rcx, %rax
orq %r14, %rax
addq %r10, %rbx
adcq %rax, %r12
adcq $0, %r8
movq %r9, %rsi
imulq %r8, %rsi
imulq %rbp, %r8
movq %rbp, %rax
mulq %rbx
movq %rax, %rcx
movq %rdx, %r10
movq %rbp, %rax
mulq %r12
addq %rax, %r10
adcq %rdx, %r8
movq %r9, %rax
mulq %r12
movq %rdx, %r12
addq %rsi, %r12
movq %rax, %rsi
movq %r13, %rax
mulq %rbx
addq %rsi, %rcx
adcq %rax, %r10
adcq %rdx, %r8
movq $-4, %rbx
movq %r8, %rax
shrq $2, %rax
andq %r8, %rbx
addq %rax, %rbx
andq $3, %r8
addq %rcx, %rbx
adcq %r10, %r12
adcq $0, %r8
Ljade_onetimeauth_poly1305_amd64_avx2_verify$8:
movq %rbx, %rax
movq %r12, %rcx
addq $5, %rax
adcq $0, %rcx
adcq $0, %r8
shrq $2, %r8
negq %r8
xorq %rbx, %rax
xorq %r12, %rcx
andq %r8, %rax
andq %r8, %rcx
xorq %rbx, %rax
xorq %r12, %rcx
movq (%r15), %rdx
movq 8(%r15), %rsi
addq %rdx, %rax
adcq %rsi, %rcx
jmp Ljade_onetimeauth_poly1305_amd64_avx2_verify$2
Ljade_onetimeauth_poly1305_amd64_avx2_verify$1:
movq (%r15), %rbp
movq 8(%r15), %r13
movq $1152921487695413247, %rax
andq %rax, %rbp
movq $1152921487695413244, %rax
andq %rax, %r13
movq %r13, %r12
shrq $2, %r12
addq %r13, %r12
addq $16, %r15
movq %rbp, %r8
movq %r13, %r11
movq $0, %rbx
movq %r8, %rax
andq $67108863, %rax
movq %rax, 344(%rsp)
movq %r8, %rax
shrq $26, %rax
andq $67108863, %rax
movq %rax, 376(%rsp)
movq %r8, %rax
shrdq $52, %r11, %rax
movq %rax, %rcx
andq $67108863, %rax
movq %rax, 408(%rsp)
shrq $26, %rcx
andq $67108863, %rcx
movq %rcx, 440(%rsp)
movq %r11, %rax
shrdq $40, %rbx, %rax
movq %rax, 472(%rsp)
movq %r12, %r10
imulq %rbx, %r10
imulq %rbp, %rbx
movq %rbp, %rax
mulq %r8
movq %rax, %rcx
movq %rdx, %r9
movq %rbp, %rax
mulq %r11
addq %rax, %r9
adcq %rdx, %rbx
movq %r12, %rax
mulq %r11
movq %rdx, %r11
addq %r10, %r11
movq %rax, %r10
movq %r13, %rax
mulq %r8
addq %r10, %rcx
adcq %rax, %r9
adcq %rdx, %rbx
movq $-4, %r8
movq %rbx, %rax
shrq $2, %rax
andq %rbx, %r8
addq %rax, %r8
andq $3, %rbx
addq %rcx, %r8
adcq %r9, %r11
adcq $0, %rbx
movq %r8, %rax
andq $67108863, %rax
movq %rax, 336(%rsp)
movq %r8, %rax
shrq $26, %rax
andq $67108863, %rax
movq %rax, 368(%rsp)
movq %r8, %rax
shrdq $52, %r11, %rax
movq %rax, %rcx
andq $67108863, %rax
movq %rax, 400(%rsp)
shrq $26, %rcx
andq $67108863, %rcx
movq %rcx, 432(%rsp)
movq %r11, %rax
shrdq $40, %rbx, %rax
movq %rax, 464(%rsp)
movq %r12, %r10
imulq %rbx, %r10
imulq %rbp, %rbx
movq %rbp, %rax
mulq %r8
movq %rax, %rcx
movq %rdx, %r9
movq %rbp, %rax
mulq %r11
addq %rax, %r9
adcq %rdx, %rbx
movq %r12, %rax
mulq %r11
movq %rdx, %r11
addq %r10, %r11
movq %rax, %r10
movq %r13, %rax
mulq %r8
addq %r10, %rcx
adcq %rax, %r9
adcq %rdx, %rbx
movq $-4, %r8
movq %rbx, %rax
shrq $2, %rax
andq %rbx, %r8
addq %rax, %r8
andq $3, %rbx
addq %rcx, %r8
adcq %r9, %r11
adcq $0, %rbx
movq %r8, %rax
andq $67108863, %rax
movq %rax, 328(%rsp)
movq %r8, %rax
shrq $26, %rax
andq $67108863, %rax
movq %rax, 360(%rsp)
movq %r8, %rax
shrdq $52, %r11, %rax
movq %rax, %rcx
andq $67108863, %rax
movq %rax, 392(%rsp)
shrq $26, %rcx
andq $67108863, %rcx
movq %rcx, 424(%rsp)
movq %r11, %rax
shrdq $40, %rbx, %rax
movq %rax, 456(%rsp)
movq %r12, %r9
imulq %rbx, %r9
imulq %rbp, %rbx
movq %rbp, %rax
mulq %r8
movq %rax, %rcx
movq %rdx, %r10
movq %rbp, %rax
mulq %r11
addq %rax, %r10
adcq %rdx, %rbx
movq %r12, %rax
mulq %r11
movq %rdx, %r11
addq %r9, %r11
movq %rax, %r9
movq %r13, %rax
mulq %r8
addq %r9, %rcx
adcq %rax, %r10
adcq %rdx, %rbx
movq $-4, %rax
movq %rbx, %rdx
shrq $2, %rdx
andq %rbx, %rax
addq %rdx, %rax
andq $3, %rbx
addq %rcx, %rax
adcq %r10, %r11
adcq $0, %rbx
movq %rax, %rcx
andq $67108863, %rcx
movq %rcx, 320(%rsp)
movq %rax, %rcx
shrq $26, %rcx
andq $67108863, %rcx
movq %rcx, 352(%rsp)
shrdq $52, %r11, %rax
movq %rax, %rcx
andq $67108863, %rax
movq %rax, 384(%rsp)
shrq $26, %rcx
andq $67108863, %rcx
movq %rcx, 416(%rsp)
shrdq $40, %rbx, %r11
movq %r11, 448(%rsp)
vpbroadcastq glob_data + 16(%rip), %ymm0
vpmuludq 352(%rsp), %ymm0, %ymm1
vmovdqu %ymm1, 64(%rsp)
vpmuludq 384(%rsp), %ymm0, %ymm1
vmovdqu %ymm1, 96(%rsp)
vpmuludq 416(%rsp), %ymm0, %ymm1
vmovdqu %ymm1, 128(%rsp)
vpmuludq 448(%rsp), %ymm0, %ymm0
vmovdqu %ymm0, 160(%rsp)
vpbroadcastq 320(%rsp), %ymm0
vmovdqu %ymm0, 480(%rsp)
vpbroadcastq 352(%rsp), %ymm0
vmovdqu %ymm0, 512(%rsp)
vpbroadcastq 384(%rsp), %ymm0
vmovdqu %ymm0, 544(%rsp)
vpbroadcastq 416(%rsp), %ymm0
vmovdqu %ymm0, 576(%rsp)
vpbroadcastq 448(%rsp), %ymm0
vmovdqu %ymm0, 608(%rsp)
vpbroadcastq 64(%rsp), %ymm0
vmovdqu %ymm0, 192(%rsp)
vpbroadcastq 96(%rsp), %ymm0
vmovdqu %ymm0, 224(%rsp)
vpbroadcastq 128(%rsp), %ymm0
vmovdqu %ymm0, 256(%rsp)
vpbroadcastq 160(%rsp), %ymm0
vmovdqu %ymm0, 288(%rsp)
vpxor %ymm0, %ymm0, %ymm0
vpxor %ymm1, %ymm1, %ymm1
vpxor %ymm6, %ymm6, %ymm6
vpxor %ymm3, %ymm3, %ymm3
vpxor %ymm4, %ymm4, %ymm4
vpbroadcastq glob_data + 8(%rip), %ymm7
vmovdqu %ymm7, (%rsp)
vpbroadcastq glob_data + 0(%rip), %ymm2
vmovdqu %ymm2, 32(%rsp)
vmovdqu (%rsi), %ymm2
vmovdqu 32(%rsi), %ymm5
addq $64, %rsi
vperm2i128 $32, %ymm5, %ymm2, %ymm9
vperm2i128 $49, %ymm5, %ymm2, %ymm2
vpsrldq $6, %ymm9, %ymm5
vpsrldq $6, %ymm2, %ymm10
vpunpckhqdq %ymm2, %ymm9, %ymm8
vpunpcklqdq %ymm2, %ymm9, %ymm9
vpunpcklqdq %ymm10, %ymm5, %ymm10
vpsrlq $4, %ymm10, %ymm2
vpand %ymm7, %ymm2, %ymm2
vpsrlq $26, %ymm9, %ymm11
vpand %ymm7, %ymm9, %ymm5
vpsrlq $30, %ymm10, %ymm9
vpand %ymm7, %ymm9, %ymm9
vpsrlq $40, %ymm8, %ymm8
vpor 32(%rsp), %ymm8, %ymm10
vpand %ymm7, %ymm11, %ymm11
jmp Ljade_onetimeauth_poly1305_amd64_avx2_verify$6
Ljade_onetimeauth_poly1305_amd64_avx2_verify$7:
vmovdqu 480(%rsp), %ymm8
vmovdqu 512(%rsp), %ymm7
vmovdqu 288(%rsp), %ymm13
vpaddq %ymm5, %ymm0, %ymm0
vpaddq %ymm11, %ymm1, %ymm1
vpmuludq %ymm8, %ymm0, %ymm5
vpaddq %ymm2, %ymm6, %ymm2
vpmuludq %ymm7, %ymm0, %ymm6
vpaddq %ymm9, %ymm3, %ymm3
vpmuludq %ymm8, %ymm1, %ymm9
vpaddq %ymm10, %ymm4, %ymm4
vpmuludq %ymm7, %ymm1, %ymm12
vpmuludq %ymm8, %ymm2, %ymm14
vpmuludq %ymm7, %ymm2, %ymm10
vpmuludq %ymm8, %ymm3, %ymm11
vpaddq %ymm6, %ymm9, %ymm6
vpmuludq %ymm7, %ymm3, %ymm9
vpaddq %ymm12, %ymm14, %ymm7
vpmuludq %ymm8, %ymm4, %ymm8
vpaddq %ymm10, %ymm11, %ymm11
vpaddq %ymm9, %ymm8, %ymm12
vpmuludq %ymm13, %ymm1, %ymm14
vmovdqu (%rsi), %ymm8
vpmuludq %ymm13, %ymm2, %ymm15
vmovdqu 544(%rsp), %ymm9
vpmuludq %ymm13, %ymm3, %ymm10
vpmuludq %ymm13, %ymm4, %ymm13
vpaddq %ymm14, %ymm5, %ymm5
vmovdqu 32(%rsi), %ymm14
vpaddq %ymm15, %ymm6, %ymm6
vpaddq %ymm10, %ymm7, %ymm10
vpaddq %ymm13, %ymm11, %ymm11
vpmuludq %ymm9, %ymm0, %ymm15
vperm2i128 $32, %ymm14, %ymm8, %ymm7
vpmuludq %ymm9, %ymm1, %ymm13
vperm2i128 $49, %ymm14, %ymm8, %ymm8
vpmuludq %ymm9, %ymm2, %ymm14
vpaddq %ymm15, %ymm10, %ymm9
vmovdqu 256(%rsp), %ymm10
vpaddq %ymm13, %ymm11, %ymm11
vpaddq %ymm14, %ymm12, %ymm12
vpmuludq %ymm10, %ymm2, %ymm2
vpmuludq %ymm10, %ymm3, %ymm13
vmovdqu 576(%rsp), %ymm14
vpmuludq %ymm10, %ymm4, %ymm10
vpsrldq $6, %ymm7, %ymm15
vpaddq %ymm2, %ymm5, %ymm2
vpsrldq $6, %ymm8, %ymm5
vpaddq %ymm13, %ymm6, %ymm6
vpaddq %ymm9, %ymm10, %ymm9
vmovdqu 224(%rsp), %ymm10
vpmuludq %ymm14, %ymm0, %ymm13
vpmuludq %ymm14, %ymm1, %ymm1
vpunpckhqdq %ymm8, %ymm7, %ymm14
vpunpcklqdq %ymm8, %ymm7, %ymm7
vpaddq %ymm13, %ymm11, %ymm11
vpaddq %ymm1, %ymm12, %ymm1
vpmuludq %ymm10, %ymm3, %ymm3
vpmuludq %ymm10, %ymm4, %ymm8
vpaddq %ymm3, %ymm2, %ymm2
vpaddq %ymm6, %ymm8, %ymm3
vmovdqu (%rsp), %ymm8
vpmuludq 192(%rsp), %ymm4, %ymm4
vpmuludq 608(%rsp), %ymm0, %ymm0
vpunpcklqdq %ymm5, %ymm15, %ymm10
vpsrlq $4, %ymm10, %ymm6
vpaddq %ymm4, %ymm2, %ymm2
vpsrlq $26, %ymm2, %ymm12
vpand %ymm8, %ymm2, %ymm4
vpand %ymm8, %ymm11, %ymm5
vpsrlq $26, %ymm11, %ymm13
vpaddq %ymm0, %ymm1, %ymm1
vpand %ymm8, %ymm6, %ymm2
vpsrlq $26, %ymm7, %ymm11
vpaddq %ymm12, %ymm3, %ymm0
vpaddq %ymm13, %ymm1, %ymm6
vpsrlq $26, %ymm0, %ymm1
vpsrlq $26, %ymm6, %ymm3
vpsllq $2, %ymm3, %ymm12
vpaddq %ymm12, %ymm3, %ymm13
vpand %ymm8, %ymm0, %ymm3
vpand %ymm8, %ymm6, %ymm12
vpaddq %ymm1, %ymm9, %ymm0
vpaddq %ymm13, %ymm4, %ymm1
vpsrlq $26, %ymm0, %ymm4
vpsrlq $26, %ymm1, %ymm9
vpand %ymm8, %ymm0, %ymm6
vpand %ymm8, %ymm1, %ymm0
vpaddq %ymm4, %ymm5, %ymm4
vpaddq %ymm9, %ymm3, %ymm1
vpsrlq $26, %ymm4, %ymm5
vpand %ymm8, %ymm4, %ymm3
vpaddq %ymm5, %ymm12, %ymm4
addq $64, %rsi
vpand %ymm8, %ymm7, %ymm5
vpsrlq $30, %ymm10, %ymm7
vpand %ymm8, %ymm7, %ymm9
vpsrlq $40, %ymm14, %ymm7
vpor 32(%rsp), %ymm7, %ymm10
vpand %ymm8, %ymm11, %ymm11
addq $-64, %r14
Ljade_onetimeauth_poly1305_amd64_avx2_verify$6:
cmpq $128, %r14
jnb Ljade_onetimeauth_poly1305_amd64_avx2_verify$7
addq $-64, %r14
vmovdqu 320(%rsp), %ymm7
vmovdqu 352(%rsp), %ymm8
vmovdqu 160(%rsp), %ymm12
vpaddq %ymm5, %ymm0, %ymm0
vpaddq %ymm11, %ymm1, %ymm1
vpaddq %ymm2, %ymm6, %ymm2
vpaddq %ymm9, %ymm3, %ymm3
vpaddq %ymm10, %ymm4, %ymm4
vpmuludq %ymm7, %ymm0, %ymm5
vpmuludq %ymm7, %ymm1, %ymm6
vpmuludq %ymm7, %ymm2, %ymm9
vpmuludq %ymm7, %ymm3, %ymm10
vpmuludq %ymm7, %ymm4, %ymm7
vpmuludq %ymm8, %ymm0, %ymm11
vpmuludq %ymm8, %ymm1, %ymm13
vpmuludq %ymm8, %ymm2, %ymm14
vpmuludq %ymm8, %ymm3, %ymm8
vmovdqu 384(%rsp), %ymm15
vpaddq %ymm11, %ymm6, %ymm6
vpaddq %ymm13, %ymm9, %ymm9
vpaddq %ymm14, %ymm10, %ymm10
vpaddq %ymm8, %ymm7, %ymm7
vpmuludq %ymm12, %ymm1, %ymm8
vpmuludq %ymm12, %ymm2, %ymm11
vpmuludq %ymm12, %ymm3, %ymm13
vpmuludq %ymm12, %ymm4, %ymm12
vmovdqu 128(%rsp), %ymm14
vpaddq %ymm8, %ymm5, %ymm5
vpaddq %ymm11, %ymm6, %ymm6
vpaddq %ymm13, %ymm9, %ymm8
vpaddq %ymm12, %ymm10, %ymm10
vpmuludq %ymm15, %ymm0, %ymm13
vpmuludq %ymm15, %ymm1, %ymm11
vpmuludq %ymm15, %ymm2, %ymm12
vmovdqu 416(%rsp), %ymm9
vpaddq %ymm13, %ymm8, %ymm8
vpaddq %ymm11, %ymm10, %ymm10
vpaddq %ymm12, %ymm7, %ymm7
vpmuludq %ymm14, %ymm2, %ymm2
vpmuludq %ymm14, %ymm3, %ymm12
vpmuludq %ymm14, %ymm4, %ymm13
vmovdqu 96(%rsp), %ymm11
vpaddq %ymm2, %ymm5, %ymm5
vpaddq %ymm12, %ymm6, %ymm6
vpaddq %ymm8, %ymm13, %ymm2
vpmuludq %ymm9, %ymm0, %ymm8
vpmuludq %ymm9, %ymm1, %ymm9
vpaddq %ymm8, %ymm10, %ymm1
vpaddq %ymm9, %ymm7, %ymm7
vpmuludq %ymm11, %ymm3, %ymm3
vpmuludq %ymm11, %ymm4, %ymm8
vpaddq %ymm3, %ymm5, %ymm5
vpaddq %ymm6, %ymm8, %ymm3
vpmuludq 64(%rsp), %ymm4, %ymm4
vpmuludq 448(%rsp), %ymm0, %ymm0
vpaddq %ymm4, %ymm5, %ymm4
vmovdqu %ymm1, %ymm5
vpaddq %ymm0, %ymm7, %ymm6
vmovdqu (%rsp), %ymm0
vpsrlq $26, %ymm4, %ymm7
vpsrlq $26, %ymm5, %ymm8
vpand %ymm0, %ymm4, %ymm1
vpand %ymm0, %ymm5, %ymm4
vpaddq %ymm7, %ymm3, %ymm3
vpaddq %ymm8, %ymm6, %ymm5
vpsrlq $26, %ymm3, %ymm6
vpsrlq $26, %ymm5, %ymm7
vpsllq $2, %ymm7, %ymm8
vpaddq %ymm8, %ymm7, %ymm7
vpand %ymm0, %ymm3, %ymm8
vpand %ymm0, %ymm5, %ymm3
vpaddq %ymm6, %ymm2, %ymm2
vpaddq %ymm7, %ymm1, %ymm5
vpsrlq $26, %ymm2, %ymm6
vpsrlq $26, %ymm5, %ymm7
vpand %ymm0, %ymm2, %ymm1
vpand %ymm0, %ymm5, %ymm2
vpaddq %ymm6, %ymm4, %ymm4
vpaddq %ymm7, %ymm8, %ymm5
vpsrlq $26, %ymm4, %ymm6
vpand %ymm0, %ymm4, %ymm0
vpaddq %ymm6, %ymm3, %ymm3
vpsllq $26, %ymm5, %ymm4
vpaddq %ymm2, %ymm4, %ymm2
vpsllq $26, %ymm0, %ymm0
vpaddq %ymm1, %ymm0, %ymm0
vpsrldq $8, %ymm3, %ymm1
vpaddq %ymm3, %ymm1, %ymm1
vpermq $-128, %ymm1, %ymm1
vperm2i128 $32, %ymm0, %ymm2, %ymm3
vperm2i128 $49, %ymm0, %ymm2, %ymm0
vpaddq %ymm0, %ymm3, %ymm0
vpunpcklqdq %ymm1, %ymm0, %ymm2
vpunpckhqdq %ymm1, %ymm0, %ymm0
vpaddq %ymm0, %ymm2, %ymm0
vextracti128 $1, %ymm0, %xmm1
vpextrq $0, %xmm0, %rax
vpextrq $0, %xmm1, %r9
vpextrq $1, %xmm1, %rcx
movq %r9, %rbx
shlq $52, %rbx
shrq $12, %r9
movq %rcx, %r8
shrq $24, %r8
shlq $40, %rcx
addq %rax, %rbx
adcq %rcx, %r9
adcq $0, %r8
movq %r8, %rax
movq %r8, %rcx
andq $3, %r8
shrq $2, %rax
andq $-4, %rcx
addq %rcx, %rax
addq %rax, %rbx
adcq $0, %r9
adcq $0, %r8
jmp Ljade_onetimeauth_poly1305_amd64_avx2_verify$4
Ljade_onetimeauth_poly1305_amd64_avx2_verify$5:
addq (%rsi), %rbx
adcq 8(%rsi), %r9
adcq $1, %r8
movq %r12, %r10
imulq %r8, %r10
imulq %rbp, %r8
movq %rbp, %rax
mulq %rbx
movq %rax, %rcx
movq %rdx, %r11
movq %rbp, %rax
mulq %r9
addq %rax, %r11
adcq %rdx, %r8
movq %r12, %rax
mulq %r9
movq %rdx, %r9
addq %r10, %r9
movq %rax, %r10
movq %r13, %rax
mulq %rbx
addq %r10, %rcx
adcq %rax, %r11
adcq %rdx, %r8
movq $-4, %rbx
movq %r8, %rax
shrq $2, %rax
andq %r8, %rbx
addq %rax, %rbx
andq $3, %r8
addq %rcx, %rbx
adcq %r11, %r9
adcq $0, %r8
addq $16, %rsi
addq $-16, %r14
Ljade_onetimeauth_poly1305_amd64_avx2_verify$4:
cmpq $16, %r14
jnb Ljade_onetimeauth_poly1305_amd64_avx2_verify$5
cmpq $0, %r14
jbe Ljade_onetimeauth_poly1305_amd64_avx2_verify$3
xorq %rcx, %rcx
movq %r14, %rax
andq $7, %rax
shlq $3, %rax
shrq $3, %r14
movq %r14, %rdx
xorq $1, %rdx
movq %r14, %r10
addq $-1, %r10
movq %rax, %r11
andq %r10, %r11
xorq %r11, %rcx
xorq %r11, %rax
shlq %cl, %rdx
movq %rax, %rcx
shlq %cl, %r14
movq %rdx, %rax
movq %r14, %rcx
subq $1, %rax
sbbq $0, %rcx
movq (%rsi), %r10
andq %rax, %r10
orq %rdx, %r10
movq 8(%rsi), %rax
andq %rcx, %rax
orq %r14, %rax
addq %r10, %rbx
adcq %rax, %r9
adcq $0, %r8
movq %r12, %rsi
imulq %r8, %rsi
imulq %rbp, %r8
movq %rbp, %rax
mulq %rbx
movq %rax, %rcx
movq %rdx, %r10
movq %rbp, %rax
mulq %r9
addq %rax, %r10
adcq %rdx, %r8
movq %r12, %rax
mulq %r9
movq %rdx, %r9
addq %rsi, %r9
movq %rax, %rsi
movq %r13, %rax
mulq %rbx
addq %rsi, %rcx
adcq %rax, %r10
adcq %rdx, %r8
movq $-4, %rbx
movq %r8, %rax
shrq $2, %rax
andq %r8, %rbx
addq %rax, %rbx
andq $3, %r8
addq %rcx, %rbx
adcq %r10, %r9
adcq $0, %r8
Ljade_onetimeauth_poly1305_amd64_avx2_verify$3:
movq %rbx, %rax
movq %r9, %rcx
addq $5, %rax
adcq $0, %rcx
adcq $0, %r8
shrq $2, %r8
negq %r8
xorq %rbx, %rax
xorq %r9, %rcx
andq %r8, %rax
andq %r8, %rcx
xorq %rbx, %rax
xorq %r9, %rcx
movq (%r15), %rdx
movq 8(%r15), %rsi
addq %rdx, %rax
adcq %rsi, %rcx
Ljade_onetimeauth_poly1305_amd64_avx2_verify$2:
movq %rax, %rdx
xorq (%rdi), %rdx
xorq 8(%rdi), %rcx
orq %rcx, %rdx
xorq %rax, %rax
subq $1, %rdx
adcq $0, %rax
addq $-1, %rax
movq 640(%rsp), %rbx
movq 648(%rsp), %rbp
movq 656(%rsp), %r12
movq 664(%rsp), %r13
movq 672(%rsp), %r14
movq 680(%rsp), %r15
movq 688(%rsp), %rsp
ret
_jade_onetimeauth_poly1305_amd64_avx2:
jade_onetimeauth_poly1305_amd64_avx2:
movq %rsp, %rax
leaq -696(%rsp), %rsp
andq $-32, %rsp
movq %rax, 688(%rsp)
movq %rbx, 640(%rsp)
movq %rbp, 648(%rsp)
movq %r12, 656(%rsp)
movq %r13, 664(%rsp)
movq %r14, 672(%rsp)
movq %r15, 680(%rsp)
movq %rdx, %r14
movq %rcx, %r15
cmpq $256, %r14
jnb Ljade_onetimeauth_poly1305_amd64_avx2$1
movq $0, %rbp
movq $0, %r12
movq $0, %r8
movq (%r15), %r9
movq 8(%r15), %r13
movq $1152921487695413247, %rax
andq %rax, %r9
movq $1152921487695413244, %rax
andq %rax, %r13
movq %r13, %rbx
shrq $2, %rbx
addq %r13, %rbx
addq $16, %r15
jmp Ljade_onetimeauth_poly1305_amd64_avx2$9
Ljade_onetimeauth_poly1305_amd64_avx2$10:
addq (%rsi), %rbp
adcq 8(%rsi), %r12
adcq $1, %r8
movq %rbx, %r11
imulq %r8, %r11
imulq %r9, %r8
movq %r9, %rax
mulq %rbp
movq %rax, %rcx
movq %rdx, %r10
movq %r9, %rax
mulq %r12
addq %rax, %r10
adcq %rdx, %r8
movq %rbx, %rax
mulq %r12
movq %rdx, %r12
addq %r11, %r12
movq %rax, %r11
movq %r13, %rax
mulq %rbp
addq %r11, %rcx
adcq %rax, %r10
adcq %rdx, %r8
movq $-4, %rbp
movq %r8, %rax
shrq $2, %rax
andq %r8, %rbp
addq %rax, %rbp
andq $3, %r8
addq %rcx, %rbp
adcq %r10, %r12
adcq $0, %r8
addq $16, %rsi
addq $-16, %r14
Ljade_onetimeauth_poly1305_amd64_avx2$9:
cmpq $16, %r14
jnb Ljade_onetimeauth_poly1305_amd64_avx2$10
cmpq $0, %r14
jbe Ljade_onetimeauth_poly1305_amd64_avx2$8
xorq %rcx, %rcx
movq %r14, %rax
andq $7, %rax
shlq $3, %rax
shrq $3, %r14
movq %r14, %rdx
xorq $1, %rdx
movq %r14, %r10
addq $-1, %r10
movq %rax, %r11
andq %r10, %r11
xorq %r11, %rcx
xorq %r11, %rax
shlq %cl, %rdx
movq %rax, %rcx
shlq %cl, %r14
movq %rdx, %rax
movq %r14, %rcx
subq $1, %rax
sbbq $0, %rcx
movq (%rsi), %r10
andq %rax, %r10
orq %rdx, %r10
movq 8(%rsi), %rax
andq %rcx, %rax
orq %r14, %rax
addq %r10, %rbp
adcq %rax, %r12
adcq $0, %r8
movq %rbx, %rsi
imulq %r8, %rsi
imulq %r9, %r8
movq %r9, %rax
mulq %rbp
movq %rax, %rcx
movq %rdx, %r10
movq %r9, %rax
mulq %r12
addq %rax, %r10
adcq %rdx, %r8
movq %rbx, %rax
mulq %r12
movq %rdx, %r12
addq %rsi, %r12
movq %rax, %rsi
movq %r13, %rax
mulq %rbp
addq %rsi, %rcx
adcq %rax, %r10
adcq %rdx, %r8
movq $-4, %rbp
movq %r8, %rax
shrq $2, %rax
andq %r8, %rbp
addq %rax, %rbp
andq $3, %r8
addq %rcx, %rbp
adcq %r10, %r12
adcq $0, %r8
Ljade_onetimeauth_poly1305_amd64_avx2$8:
movq %rbp, %rax
movq %r12, %rcx
addq $5, %rax
adcq $0, %rcx
adcq $0, %r8
shrq $2, %r8
negq %r8
xorq %rbp, %rax
xorq %r12, %rcx
andq %r8, %rax
andq %r8, %rcx
xorq %rbp, %rax
xorq %r12, %rcx
movq (%r15), %rdx
movq 8(%r15), %rsi
addq %rdx, %rax
adcq %rsi, %rcx
jmp Ljade_onetimeauth_poly1305_amd64_avx2$2
Ljade_onetimeauth_poly1305_amd64_avx2$1:
movq (%r15), %r13
movq 8(%r15), %r12
movq $1152921487695413247, %rax
andq %rax, %r13
movq $1152921487695413244, %rax
andq %rax, %r12
movq %r12, %rbp
shrq $2, %rbp
addq %r12, %rbp
addq $16, %r15
movq %r13, %r8
movq %r12, %r11
movq $0, %rbx
movq %r8, %rax
andq $67108863, %rax
movq %rax, 344(%rsp)
movq %r8, %rax
shrq $26, %rax
andq $67108863, %rax
movq %rax, 376(%rsp)
movq %r8, %rax
shrdq $52, %r11, %rax
movq %rax, %rcx
andq $67108863, %rax
movq %rax, 408(%rsp)
shrq $26, %rcx
andq $67108863, %rcx
movq %rcx, 440(%rsp)
movq %r11, %rax
shrdq $40, %rbx, %rax
movq %rax, 472(%rsp)
movq %rbp, %r10
imulq %rbx, %r10
imulq %r13, %rbx
movq %r13, %rax
mulq %r8
movq %rax, %rcx
movq %rdx, %r9
movq %r13, %rax
mulq %r11
addq %rax, %r9
adcq %rdx, %rbx
movq %rbp, %rax
mulq %r11
movq %rdx, %r11
addq %r10, %r11
movq %rax, %r10
movq %r12, %rax
mulq %r8
addq %r10, %rcx
adcq %rax, %r9
adcq %rdx, %rbx
movq $-4, %r8
movq %rbx, %rax
shrq $2, %rax
andq %rbx, %r8
addq %rax, %r8
andq $3, %rbx
addq %rcx, %r8
adcq %r9, %r11
adcq $0, %rbx
movq %r8, %rax
andq $67108863, %rax
movq %rax, 336(%rsp)
movq %r8, %rax
shrq $26, %rax
andq $67108863, %rax
movq %rax, 368(%rsp)
movq %r8, %rax
shrdq $52, %r11, %rax
movq %rax, %rcx
andq $67108863, %rax
movq %rax, 400(%rsp)
shrq $26, %rcx
andq $67108863, %rcx
movq %rcx, 432(%rsp)
movq %r11, %rax
shrdq $40, %rbx, %rax
movq %rax, 464(%rsp)
movq %rbp, %r10
imulq %rbx, %r10
imulq %r13, %rbx
movq %r13, %rax
mulq %r8
movq %rax, %rcx
movq %rdx, %r9
movq %r13, %rax
mulq %r11
addq %rax, %r9
adcq %rdx, %rbx
movq %rbp, %rax
mulq %r11
movq %rdx, %r11
addq %r10, %r11
movq %rax, %r10
movq %r12, %rax
mulq %r8
addq %r10, %rcx
adcq %rax, %r9
adcq %rdx, %rbx
movq $-4, %r8
movq %rbx, %rax
shrq $2, %rax
andq %rbx, %r8
addq %rax, %r8
andq $3, %rbx
addq %rcx, %r8
adcq %r9, %r11
adcq $0, %rbx
movq %r8, %rax
andq $67108863, %rax
movq %rax, 328(%rsp)
movq %r8, %rax
shrq $26, %rax
andq $67108863, %rax
movq %rax, 360(%rsp)
movq %r8, %rax
shrdq $52, %r11, %rax
movq %rax, %rcx
andq $67108863, %rax
movq %rax, 392(%rsp)
shrq $26, %rcx
andq $67108863, %rcx
movq %rcx, 424(%rsp)
movq %r11, %rax
shrdq $40, %rbx, %rax
movq %rax, 456(%rsp)
movq %rbp, %r9
imulq %rbx, %r9
imulq %r13, %rbx
movq %r13, %rax
mulq %r8
movq %rax, %rcx
movq %rdx, %r10
movq %r13, %rax
mulq %r11
addq %rax, %r10
adcq %rdx, %rbx
movq %rbp, %rax
mulq %r11
movq %rdx, %r11
addq %r9, %r11
movq %rax, %r9
movq %r12, %rax
mulq %r8
addq %r9, %rcx
adcq %rax, %r10
adcq %rdx, %rbx
movq $-4, %rax
movq %rbx, %rdx
shrq $2, %rdx
andq %rbx, %rax
addq %rdx, %rax
andq $3, %rbx
addq %rcx, %rax
adcq %r10, %r11
adcq $0, %rbx
movq %rax, %rcx
andq $67108863, %rcx
movq %rcx, 320(%rsp)
movq %rax, %rcx
shrq $26, %rcx
andq $67108863, %rcx
movq %rcx, 352(%rsp)
shrdq $52, %r11, %rax
movq %rax, %rcx
andq $67108863, %rax
movq %rax, 384(%rsp)
shrq $26, %rcx
andq $67108863, %rcx
movq %rcx, 416(%rsp)
shrdq $40, %rbx, %r11
movq %r11, 448(%rsp)
vpbroadcastq glob_data + 16(%rip), %ymm0
vpmuludq 352(%rsp), %ymm0, %ymm1
vmovdqu %ymm1, 64(%rsp)
vpmuludq 384(%rsp), %ymm0, %ymm1
vmovdqu %ymm1, 96(%rsp)
vpmuludq 416(%rsp), %ymm0, %ymm1
vmovdqu %ymm1, 128(%rsp)
vpmuludq 448(%rsp), %ymm0, %ymm0
vmovdqu %ymm0, 160(%rsp)
vpbroadcastq 320(%rsp), %ymm0
vmovdqu %ymm0, 480(%rsp)
vpbroadcastq 352(%rsp), %ymm0
vmovdqu %ymm0, 512(%rsp)
vpbroadcastq 384(%rsp), %ymm0
vmovdqu %ymm0, 544(%rsp)
vpbroadcastq 416(%rsp), %ymm0
vmovdqu %ymm0, 576(%rsp)
vpbroadcastq 448(%rsp), %ymm0
vmovdqu %ymm0, 608(%rsp)
vpbroadcastq 64(%rsp), %ymm0
vmovdqu %ymm0, 192(%rsp)
vpbroadcastq 96(%rsp), %ymm0
vmovdqu %ymm0, 224(%rsp)
vpbroadcastq 128(%rsp), %ymm0
vmovdqu %ymm0, 256(%rsp)
vpbroadcastq 160(%rsp), %ymm0
vmovdqu %ymm0, 288(%rsp)
vpxor %ymm0, %ymm0, %ymm0
vpxor %ymm1, %ymm1, %ymm1
vpxor %ymm6, %ymm6, %ymm6
vpxor %ymm3, %ymm3, %ymm3
vpxor %ymm4, %ymm4, %ymm4
vpbroadcastq glob_data + 8(%rip), %ymm7
vmovdqu %ymm7, (%rsp)
vpbroadcastq glob_data + 0(%rip), %ymm2
vmovdqu %ymm2, 32(%rsp)
vmovdqu (%rsi), %ymm2
vmovdqu 32(%rsi), %ymm5
addq $64, %rsi
vperm2i128 $32, %ymm5, %ymm2, %ymm9
vperm2i128 $49, %ymm5, %ymm2, %ymm2
vpsrldq $6, %ymm9, %ymm5
vpsrldq $6, %ymm2, %ymm10
vpunpckhqdq %ymm2, %ymm9, %ymm8
vpunpcklqdq %ymm2, %ymm9, %ymm9
vpunpcklqdq %ymm10, %ymm5, %ymm10
vpsrlq $4, %ymm10, %ymm2
vpand %ymm7, %ymm2, %ymm2
vpsrlq $26, %ymm9, %ymm11
vpand %ymm7, %ymm9, %ymm5
vpsrlq $30, %ymm10, %ymm9
vpand %ymm7, %ymm9, %ymm9
vpsrlq $40, %ymm8, %ymm8
vpor 32(%rsp), %ymm8, %ymm10
vpand %ymm7, %ymm11, %ymm11
jmp Ljade_onetimeauth_poly1305_amd64_avx2$6
Ljade_onetimeauth_poly1305_amd64_avx2$7:
vmovdqu 480(%rsp), %ymm8
vmovdqu 512(%rsp), %ymm7
vmovdqu 288(%rsp), %ymm13
vpaddq %ymm5, %ymm0, %ymm0
vpaddq %ymm11, %ymm1, %ymm1
vpmuludq %ymm8, %ymm0, %ymm5
vpaddq %ymm2, %ymm6, %ymm2
vpmuludq %ymm7, %ymm0, %ymm6
vpaddq %ymm9, %ymm3, %ymm3
vpmuludq %ymm8, %ymm1, %ymm9
vpaddq %ymm10, %ymm4, %ymm4
vpmuludq %ymm7, %ymm1, %ymm12
vpmuludq %ymm8, %ymm2, %ymm14
vpmuludq %ymm7, %ymm2, %ymm10
vpmuludq %ymm8, %ymm3, %ymm11
vpaddq %ymm6, %ymm9, %ymm6
vpmuludq %ymm7, %ymm3, %ymm9
vpaddq %ymm12, %ymm14, %ymm7
vpmuludq %ymm8, %ymm4, %ymm8
vpaddq %ymm10, %ymm11, %ymm11
vpaddq %ymm9, %ymm8, %ymm12
vpmuludq %ymm13, %ymm1, %ymm14
vmovdqu (%rsi), %ymm8
vpmuludq %ymm13, %ymm2, %ymm15
vmovdqu 544(%rsp), %ymm9
vpmuludq %ymm13, %ymm3, %ymm10
vpmuludq %ymm13, %ymm4, %ymm13
vpaddq %ymm14, %ymm5, %ymm5
vmovdqu 32(%rsi), %ymm14
vpaddq %ymm15, %ymm6, %ymm6
vpaddq %ymm10, %ymm7, %ymm10
vpaddq %ymm13, %ymm11, %ymm11
vpmuludq %ymm9, %ymm0, %ymm15
vperm2i128 $32, %ymm14, %ymm8, %ymm7
vpmuludq %ymm9, %ymm1, %ymm13
vperm2i128 $49, %ymm14, %ymm8, %ymm8
vpmuludq %ymm9, %ymm2, %ymm14
vpaddq %ymm15, %ymm10, %ymm9
vmovdqu 256(%rsp), %ymm10
vpaddq %ymm13, %ymm11, %ymm11
vpaddq %ymm14, %ymm12, %ymm12
vpmuludq %ymm10, %ymm2, %ymm2
vpmuludq %ymm10, %ymm3, %ymm13
vmovdqu 576(%rsp), %ymm14
vpmuludq %ymm10, %ymm4, %ymm10
vpsrldq $6, %ymm7, %ymm15
vpaddq %ymm2, %ymm5, %ymm2
vpsrldq $6, %ymm8, %ymm5
vpaddq %ymm13, %ymm6, %ymm6
vpaddq %ymm9, %ymm10, %ymm9
vmovdqu 224(%rsp), %ymm10
vpmuludq %ymm14, %ymm0, %ymm13
vpmuludq %ymm14, %ymm1, %ymm1
vpunpckhqdq %ymm8, %ymm7, %ymm14
vpunpcklqdq %ymm8, %ymm7, %ymm7
vpaddq %ymm13, %ymm11, %ymm11
vpaddq %ymm1, %ymm12, %ymm1
vpmuludq %ymm10, %ymm3, %ymm3
vpmuludq %ymm10, %ymm4, %ymm8
vpaddq %ymm3, %ymm2, %ymm2
vpaddq %ymm6, %ymm8, %ymm3
vmovdqu (%rsp), %ymm8
vpmuludq 192(%rsp), %ymm4, %ymm4
vpmuludq 608(%rsp), %ymm0, %ymm0
vpunpcklqdq %ymm5, %ymm15, %ymm10
vpsrlq $4, %ymm10, %ymm6
vpaddq %ymm4, %ymm2, %ymm2
vpsrlq $26, %ymm2, %ymm12
vpand %ymm8, %ymm2, %ymm4
vpand %ymm8, %ymm11, %ymm5
vpsrlq $26, %ymm11, %ymm13
vpaddq %ymm0, %ymm1, %ymm1
vpand %ymm8, %ymm6, %ymm2
vpsrlq $26, %ymm7, %ymm11
vpaddq %ymm12, %ymm3, %ymm0
vpaddq %ymm13, %ymm1, %ymm6
vpsrlq $26, %ymm0, %ymm1
vpsrlq $26, %ymm6, %ymm3
vpsllq $2, %ymm3, %ymm12
vpaddq %ymm12, %ymm3, %ymm13
vpand %ymm8, %ymm0, %ymm3
vpand %ymm8, %ymm6, %ymm12
vpaddq %ymm1, %ymm9, %ymm0
vpaddq %ymm13, %ymm4, %ymm1
vpsrlq $26, %ymm0, %ymm4
vpsrlq $26, %ymm1, %ymm9
vpand %ymm8, %ymm0, %ymm6
vpand %ymm8, %ymm1, %ymm0
vpaddq %ymm4, %ymm5, %ymm4
vpaddq %ymm9, %ymm3, %ymm1
vpsrlq $26, %ymm4, %ymm5
vpand %ymm8, %ymm4, %ymm3
vpaddq %ymm5, %ymm12, %ymm4
addq $64, %rsi
vpand %ymm8, %ymm7, %ymm5
vpsrlq $30, %ymm10, %ymm7
vpand %ymm8, %ymm7, %ymm9
vpsrlq $40, %ymm14, %ymm7
vpor 32(%rsp), %ymm7, %ymm10
vpand %ymm8, %ymm11, %ymm11
addq $-64, %r14
Ljade_onetimeauth_poly1305_amd64_avx2$6:
cmpq $128, %r14
jnb Ljade_onetimeauth_poly1305_amd64_avx2$7
addq $-64, %r14
vmovdqu 320(%rsp), %ymm7
vmovdqu 352(%rsp), %ymm8
vmovdqu 160(%rsp), %ymm12
vpaddq %ymm5, %ymm0, %ymm0
vpaddq %ymm11, %ymm1, %ymm1
vpaddq %ymm2, %ymm6, %ymm2
vpaddq %ymm9, %ymm3, %ymm3
vpaddq %ymm10, %ymm4, %ymm4
vpmuludq %ymm7, %ymm0, %ymm5
vpmuludq %ymm7, %ymm1, %ymm6
vpmuludq %ymm7, %ymm2, %ymm9
vpmuludq %ymm7, %ymm3, %ymm10
vpmuludq %ymm7, %ymm4, %ymm7
vpmuludq %ymm8, %ymm0, %ymm11
vpmuludq %ymm8, %ymm1, %ymm13
vpmuludq %ymm8, %ymm2, %ymm14
vpmuludq %ymm8, %ymm3, %ymm8
vmovdqu 384(%rsp), %ymm15
vpaddq %ymm11, %ymm6, %ymm6
vpaddq %ymm13, %ymm9, %ymm9
vpaddq %ymm14, %ymm10, %ymm10
vpaddq %ymm8, %ymm7, %ymm7
vpmuludq %ymm12, %ymm1, %ymm8
vpmuludq %ymm12, %ymm2, %ymm11
vpmuludq %ymm12, %ymm3, %ymm13
vpmuludq %ymm12, %ymm4, %ymm12
vmovdqu 128(%rsp), %ymm14
vpaddq %ymm8, %ymm5, %ymm5
vpaddq %ymm11, %ymm6, %ymm6
vpaddq %ymm13, %ymm9, %ymm8
vpaddq %ymm12, %ymm10, %ymm10
vpmuludq %ymm15, %ymm0, %ymm13
vpmuludq %ymm15, %ymm1, %ymm11
vpmuludq %ymm15, %ymm2, %ymm12
vmovdqu 416(%rsp), %ymm9
vpaddq %ymm13, %ymm8, %ymm8
vpaddq %ymm11, %ymm10, %ymm10
vpaddq %ymm12, %ymm7, %ymm7
vpmuludq %ymm14, %ymm2, %ymm2
vpmuludq %ymm14, %ymm3, %ymm12
vpmuludq %ymm14, %ymm4, %ymm13
vmovdqu 96(%rsp), %ymm11
vpaddq %ymm2, %ymm5, %ymm5
vpaddq %ymm12, %ymm6, %ymm6
vpaddq %ymm8, %ymm13, %ymm2
vpmuludq %ymm9, %ymm0, %ymm8
vpmuludq %ymm9, %ymm1, %ymm9
vpaddq %ymm8, %ymm10, %ymm1
vpaddq %ymm9, %ymm7, %ymm7
vpmuludq %ymm11, %ymm3, %ymm3
vpmuludq %ymm11, %ymm4, %ymm8
vpaddq %ymm3, %ymm5, %ymm5
vpaddq %ymm6, %ymm8, %ymm3
vpmuludq 64(%rsp), %ymm4, %ymm4
vpmuludq 448(%rsp), %ymm0, %ymm0
vpaddq %ymm4, %ymm5, %ymm4
vmovdqu %ymm1, %ymm5
vpaddq %ymm0, %ymm7, %ymm6
vmovdqu (%rsp), %ymm0
vpsrlq $26, %ymm4, %ymm7
vpsrlq $26, %ymm5, %ymm8
vpand %ymm0, %ymm4, %ymm1
vpand %ymm0, %ymm5, %ymm4
vpaddq %ymm7, %ymm3, %ymm3
vpaddq %ymm8, %ymm6, %ymm5
vpsrlq $26, %ymm3, %ymm6
vpsrlq $26, %ymm5, %ymm7
vpsllq $2, %ymm7, %ymm8
vpaddq %ymm8, %ymm7, %ymm7
vpand %ymm0, %ymm3, %ymm8
vpand %ymm0, %ymm5, %ymm3
vpaddq %ymm6, %ymm2, %ymm2
vpaddq %ymm7, %ymm1, %ymm5
vpsrlq $26, %ymm2, %ymm6
vpsrlq $26, %ymm5, %ymm7
vpand %ymm0, %ymm2, %ymm1
vpand %ymm0, %ymm5, %ymm2
vpaddq %ymm6, %ymm4, %ymm4
vpaddq %ymm7, %ymm8, %ymm5
vpsrlq $26, %ymm4, %ymm6
vpand %ymm0, %ymm4, %ymm0
vpaddq %ymm6, %ymm3, %ymm3
vpsllq $26, %ymm5, %ymm4
vpaddq %ymm2, %ymm4, %ymm2
vpsllq $26, %ymm0, %ymm0
vpaddq %ymm1, %ymm0, %ymm0
vpsrldq $8, %ymm3, %ymm1
vpaddq %ymm3, %ymm1, %ymm1
vpermq $-128, %ymm1, %ymm1
vperm2i128 $32, %ymm0, %ymm2, %ymm3
vperm2i128 $49, %ymm0, %ymm2, %ymm0
vpaddq %ymm0, %ymm3, %ymm0
vpunpcklqdq %ymm1, %ymm0, %ymm2
vpunpckhqdq %ymm1, %ymm0, %ymm0
vpaddq %ymm0, %ymm2, %ymm0
vextracti128 $1, %ymm0, %xmm1
vpextrq $0, %xmm0, %rax
vpextrq $0, %xmm1, %r8
vpextrq $1, %xmm1, %rcx
movq %r8, %r9
shlq $52, %r9
shrq $12, %r8
movq %rcx, %rbx
shrq $24, %rbx
shlq $40, %rcx
addq %rax, %r9
adcq %rcx, %r8
adcq $0, %rbx
movq %rbx, %rax
movq %rbx, %rcx
andq $3, %rbx
shrq $2, %rax
andq $-4, %rcx
addq %rcx, %rax
addq %rax, %r9
adcq $0, %r8
adcq $0, %rbx
jmp Ljade_onetimeauth_poly1305_amd64_avx2$4
Ljade_onetimeauth_poly1305_amd64_avx2$5:
addq (%rsi), %r9
adcq 8(%rsi), %r8
adcq $1, %rbx
movq %rbp, %r11
imulq %rbx, %r11
imulq %r13, %rbx
movq %r13, %rax
mulq %r9
movq %rax, %rcx
movq %rdx, %r10
movq %r13, %rax
mulq %r8
addq %rax, %r10
adcq %rdx, %rbx
movq %rbp, %rax
mulq %r8
movq %rdx, %r8
addq %r11, %r8
movq %rax, %r11
movq %r12, %rax
mulq %r9
addq %r11, %rcx
adcq %rax, %r10
adcq %rdx, %rbx
movq $-4, %r9
movq %rbx, %rax
shrq $2, %rax
andq %rbx, %r9
addq %rax, %r9
andq $3, %rbx
addq %rcx, %r9
adcq %r10, %r8
adcq $0, %rbx
addq $16, %rsi
addq $-16, %r14
Ljade_onetimeauth_poly1305_amd64_avx2$4:
cmpq $16, %r14
jnb Ljade_onetimeauth_poly1305_amd64_avx2$5
cmpq $0, %r14
jbe Ljade_onetimeauth_poly1305_amd64_avx2$3
xorq %rcx, %rcx
movq %r14, %rax
andq $7, %rax
shlq $3, %rax
shrq $3, %r14
movq %r14, %rdx
xorq $1, %rdx
movq %r14, %r10
addq $-1, %r10
movq %rax, %r11
andq %r10, %r11
xorq %r11, %rcx
xorq %r11, %rax
shlq %cl, %rdx
movq %rax, %rcx
shlq %cl, %r14
movq %rdx, %rax
movq %r14, %rcx
subq $1, %rax
sbbq $0, %rcx
movq (%rsi), %r10
andq %rax, %r10
orq %rdx, %r10
movq 8(%rsi), %rax
andq %rcx, %rax
orq %r14, %rax
addq %r10, %r9
adcq %rax, %r8
adcq $0, %rbx
movq %rbp, %rsi
imulq %rbx, %rsi
imulq %r13, %rbx
movq %r13, %rax
mulq %r9
movq %rax, %rcx
movq %rdx, %r10
movq %r13, %rax
mulq %r8
addq %rax, %r10
adcq %rdx, %rbx
movq %rbp, %rax
mulq %r8
movq %rdx, %r8
addq %rsi, %r8
movq %rax, %rsi
movq %r12, %rax
mulq %r9
addq %rsi, %rcx
adcq %rax, %r10
adcq %rdx, %rbx
movq $-4, %r9
movq %rbx, %rax
shrq $2, %rax
andq %rbx, %r9
addq %rax, %r9
andq $3, %rbx
addq %rcx, %r9
adcq %r10, %r8
adcq $0, %rbx
Ljade_onetimeauth_poly1305_amd64_avx2$3:
movq %r9, %rax
movq %r8, %rcx
addq $5, %rax
adcq $0, %rcx
adcq $0, %rbx
shrq $2, %rbx
negq %rbx
xorq %r9, %rax
xorq %r8, %rcx
andq %rbx, %rax
andq %rbx, %rcx
xorq %r9, %rax
xorq %r8, %rcx
movq (%r15), %rdx
movq 8(%r15), %rsi
addq %rdx, %rax
adcq %rsi, %rcx
Ljade_onetimeauth_poly1305_amd64_avx2$2:
movq %rax, (%rdi)
movq %rcx, 8(%rdi)
xorq %rax, %rax
movq 640(%rsp), %rbx
movq 648(%rsp), %rbp
movq 656(%rsp), %r12
movq 664(%rsp), %r13
movq 672(%rsp), %r14
movq 680(%rsp), %r15
movq 688(%rsp), %rsp
ret
.data
.p2align 5
_glob_data:
glob_data:
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte -1
.byte -1
.byte -1
.byte 3
.byte 0
.byte 0
.byte 0
.byte 0
.byte 5
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
|
usenix-security-verdict/verdict
| 36,058
|
deps/libcrux/sys/libjade/jazz/poly1305_avx.s
|
.att_syntax
.text
.p2align 5
.globl _jade_onetimeauth_poly1305_amd64_avx_verify
.globl jade_onetimeauth_poly1305_amd64_avx_verify
.globl _jade_onetimeauth_poly1305_amd64_avx
.globl jade_onetimeauth_poly1305_amd64_avx
_jade_onetimeauth_poly1305_amd64_avx_verify:
jade_onetimeauth_poly1305_amd64_avx_verify:
movq %rsp, %rax
leaq -600(%rsp), %rsp
andq $-16, %rsp
movq %rax, 592(%rsp)
movq %rbx, 544(%rsp)
movq %rbp, 552(%rsp)
movq %r12, 560(%rsp)
movq %r13, 568(%rsp)
movq %r14, 576(%rsp)
movq %r15, 584(%rsp)
movq %rdx, %r14
movq %rcx, %r15
cmpq $1024, %r14
jnb Ljade_onetimeauth_poly1305_amd64_avx_verify$1
movq $0, %r8
movq $0, %r12
movq $0, %r13
movq (%r15), %rbp
movq 8(%r15), %rbx
movq $1152921487695413247, %rax
andq %rax, %rbp
movq $1152921487695413244, %rax
andq %rax, %rbx
movq %rbx, %r9
shrq $2, %r9
addq %rbx, %r9
addq $16, %r15
jmp Ljade_onetimeauth_poly1305_amd64_avx_verify$9
Ljade_onetimeauth_poly1305_amd64_avx_verify$10:
addq (%rsi), %r8
adcq 8(%rsi), %r12
adcq $1, %r13
movq %r9, %r10
imulq %r13, %r10
imulq %rbp, %r13
movq %rbp, %rax
mulq %r8
movq %rax, %rcx
movq %rdx, %r11
movq %rbp, %rax
mulq %r12
addq %rax, %r11
adcq %rdx, %r13
movq %r9, %rax
mulq %r12
movq %rdx, %r12
addq %r10, %r12
movq %rax, %r10
movq %rbx, %rax
mulq %r8
addq %r10, %rcx
adcq %rax, %r11
adcq %rdx, %r13
movq $-4, %r8
movq %r13, %rax
shrq $2, %rax
andq %r13, %r8
addq %rax, %r8
andq $3, %r13
addq %rcx, %r8
adcq %r11, %r12
adcq $0, %r13
addq $16, %rsi
addq $-16, %r14
Ljade_onetimeauth_poly1305_amd64_avx_verify$9:
cmpq $16, %r14
jnb Ljade_onetimeauth_poly1305_amd64_avx_verify$10
cmpq $0, %r14
jbe Ljade_onetimeauth_poly1305_amd64_avx_verify$8
xorq %rcx, %rcx
movq %r14, %rax
andq $7, %rax
shlq $3, %rax
shrq $3, %r14
movq %r14, %rdx
xorq $1, %rdx
movq %r14, %r10
addq $-1, %r10
movq %rax, %r11
andq %r10, %r11
xorq %r11, %rcx
xorq %r11, %rax
shlq %cl, %rdx
movq %rax, %rcx
shlq %cl, %r14
movq %rdx, %rax
movq %r14, %rcx
subq $1, %rax
sbbq $0, %rcx
movq (%rsi), %r10
andq %rax, %r10
orq %rdx, %r10
movq 8(%rsi), %rax
andq %rcx, %rax
orq %r14, %rax
addq %r10, %r8
adcq %rax, %r12
adcq $0, %r13
movq %r9, %rsi
imulq %r13, %rsi
imulq %rbp, %r13
movq %rbp, %rax
mulq %r8
movq %rax, %rcx
movq %rdx, %r10
movq %rbp, %rax
mulq %r12
addq %rax, %r10
adcq %rdx, %r13
movq %r9, %rax
mulq %r12
movq %rdx, %r12
addq %rsi, %r12
movq %rax, %rsi
movq %rbx, %rax
mulq %r8
addq %rsi, %rcx
adcq %rax, %r10
adcq %rdx, %r13
movq $-4, %r8
movq %r13, %rax
shrq $2, %rax
andq %r13, %r8
addq %rax, %r8
andq $3, %r13
addq %rcx, %r8
adcq %r10, %r12
adcq $0, %r13
Ljade_onetimeauth_poly1305_amd64_avx_verify$8:
movq %r8, %rax
movq %r12, %rcx
addq $5, %rax
adcq $0, %rcx
adcq $0, %r13
shrq $2, %r13
negq %r13
xorq %r8, %rax
xorq %r12, %rcx
andq %r13, %rax
andq %r13, %rcx
xorq %r8, %rax
xorq %r12, %rcx
movq (%r15), %rdx
movq 8(%r15), %rsi
addq %rdx, %rax
adcq %rsi, %rcx
jmp Ljade_onetimeauth_poly1305_amd64_avx_verify$2
Ljade_onetimeauth_poly1305_amd64_avx_verify$1:
movq (%r15), %rbp
movq 8(%r15), %r13
movq $1152921487695413247, %rax
andq %rax, %rbp
movq $1152921487695413244, %rax
andq %rax, %r13
movq %r13, %r12
shrq $2, %r12
addq %r13, %r12
addq $16, %r15
movq %rbp, %r8
movq %r13, %r11
movq $0, %rbx
movq %r8, %rax
andq $67108863, %rax
movq %rax, 232(%rsp)
movq %r8, %rax
shrq $26, %rax
andq $67108863, %rax
movq %rax, 248(%rsp)
movq %r8, %rax
shrdq $52, %r11, %rax
movq %rax, %rcx
andq $67108863, %rax
movq %rax, 264(%rsp)
shrq $26, %rcx
andq $67108863, %rcx
movq %rcx, 280(%rsp)
movq %r11, %rax
shrdq $40, %rbx, %rax
movq %rax, 296(%rsp)
movq %r12, %r10
imulq %rbx, %r10
imulq %rbp, %rbx
movq %rbp, %rax
mulq %r8
movq %rax, %rcx
movq %rdx, %r9
movq %rbp, %rax
mulq %r11
addq %rax, %r9
adcq %rdx, %rbx
movq %r12, %rax
mulq %r11
movq %rdx, %r11
addq %r10, %r11
movq %rax, %r10
movq %r13, %rax
mulq %r8
addq %r10, %rcx
adcq %rax, %r9
adcq %rdx, %rbx
movq $-4, %r8
movq %rbx, %rax
shrq $2, %rax
andq %rbx, %r8
addq %rax, %r8
andq $3, %rbx
addq %rcx, %r8
adcq %r9, %r11
adcq $0, %rbx
movq %r8, %rax
andq $67108863, %rax
movq %rax, 224(%rsp)
movq %r8, %rax
shrq $26, %rax
andq $67108863, %rax
movq %rax, 240(%rsp)
movq %r8, %rax
shrdq $52, %r11, %rax
movq %rax, %rcx
andq $67108863, %rax
movq %rax, 256(%rsp)
shrq $26, %rcx
andq $67108863, %rcx
movq %rcx, 272(%rsp)
movq %r11, %rax
shrdq $40, %rbx, %rax
movq %rax, 288(%rsp)
vpbroadcastq glob_data + 16(%rip), %xmm0
vpmuludq 240(%rsp), %xmm0, %xmm1
vmovdqu %xmm1, 32(%rsp)
vpmuludq 256(%rsp), %xmm0, %xmm1
vmovdqu %xmm1, 48(%rsp)
vpmuludq 272(%rsp), %xmm0, %xmm1
vmovdqu %xmm1, 64(%rsp)
vpmuludq 288(%rsp), %xmm0, %xmm0
vmovdqu %xmm0, 80(%rsp)
vpbroadcastq 224(%rsp), %xmm0
vmovdqu %xmm0, 304(%rsp)
vpbroadcastq 240(%rsp), %xmm0
vmovdqu %xmm0, 320(%rsp)
vpbroadcastq 256(%rsp), %xmm0
vmovdqu %xmm0, 336(%rsp)
vpbroadcastq 272(%rsp), %xmm0
vmovdqu %xmm0, 352(%rsp)
vpbroadcastq 288(%rsp), %xmm0
vmovdqu %xmm0, 368(%rsp)
vpbroadcastq 32(%rsp), %xmm0
vmovdqu %xmm0, 96(%rsp)
vpbroadcastq 48(%rsp), %xmm0
vmovdqu %xmm0, 112(%rsp)
vpbroadcastq 64(%rsp), %xmm0
vmovdqu %xmm0, 128(%rsp)
vpbroadcastq 80(%rsp), %xmm0
vmovdqu %xmm0, 144(%rsp)
movq %r12, %r10
imulq %rbx, %r10
imulq %rbp, %rbx
movq %rbp, %rax
mulq %r8
movq %rax, %rcx
movq %rdx, %r9
movq %rbp, %rax
mulq %r11
addq %rax, %r9
adcq %rdx, %rbx
movq %r12, %rax
mulq %r11
movq %rdx, %r11
addq %r10, %r11
movq %rax, %r10
movq %r13, %rax
mulq %r8
addq %r10, %rcx
adcq %rax, %r9
adcq %rdx, %rbx
movq $-4, %r8
movq %rbx, %rax
shrq $2, %rax
andq %rbx, %r8
addq %rax, %r8
andq $3, %rbx
addq %rcx, %r8
adcq %r9, %r11
adcq $0, %rbx
movq %r12, %r9
imulq %rbx, %r9
imulq %rbp, %rbx
movq %rbp, %rax
mulq %r8
movq %rax, %rcx
movq %rdx, %r10
movq %rbp, %rax
mulq %r11
addq %rax, %r10
adcq %rdx, %rbx
movq %r12, %rax
mulq %r11
movq %rdx, %r11
addq %r9, %r11
movq %rax, %r9
movq %r13, %rax
mulq %r8
addq %r9, %rcx
adcq %rax, %r10
adcq %rdx, %rbx
movq $-4, %rax
movq %rbx, %rdx
shrq $2, %rdx
andq %rbx, %rax
addq %rdx, %rax
andq $3, %rbx
addq %rcx, %rax
adcq %r10, %r11
adcq $0, %rbx
movq %rax, %rcx
andq $67108863, %rcx
movq %rcx, 384(%rsp)
movq %rax, %rcx
shrq $26, %rcx
andq $67108863, %rcx
movq %rcx, 400(%rsp)
shrdq $52, %r11, %rax
movq %rax, %rcx
andq $67108863, %rax
movq %rax, 416(%rsp)
shrq $26, %rcx
andq $67108863, %rcx
movq %rcx, 432(%rsp)
shrdq $40, %rbx, %r11
movq %r11, 448(%rsp)
movq 384(%rsp), %rax
movq %rax, 392(%rsp)
movq 400(%rsp), %rax
movq %rax, 408(%rsp)
movq 416(%rsp), %rax
movq %rax, 424(%rsp)
movq 432(%rsp), %rax
movq %rax, 440(%rsp)
movq 448(%rsp), %rax
movq %rax, 456(%rsp)
vpbroadcastq glob_data + 16(%rip), %xmm0
vpmuludq 400(%rsp), %xmm0, %xmm1
vmovdqu %xmm1, 160(%rsp)
vpmuludq 416(%rsp), %xmm0, %xmm1
vmovdqu %xmm1, 176(%rsp)
vpmuludq 432(%rsp), %xmm0, %xmm1
vmovdqu %xmm1, 192(%rsp)
vpmuludq 448(%rsp), %xmm0, %xmm0
vmovdqu %xmm0, 208(%rsp)
vpxor %xmm3, %xmm3, %xmm3
vpxor %xmm2, %xmm2, %xmm2
vpxor %xmm1, %xmm1, %xmm1
vpxor %xmm4, %xmm4, %xmm4
vpxor %xmm5, %xmm5, %xmm5
vpbroadcastq glob_data + 8(%rip), %xmm0
vmovdqu %xmm0, (%rsp)
vpbroadcastq glob_data + 0(%rip), %xmm0
vmovdqu %xmm0, 16(%rsp)
jmp Ljade_onetimeauth_poly1305_amd64_avx_verify$6
Ljade_onetimeauth_poly1305_amd64_avx_verify$7:
vmovdqu 384(%rsp), %xmm0
vmovdqu 400(%rsp), %xmm12
vmovdqu 208(%rsp), %xmm14
vpmuludq %xmm0, %xmm3, %xmm7
vpmuludq %xmm12, %xmm3, %xmm8
vpmuludq %xmm0, %xmm2, %xmm13
vpmuludq %xmm12, %xmm2, %xmm6
vpmuludq %xmm0, %xmm1, %xmm9
vpmuludq %xmm12, %xmm1, %xmm10
vpmuludq %xmm0, %xmm4, %xmm11
vpaddq %xmm8, %xmm13, %xmm8
vpmuludq %xmm12, %xmm4, %xmm12
vpaddq %xmm6, %xmm9, %xmm9
vpmuludq %xmm0, %xmm5, %xmm0
vpaddq %xmm10, %xmm11, %xmm10
vpaddq %xmm12, %xmm0, %xmm6
vpmuludq %xmm14, %xmm2, %xmm15
vmovdqu (%rsi), %xmm0
vpmuludq %xmm14, %xmm1, %xmm13
vmovdqu 416(%rsp), %xmm12
vpmuludq %xmm14, %xmm4, %xmm11
vpmuludq %xmm14, %xmm5, %xmm14
vpaddq %xmm15, %xmm7, %xmm7
vmovdqu 16(%rsi), %xmm15
vpaddq %xmm13, %xmm8, %xmm8
vpaddq %xmm11, %xmm9, %xmm13
vpaddq %xmm14, %xmm10, %xmm9
vpmuludq %xmm12, %xmm3, %xmm14
vpunpcklqdq %xmm15, %xmm0, %xmm10
vpmuludq %xmm12, %xmm2, %xmm11
vpunpckhqdq %xmm15, %xmm0, %xmm0
vpmuludq %xmm12, %xmm1, %xmm12
vpaddq %xmm14, %xmm13, %xmm13
vmovdqu 192(%rsp), %xmm14
vpaddq %xmm11, %xmm9, %xmm9
vpaddq %xmm12, %xmm6, %xmm6
vpmuludq %xmm14, %xmm1, %xmm11
vpmuludq %xmm14, %xmm4, %xmm12
vmovdqu %xmm10, %xmm1
vpmuludq %xmm14, %xmm5, %xmm14
vpsrlq $26, %xmm1, %xmm1
vpand (%rsp), %xmm1, %xmm1
vmovdqu 432(%rsp), %xmm15
vpaddq %xmm11, %xmm7, %xmm7
vpaddq %xmm12, %xmm8, %xmm8
vpaddq %xmm13, %xmm14, %xmm12
vpmuludq %xmm15, %xmm3, %xmm11
vmovdqu %xmm0, %xmm13
vmovdqu %xmm12, 496(%rsp)
vpmuludq %xmm15, %xmm2, %xmm12
vpsrlq $40, %xmm13, %xmm2
vpor 16(%rsp), %xmm2, %xmm2
vmovdqu 176(%rsp), %xmm13
vpaddq %xmm11, %xmm9, %xmm9
vpaddq %xmm12, %xmm6, %xmm6
vpmuludq %xmm13, %xmm4, %xmm11
vmovdqu %xmm10, %xmm4
vmovdqu %xmm9, 512(%rsp)
vpmuludq %xmm13, %xmm5, %xmm9
vpsrlq $52, %xmm4, %xmm4
vpaddq %xmm11, %xmm7, %xmm7
vpaddq %xmm8, %xmm9, %xmm8
vpmuludq 160(%rsp), %xmm5, %xmm5
vpsllq $12, %xmm0, %xmm9
vmovdqu %xmm8, 480(%rsp)
vpmuludq 448(%rsp), %xmm3, %xmm3
vpor %xmm9, %xmm4, %xmm4
vmovdqu (%rsp), %xmm8
vpaddq %xmm5, %xmm7, %xmm5
vpaddq %xmm3, %xmm6, %xmm3
vmovdqu %xmm5, 464(%rsp)
vmovdqu %xmm3, 528(%rsp)
vpand %xmm8, %xmm10, %xmm3
vpand %xmm8, %xmm4, %xmm4
vpsrlq $14, %xmm0, %xmm0
vpand %xmm8, %xmm0, %xmm0
vmovdqu 304(%rsp), %xmm5
vmovdqu 320(%rsp), %xmm9
vmovdqu 144(%rsp), %xmm12
vpmuludq %xmm5, %xmm3, %xmm7
vpmuludq %xmm9, %xmm3, %xmm8
vpmuludq %xmm5, %xmm1, %xmm14
vpmuludq %xmm9, %xmm1, %xmm11
vpmuludq %xmm5, %xmm4, %xmm13
vpmuludq %xmm9, %xmm4, %xmm6
vpaddq 464(%rsp), %xmm7, %xmm7
vpmuludq %xmm5, %xmm0, %xmm10
vpaddq 480(%rsp), %xmm14, %xmm14
vpaddq %xmm8, %xmm14, %xmm8
vpmuludq %xmm9, %xmm0, %xmm14
vpaddq 496(%rsp), %xmm13, %xmm9
vpaddq %xmm11, %xmm9, %xmm9
vpmuludq %xmm5, %xmm2, %xmm5
vpaddq 512(%rsp), %xmm10, %xmm10
vpaddq %xmm6, %xmm10, %xmm10
vpaddq 528(%rsp), %xmm5, %xmm5
vpaddq %xmm14, %xmm5, %xmm5
vpmuludq %xmm12, %xmm1, %xmm15
vmovdqu 32(%rsi), %xmm14
vpmuludq %xmm12, %xmm4, %xmm13
vmovdqu 336(%rsp), %xmm6
vpmuludq %xmm12, %xmm0, %xmm11
vpmuludq %xmm12, %xmm2, %xmm12
vpaddq %xmm15, %xmm7, %xmm7
vmovdqu 48(%rsi), %xmm15
vpaddq %xmm13, %xmm8, %xmm8
vpaddq %xmm11, %xmm9, %xmm9
vpaddq %xmm12, %xmm10, %xmm10
vpmuludq %xmm6, %xmm3, %xmm11
vpunpcklqdq %xmm15, %xmm14, %xmm12
vpmuludq %xmm6, %xmm1, %xmm13
vpunpckhqdq %xmm15, %xmm14, %xmm14
vpmuludq %xmm6, %xmm4, %xmm6
vpaddq %xmm11, %xmm9, %xmm9
vmovdqu 128(%rsp), %xmm11
vpaddq %xmm13, %xmm10, %xmm10
vpaddq %xmm6, %xmm5, %xmm5
vpmuludq %xmm11, %xmm4, %xmm4
vpmuludq %xmm11, %xmm0, %xmm6
vmovdqu %xmm12, %xmm13
vpmuludq %xmm11, %xmm2, %xmm11
vpsrlq $26, %xmm13, %xmm13
vpand (%rsp), %xmm13, %xmm13
vmovdqu 352(%rsp), %xmm15
vpaddq %xmm4, %xmm7, %xmm4
vpaddq %xmm6, %xmm8, %xmm6
vpaddq %xmm9, %xmm11, %xmm7
vpmuludq %xmm15, %xmm3, %xmm8
vmovdqu %xmm14, %xmm9
vpmuludq %xmm15, %xmm1, %xmm11
vpsrlq $40, %xmm9, %xmm1
vpor 16(%rsp), %xmm1, %xmm1
vmovdqu 112(%rsp), %xmm9
vpaddq %xmm8, %xmm10, %xmm8
vpaddq %xmm11, %xmm5, %xmm5
vpmuludq %xmm9, %xmm0, %xmm0
vmovdqu %xmm12, %xmm10
vpmuludq %xmm9, %xmm2, %xmm11
vpsrlq $52, %xmm10, %xmm9
vpaddq %xmm0, %xmm4, %xmm10
vpaddq %xmm6, %xmm11, %xmm0
vpmuludq 96(%rsp), %xmm2, %xmm6
vpsllq $12, %xmm14, %xmm4
vpmuludq 368(%rsp), %xmm3, %xmm2
vpor %xmm4, %xmm9, %xmm3
vmovdqu (%rsp), %xmm4
vpaddq %xmm6, %xmm10, %xmm6
vpaddq %xmm2, %xmm5, %xmm2
vpand %xmm4, %xmm12, %xmm5
vpaddq %xmm6, %xmm5, %xmm5
vpand %xmm4, %xmm3, %xmm3
vpaddq %xmm7, %xmm3, %xmm3
vpsrlq $14, %xmm14, %xmm6
vpand %xmm4, %xmm6, %xmm6
vpaddq %xmm8, %xmm6, %xmm6
addq $64, %rsi
vpaddq %xmm0, %xmm13, %xmm7
vpaddq %xmm2, %xmm1, %xmm1
vpsrlq $26, %xmm5, %xmm8
vpsrlq $26, %xmm6, %xmm9
vpand %xmm4, %xmm5, %xmm0
vpand %xmm4, %xmm6, %xmm2
vpaddq %xmm8, %xmm7, %xmm5
vpaddq %xmm9, %xmm1, %xmm1
vpsrlq $26, %xmm5, %xmm6
vpsrlq $26, %xmm1, %xmm7
vpsllq $2, %xmm7, %xmm8
vpaddq %xmm8, %xmm7, %xmm7
vpand %xmm4, %xmm5, %xmm8
vpand %xmm4, %xmm1, %xmm5
vpaddq %xmm6, %xmm3, %xmm1
vpaddq %xmm7, %xmm0, %xmm0
vpsrlq $26, %xmm1, %xmm6
vpsrlq $26, %xmm0, %xmm7
vpand %xmm4, %xmm1, %xmm1
vpand %xmm4, %xmm0, %xmm3
vpaddq %xmm6, %xmm2, %xmm0
vpaddq %xmm7, %xmm8, %xmm2
vpsrlq $26, %xmm0, %xmm6
vpand %xmm4, %xmm0, %xmm4
vpaddq %xmm6, %xmm5, %xmm5
addq $-64, %r14
Ljade_onetimeauth_poly1305_amd64_avx_verify$6:
cmpq $64, %r14
jnb Ljade_onetimeauth_poly1305_amd64_avx_verify$7
vmovdqu 224(%rsp), %xmm6
vmovdqu 240(%rsp), %xmm11
vmovdqu 80(%rsp), %xmm14
vpmuludq %xmm6, %xmm3, %xmm0
vpmuludq %xmm6, %xmm2, %xmm7
vpmuludq %xmm6, %xmm1, %xmm8
vpmuludq %xmm6, %xmm4, %xmm9
vpmuludq %xmm6, %xmm5, %xmm10
vpmuludq %xmm11, %xmm3, %xmm15
vpmuludq %xmm11, %xmm2, %xmm12
vpmuludq %xmm11, %xmm1, %xmm13
vpmuludq %xmm11, %xmm4, %xmm11
vmovdqu 256(%rsp), %xmm6
vpaddq %xmm15, %xmm7, %xmm7
vpaddq %xmm12, %xmm8, %xmm8
vpaddq %xmm13, %xmm9, %xmm9
vpaddq %xmm11, %xmm10, %xmm10
vpmuludq %xmm14, %xmm2, %xmm11
vpmuludq %xmm14, %xmm1, %xmm12
vpmuludq %xmm14, %xmm4, %xmm13
vpmuludq %xmm14, %xmm5, %xmm14
vmovdqu 64(%rsp), %xmm15
vpaddq %xmm11, %xmm0, %xmm0
vpaddq %xmm12, %xmm7, %xmm7
vpaddq %xmm13, %xmm8, %xmm8
vpaddq %xmm14, %xmm9, %xmm9
vpmuludq %xmm6, %xmm3, %xmm13
vpmuludq %xmm6, %xmm2, %xmm11
vpmuludq %xmm6, %xmm1, %xmm12
vmovdqu 272(%rsp), %xmm6
vpaddq %xmm13, %xmm8, %xmm8
vpaddq %xmm11, %xmm9, %xmm9
vpaddq %xmm12, %xmm10, %xmm10
vpmuludq %xmm15, %xmm1, %xmm11
vpmuludq %xmm15, %xmm4, %xmm12
vpmuludq %xmm15, %xmm5, %xmm13
vmovdqu 48(%rsp), %xmm1
vpaddq %xmm11, %xmm0, %xmm11
vpaddq %xmm12, %xmm7, %xmm7
vpaddq %xmm8, %xmm13, %xmm0
vpmuludq %xmm6, %xmm3, %xmm8
vpmuludq %xmm6, %xmm2, %xmm6
vpaddq %xmm8, %xmm9, %xmm2
vpaddq %xmm6, %xmm10, %xmm6
vpmuludq %xmm1, %xmm4, %xmm4
vpmuludq %xmm1, %xmm5, %xmm1
vpaddq %xmm4, %xmm11, %xmm4
vpaddq %xmm7, %xmm1, %xmm1
vpmuludq 32(%rsp), %xmm5, %xmm5
vpmuludq 288(%rsp), %xmm3, %xmm3
vpaddq %xmm5, %xmm4, %xmm4
vmovdqu %xmm2, %xmm5
vpaddq %xmm3, %xmm6, %xmm6
vmovdqu (%rsp), %xmm2
vpsrlq $26, %xmm4, %xmm7
vpsrlq $26, %xmm5, %xmm8
vpand %xmm2, %xmm4, %xmm3
vpand %xmm2, %xmm5, %xmm4
vpaddq %xmm7, %xmm1, %xmm1
vpaddq %xmm8, %xmm6, %xmm5
vpsrlq $26, %xmm1, %xmm6
vpsrlq $26, %xmm5, %xmm7
vpsllq $2, %xmm7, %xmm8
vpaddq %xmm8, %xmm7, %xmm7
vpand %xmm2, %xmm1, %xmm8
vpand %xmm2, %xmm5, %xmm1
vpaddq %xmm6, %xmm0, %xmm0
vpaddq %xmm7, %xmm3, %xmm3
vpsrlq $26, %xmm0, %xmm5
vpsrlq $26, %xmm3, %xmm6
vpand %xmm2, %xmm0, %xmm0
vpand %xmm2, %xmm3, %xmm3
vpaddq %xmm5, %xmm4, %xmm4
vpaddq %xmm6, %xmm8, %xmm5
vpsrlq $26, %xmm4, %xmm6
vpand %xmm2, %xmm4, %xmm2
vpaddq %xmm6, %xmm1, %xmm1
vpsllq $26, %xmm5, %xmm4
vpaddq %xmm3, %xmm4, %xmm3
vpsllq $26, %xmm2, %xmm2
vpaddq %xmm0, %xmm2, %xmm0
vpsrldq $8, %xmm1, %xmm2
vpaddq %xmm1, %xmm2, %xmm1
vpunpcklqdq %xmm0, %xmm3, %xmm2
vpunpckhqdq %xmm0, %xmm3, %xmm0
vpaddq %xmm0, %xmm2, %xmm0
vpextrq $0, %xmm0, %rax
vpextrq $1, %xmm0, %r8
vpextrq $0, %xmm1, %rcx
movq %r8, %r9
shlq $52, %r9
shrq $12, %r8
movq %rcx, %rbx
shrq $24, %rbx
shlq $40, %rcx
addq %rax, %r9
adcq %rcx, %r8
adcq $0, %rbx
movq %rbx, %rax
movq %rbx, %rcx
andq $3, %rbx
shrq $2, %rax
andq $-4, %rcx
addq %rcx, %rax
addq %rax, %r9
adcq $0, %r8
adcq $0, %rbx
jmp Ljade_onetimeauth_poly1305_amd64_avx_verify$4
Ljade_onetimeauth_poly1305_amd64_avx_verify$5:
addq (%rsi), %r9
adcq 8(%rsi), %r8
adcq $1, %rbx
movq %r12, %rcx
imulq %rbx, %rcx
imulq %rbp, %rbx
movq %rbp, %rax
mulq %r9
movq %rax, %r11
movq %rdx, %r10
movq %rbp, %rax
mulq %r8
addq %rax, %r10
adcq %rdx, %rbx
movq %r12, %rax
mulq %r8
movq %rdx, %r8
addq %rcx, %r8
movq %rax, %rcx
movq %r13, %rax
mulq %r9
addq %rcx, %r11
adcq %rax, %r10
adcq %rdx, %rbx
movq $-4, %r9
movq %rbx, %rax
shrq $2, %rax
andq %rbx, %r9
addq %rax, %r9
andq $3, %rbx
addq %r11, %r9
adcq %r10, %r8
adcq $0, %rbx
addq $16, %rsi
addq $-16, %r14
Ljade_onetimeauth_poly1305_amd64_avx_verify$4:
cmpq $16, %r14
jnb Ljade_onetimeauth_poly1305_amd64_avx_verify$5
cmpq $0, %r14
jbe Ljade_onetimeauth_poly1305_amd64_avx_verify$3
xorq %rcx, %rcx
movq %r14, %rax
andq $7, %rax
shlq $3, %rax
shrq $3, %r14
movq %r14, %rdx
xorq $1, %rdx
movq %r14, %r10
addq $-1, %r10
movq %rax, %r11
andq %r10, %r11
xorq %r11, %rcx
xorq %r11, %rax
shlq %cl, %rdx
movq %rax, %rcx
shlq %cl, %r14
movq %rdx, %rax
movq %r14, %rcx
subq $1, %rax
sbbq $0, %rcx
movq (%rsi), %r10
andq %rax, %r10
orq %rdx, %r10
movq 8(%rsi), %rax
andq %rcx, %rax
orq %r14, %rax
addq %r10, %r9
adcq %rax, %r8
adcq $0, %rbx
movq %r12, %rsi
imulq %rbx, %rsi
imulq %rbp, %rbx
movq %rbp, %rax
mulq %r9
movq %rax, %rcx
movq %rdx, %r10
movq %rbp, %rax
mulq %r8
addq %rax, %r10
adcq %rdx, %rbx
movq %r12, %rax
mulq %r8
movq %rdx, %r8
addq %rsi, %r8
movq %rax, %rsi
movq %r13, %rax
mulq %r9
addq %rsi, %rcx
adcq %rax, %r10
adcq %rdx, %rbx
movq $-4, %r9
movq %rbx, %rax
shrq $2, %rax
andq %rbx, %r9
addq %rax, %r9
andq $3, %rbx
addq %rcx, %r9
adcq %r10, %r8
adcq $0, %rbx
Ljade_onetimeauth_poly1305_amd64_avx_verify$3:
movq %r9, %rax
movq %r8, %rcx
addq $5, %rax
adcq $0, %rcx
adcq $0, %rbx
shrq $2, %rbx
negq %rbx
xorq %r9, %rax
xorq %r8, %rcx
andq %rbx, %rax
andq %rbx, %rcx
xorq %r9, %rax
xorq %r8, %rcx
movq (%r15), %rdx
movq 8(%r15), %rsi
addq %rdx, %rax
adcq %rsi, %rcx
Ljade_onetimeauth_poly1305_amd64_avx_verify$2:
movq %rax, %rdx
xorq (%rdi), %rdx
xorq 8(%rdi), %rcx
orq %rcx, %rdx
xorq %rax, %rax
subq $1, %rdx
adcq $0, %rax
addq $-1, %rax
movq 544(%rsp), %rbx
movq 552(%rsp), %rbp
movq 560(%rsp), %r12
movq 568(%rsp), %r13
movq 576(%rsp), %r14
movq 584(%rsp), %r15
movq 592(%rsp), %rsp
ret
_jade_onetimeauth_poly1305_amd64_avx:
jade_onetimeauth_poly1305_amd64_avx:
movq %rsp, %rax
leaq -600(%rsp), %rsp
andq $-16, %rsp
movq %rax, 592(%rsp)
movq %rbx, 544(%rsp)
movq %rbp, 552(%rsp)
movq %r12, 560(%rsp)
movq %r13, 568(%rsp)
movq %r14, 576(%rsp)
movq %r15, 584(%rsp)
movq %rdx, %r14
movq %rcx, %r15
cmpq $1024, %r14
jnb Ljade_onetimeauth_poly1305_amd64_avx$1
movq $0, %rbx
movq $0, %r9
movq $0, %rbp
movq (%r15), %r13
movq 8(%r15), %r12
movq $1152921487695413247, %rax
andq %rax, %r13
movq $1152921487695413244, %rax
andq %rax, %r12
movq %r12, %r8
shrq $2, %r8
addq %r12, %r8
addq $16, %r15
jmp Ljade_onetimeauth_poly1305_amd64_avx$9
Ljade_onetimeauth_poly1305_amd64_avx$10:
addq (%rsi), %rbx
adcq 8(%rsi), %r9
adcq $1, %rbp
movq %r8, %r11
imulq %rbp, %r11
imulq %r13, %rbp
movq %r13, %rax
mulq %rbx
movq %rax, %rcx
movq %rdx, %r10
movq %r13, %rax
mulq %r9
addq %rax, %r10
adcq %rdx, %rbp
movq %r8, %rax
mulq %r9
movq %rdx, %r9
addq %r11, %r9
movq %rax, %r11
movq %r12, %rax
mulq %rbx
addq %r11, %rcx
adcq %rax, %r10
adcq %rdx, %rbp
movq $-4, %rbx
movq %rbp, %rax
shrq $2, %rax
andq %rbp, %rbx
addq %rax, %rbx
andq $3, %rbp
addq %rcx, %rbx
adcq %r10, %r9
adcq $0, %rbp
addq $16, %rsi
addq $-16, %r14
Ljade_onetimeauth_poly1305_amd64_avx$9:
cmpq $16, %r14
jnb Ljade_onetimeauth_poly1305_amd64_avx$10
cmpq $0, %r14
jbe Ljade_onetimeauth_poly1305_amd64_avx$8
xorq %rcx, %rcx
movq %r14, %rax
andq $7, %rax
shlq $3, %rax
shrq $3, %r14
movq %r14, %rdx
xorq $1, %rdx
movq %r14, %r10
addq $-1, %r10
movq %rax, %r11
andq %r10, %r11
xorq %r11, %rcx
xorq %r11, %rax
shlq %cl, %rdx
movq %rax, %rcx
shlq %cl, %r14
movq %rdx, %rax
movq %r14, %rcx
subq $1, %rax
sbbq $0, %rcx
movq (%rsi), %r10
andq %rax, %r10
orq %rdx, %r10
movq 8(%rsi), %rax
andq %rcx, %rax
orq %r14, %rax
addq %r10, %rbx
adcq %rax, %r9
adcq $0, %rbp
movq %r8, %rsi
imulq %rbp, %rsi
imulq %r13, %rbp
movq %r13, %rax
mulq %rbx
movq %rax, %rcx
movq %rdx, %r10
movq %r13, %rax
mulq %r9
addq %rax, %r10
adcq %rdx, %rbp
movq %r8, %rax
mulq %r9
movq %rdx, %r9
addq %rsi, %r9
movq %rax, %rsi
movq %r12, %rax
mulq %rbx
addq %rsi, %rcx
adcq %rax, %r10
adcq %rdx, %rbp
movq $-4, %rbx
movq %rbp, %rax
shrq $2, %rax
andq %rbp, %rbx
addq %rax, %rbx
andq $3, %rbp
addq %rcx, %rbx
adcq %r10, %r9
adcq $0, %rbp
Ljade_onetimeauth_poly1305_amd64_avx$8:
movq %rbx, %rax
movq %r9, %rcx
addq $5, %rax
adcq $0, %rcx
adcq $0, %rbp
shrq $2, %rbp
negq %rbp
xorq %rbx, %rax
xorq %r9, %rcx
andq %rbp, %rax
andq %rbp, %rcx
xorq %rbx, %rax
xorq %r9, %rcx
movq (%r15), %rdx
movq 8(%r15), %rsi
addq %rdx, %rax
adcq %rsi, %rcx
jmp Ljade_onetimeauth_poly1305_amd64_avx$2
Ljade_onetimeauth_poly1305_amd64_avx$1:
movq (%r15), %rbp
movq 8(%r15), %r12
movq $1152921487695413247, %rax
andq %rax, %rbp
movq $1152921487695413244, %rax
andq %rax, %r12
movq %r12, %r13
shrq $2, %r13
addq %r12, %r13
addq $16, %r15
movq %rbp, %r8
movq %r12, %r11
movq $0, %rbx
movq %r8, %rax
andq $67108863, %rax
movq %rax, 232(%rsp)
movq %r8, %rax
shrq $26, %rax
andq $67108863, %rax
movq %rax, 248(%rsp)
movq %r8, %rax
shrdq $52, %r11, %rax
movq %rax, %rcx
andq $67108863, %rax
movq %rax, 264(%rsp)
shrq $26, %rcx
andq $67108863, %rcx
movq %rcx, 280(%rsp)
movq %r11, %rax
shrdq $40, %rbx, %rax
movq %rax, 296(%rsp)
movq %r13, %r10
imulq %rbx, %r10
imulq %rbp, %rbx
movq %rbp, %rax
mulq %r8
movq %rax, %rcx
movq %rdx, %r9
movq %rbp, %rax
mulq %r11
addq %rax, %r9
adcq %rdx, %rbx
movq %r13, %rax
mulq %r11
movq %rdx, %r11
addq %r10, %r11
movq %rax, %r10
movq %r12, %rax
mulq %r8
addq %r10, %rcx
adcq %rax, %r9
adcq %rdx, %rbx
movq $-4, %r8
movq %rbx, %rax
shrq $2, %rax
andq %rbx, %r8
addq %rax, %r8
andq $3, %rbx
addq %rcx, %r8
adcq %r9, %r11
adcq $0, %rbx
movq %r8, %rax
andq $67108863, %rax
movq %rax, 224(%rsp)
movq %r8, %rax
shrq $26, %rax
andq $67108863, %rax
movq %rax, 240(%rsp)
movq %r8, %rax
shrdq $52, %r11, %rax
movq %rax, %rcx
andq $67108863, %rax
movq %rax, 256(%rsp)
shrq $26, %rcx
andq $67108863, %rcx
movq %rcx, 272(%rsp)
movq %r11, %rax
shrdq $40, %rbx, %rax
movq %rax, 288(%rsp)
vpbroadcastq glob_data + 16(%rip), %xmm0
vpmuludq 240(%rsp), %xmm0, %xmm1
vmovdqu %xmm1, 32(%rsp)
vpmuludq 256(%rsp), %xmm0, %xmm1
vmovdqu %xmm1, 48(%rsp)
vpmuludq 272(%rsp), %xmm0, %xmm1
vmovdqu %xmm1, 64(%rsp)
vpmuludq 288(%rsp), %xmm0, %xmm0
vmovdqu %xmm0, 80(%rsp)
vpbroadcastq 224(%rsp), %xmm0
vmovdqu %xmm0, 304(%rsp)
vpbroadcastq 240(%rsp), %xmm0
vmovdqu %xmm0, 320(%rsp)
vpbroadcastq 256(%rsp), %xmm0
vmovdqu %xmm0, 336(%rsp)
vpbroadcastq 272(%rsp), %xmm0
vmovdqu %xmm0, 352(%rsp)
vpbroadcastq 288(%rsp), %xmm0
vmovdqu %xmm0, 368(%rsp)
vpbroadcastq 32(%rsp), %xmm0
vmovdqu %xmm0, 96(%rsp)
vpbroadcastq 48(%rsp), %xmm0
vmovdqu %xmm0, 112(%rsp)
vpbroadcastq 64(%rsp), %xmm0
vmovdqu %xmm0, 128(%rsp)
vpbroadcastq 80(%rsp), %xmm0
vmovdqu %xmm0, 144(%rsp)
movq %r13, %r10
imulq %rbx, %r10
imulq %rbp, %rbx
movq %rbp, %rax
mulq %r8
movq %rax, %rcx
movq %rdx, %r9
movq %rbp, %rax
mulq %r11
addq %rax, %r9
adcq %rdx, %rbx
movq %r13, %rax
mulq %r11
movq %rdx, %r11
addq %r10, %r11
movq %rax, %r10
movq %r12, %rax
mulq %r8
addq %r10, %rcx
adcq %rax, %r9
adcq %rdx, %rbx
movq $-4, %r8
movq %rbx, %rax
shrq $2, %rax
andq %rbx, %r8
addq %rax, %r8
andq $3, %rbx
addq %rcx, %r8
adcq %r9, %r11
adcq $0, %rbx
movq %r13, %r9
imulq %rbx, %r9
imulq %rbp, %rbx
movq %rbp, %rax
mulq %r8
movq %rax, %rcx
movq %rdx, %r10
movq %rbp, %rax
mulq %r11
addq %rax, %r10
adcq %rdx, %rbx
movq %r13, %rax
mulq %r11
movq %rdx, %r11
addq %r9, %r11
movq %rax, %r9
movq %r12, %rax
mulq %r8
addq %r9, %rcx
adcq %rax, %r10
adcq %rdx, %rbx
movq $-4, %rax
movq %rbx, %rdx
shrq $2, %rdx
andq %rbx, %rax
addq %rdx, %rax
andq $3, %rbx
addq %rcx, %rax
adcq %r10, %r11
adcq $0, %rbx
movq %rax, %rcx
andq $67108863, %rcx
movq %rcx, 384(%rsp)
movq %rax, %rcx
shrq $26, %rcx
andq $67108863, %rcx
movq %rcx, 400(%rsp)
shrdq $52, %r11, %rax
movq %rax, %rcx
andq $67108863, %rax
movq %rax, 416(%rsp)
shrq $26, %rcx
andq $67108863, %rcx
movq %rcx, 432(%rsp)
shrdq $40, %rbx, %r11
movq %r11, 448(%rsp)
movq 384(%rsp), %rax
movq %rax, 392(%rsp)
movq 400(%rsp), %rax
movq %rax, 408(%rsp)
movq 416(%rsp), %rax
movq %rax, 424(%rsp)
movq 432(%rsp), %rax
movq %rax, 440(%rsp)
movq 448(%rsp), %rax
movq %rax, 456(%rsp)
vpbroadcastq glob_data + 16(%rip), %xmm0
vpmuludq 400(%rsp), %xmm0, %xmm1
vmovdqu %xmm1, 160(%rsp)
vpmuludq 416(%rsp), %xmm0, %xmm1
vmovdqu %xmm1, 176(%rsp)
vpmuludq 432(%rsp), %xmm0, %xmm1
vmovdqu %xmm1, 192(%rsp)
vpmuludq 448(%rsp), %xmm0, %xmm0
vmovdqu %xmm0, 208(%rsp)
vpxor %xmm3, %xmm3, %xmm3
vpxor %xmm2, %xmm2, %xmm2
vpxor %xmm1, %xmm1, %xmm1
vpxor %xmm4, %xmm4, %xmm4
vpxor %xmm5, %xmm5, %xmm5
vpbroadcastq glob_data + 8(%rip), %xmm0
vmovdqu %xmm0, (%rsp)
vpbroadcastq glob_data + 0(%rip), %xmm0
vmovdqu %xmm0, 16(%rsp)
jmp Ljade_onetimeauth_poly1305_amd64_avx$6
Ljade_onetimeauth_poly1305_amd64_avx$7:
vmovdqu 384(%rsp), %xmm0
vmovdqu 400(%rsp), %xmm12
vmovdqu 208(%rsp), %xmm14
vpmuludq %xmm0, %xmm3, %xmm7
vpmuludq %xmm12, %xmm3, %xmm8
vpmuludq %xmm0, %xmm2, %xmm13
vpmuludq %xmm12, %xmm2, %xmm6
vpmuludq %xmm0, %xmm1, %xmm9
vpmuludq %xmm12, %xmm1, %xmm10
vpmuludq %xmm0, %xmm4, %xmm11
vpaddq %xmm8, %xmm13, %xmm8
vpmuludq %xmm12, %xmm4, %xmm12
vpaddq %xmm6, %xmm9, %xmm9
vpmuludq %xmm0, %xmm5, %xmm0
vpaddq %xmm10, %xmm11, %xmm10
vpaddq %xmm12, %xmm0, %xmm6
vpmuludq %xmm14, %xmm2, %xmm15
vmovdqu (%rsi), %xmm0
vpmuludq %xmm14, %xmm1, %xmm13
vmovdqu 416(%rsp), %xmm12
vpmuludq %xmm14, %xmm4, %xmm11
vpmuludq %xmm14, %xmm5, %xmm14
vpaddq %xmm15, %xmm7, %xmm7
vmovdqu 16(%rsi), %xmm15
vpaddq %xmm13, %xmm8, %xmm8
vpaddq %xmm11, %xmm9, %xmm13
vpaddq %xmm14, %xmm10, %xmm9
vpmuludq %xmm12, %xmm3, %xmm14
vpunpcklqdq %xmm15, %xmm0, %xmm10
vpmuludq %xmm12, %xmm2, %xmm11
vpunpckhqdq %xmm15, %xmm0, %xmm0
vpmuludq %xmm12, %xmm1, %xmm12
vpaddq %xmm14, %xmm13, %xmm13
vmovdqu 192(%rsp), %xmm14
vpaddq %xmm11, %xmm9, %xmm9
vpaddq %xmm12, %xmm6, %xmm6
vpmuludq %xmm14, %xmm1, %xmm11
vpmuludq %xmm14, %xmm4, %xmm12
vmovdqu %xmm10, %xmm1
vpmuludq %xmm14, %xmm5, %xmm14
vpsrlq $26, %xmm1, %xmm1
vpand (%rsp), %xmm1, %xmm1
vmovdqu 432(%rsp), %xmm15
vpaddq %xmm11, %xmm7, %xmm7
vpaddq %xmm12, %xmm8, %xmm8
vpaddq %xmm13, %xmm14, %xmm12
vpmuludq %xmm15, %xmm3, %xmm11
vmovdqu %xmm0, %xmm13
vmovdqu %xmm12, 496(%rsp)
vpmuludq %xmm15, %xmm2, %xmm12
vpsrlq $40, %xmm13, %xmm2
vpor 16(%rsp), %xmm2, %xmm2
vmovdqu 176(%rsp), %xmm13
vpaddq %xmm11, %xmm9, %xmm9
vpaddq %xmm12, %xmm6, %xmm6
vpmuludq %xmm13, %xmm4, %xmm11
vmovdqu %xmm10, %xmm4
vmovdqu %xmm9, 512(%rsp)
vpmuludq %xmm13, %xmm5, %xmm9
vpsrlq $52, %xmm4, %xmm4
vpaddq %xmm11, %xmm7, %xmm7
vpaddq %xmm8, %xmm9, %xmm8
vpmuludq 160(%rsp), %xmm5, %xmm5
vpsllq $12, %xmm0, %xmm9
vmovdqu %xmm8, 480(%rsp)
vpmuludq 448(%rsp), %xmm3, %xmm3
vpor %xmm9, %xmm4, %xmm4
vmovdqu (%rsp), %xmm8
vpaddq %xmm5, %xmm7, %xmm5
vpaddq %xmm3, %xmm6, %xmm3
vmovdqu %xmm5, 464(%rsp)
vmovdqu %xmm3, 528(%rsp)
vpand %xmm8, %xmm10, %xmm3
vpand %xmm8, %xmm4, %xmm4
vpsrlq $14, %xmm0, %xmm0
vpand %xmm8, %xmm0, %xmm0
vmovdqu 304(%rsp), %xmm5
vmovdqu 320(%rsp), %xmm9
vmovdqu 144(%rsp), %xmm12
vpmuludq %xmm5, %xmm3, %xmm7
vpmuludq %xmm9, %xmm3, %xmm8
vpmuludq %xmm5, %xmm1, %xmm14
vpmuludq %xmm9, %xmm1, %xmm11
vpmuludq %xmm5, %xmm4, %xmm13
vpmuludq %xmm9, %xmm4, %xmm6
vpaddq 464(%rsp), %xmm7, %xmm7
vpmuludq %xmm5, %xmm0, %xmm10
vpaddq 480(%rsp), %xmm14, %xmm14
vpaddq %xmm8, %xmm14, %xmm8
vpmuludq %xmm9, %xmm0, %xmm14
vpaddq 496(%rsp), %xmm13, %xmm9
vpaddq %xmm11, %xmm9, %xmm9
vpmuludq %xmm5, %xmm2, %xmm5
vpaddq 512(%rsp), %xmm10, %xmm10
vpaddq %xmm6, %xmm10, %xmm10
vpaddq 528(%rsp), %xmm5, %xmm5
vpaddq %xmm14, %xmm5, %xmm5
vpmuludq %xmm12, %xmm1, %xmm15
vmovdqu 32(%rsi), %xmm14
vpmuludq %xmm12, %xmm4, %xmm13
vmovdqu 336(%rsp), %xmm6
vpmuludq %xmm12, %xmm0, %xmm11
vpmuludq %xmm12, %xmm2, %xmm12
vpaddq %xmm15, %xmm7, %xmm7
vmovdqu 48(%rsi), %xmm15
vpaddq %xmm13, %xmm8, %xmm8
vpaddq %xmm11, %xmm9, %xmm9
vpaddq %xmm12, %xmm10, %xmm10
vpmuludq %xmm6, %xmm3, %xmm11
vpunpcklqdq %xmm15, %xmm14, %xmm12
vpmuludq %xmm6, %xmm1, %xmm13
vpunpckhqdq %xmm15, %xmm14, %xmm14
vpmuludq %xmm6, %xmm4, %xmm6
vpaddq %xmm11, %xmm9, %xmm9
vmovdqu 128(%rsp), %xmm11
vpaddq %xmm13, %xmm10, %xmm10
vpaddq %xmm6, %xmm5, %xmm5
vpmuludq %xmm11, %xmm4, %xmm4
vpmuludq %xmm11, %xmm0, %xmm6
vmovdqu %xmm12, %xmm13
vpmuludq %xmm11, %xmm2, %xmm11
vpsrlq $26, %xmm13, %xmm13
vpand (%rsp), %xmm13, %xmm13
vmovdqu 352(%rsp), %xmm15
vpaddq %xmm4, %xmm7, %xmm4
vpaddq %xmm6, %xmm8, %xmm6
vpaddq %xmm9, %xmm11, %xmm7
vpmuludq %xmm15, %xmm3, %xmm8
vmovdqu %xmm14, %xmm9
vpmuludq %xmm15, %xmm1, %xmm11
vpsrlq $40, %xmm9, %xmm1
vpor 16(%rsp), %xmm1, %xmm1
vmovdqu 112(%rsp), %xmm9
vpaddq %xmm8, %xmm10, %xmm8
vpaddq %xmm11, %xmm5, %xmm5
vpmuludq %xmm9, %xmm0, %xmm0
vmovdqu %xmm12, %xmm10
vpmuludq %xmm9, %xmm2, %xmm11
vpsrlq $52, %xmm10, %xmm9
vpaddq %xmm0, %xmm4, %xmm10
vpaddq %xmm6, %xmm11, %xmm0
vpmuludq 96(%rsp), %xmm2, %xmm6
vpsllq $12, %xmm14, %xmm4
vpmuludq 368(%rsp), %xmm3, %xmm2
vpor %xmm4, %xmm9, %xmm3
vmovdqu (%rsp), %xmm4
vpaddq %xmm6, %xmm10, %xmm6
vpaddq %xmm2, %xmm5, %xmm2
vpand %xmm4, %xmm12, %xmm5
vpaddq %xmm6, %xmm5, %xmm5
vpand %xmm4, %xmm3, %xmm3
vpaddq %xmm7, %xmm3, %xmm3
vpsrlq $14, %xmm14, %xmm6
vpand %xmm4, %xmm6, %xmm6
vpaddq %xmm8, %xmm6, %xmm6
addq $64, %rsi
vpaddq %xmm0, %xmm13, %xmm7
vpaddq %xmm2, %xmm1, %xmm1
vpsrlq $26, %xmm5, %xmm8
vpsrlq $26, %xmm6, %xmm9
vpand %xmm4, %xmm5, %xmm0
vpand %xmm4, %xmm6, %xmm2
vpaddq %xmm8, %xmm7, %xmm5
vpaddq %xmm9, %xmm1, %xmm1
vpsrlq $26, %xmm5, %xmm6
vpsrlq $26, %xmm1, %xmm7
vpsllq $2, %xmm7, %xmm8
vpaddq %xmm8, %xmm7, %xmm7
vpand %xmm4, %xmm5, %xmm8
vpand %xmm4, %xmm1, %xmm5
vpaddq %xmm6, %xmm3, %xmm1
vpaddq %xmm7, %xmm0, %xmm0
vpsrlq $26, %xmm1, %xmm6
vpsrlq $26, %xmm0, %xmm7
vpand %xmm4, %xmm1, %xmm1
vpand %xmm4, %xmm0, %xmm3
vpaddq %xmm6, %xmm2, %xmm0
vpaddq %xmm7, %xmm8, %xmm2
vpsrlq $26, %xmm0, %xmm6
vpand %xmm4, %xmm0, %xmm4
vpaddq %xmm6, %xmm5, %xmm5
addq $-64, %r14
Ljade_onetimeauth_poly1305_amd64_avx$6:
cmpq $64, %r14
jnb Ljade_onetimeauth_poly1305_amd64_avx$7
vmovdqu 224(%rsp), %xmm6
vmovdqu 240(%rsp), %xmm11
vmovdqu 80(%rsp), %xmm14
vpmuludq %xmm6, %xmm3, %xmm0
vpmuludq %xmm6, %xmm2, %xmm7
vpmuludq %xmm6, %xmm1, %xmm8
vpmuludq %xmm6, %xmm4, %xmm9
vpmuludq %xmm6, %xmm5, %xmm10
vpmuludq %xmm11, %xmm3, %xmm15
vpmuludq %xmm11, %xmm2, %xmm12
vpmuludq %xmm11, %xmm1, %xmm13
vpmuludq %xmm11, %xmm4, %xmm11
vmovdqu 256(%rsp), %xmm6
vpaddq %xmm15, %xmm7, %xmm7
vpaddq %xmm12, %xmm8, %xmm8
vpaddq %xmm13, %xmm9, %xmm9
vpaddq %xmm11, %xmm10, %xmm10
vpmuludq %xmm14, %xmm2, %xmm11
vpmuludq %xmm14, %xmm1, %xmm12
vpmuludq %xmm14, %xmm4, %xmm13
vpmuludq %xmm14, %xmm5, %xmm14
vmovdqu 64(%rsp), %xmm15
vpaddq %xmm11, %xmm0, %xmm0
vpaddq %xmm12, %xmm7, %xmm7
vpaddq %xmm13, %xmm8, %xmm8
vpaddq %xmm14, %xmm9, %xmm9
vpmuludq %xmm6, %xmm3, %xmm13
vpmuludq %xmm6, %xmm2, %xmm11
vpmuludq %xmm6, %xmm1, %xmm12
vmovdqu 272(%rsp), %xmm6
vpaddq %xmm13, %xmm8, %xmm8
vpaddq %xmm11, %xmm9, %xmm9
vpaddq %xmm12, %xmm10, %xmm10
vpmuludq %xmm15, %xmm1, %xmm11
vpmuludq %xmm15, %xmm4, %xmm12
vpmuludq %xmm15, %xmm5, %xmm13
vmovdqu 48(%rsp), %xmm1
vpaddq %xmm11, %xmm0, %xmm11
vpaddq %xmm12, %xmm7, %xmm7
vpaddq %xmm8, %xmm13, %xmm0
vpmuludq %xmm6, %xmm3, %xmm8
vpmuludq %xmm6, %xmm2, %xmm6
vpaddq %xmm8, %xmm9, %xmm2
vpaddq %xmm6, %xmm10, %xmm6
vpmuludq %xmm1, %xmm4, %xmm4
vpmuludq %xmm1, %xmm5, %xmm1
vpaddq %xmm4, %xmm11, %xmm4
vpaddq %xmm7, %xmm1, %xmm1
vpmuludq 32(%rsp), %xmm5, %xmm5
vpmuludq 288(%rsp), %xmm3, %xmm3
vpaddq %xmm5, %xmm4, %xmm4
vmovdqu %xmm2, %xmm5
vpaddq %xmm3, %xmm6, %xmm6
vmovdqu (%rsp), %xmm2
vpsrlq $26, %xmm4, %xmm7
vpsrlq $26, %xmm5, %xmm8
vpand %xmm2, %xmm4, %xmm3
vpand %xmm2, %xmm5, %xmm4
vpaddq %xmm7, %xmm1, %xmm1
vpaddq %xmm8, %xmm6, %xmm5
vpsrlq $26, %xmm1, %xmm6
vpsrlq $26, %xmm5, %xmm7
vpsllq $2, %xmm7, %xmm8
vpaddq %xmm8, %xmm7, %xmm7
vpand %xmm2, %xmm1, %xmm8
vpand %xmm2, %xmm5, %xmm1
vpaddq %xmm6, %xmm0, %xmm0
vpaddq %xmm7, %xmm3, %xmm3
vpsrlq $26, %xmm0, %xmm5
vpsrlq $26, %xmm3, %xmm6
vpand %xmm2, %xmm0, %xmm0
vpand %xmm2, %xmm3, %xmm3
vpaddq %xmm5, %xmm4, %xmm4
vpaddq %xmm6, %xmm8, %xmm5
vpsrlq $26, %xmm4, %xmm6
vpand %xmm2, %xmm4, %xmm2
vpaddq %xmm6, %xmm1, %xmm1
vpsllq $26, %xmm5, %xmm4
vpaddq %xmm3, %xmm4, %xmm3
vpsllq $26, %xmm2, %xmm2
vpaddq %xmm0, %xmm2, %xmm0
vpsrldq $8, %xmm1, %xmm2
vpaddq %xmm1, %xmm2, %xmm1
vpunpcklqdq %xmm0, %xmm3, %xmm2
vpunpckhqdq %xmm0, %xmm3, %xmm0
vpaddq %xmm0, %xmm2, %xmm0
vpextrq $0, %xmm0, %rax
vpextrq $1, %xmm0, %rbx
vpextrq $0, %xmm1, %rcx
movq %rbx, %r11
shlq $52, %r11
shrq $12, %rbx
movq %rcx, %r8
shrq $24, %r8
shlq $40, %rcx
addq %rax, %r11
adcq %rcx, %rbx
adcq $0, %r8
movq %r8, %rax
movq %r8, %rcx
andq $3, %r8
shrq $2, %rax
andq $-4, %rcx
addq %rcx, %rax
addq %rax, %r11
adcq $0, %rbx
adcq $0, %r8
jmp Ljade_onetimeauth_poly1305_amd64_avx$4
Ljade_onetimeauth_poly1305_amd64_avx$5:
addq (%rsi), %r11
adcq 8(%rsi), %rbx
adcq $1, %r8
movq %r13, %r9
imulq %r8, %r9
imulq %rbp, %r8
movq %rbp, %rax
mulq %r11
movq %rax, %rcx
movq %rdx, %r10
movq %rbp, %rax
mulq %rbx
addq %rax, %r10
adcq %rdx, %r8
movq %r13, %rax
mulq %rbx
movq %rdx, %rbx
addq %r9, %rbx
movq %rax, %r9
movq %r12, %rax
mulq %r11
addq %r9, %rcx
adcq %rax, %r10
adcq %rdx, %r8
movq $-4, %r11
movq %r8, %rax
shrq $2, %rax
andq %r8, %r11
addq %rax, %r11
andq $3, %r8
addq %rcx, %r11
adcq %r10, %rbx
adcq $0, %r8
addq $16, %rsi
addq $-16, %r14
Ljade_onetimeauth_poly1305_amd64_avx$4:
cmpq $16, %r14
jnb Ljade_onetimeauth_poly1305_amd64_avx$5
cmpq $0, %r14
jbe Ljade_onetimeauth_poly1305_amd64_avx$3
xorq %rcx, %rcx
movq %r14, %rax
andq $7, %rax
shlq $3, %rax
shrq $3, %r14
movq %r14, %rdx
xorq $1, %rdx
movq %r14, %r9
addq $-1, %r9
movq %rax, %r10
andq %r9, %r10
xorq %r10, %rcx
xorq %r10, %rax
shlq %cl, %rdx
movq %rax, %rcx
shlq %cl, %r14
movq %rdx, %rax
movq %r14, %rcx
subq $1, %rax
sbbq $0, %rcx
movq (%rsi), %r9
andq %rax, %r9
orq %rdx, %r9
movq 8(%rsi), %rax
andq %rcx, %rax
orq %r14, %rax
addq %r9, %r11
adcq %rax, %rbx
adcq $0, %r8
movq %r13, %rsi
imulq %r8, %rsi
imulq %rbp, %r8
movq %rbp, %rax
mulq %r11
movq %rax, %rcx
movq %rdx, %r9
movq %rbp, %rax
mulq %rbx
addq %rax, %r9
adcq %rdx, %r8
movq %r13, %rax
mulq %rbx
movq %rdx, %rbx
addq %rsi, %rbx
movq %rax, %rsi
movq %r12, %rax
mulq %r11
addq %rsi, %rcx
adcq %rax, %r9
adcq %rdx, %r8
movq $-4, %r11
movq %r8, %rax
shrq $2, %rax
andq %r8, %r11
addq %rax, %r11
andq $3, %r8
addq %rcx, %r11
adcq %r9, %rbx
adcq $0, %r8
Ljade_onetimeauth_poly1305_amd64_avx$3:
movq %r11, %rax
movq %rbx, %rcx
addq $5, %rax
adcq $0, %rcx
adcq $0, %r8
shrq $2, %r8
negq %r8
xorq %r11, %rax
xorq %rbx, %rcx
andq %r8, %rax
andq %r8, %rcx
xorq %r11, %rax
xorq %rbx, %rcx
movq (%r15), %rdx
movq 8(%r15), %rsi
addq %rdx, %rax
adcq %rsi, %rcx
Ljade_onetimeauth_poly1305_amd64_avx$2:
movq %rax, (%rdi)
movq %rcx, 8(%rdi)
xorq %rax, %rax
movq 544(%rsp), %rbx
movq 552(%rsp), %rbp
movq 560(%rsp), %r12
movq 568(%rsp), %r13
movq 576(%rsp), %r14
movq 584(%rsp), %r15
movq 592(%rsp), %rsp
ret
.data
.p2align 5
_glob_data:
glob_data:
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte -1
.byte -1
.byte -1
.byte 3
.byte 0
.byte 0
.byte 0
.byte 0
.byte 5
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
|
usenix-security-verdict/verdict
| 34,208
|
deps/libcrux/sys/libjade/jazz/sha3_512_avx2.s
|
.att_syntax
.text
.p2align 5
.globl _jade_hash_sha3_512_amd64_avx2
.globl jade_hash_sha3_512_amd64_avx2
_jade_hash_sha3_512_amd64_avx2:
jade_hash_sha3_512_amd64_avx2:
movq %rsp, %rax
leaq -40(%rsp), %rsp
andq $-32, %rsp
movq %rax, 32(%rsp)
movq %rbx, (%rsp)
movq %rbp, 8(%rsp)
movq %r12, 16(%rsp)
movq %r13, 24(%rsp)
movq $64, %r9
movb $6, %al
movq $72, %rcx
leaq -224(%rsp), %rsp
leaq Ljade_hash_sha3_512_amd64_avx2$1(%rip), %r10
jmp L_keccak1600_avx2$1
Ljade_hash_sha3_512_amd64_avx2$1:
leaq 224(%rsp), %rsp
xorq %rax, %rax
movq (%rsp), %rbx
movq 8(%rsp), %rbp
movq 16(%rsp), %r12
movq 24(%rsp), %r13
movq 32(%rsp), %rsp
ret
L_keccak1600_avx2$1:
vpxor %ymm6, %ymm6, %ymm6
vpxor %ymm3, %ymm3, %ymm3
vpxor %ymm4, %ymm4, %ymm4
vpxor %ymm0, %ymm0, %ymm0
vpxor %ymm5, %ymm5, %ymm5
vpxor %ymm1, %ymm1, %ymm1
vpxor %ymm2, %ymm2, %ymm2
leaq glob_data + 1152(%rip), %r8
vpxor %ymm7, %ymm7, %ymm7
vmovdqu %ymm7, (%rsp)
vmovdqu %ymm7, 32(%rsp)
vmovdqu %ymm7, 64(%rsp)
vmovdqu %ymm7, 96(%rsp)
vmovdqu %ymm7, 128(%rsp)
vmovdqu %ymm7, 160(%rsp)
vmovdqu %ymm7, 192(%rsp)
jmp L_keccak1600_avx2$16
L_keccak1600_avx2$17:
movq %rcx, %r11
shrq $3, %r11
movq $0, %rbx
jmp L_keccak1600_avx2$19
L_keccak1600_avx2$20:
movq (%rsi,%rbx,8), %rbp
movq (%r8,%rbx,8), %r12
movq %rbp, (%rsp,%r12,8)
incq %rbx
L_keccak1600_avx2$19:
cmpq %r11, %rbx
jb L_keccak1600_avx2$20
movq (%rsp), %r11
movq %r11, 8(%rsp)
movq %r11, 16(%rsp)
movq %r11, 24(%rsp)
vpxor (%rsp), %ymm6, %ymm6
vpxor 32(%rsp), %ymm3, %ymm3
vpxor 64(%rsp), %ymm4, %ymm4
vpxor 96(%rsp), %ymm0, %ymm0
vpxor 128(%rsp), %ymm5, %ymm5
vpxor 160(%rsp), %ymm1, %ymm1
vpxor 192(%rsp), %ymm2, %ymm2
addq %rcx, %rsi
subq %rcx, %rdx
leaq glob_data + 384(%rip), %r11
movq $0, %rbx
leaq glob_data + 192(%rip), %rbp
leaq glob_data + 0(%rip), %r12
movq $24, %r13
L_keccak1600_avx2$18:
vpshufd $78, %ymm4, %ymm8
vpxor %ymm0, %ymm1, %ymm7
vpxor %ymm2, %ymm5, %ymm9
vpxor %ymm3, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm4, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm4, %ymm4
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rbp), %ymm4, %ymm7
vpsrlvq (%r12), %ymm4, %ymm4
vpor %ymm7, %ymm4, %ymm4
vpxor %ymm9, %ymm0, %ymm0
vpsllvq 64(%rbp), %ymm0, %ymm7
vpsrlvq 64(%r12), %ymm0, %ymm0
vpor %ymm7, %ymm0, %ymm0
vpxor %ymm9, %ymm5, %ymm5
vpsllvq 96(%rbp), %ymm5, %ymm7
vpsrlvq 96(%r12), %ymm5, %ymm5
vpor %ymm7, %ymm5, %ymm10
vpxor %ymm9, %ymm1, %ymm1
vpsllvq 128(%rbp), %ymm1, %ymm5
vpsrlvq 128(%r12), %ymm1, %ymm1
vpor %ymm5, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpermq $-115, %ymm4, %ymm5
vpermq $-115, %ymm0, %ymm7
vpsllvq 160(%rbp), %ymm2, %ymm0
vpsrlvq 160(%r12), %ymm2, %ymm2
vpor %ymm0, %ymm2, %ymm8
vpxor %ymm9, %ymm3, %ymm0
vpermq $27, %ymm10, %ymm3
vpermq $114, %ymm1, %ymm9
vpsllvq 32(%rbp), %ymm0, %ymm1
vpsrlvq 32(%r12), %ymm0, %ymm0
vpor %ymm1, %ymm0, %ymm10
vpsrldq $8, %ymm8, %ymm0
vpandn %ymm0, %ymm8, %ymm0
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm2
vpblendd $12, %ymm7, %ymm5, %ymm4
vpblendd $12, %ymm5, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm2, %ymm2
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm2, %ymm2
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm2, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm2
vpblendd $12, %ymm10, %ymm3, %ymm4
vpblendd $12, %ymm3, %ymm5, %ymm11
vpxor %ymm5, %ymm1, %ymm1
vpblendd $48, %ymm5, %ymm4, %ymm4
vpblendd $48, %ymm7, %ymm11, %ymm11
vpxor %ymm3, %ymm2, %ymm2
vpblendd $-64, %ymm7, %ymm4, %ymm4
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm4, %ymm4
vpxor %ymm9, %ymm4, %ymm12
vpermq $30, %ymm8, %ymm4
vpblendd $48, %ymm6, %ymm4, %ymm4
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm4, %ymm11, %ymm11
vpblendd $12, %ymm3, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm4, %ymm4
vpblendd $48, %ymm5, %ymm13, %ymm13
vpblendd $-64, %ymm5, %ymm4, %ymm4
vpblendd $-64, %ymm3, %ymm13, %ymm13
vpandn %ymm13, %ymm4, %ymm4
vpxor %ymm10, %ymm4, %ymm4
vpermq $0, %ymm0, %ymm13
vpermq $27, %ymm1, %ymm0
vpermq $-115, %ymm2, %ymm1
vpermq $114, %ymm12, %ymm2
vpblendd $12, %ymm5, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm3, %ymm9
vpblendd $48, %ymm3, %ymm12, %ymm3
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm3, %ymm3
vpblendd $-64, %ymm5, %ymm9, %ymm5
vpandn %ymm5, %ymm3, %ymm5
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm3
vpxor %ymm7, %ymm5, %ymm5
vpxor (%r11,%rbx), %ymm6, %ymm6
addq $32, %rbx
decq %r13
jne L_keccak1600_avx2$18
L_keccak1600_avx2$16:
cmpq %rcx, %rdx
jnb L_keccak1600_avx2$17
vpxor %ymm7, %ymm7, %ymm7
vmovdqu %ymm7, (%rsp)
vmovdqu %ymm7, 32(%rsp)
vmovdqu %ymm7, 64(%rsp)
vmovdqu %ymm7, 96(%rsp)
vmovdqu %ymm7, 128(%rsp)
vmovdqu %ymm7, 160(%rsp)
vmovdqu %ymm7, 192(%rsp)
movq %rdx, %r11
shrq $3, %r11
movq $0, %rbx
jmp L_keccak1600_avx2$14
L_keccak1600_avx2$15:
movq (%rsi,%rbx,8), %rbp
movq (%r8,%rbx,8), %r12
movq %rbp, (%rsp,%r12,8)
incq %rbx
L_keccak1600_avx2$14:
cmpq %r11, %rbx
jb L_keccak1600_avx2$15
movq (%r8,%rbx,8), %r11
shlq $3, %r11
shlq $3, %rbx
jmp L_keccak1600_avx2$12
L_keccak1600_avx2$13:
movb (%rsi,%rbx), %bpl
movb %bpl, (%rsp,%r11)
incq %rbx
incq %r11
L_keccak1600_avx2$12:
cmpq %rdx, %rbx
jb L_keccak1600_avx2$13
movb %al, (%rsp,%r11)
movq %rcx, %rax
addq $-1, %rax
shrq $3, %rax
movq (%r8,%rax,8), %rax
shlq $3, %rax
movq %rcx, %rdx
addq $-1, %rdx
andq $7, %rdx
addq %rdx, %rax
xorb $-128, (%rsp,%rax)
movq (%rsp), %rax
movq %rax, 8(%rsp)
movq %rax, 16(%rsp)
movq %rax, 24(%rsp)
vpxor (%rsp), %ymm6, %ymm6
vpxor 32(%rsp), %ymm3, %ymm3
vpxor 64(%rsp), %ymm4, %ymm4
vpxor 96(%rsp), %ymm0, %ymm0
vpxor 128(%rsp), %ymm5, %ymm5
vpxor 160(%rsp), %ymm1, %ymm1
vpxor 192(%rsp), %ymm2, %ymm2
leaq glob_data + 1152(%rip), %rax
jmp L_keccak1600_avx2$7
L_keccak1600_avx2$8:
leaq glob_data + 384(%rip), %rdx
movq $0, %rsi
leaq glob_data + 192(%rip), %r8
leaq glob_data + 0(%rip), %r11
movq $24, %rbx
L_keccak1600_avx2$11:
vpshufd $78, %ymm4, %ymm8
vpxor %ymm0, %ymm1, %ymm7
vpxor %ymm2, %ymm5, %ymm9
vpxor %ymm3, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm4, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm4, %ymm4
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%r8), %ymm4, %ymm7
vpsrlvq (%r11), %ymm4, %ymm4
vpor %ymm7, %ymm4, %ymm4
vpxor %ymm9, %ymm0, %ymm0
vpsllvq 64(%r8), %ymm0, %ymm7
vpsrlvq 64(%r11), %ymm0, %ymm0
vpor %ymm7, %ymm0, %ymm0
vpxor %ymm9, %ymm5, %ymm5
vpsllvq 96(%r8), %ymm5, %ymm7
vpsrlvq 96(%r11), %ymm5, %ymm5
vpor %ymm7, %ymm5, %ymm10
vpxor %ymm9, %ymm1, %ymm1
vpsllvq 128(%r8), %ymm1, %ymm5
vpsrlvq 128(%r11), %ymm1, %ymm1
vpor %ymm5, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpermq $-115, %ymm4, %ymm5
vpermq $-115, %ymm0, %ymm7
vpsllvq 160(%r8), %ymm2, %ymm0
vpsrlvq 160(%r11), %ymm2, %ymm2
vpor %ymm0, %ymm2, %ymm8
vpxor %ymm9, %ymm3, %ymm0
vpermq $27, %ymm10, %ymm3
vpermq $114, %ymm1, %ymm9
vpsllvq 32(%r8), %ymm0, %ymm1
vpsrlvq 32(%r11), %ymm0, %ymm0
vpor %ymm1, %ymm0, %ymm10
vpsrldq $8, %ymm8, %ymm0
vpandn %ymm0, %ymm8, %ymm0
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm2
vpblendd $12, %ymm7, %ymm5, %ymm4
vpblendd $12, %ymm5, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm2, %ymm2
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm2, %ymm2
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm2, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm2
vpblendd $12, %ymm10, %ymm3, %ymm4
vpblendd $12, %ymm3, %ymm5, %ymm11
vpxor %ymm5, %ymm1, %ymm1
vpblendd $48, %ymm5, %ymm4, %ymm4
vpblendd $48, %ymm7, %ymm11, %ymm11
vpxor %ymm3, %ymm2, %ymm2
vpblendd $-64, %ymm7, %ymm4, %ymm4
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm4, %ymm4
vpxor %ymm9, %ymm4, %ymm12
vpermq $30, %ymm8, %ymm4
vpblendd $48, %ymm6, %ymm4, %ymm4
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm4, %ymm11, %ymm11
vpblendd $12, %ymm3, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm4, %ymm4
vpblendd $48, %ymm5, %ymm13, %ymm13
vpblendd $-64, %ymm5, %ymm4, %ymm4
vpblendd $-64, %ymm3, %ymm13, %ymm13
vpandn %ymm13, %ymm4, %ymm4
vpxor %ymm10, %ymm4, %ymm4
vpermq $0, %ymm0, %ymm13
vpermq $27, %ymm1, %ymm0
vpermq $-115, %ymm2, %ymm1
vpermq $114, %ymm12, %ymm2
vpblendd $12, %ymm5, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm3, %ymm9
vpblendd $48, %ymm3, %ymm12, %ymm3
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm3, %ymm3
vpblendd $-64, %ymm5, %ymm9, %ymm5
vpandn %ymm5, %ymm3, %ymm5
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm3
vpxor %ymm7, %ymm5, %ymm5
vpxor (%rdx,%rsi), %ymm6, %ymm6
addq $32, %rsi
decq %rbx
jne L_keccak1600_avx2$11
vmovdqu %ymm6, (%rsp)
vmovdqu %ymm3, 32(%rsp)
vmovdqu %ymm4, 64(%rsp)
vmovdqu %ymm0, 96(%rsp)
vmovdqu %ymm5, 128(%rsp)
vmovdqu %ymm1, 160(%rsp)
vmovdqu %ymm2, 192(%rsp)
movq %rcx, %rdx
shrq $3, %rdx
movq $0, %rsi
jmp L_keccak1600_avx2$9
L_keccak1600_avx2$10:
movq (%rax,%rsi,8), %r8
movq (%rsp,%r8,8), %r8
movq %r8, (%rdi,%rsi,8)
incq %rsi
L_keccak1600_avx2$9:
cmpq %rdx, %rsi
jb L_keccak1600_avx2$10
addq %rcx, %rdi
subq %rcx, %r9
L_keccak1600_avx2$7:
cmpq %rcx, %r9
jnbe L_keccak1600_avx2$8
leaq glob_data + 384(%rip), %rcx
movq $0, %rdx
leaq glob_data + 192(%rip), %rsi
leaq glob_data + 0(%rip), %r8
movq $24, %r11
L_keccak1600_avx2$6:
vpshufd $78, %ymm4, %ymm8
vpxor %ymm0, %ymm1, %ymm7
vpxor %ymm2, %ymm5, %ymm9
vpxor %ymm3, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm4, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm4, %ymm4
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm4, %ymm7
vpsrlvq (%r8), %ymm4, %ymm4
vpor %ymm7, %ymm4, %ymm4
vpxor %ymm9, %ymm0, %ymm0
vpsllvq 64(%rsi), %ymm0, %ymm7
vpsrlvq 64(%r8), %ymm0, %ymm0
vpor %ymm7, %ymm0, %ymm0
vpxor %ymm9, %ymm5, %ymm5
vpsllvq 96(%rsi), %ymm5, %ymm7
vpsrlvq 96(%r8), %ymm5, %ymm5
vpor %ymm7, %ymm5, %ymm10
vpxor %ymm9, %ymm1, %ymm1
vpsllvq 128(%rsi), %ymm1, %ymm5
vpsrlvq 128(%r8), %ymm1, %ymm1
vpor %ymm5, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpermq $-115, %ymm4, %ymm5
vpermq $-115, %ymm0, %ymm7
vpsllvq 160(%rsi), %ymm2, %ymm0
vpsrlvq 160(%r8), %ymm2, %ymm2
vpor %ymm0, %ymm2, %ymm8
vpxor %ymm9, %ymm3, %ymm0
vpermq $27, %ymm10, %ymm3
vpermq $114, %ymm1, %ymm9
vpsllvq 32(%rsi), %ymm0, %ymm1
vpsrlvq 32(%r8), %ymm0, %ymm0
vpor %ymm1, %ymm0, %ymm10
vpsrldq $8, %ymm8, %ymm0
vpandn %ymm0, %ymm8, %ymm0
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm2
vpblendd $12, %ymm7, %ymm5, %ymm4
vpblendd $12, %ymm5, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm2, %ymm2
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm2, %ymm2
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm2, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm2
vpblendd $12, %ymm10, %ymm3, %ymm4
vpblendd $12, %ymm3, %ymm5, %ymm11
vpxor %ymm5, %ymm1, %ymm1
vpblendd $48, %ymm5, %ymm4, %ymm4
vpblendd $48, %ymm7, %ymm11, %ymm11
vpxor %ymm3, %ymm2, %ymm2
vpblendd $-64, %ymm7, %ymm4, %ymm4
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm4, %ymm4
vpxor %ymm9, %ymm4, %ymm12
vpermq $30, %ymm8, %ymm4
vpblendd $48, %ymm6, %ymm4, %ymm4
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm4, %ymm11, %ymm11
vpblendd $12, %ymm3, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm4, %ymm4
vpblendd $48, %ymm5, %ymm13, %ymm13
vpblendd $-64, %ymm5, %ymm4, %ymm4
vpblendd $-64, %ymm3, %ymm13, %ymm13
vpandn %ymm13, %ymm4, %ymm4
vpxor %ymm10, %ymm4, %ymm4
vpermq $0, %ymm0, %ymm13
vpermq $27, %ymm1, %ymm0
vpermq $-115, %ymm2, %ymm1
vpermq $114, %ymm12, %ymm2
vpblendd $12, %ymm5, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm3, %ymm9
vpblendd $48, %ymm3, %ymm12, %ymm3
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm3, %ymm3
vpblendd $-64, %ymm5, %ymm9, %ymm5
vpandn %ymm5, %ymm3, %ymm5
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm3
vpxor %ymm7, %ymm5, %ymm5
vpxor (%rcx,%rdx), %ymm6, %ymm6
addq $32, %rdx
decq %r11
jne L_keccak1600_avx2$6
vmovdqu %ymm6, (%rsp)
vmovdqu %ymm3, 32(%rsp)
vmovdqu %ymm4, 64(%rsp)
vmovdqu %ymm0, 96(%rsp)
vmovdqu %ymm5, 128(%rsp)
vmovdqu %ymm1, 160(%rsp)
vmovdqu %ymm2, 192(%rsp)
movq %r9, %rcx
shrq $3, %rcx
movq $0, %rdx
jmp L_keccak1600_avx2$4
L_keccak1600_avx2$5:
movq (%rax,%rdx,8), %rsi
movq (%rsp,%rsi,8), %rsi
movq %rsi, (%rdi,%rdx,8)
incq %rdx
L_keccak1600_avx2$4:
cmpq %rcx, %rdx
jb L_keccak1600_avx2$5
movq (%rax,%rdx,8), %rax
shlq $3, %rdx
shlq $3, %rax
jmp L_keccak1600_avx2$2
L_keccak1600_avx2$3:
movb (%rsp,%rax), %cl
movb %cl, (%rdi,%rdx)
incq %rdx
incq %rax
L_keccak1600_avx2$2:
cmpq %r9, %rdx
jb L_keccak1600_avx2$3
jmp *%r10
.data
.p2align 5
_glob_data:
glob_data:
.byte 61
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 46
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 28
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 23
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 63
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 2
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 36
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 37
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 19
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 58
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 25
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 54
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 3
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 56
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 62
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 49
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 39
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 44
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 20
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 21
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 43
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 50
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 3
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 18
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 36
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 41
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 62
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 28
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 27
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 45
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 6
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 56
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 39
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 61
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 55
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 2
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 15
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 25
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 20
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 44
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 43
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 21
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 14
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 4
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 5
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 6
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 7
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 24
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 13
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 18
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 23
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 16
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 25
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 22
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 15
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 11
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 12
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 21
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 26
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 19
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 20
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 17
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 14
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 27
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
|
usenix-security-verdict/verdict
| 31,350
|
deps/libcrux/sys/libjade/jazz/sha3_256_ref.s
|
.att_syntax
.text
.p2align 5
.globl _jade_hash_sha3_256_amd64_ref
.globl jade_hash_sha3_256_amd64_ref
_jade_hash_sha3_256_amd64_ref:
jade_hash_sha3_256_amd64_ref:
movq %rsp, %rax
leaq -48(%rsp), %rsp
andq $-8, %rsp
movq %rax, 40(%rsp)
movq %rbx, (%rsp)
movq %rbp, 8(%rsp)
movq %r12, 16(%rsp)
movq %r13, 24(%rsp)
movq %r14, 32(%rsp)
movq $32, %rcx
movb $6, %r8b
movq $136, %rax
leaq -448(%rsp), %rsp
call L_keccak1600_ref$1
Ljade_hash_sha3_256_amd64_ref$1:
leaq 448(%rsp), %rsp
xorq %rax, %rax
movq (%rsp), %rbx
movq 8(%rsp), %rbp
movq 16(%rsp), %r12
movq 24(%rsp), %r13
movq 32(%rsp), %r14
movq 40(%rsp), %rsp
ret
L_keccak1600_ref$1:
movq %rdi, 8(%rsp)
movq %rcx, 16(%rsp)
movb %r8b, 448(%rsp)
xorq %rcx, %rcx
movq %rcx, 48(%rsp)
movq %rcx, 56(%rsp)
movq %rcx, 64(%rsp)
movq %rcx, 72(%rsp)
movq %rcx, 80(%rsp)
movq %rcx, 88(%rsp)
movq %rcx, 96(%rsp)
movq %rcx, 104(%rsp)
movq %rcx, 112(%rsp)
movq %rcx, 120(%rsp)
movq %rcx, 128(%rsp)
movq %rcx, 136(%rsp)
movq %rcx, 144(%rsp)
movq %rcx, 152(%rsp)
movq %rcx, 160(%rsp)
movq %rcx, 168(%rsp)
movq %rcx, 176(%rsp)
movq %rcx, 184(%rsp)
movq %rcx, 192(%rsp)
movq %rcx, 200(%rsp)
movq %rcx, 208(%rsp)
movq %rcx, 216(%rsp)
movq %rcx, 224(%rsp)
movq %rcx, 232(%rsp)
movq %rcx, 240(%rsp)
jmp L_keccak1600_ref$16
L_keccak1600_ref$17:
movq %rax, %rcx
shrq $3, %rcx
movq $0, %rdi
jmp L_keccak1600_ref$19
L_keccak1600_ref$20:
movq (%rsi,%rdi,8), %r8
xorq %r8, 48(%rsp,%rdi,8)
incq %rdi
L_keccak1600_ref$19:
cmpq %rcx, %rdi
jb L_keccak1600_ref$20
addq %rax, %rsi
subq %rax, %rdx
movq %rsi, 24(%rsp)
movq %rdx, 32(%rsp)
movq %rax, 40(%rsp)
leaq glob_data + 0(%rip), %rax
movq $0, %rcx
L_keccak1600_ref$18:
movq (%rax,%rcx,8), %r10
movq 48(%rsp), %r9
movq 56(%rsp), %r8
movq 64(%rsp), %r11
movq 72(%rsp), %rbx
movq 80(%rsp), %rbp
xorq 88(%rsp), %r9
xorq 96(%rsp), %r8
xorq 104(%rsp), %r11
xorq 112(%rsp), %rbx
xorq 120(%rsp), %rbp
xorq 128(%rsp), %r9
xorq 136(%rsp), %r8
xorq 144(%rsp), %r11
xorq 152(%rsp), %rbx
xorq 160(%rsp), %rbp
xorq 168(%rsp), %r9
xorq 176(%rsp), %r8
xorq 184(%rsp), %r11
xorq 192(%rsp), %rbx
xorq 200(%rsp), %rbp
xorq 208(%rsp), %r9
xorq 216(%rsp), %r8
xorq 224(%rsp), %r11
xorq 232(%rsp), %rbx
xorq 240(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 48(%rsp), %r11
xorq %rdx, %r11
movq 96(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 144(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 192(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 240(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 248(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 256(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 264(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 272(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 280(%rsp)
movq 72(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 120(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 128(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 176(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 224(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 288(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 296(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 304(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 312(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 320(%rsp)
movq 56(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 104(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 152(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 200(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 208(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 328(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 336(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 344(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 352(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 360(%rsp)
movq 80(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 88(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 136(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 184(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 232(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 368(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 376(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 384(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 392(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 400(%rsp)
movq 64(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 112(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 160(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 168(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 216(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 408(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 416(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 424(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 432(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 440(%rsp)
movq 8(%rax,%rcx,8), %r10
movq 248(%rsp), %r9
movq 256(%rsp), %r8
movq 264(%rsp), %r11
movq 272(%rsp), %rbx
movq 280(%rsp), %rbp
xorq 288(%rsp), %r9
xorq 296(%rsp), %r8
xorq 304(%rsp), %r11
xorq 312(%rsp), %rbx
xorq 320(%rsp), %rbp
xorq 328(%rsp), %r9
xorq 336(%rsp), %r8
xorq 344(%rsp), %r11
xorq 352(%rsp), %rbx
xorq 360(%rsp), %rbp
xorq 368(%rsp), %r9
xorq 376(%rsp), %r8
xorq 384(%rsp), %r11
xorq 392(%rsp), %rbx
xorq 400(%rsp), %rbp
xorq 408(%rsp), %r9
xorq 416(%rsp), %r8
xorq 424(%rsp), %r11
xorq 432(%rsp), %rbx
xorq 440(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 248(%rsp), %r11
xorq %rdx, %r11
movq 296(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 344(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 392(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 440(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 48(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 56(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 64(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 72(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 80(%rsp)
movq 272(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 320(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 328(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 376(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 424(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 88(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 96(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 104(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 112(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 120(%rsp)
movq 256(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 304(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 352(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 400(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 408(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 128(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 136(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 144(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 152(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 160(%rsp)
movq 280(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 288(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 336(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 384(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 432(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 168(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 176(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 184(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 192(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 200(%rsp)
movq 264(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 312(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 360(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 368(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 416(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 208(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 216(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 224(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 232(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 240(%rsp)
addq $2, %rcx
cmpq $23, %rcx
jb L_keccak1600_ref$18
movq 24(%rsp), %rsi
movq 32(%rsp), %rdx
movq 40(%rsp), %rax
L_keccak1600_ref$16:
cmpq %rax, %rdx
jnb L_keccak1600_ref$17
movb 448(%rsp), %cl
movq %rdx, %rdi
shrq $3, %rdi
movq $0, %r8
jmp L_keccak1600_ref$14
L_keccak1600_ref$15:
movq (%rsi,%r8,8), %r9
xorq %r9, 48(%rsp,%r8,8)
incq %r8
L_keccak1600_ref$14:
cmpq %rdi, %r8
jb L_keccak1600_ref$15
shlq $3, %r8
jmp L_keccak1600_ref$12
L_keccak1600_ref$13:
movb (%rsi,%r8), %dil
xorb %dil, 48(%rsp,%r8)
incq %r8
L_keccak1600_ref$12:
cmpq %rdx, %r8
jb L_keccak1600_ref$13
xorb %cl, 48(%rsp,%r8)
movq %rax, %rcx
addq $-1, %rcx
xorb $-128, 48(%rsp,%rcx)
movq 16(%rsp), %rdx
jmp L_keccak1600_ref$7
L_keccak1600_ref$8:
movq %rdx, 16(%rsp)
movq %rax, 40(%rsp)
leaq glob_data + 0(%rip), %rax
movq $0, %rcx
L_keccak1600_ref$11:
movq (%rax,%rcx,8), %r10
movq 48(%rsp), %r9
movq 56(%rsp), %r8
movq 64(%rsp), %r11
movq 72(%rsp), %rbx
movq 80(%rsp), %rbp
xorq 88(%rsp), %r9
xorq 96(%rsp), %r8
xorq 104(%rsp), %r11
xorq 112(%rsp), %rbx
xorq 120(%rsp), %rbp
xorq 128(%rsp), %r9
xorq 136(%rsp), %r8
xorq 144(%rsp), %r11
xorq 152(%rsp), %rbx
xorq 160(%rsp), %rbp
xorq 168(%rsp), %r9
xorq 176(%rsp), %r8
xorq 184(%rsp), %r11
xorq 192(%rsp), %rbx
xorq 200(%rsp), %rbp
xorq 208(%rsp), %r9
xorq 216(%rsp), %r8
xorq 224(%rsp), %r11
xorq 232(%rsp), %rbx
xorq 240(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 48(%rsp), %r11
xorq %rdx, %r11
movq 96(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 144(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 192(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 240(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 248(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 256(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 264(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 272(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 280(%rsp)
movq 72(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 120(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 128(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 176(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 224(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 288(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 296(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 304(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 312(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 320(%rsp)
movq 56(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 104(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 152(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 200(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 208(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 328(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 336(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 344(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 352(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 360(%rsp)
movq 80(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 88(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 136(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 184(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 232(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 368(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 376(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 384(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 392(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 400(%rsp)
movq 64(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 112(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 160(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 168(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 216(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 408(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 416(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 424(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 432(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 440(%rsp)
movq 8(%rax,%rcx,8), %r10
movq 248(%rsp), %r9
movq 256(%rsp), %r8
movq 264(%rsp), %r11
movq 272(%rsp), %rbx
movq 280(%rsp), %rbp
xorq 288(%rsp), %r9
xorq 296(%rsp), %r8
xorq 304(%rsp), %r11
xorq 312(%rsp), %rbx
xorq 320(%rsp), %rbp
xorq 328(%rsp), %r9
xorq 336(%rsp), %r8
xorq 344(%rsp), %r11
xorq 352(%rsp), %rbx
xorq 360(%rsp), %rbp
xorq 368(%rsp), %r9
xorq 376(%rsp), %r8
xorq 384(%rsp), %r11
xorq 392(%rsp), %rbx
xorq 400(%rsp), %rbp
xorq 408(%rsp), %r9
xorq 416(%rsp), %r8
xorq 424(%rsp), %r11
xorq 432(%rsp), %rbx
xorq 440(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 248(%rsp), %r11
xorq %rdx, %r11
movq 296(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 344(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 392(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 440(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 48(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 56(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 64(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 72(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 80(%rsp)
movq 272(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 320(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 328(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 376(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 424(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 88(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 96(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 104(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 112(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 120(%rsp)
movq 256(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 304(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 352(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 400(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 408(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 128(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 136(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 144(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 152(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 160(%rsp)
movq 280(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 288(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 336(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 384(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 432(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 168(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 176(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 184(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 192(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 200(%rsp)
movq 264(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 312(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 360(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 368(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 416(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 208(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 216(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 224(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 232(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 240(%rsp)
addq $2, %rcx
cmpq $23, %rcx
jb L_keccak1600_ref$11
movq 8(%rsp), %rcx
movq 16(%rsp), %rdx
movq 40(%rsp), %rax
movq %rax, %rsi
shrq $3, %rsi
movq $0, %rdi
jmp L_keccak1600_ref$9
L_keccak1600_ref$10:
movq 48(%rsp,%rdi,8), %r8
movq %r8, (%rcx,%rdi,8)
incq %rdi
L_keccak1600_ref$9:
cmpq %rsi, %rdi
jb L_keccak1600_ref$10
addq %rax, %rcx
subq %rax, %rdx
movq %rcx, 8(%rsp)
L_keccak1600_ref$7:
cmpq %rax, %rdx
jnbe L_keccak1600_ref$8
movq %rdx, 40(%rsp)
leaq glob_data + 0(%rip), %rax
movq $0, %rcx
L_keccak1600_ref$6:
movq (%rax,%rcx,8), %r10
movq 48(%rsp), %r9
movq 56(%rsp), %r8
movq 64(%rsp), %r11
movq 72(%rsp), %rbx
movq 80(%rsp), %rbp
xorq 88(%rsp), %r9
xorq 96(%rsp), %r8
xorq 104(%rsp), %r11
xorq 112(%rsp), %rbx
xorq 120(%rsp), %rbp
xorq 128(%rsp), %r9
xorq 136(%rsp), %r8
xorq 144(%rsp), %r11
xorq 152(%rsp), %rbx
xorq 160(%rsp), %rbp
xorq 168(%rsp), %r9
xorq 176(%rsp), %r8
xorq 184(%rsp), %r11
xorq 192(%rsp), %rbx
xorq 200(%rsp), %rbp
xorq 208(%rsp), %r9
xorq 216(%rsp), %r8
xorq 224(%rsp), %r11
xorq 232(%rsp), %rbx
xorq 240(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 48(%rsp), %r11
xorq %rdx, %r11
movq 96(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 144(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 192(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 240(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 248(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 256(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 264(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 272(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 280(%rsp)
movq 72(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 120(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 128(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 176(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 224(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 288(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 296(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 304(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 312(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 320(%rsp)
movq 56(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 104(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 152(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 200(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 208(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 328(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 336(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 344(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 352(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 360(%rsp)
movq 80(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 88(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 136(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 184(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 232(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 368(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 376(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 384(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 392(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 400(%rsp)
movq 64(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 112(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 160(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 168(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 216(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 408(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 416(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 424(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 432(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 440(%rsp)
movq 8(%rax,%rcx,8), %r10
movq 248(%rsp), %r9
movq 256(%rsp), %r8
movq 264(%rsp), %r11
movq 272(%rsp), %rbx
movq 280(%rsp), %rbp
xorq 288(%rsp), %r9
xorq 296(%rsp), %r8
xorq 304(%rsp), %r11
xorq 312(%rsp), %rbx
xorq 320(%rsp), %rbp
xorq 328(%rsp), %r9
xorq 336(%rsp), %r8
xorq 344(%rsp), %r11
xorq 352(%rsp), %rbx
xorq 360(%rsp), %rbp
xorq 368(%rsp), %r9
xorq 376(%rsp), %r8
xorq 384(%rsp), %r11
xorq 392(%rsp), %rbx
xorq 400(%rsp), %rbp
xorq 408(%rsp), %r9
xorq 416(%rsp), %r8
xorq 424(%rsp), %r11
xorq 432(%rsp), %rbx
xorq 440(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 248(%rsp), %r11
xorq %rdx, %r11
movq 296(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 344(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 392(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 440(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 48(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 56(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 64(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 72(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 80(%rsp)
movq 272(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 320(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 328(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 376(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 424(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 88(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 96(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 104(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 112(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 120(%rsp)
movq 256(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 304(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 352(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 400(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 408(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 128(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 136(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 144(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 152(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 160(%rsp)
movq 280(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 288(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 336(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 384(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 432(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 168(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 176(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 184(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 192(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 200(%rsp)
movq 264(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 312(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 360(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 368(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 416(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 208(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 216(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 224(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 232(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 240(%rsp)
addq $2, %rcx
cmpq $23, %rcx
jb L_keccak1600_ref$6
movq 8(%rsp), %rax
movq 40(%rsp), %rcx
movq %rcx, %rdx
shrq $3, %rdx
movq $0, %rsi
jmp L_keccak1600_ref$4
L_keccak1600_ref$5:
movq 48(%rsp,%rsi,8), %rdi
movq %rdi, (%rax,%rsi,8)
incq %rsi
L_keccak1600_ref$4:
cmpq %rdx, %rsi
jb L_keccak1600_ref$5
shlq $3, %rsi
jmp L_keccak1600_ref$2
L_keccak1600_ref$3:
movb 48(%rsp,%rsi), %dl
movb %dl, (%rax,%rsi)
incq %rsi
L_keccak1600_ref$2:
cmpq %rcx, %rsi
jb L_keccak1600_ref$3
ret
.data
.p2align 5
_glob_data:
glob_data:
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
|
usenix-security-verdict/verdict
| 18,425
|
deps/libcrux/sys/libjade/jazz/chacha20_ref.s
|
.att_syntax
.text
.p2align 5
.globl _jade_stream_chacha_chacha20_ietf_amd64_ref
.globl jade_stream_chacha_chacha20_ietf_amd64_ref
.globl _jade_stream_chacha_chacha20_ietf_amd64_ref_xor
.globl jade_stream_chacha_chacha20_ietf_amd64_ref_xor
_jade_stream_chacha_chacha20_ietf_amd64_ref:
jade_stream_chacha_chacha20_ietf_amd64_ref:
movq %rsp, %rax
leaq -152(%rsp), %rsp
andq $-8, %rsp
movq %rax, 144(%rsp)
movq %rbx, 96(%rsp)
movq %rbp, 104(%rsp)
movq %r12, 112(%rsp)
movq %r13, 120(%rsp)
movq %r14, 128(%rsp)
movq %r15, 136(%rsp)
movq %rdi, (%rsp)
movq %rsi, 8(%rsp)
movl $1634760805, 16(%rsp)
movl $857760878, 20(%rsp)
movl $2036477234, 24(%rsp)
movl $1797285236, 28(%rsp)
movl (%rcx), %eax
movl %eax, 32(%rsp)
movl 4(%rcx), %eax
movl %eax, 36(%rsp)
movl 8(%rcx), %eax
movl %eax, 40(%rsp)
movl 12(%rcx), %eax
movl %eax, 44(%rsp)
movl 16(%rcx), %eax
movl %eax, 48(%rsp)
movl 20(%rcx), %eax
movl %eax, 52(%rsp)
movl 24(%rcx), %eax
movl %eax, 56(%rsp)
movl 28(%rcx), %eax
movl %eax, 60(%rsp)
movl $0, 64(%rsp)
movl (%rdx), %eax
movl %eax, 68(%rsp)
movl 4(%rdx), %eax
movl %eax, 72(%rsp)
movl 8(%rdx), %eax
movl %eax, 76(%rsp)
jmp Ljade_stream_chacha_chacha20_ietf_amd64_ref$7
Ljade_stream_chacha_chacha20_ietf_amd64_ref$8:
movl 76(%rsp), %eax
movl %eax, 80(%rsp)
movl 16(%rsp), %r14d
movl 20(%rsp), %r13d
movl 24(%rsp), %eax
movl 28(%rsp), %r15d
movl 32(%rsp), %ecx
movl 36(%rsp), %edx
movl 40(%rsp), %esi
movl 44(%rsp), %edi
movl 48(%rsp), %r8d
movl 52(%rsp), %r9d
movl 56(%rsp), %r10d
movl 60(%rsp), %r11d
movl 64(%rsp), %ebx
movl 68(%rsp), %ebp
movl 72(%rsp), %r12d
movl %r12d, 84(%rsp)
movl $10, %r12d
Ljade_stream_chacha_chacha20_ietf_amd64_ref$9:
movl %r12d, 88(%rsp)
movl 84(%rsp), %r12d
addl %ecx, %r14d
addl %esi, %eax
xorl %r14d, %ebx
xorl %eax, %r12d
roll $16, %ebx
roll $16, %r12d
addl %ebx, %r8d
addl %r12d, %r10d
xorl %r8d, %ecx
xorl %r10d, %esi
roll $12, %ecx
roll $12, %esi
addl %ecx, %r14d
addl %esi, %eax
xorl %r14d, %ebx
xorl %eax, %r12d
roll $8, %ebx
roll $8, %r12d
addl %ebx, %r8d
addl %r12d, %r10d
xorl %r8d, %ecx
xorl %r10d, %esi
roll $7, %ecx
roll $7, %esi
movl %r12d, 92(%rsp)
movl 80(%rsp), %r12d
addl %edx, %r13d
addl %edi, %r15d
xorl %r13d, %ebp
xorl %r15d, %r12d
roll $16, %ebp
roll $16, %r12d
addl %ebp, %r9d
addl %r12d, %r11d
xorl %r9d, %edx
xorl %r11d, %edi
roll $12, %edx
roll $12, %edi
addl %edx, %r13d
addl %edi, %r15d
xorl %r13d, %ebp
xorl %r15d, %r12d
roll $8, %ebp
roll $8, %r12d
addl %ebp, %r9d
addl %r12d, %r11d
xorl %r9d, %edx
xorl %r11d, %edi
roll $7, %edx
roll $7, %edi
addl %esi, %r13d
addl %edx, %r14d
xorl %r13d, %ebx
xorl %r14d, %r12d
roll $16, %ebx
roll $16, %r12d
addl %ebx, %r11d
addl %r12d, %r10d
xorl %r11d, %esi
xorl %r10d, %edx
roll $12, %esi
roll $12, %edx
addl %esi, %r13d
addl %edx, %r14d
xorl %r13d, %ebx
xorl %r14d, %r12d
roll $8, %ebx
roll $8, %r12d
addl %ebx, %r11d
addl %r12d, %r10d
xorl %r11d, %esi
xorl %r10d, %edx
roll $7, %esi
roll $7, %edx
movl %r12d, 80(%rsp)
movl 92(%rsp), %r12d
addl %edi, %eax
addl %ecx, %r15d
xorl %eax, %ebp
xorl %r15d, %r12d
roll $16, %ebp
roll $16, %r12d
addl %ebp, %r8d
addl %r12d, %r9d
xorl %r8d, %edi
xorl %r9d, %ecx
roll $12, %edi
roll $12, %ecx
addl %edi, %eax
addl %ecx, %r15d
xorl %eax, %ebp
xorl %r15d, %r12d
roll $8, %ebp
roll $8, %r12d
addl %ebp, %r8d
addl %r12d, %r9d
xorl %r8d, %edi
xorl %r9d, %ecx
roll $7, %edi
roll $7, %ecx
movl %r12d, 84(%rsp)
movl 88(%rsp), %r12d
decl %r12d
cmpl $0, %r12d
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_ref$9
movl 84(%rsp), %r12d
addl 20(%rsp), %r13d
addl 16(%rsp), %r14d
movl %r13d, %r13d
shlq $32, %r13
movl %r14d, %r14d
xorq %r14, %r13
addl 28(%rsp), %r15d
addl 24(%rsp), %eax
movl %r15d, %r14d
shlq $32, %r14
movl %eax, %eax
xorq %rax, %r14
movq (%rsp), %rax
movq %r13, (%rax)
addl 36(%rsp), %edx
addl 32(%rsp), %ecx
movl %edx, %edx
shlq $32, %rdx
movl %ecx, %ecx
xorq %rcx, %rdx
movq %r14, 8(%rax)
addl 44(%rsp), %edi
addl 40(%rsp), %esi
movl %edi, %ecx
shlq $32, %rcx
movl %esi, %esi
xorq %rsi, %rcx
movq %rdx, 16(%rax)
addl 52(%rsp), %r9d
addl 48(%rsp), %r8d
movl %r9d, %edx
shlq $32, %rdx
movl %r8d, %esi
xorq %rsi, %rdx
movq %rcx, 24(%rax)
addl 60(%rsp), %r11d
addl 56(%rsp), %r10d
movl %r11d, %ecx
shlq $32, %rcx
movl %r10d, %esi
xorq %rsi, %rcx
movq %rdx, 32(%rax)
addl 68(%rsp), %ebp
addl 64(%rsp), %ebx
movl %ebp, %edx
shlq $32, %rdx
movl %ebx, %esi
xorq %rsi, %rdx
movq %rcx, 40(%rax)
movl 80(%rsp), %ecx
addl 76(%rsp), %ecx
addl 72(%rsp), %r12d
movl %ecx, %ecx
shlq $32, %rcx
movl %r12d, %esi
xorq %rsi, %rcx
movq %rdx, 48(%rax)
movq %rcx, 56(%rax)
movq 8(%rsp), %rcx
addq $64, %rax
addq $-64, %rcx
movq %rax, (%rsp)
movq %rcx, 8(%rsp)
movl 64(%rsp), %eax
incl %eax
movl %eax, 64(%rsp)
Ljade_stream_chacha_chacha20_ietf_amd64_ref$7:
movq 8(%rsp), %rax
cmpq $64, %rax
jnb Ljade_stream_chacha_chacha20_ietf_amd64_ref$8
cmpq $0, %rax
jbe Ljade_stream_chacha_chacha20_ietf_amd64_ref$1
movl 76(%rsp), %eax
movl %eax, 80(%rsp)
movl 16(%rsp), %eax
movl 20(%rsp), %ecx
movl 24(%rsp), %edx
movl 28(%rsp), %esi
movl 32(%rsp), %edi
movl 36(%rsp), %r8d
movl 40(%rsp), %r9d
movl 44(%rsp), %r10d
movl 48(%rsp), %r11d
movl 52(%rsp), %ebx
movl 56(%rsp), %ebp
movl 60(%rsp), %r12d
movl 64(%rsp), %r13d
movl 68(%rsp), %r14d
movl 72(%rsp), %r15d
movl %r15d, 84(%rsp)
movl $10, %r15d
Ljade_stream_chacha_chacha20_ietf_amd64_ref$6:
movl %r15d, 88(%rsp)
movl 84(%rsp), %r15d
addl %edi, %eax
addl %r9d, %edx
xorl %eax, %r13d
xorl %edx, %r15d
roll $16, %r13d
roll $16, %r15d
addl %r13d, %r11d
addl %r15d, %ebp
xorl %r11d, %edi
xorl %ebp, %r9d
roll $12, %edi
roll $12, %r9d
addl %edi, %eax
addl %r9d, %edx
xorl %eax, %r13d
xorl %edx, %r15d
roll $8, %r13d
roll $8, %r15d
addl %r13d, %r11d
addl %r15d, %ebp
xorl %r11d, %edi
xorl %ebp, %r9d
roll $7, %edi
roll $7, %r9d
movl %r15d, 92(%rsp)
movl 80(%rsp), %r15d
addl %r8d, %ecx
addl %r10d, %esi
xorl %ecx, %r14d
xorl %esi, %r15d
roll $16, %r14d
roll $16, %r15d
addl %r14d, %ebx
addl %r15d, %r12d
xorl %ebx, %r8d
xorl %r12d, %r10d
roll $12, %r8d
roll $12, %r10d
addl %r8d, %ecx
addl %r10d, %esi
xorl %ecx, %r14d
xorl %esi, %r15d
roll $8, %r14d
roll $8, %r15d
addl %r14d, %ebx
addl %r15d, %r12d
xorl %ebx, %r8d
xorl %r12d, %r10d
roll $7, %r8d
roll $7, %r10d
addl %r9d, %ecx
addl %r8d, %eax
xorl %ecx, %r13d
xorl %eax, %r15d
roll $16, %r13d
roll $16, %r15d
addl %r13d, %r12d
addl %r15d, %ebp
xorl %r12d, %r9d
xorl %ebp, %r8d
roll $12, %r9d
roll $12, %r8d
addl %r9d, %ecx
addl %r8d, %eax
xorl %ecx, %r13d
xorl %eax, %r15d
roll $8, %r13d
roll $8, %r15d
addl %r13d, %r12d
addl %r15d, %ebp
xorl %r12d, %r9d
xorl %ebp, %r8d
roll $7, %r9d
roll $7, %r8d
movl %r15d, 80(%rsp)
movl 92(%rsp), %r15d
addl %r10d, %edx
addl %edi, %esi
xorl %edx, %r14d
xorl %esi, %r15d
roll $16, %r14d
roll $16, %r15d
addl %r14d, %r11d
addl %r15d, %ebx
xorl %r11d, %r10d
xorl %ebx, %edi
roll $12, %r10d
roll $12, %edi
addl %r10d, %edx
addl %edi, %esi
xorl %edx, %r14d
xorl %esi, %r15d
roll $8, %r14d
roll $8, %r15d
addl %r14d, %r11d
addl %r15d, %ebx
xorl %r11d, %r10d
xorl %ebx, %edi
roll $7, %r10d
roll $7, %edi
movl %r15d, 84(%rsp)
movl 88(%rsp), %r15d
decl %r15d
cmpl $0, %r15d
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_ref$6
movl 84(%rsp), %r15d
addl 16(%rsp), %eax
addl 20(%rsp), %ecx
addl 24(%rsp), %edx
addl 28(%rsp), %esi
addl 32(%rsp), %edi
addl 36(%rsp), %r8d
addl 40(%rsp), %r9d
addl 44(%rsp), %r10d
addl 48(%rsp), %r11d
addl 52(%rsp), %ebx
addl 56(%rsp), %ebp
addl 60(%rsp), %r12d
addl 64(%rsp), %r13d
addl 68(%rsp), %r14d
addl 72(%rsp), %r15d
movl %r15d, 84(%rsp)
movl 80(%rsp), %r15d
addl 76(%rsp), %r15d
movl %r15d, 80(%rsp)
movl 84(%rsp), %r15d
movl %eax, 16(%rsp)
movl %ecx, 20(%rsp)
movl %edx, 24(%rsp)
movl %esi, 28(%rsp)
movl %edi, 32(%rsp)
movl %r8d, 36(%rsp)
movl %r9d, 40(%rsp)
movl %r10d, 44(%rsp)
movl %r11d, 48(%rsp)
movl %ebx, 52(%rsp)
movl %ebp, 56(%rsp)
movl %r12d, 60(%rsp)
movl %r13d, 64(%rsp)
movl %r14d, 68(%rsp)
movl %r15d, 72(%rsp)
movl 80(%rsp), %eax
movl %eax, 76(%rsp)
movq (%rsp), %rax
movq 8(%rsp), %rcx
movq %rcx, %rdx
shrq $3, %rdx
movq $0, %rsi
jmp Ljade_stream_chacha_chacha20_ietf_amd64_ref$4
Ljade_stream_chacha_chacha20_ietf_amd64_ref$5:
movq 16(%rsp,%rsi,8), %rdi
movq %rdi, (%rax,%rsi,8)
incq %rsi
Ljade_stream_chacha_chacha20_ietf_amd64_ref$4:
cmpq %rdx, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_ref$5
shlq $3, %rsi
jmp Ljade_stream_chacha_chacha20_ietf_amd64_ref$2
Ljade_stream_chacha_chacha20_ietf_amd64_ref$3:
movb 16(%rsp,%rsi), %dl
movb %dl, (%rax,%rsi)
incq %rsi
Ljade_stream_chacha_chacha20_ietf_amd64_ref$2:
cmpq %rcx, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_ref$3
Ljade_stream_chacha_chacha20_ietf_amd64_ref$1:
xorq %rax, %rax
movq 96(%rsp), %rbx
movq 104(%rsp), %rbp
movq 112(%rsp), %r12
movq 120(%rsp), %r13
movq 128(%rsp), %r14
movq 136(%rsp), %r15
movq 144(%rsp), %rsp
ret
_jade_stream_chacha_chacha20_ietf_amd64_ref_xor:
jade_stream_chacha_chacha20_ietf_amd64_ref_xor:
movq %rsp, %rax
leaq -160(%rsp), %rsp
andq $-8, %rsp
movq %rax, 152(%rsp)
movq %rbx, 104(%rsp)
movq %rbp, 112(%rsp)
movq %r12, 120(%rsp)
movq %r13, 128(%rsp)
movq %r14, 136(%rsp)
movq %r15, 144(%rsp)
movq %rdi, (%rsp)
movq %rsi, 8(%rsp)
movq %rdx, 16(%rsp)
movl $1634760805, 24(%rsp)
movl $857760878, 28(%rsp)
movl $2036477234, 32(%rsp)
movl $1797285236, 36(%rsp)
movl (%r8), %eax
movl %eax, 40(%rsp)
movl 4(%r8), %eax
movl %eax, 44(%rsp)
movl 8(%r8), %eax
movl %eax, 48(%rsp)
movl 12(%r8), %eax
movl %eax, 52(%rsp)
movl 16(%r8), %eax
movl %eax, 56(%rsp)
movl 20(%r8), %eax
movl %eax, 60(%rsp)
movl 24(%r8), %eax
movl %eax, 64(%rsp)
movl 28(%r8), %eax
movl %eax, 68(%rsp)
movl $0, 72(%rsp)
movl (%rcx), %eax
movl %eax, 76(%rsp)
movl 4(%rcx), %eax
movl %eax, 80(%rsp)
movl 8(%rcx), %eax
movl %eax, 84(%rsp)
jmp Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$7
Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$8:
movl 84(%rsp), %eax
movl %eax, 88(%rsp)
movl 24(%rsp), %r14d
movl 28(%rsp), %r13d
movl 32(%rsp), %eax
movl 36(%rsp), %r15d
movl 40(%rsp), %ecx
movl 44(%rsp), %edx
movl 48(%rsp), %esi
movl 52(%rsp), %edi
movl 56(%rsp), %r8d
movl 60(%rsp), %r9d
movl 64(%rsp), %r10d
movl 68(%rsp), %r11d
movl 72(%rsp), %ebx
movl 76(%rsp), %ebp
movl 80(%rsp), %r12d
movl %r12d, 92(%rsp)
movl $10, %r12d
Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$9:
movl %r12d, 96(%rsp)
movl 92(%rsp), %r12d
addl %ecx, %r14d
addl %esi, %eax
xorl %r14d, %ebx
xorl %eax, %r12d
roll $16, %ebx
roll $16, %r12d
addl %ebx, %r8d
addl %r12d, %r10d
xorl %r8d, %ecx
xorl %r10d, %esi
roll $12, %ecx
roll $12, %esi
addl %ecx, %r14d
addl %esi, %eax
xorl %r14d, %ebx
xorl %eax, %r12d
roll $8, %ebx
roll $8, %r12d
addl %ebx, %r8d
addl %r12d, %r10d
xorl %r8d, %ecx
xorl %r10d, %esi
roll $7, %ecx
roll $7, %esi
movl %r12d, 100(%rsp)
movl 88(%rsp), %r12d
addl %edx, %r13d
addl %edi, %r15d
xorl %r13d, %ebp
xorl %r15d, %r12d
roll $16, %ebp
roll $16, %r12d
addl %ebp, %r9d
addl %r12d, %r11d
xorl %r9d, %edx
xorl %r11d, %edi
roll $12, %edx
roll $12, %edi
addl %edx, %r13d
addl %edi, %r15d
xorl %r13d, %ebp
xorl %r15d, %r12d
roll $8, %ebp
roll $8, %r12d
addl %ebp, %r9d
addl %r12d, %r11d
xorl %r9d, %edx
xorl %r11d, %edi
roll $7, %edx
roll $7, %edi
addl %esi, %r13d
addl %edx, %r14d
xorl %r13d, %ebx
xorl %r14d, %r12d
roll $16, %ebx
roll $16, %r12d
addl %ebx, %r11d
addl %r12d, %r10d
xorl %r11d, %esi
xorl %r10d, %edx
roll $12, %esi
roll $12, %edx
addl %esi, %r13d
addl %edx, %r14d
xorl %r13d, %ebx
xorl %r14d, %r12d
roll $8, %ebx
roll $8, %r12d
addl %ebx, %r11d
addl %r12d, %r10d
xorl %r11d, %esi
xorl %r10d, %edx
roll $7, %esi
roll $7, %edx
movl %r12d, 88(%rsp)
movl 100(%rsp), %r12d
addl %edi, %eax
addl %ecx, %r15d
xorl %eax, %ebp
xorl %r15d, %r12d
roll $16, %ebp
roll $16, %r12d
addl %ebp, %r8d
addl %r12d, %r9d
xorl %r8d, %edi
xorl %r9d, %ecx
roll $12, %edi
roll $12, %ecx
addl %edi, %eax
addl %ecx, %r15d
xorl %eax, %ebp
xorl %r15d, %r12d
roll $8, %ebp
roll $8, %r12d
addl %ebp, %r8d
addl %r12d, %r9d
xorl %r8d, %edi
xorl %r9d, %ecx
roll $7, %edi
roll $7, %ecx
movl %r12d, 92(%rsp)
movl 96(%rsp), %r12d
decl %r12d
cmpl $0, %r12d
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$9
movl 92(%rsp), %r12d
addl 28(%rsp), %r13d
addl 24(%rsp), %r14d
movl %r13d, %r13d
shlq $32, %r13
movl %r14d, %r14d
xorq %r14, %r13
movq 8(%rsp), %r14
xorq (%r14), %r13
addl 36(%rsp), %r15d
addl 32(%rsp), %eax
movl %r15d, %r15d
shlq $32, %r15
movl %eax, %eax
xorq %rax, %r15
xorq 8(%r14), %r15
movq (%rsp), %rax
movq %r13, (%rax)
addl 44(%rsp), %edx
addl 40(%rsp), %ecx
movl %edx, %edx
shlq $32, %rdx
movl %ecx, %ecx
xorq %rcx, %rdx
xorq 16(%r14), %rdx
movq %r15, 8(%rax)
addl 52(%rsp), %edi
addl 48(%rsp), %esi
movl %edi, %ecx
shlq $32, %rcx
movl %esi, %esi
xorq %rsi, %rcx
xorq 24(%r14), %rcx
movq %rdx, 16(%rax)
addl 60(%rsp), %r9d
addl 56(%rsp), %r8d
movl %r9d, %edx
shlq $32, %rdx
movl %r8d, %esi
xorq %rsi, %rdx
xorq 32(%r14), %rdx
movq %rcx, 24(%rax)
addl 68(%rsp), %r11d
addl 64(%rsp), %r10d
movl %r11d, %ecx
shlq $32, %rcx
movl %r10d, %esi
xorq %rsi, %rcx
xorq 40(%r14), %rcx
movq %rdx, 32(%rax)
addl 76(%rsp), %ebp
addl 72(%rsp), %ebx
movl %ebp, %edx
shlq $32, %rdx
movl %ebx, %esi
xorq %rsi, %rdx
xorq 48(%r14), %rdx
movq %rcx, 40(%rax)
movl 88(%rsp), %ecx
addl 84(%rsp), %ecx
addl 80(%rsp), %r12d
movl %ecx, %ecx
shlq $32, %rcx
movl %r12d, %esi
xorq %rsi, %rcx
xorq 56(%r14), %rcx
movq %rdx, 48(%rax)
movq %rcx, 56(%rax)
movq 16(%rsp), %rcx
addq $64, %rax
addq $64, %r14
addq $-64, %rcx
movq %rax, (%rsp)
movq %r14, 8(%rsp)
movq %rcx, 16(%rsp)
movl 72(%rsp), %eax
incl %eax
movl %eax, 72(%rsp)
Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$7:
movq 16(%rsp), %rax
cmpq $64, %rax
jnb Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$8
cmpq $0, %rax
jbe Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$1
movl 84(%rsp), %eax
movl %eax, 88(%rsp)
movl 24(%rsp), %eax
movl 28(%rsp), %ecx
movl 32(%rsp), %edx
movl 36(%rsp), %esi
movl 40(%rsp), %edi
movl 44(%rsp), %r8d
movl 48(%rsp), %r9d
movl 52(%rsp), %r10d
movl 56(%rsp), %r11d
movl 60(%rsp), %ebx
movl 64(%rsp), %ebp
movl 68(%rsp), %r12d
movl 72(%rsp), %r13d
movl 76(%rsp), %r14d
movl 80(%rsp), %r15d
movl %r15d, 92(%rsp)
movl $10, %r15d
Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$6:
movl %r15d, 96(%rsp)
movl 92(%rsp), %r15d
addl %edi, %eax
addl %r9d, %edx
xorl %eax, %r13d
xorl %edx, %r15d
roll $16, %r13d
roll $16, %r15d
addl %r13d, %r11d
addl %r15d, %ebp
xorl %r11d, %edi
xorl %ebp, %r9d
roll $12, %edi
roll $12, %r9d
addl %edi, %eax
addl %r9d, %edx
xorl %eax, %r13d
xorl %edx, %r15d
roll $8, %r13d
roll $8, %r15d
addl %r13d, %r11d
addl %r15d, %ebp
xorl %r11d, %edi
xorl %ebp, %r9d
roll $7, %edi
roll $7, %r9d
movl %r15d, 100(%rsp)
movl 88(%rsp), %r15d
addl %r8d, %ecx
addl %r10d, %esi
xorl %ecx, %r14d
xorl %esi, %r15d
roll $16, %r14d
roll $16, %r15d
addl %r14d, %ebx
addl %r15d, %r12d
xorl %ebx, %r8d
xorl %r12d, %r10d
roll $12, %r8d
roll $12, %r10d
addl %r8d, %ecx
addl %r10d, %esi
xorl %ecx, %r14d
xorl %esi, %r15d
roll $8, %r14d
roll $8, %r15d
addl %r14d, %ebx
addl %r15d, %r12d
xorl %ebx, %r8d
xorl %r12d, %r10d
roll $7, %r8d
roll $7, %r10d
addl %r9d, %ecx
addl %r8d, %eax
xorl %ecx, %r13d
xorl %eax, %r15d
roll $16, %r13d
roll $16, %r15d
addl %r13d, %r12d
addl %r15d, %ebp
xorl %r12d, %r9d
xorl %ebp, %r8d
roll $12, %r9d
roll $12, %r8d
addl %r9d, %ecx
addl %r8d, %eax
xorl %ecx, %r13d
xorl %eax, %r15d
roll $8, %r13d
roll $8, %r15d
addl %r13d, %r12d
addl %r15d, %ebp
xorl %r12d, %r9d
xorl %ebp, %r8d
roll $7, %r9d
roll $7, %r8d
movl %r15d, 88(%rsp)
movl 100(%rsp), %r15d
addl %r10d, %edx
addl %edi, %esi
xorl %edx, %r14d
xorl %esi, %r15d
roll $16, %r14d
roll $16, %r15d
addl %r14d, %r11d
addl %r15d, %ebx
xorl %r11d, %r10d
xorl %ebx, %edi
roll $12, %r10d
roll $12, %edi
addl %r10d, %edx
addl %edi, %esi
xorl %edx, %r14d
xorl %esi, %r15d
roll $8, %r14d
roll $8, %r15d
addl %r14d, %r11d
addl %r15d, %ebx
xorl %r11d, %r10d
xorl %ebx, %edi
roll $7, %r10d
roll $7, %edi
movl %r15d, 92(%rsp)
movl 96(%rsp), %r15d
decl %r15d
cmpl $0, %r15d
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$6
movl 92(%rsp), %r15d
addl 24(%rsp), %eax
addl 28(%rsp), %ecx
addl 32(%rsp), %edx
addl 36(%rsp), %esi
addl 40(%rsp), %edi
addl 44(%rsp), %r8d
addl 48(%rsp), %r9d
addl 52(%rsp), %r10d
addl 56(%rsp), %r11d
addl 60(%rsp), %ebx
addl 64(%rsp), %ebp
addl 68(%rsp), %r12d
addl 72(%rsp), %r13d
addl 76(%rsp), %r14d
addl 80(%rsp), %r15d
movl %r15d, 92(%rsp)
movl 88(%rsp), %r15d
addl 84(%rsp), %r15d
movl %r15d, 88(%rsp)
movl 92(%rsp), %r15d
movl %eax, 24(%rsp)
movl %ecx, 28(%rsp)
movl %edx, 32(%rsp)
movl %esi, 36(%rsp)
movl %edi, 40(%rsp)
movl %r8d, 44(%rsp)
movl %r9d, 48(%rsp)
movl %r10d, 52(%rsp)
movl %r11d, 56(%rsp)
movl %ebx, 60(%rsp)
movl %ebp, 64(%rsp)
movl %r12d, 68(%rsp)
movl %r13d, 72(%rsp)
movl %r14d, 76(%rsp)
movl %r15d, 80(%rsp)
movl 88(%rsp), %eax
movl %eax, 84(%rsp)
movq (%rsp), %rax
movq 8(%rsp), %rcx
movq 16(%rsp), %rdx
movq %rdx, %rsi
shrq $3, %rsi
movq $0, %rdi
jmp Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$4
Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$5:
movq (%rcx,%rdi,8), %r8
xorq 24(%rsp,%rdi,8), %r8
movq %r8, (%rax,%rdi,8)
incq %rdi
Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$4:
cmpq %rsi, %rdi
jb Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$5
shlq $3, %rdi
jmp Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$2
Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$3:
movb (%rcx,%rdi), %sil
xorb 24(%rsp,%rdi), %sil
movb %sil, (%rax,%rdi)
incq %rdi
Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$2:
cmpq %rdx, %rdi
jb Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$3
Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$1:
xorq %rax, %rax
movq 104(%rsp), %rbx
movq 112(%rsp), %rbp
movq 120(%rsp), %r12
movq 128(%rsp), %r13
movq 136(%rsp), %r14
movq 144(%rsp), %r15
movq 152(%rsp), %rsp
ret
|
usenix-security-verdict/verdict
| 31,350
|
deps/libcrux/sys/libjade/jazz/sha3_224_ref.s
|
.att_syntax
.text
.p2align 5
.globl _jade_hash_sha3_224_amd64_ref
.globl jade_hash_sha3_224_amd64_ref
_jade_hash_sha3_224_amd64_ref:
jade_hash_sha3_224_amd64_ref:
movq %rsp, %rax
leaq -48(%rsp), %rsp
andq $-8, %rsp
movq %rax, 40(%rsp)
movq %rbx, (%rsp)
movq %rbp, 8(%rsp)
movq %r12, 16(%rsp)
movq %r13, 24(%rsp)
movq %r14, 32(%rsp)
movq $28, %rcx
movb $6, %r8b
movq $144, %rax
leaq -448(%rsp), %rsp
call L_keccak1600_ref$1
Ljade_hash_sha3_224_amd64_ref$1:
leaq 448(%rsp), %rsp
xorq %rax, %rax
movq (%rsp), %rbx
movq 8(%rsp), %rbp
movq 16(%rsp), %r12
movq 24(%rsp), %r13
movq 32(%rsp), %r14
movq 40(%rsp), %rsp
ret
L_keccak1600_ref$1:
movq %rdi, 8(%rsp)
movq %rcx, 16(%rsp)
movb %r8b, 448(%rsp)
xorq %rcx, %rcx
movq %rcx, 48(%rsp)
movq %rcx, 56(%rsp)
movq %rcx, 64(%rsp)
movq %rcx, 72(%rsp)
movq %rcx, 80(%rsp)
movq %rcx, 88(%rsp)
movq %rcx, 96(%rsp)
movq %rcx, 104(%rsp)
movq %rcx, 112(%rsp)
movq %rcx, 120(%rsp)
movq %rcx, 128(%rsp)
movq %rcx, 136(%rsp)
movq %rcx, 144(%rsp)
movq %rcx, 152(%rsp)
movq %rcx, 160(%rsp)
movq %rcx, 168(%rsp)
movq %rcx, 176(%rsp)
movq %rcx, 184(%rsp)
movq %rcx, 192(%rsp)
movq %rcx, 200(%rsp)
movq %rcx, 208(%rsp)
movq %rcx, 216(%rsp)
movq %rcx, 224(%rsp)
movq %rcx, 232(%rsp)
movq %rcx, 240(%rsp)
jmp L_keccak1600_ref$16
L_keccak1600_ref$17:
movq %rax, %rcx
shrq $3, %rcx
movq $0, %rdi
jmp L_keccak1600_ref$19
L_keccak1600_ref$20:
movq (%rsi,%rdi,8), %r8
xorq %r8, 48(%rsp,%rdi,8)
incq %rdi
L_keccak1600_ref$19:
cmpq %rcx, %rdi
jb L_keccak1600_ref$20
addq %rax, %rsi
subq %rax, %rdx
movq %rsi, 24(%rsp)
movq %rdx, 32(%rsp)
movq %rax, 40(%rsp)
leaq glob_data + 0(%rip), %rax
movq $0, %rcx
L_keccak1600_ref$18:
movq (%rax,%rcx,8), %r10
movq 48(%rsp), %r9
movq 56(%rsp), %r8
movq 64(%rsp), %r11
movq 72(%rsp), %rbx
movq 80(%rsp), %rbp
xorq 88(%rsp), %r9
xorq 96(%rsp), %r8
xorq 104(%rsp), %r11
xorq 112(%rsp), %rbx
xorq 120(%rsp), %rbp
xorq 128(%rsp), %r9
xorq 136(%rsp), %r8
xorq 144(%rsp), %r11
xorq 152(%rsp), %rbx
xorq 160(%rsp), %rbp
xorq 168(%rsp), %r9
xorq 176(%rsp), %r8
xorq 184(%rsp), %r11
xorq 192(%rsp), %rbx
xorq 200(%rsp), %rbp
xorq 208(%rsp), %r9
xorq 216(%rsp), %r8
xorq 224(%rsp), %r11
xorq 232(%rsp), %rbx
xorq 240(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 48(%rsp), %r11
xorq %rdx, %r11
movq 96(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 144(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 192(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 240(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 248(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 256(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 264(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 272(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 280(%rsp)
movq 72(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 120(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 128(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 176(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 224(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 288(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 296(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 304(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 312(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 320(%rsp)
movq 56(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 104(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 152(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 200(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 208(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 328(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 336(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 344(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 352(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 360(%rsp)
movq 80(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 88(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 136(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 184(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 232(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 368(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 376(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 384(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 392(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 400(%rsp)
movq 64(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 112(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 160(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 168(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 216(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 408(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 416(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 424(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 432(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 440(%rsp)
movq 8(%rax,%rcx,8), %r10
movq 248(%rsp), %r9
movq 256(%rsp), %r8
movq 264(%rsp), %r11
movq 272(%rsp), %rbx
movq 280(%rsp), %rbp
xorq 288(%rsp), %r9
xorq 296(%rsp), %r8
xorq 304(%rsp), %r11
xorq 312(%rsp), %rbx
xorq 320(%rsp), %rbp
xorq 328(%rsp), %r9
xorq 336(%rsp), %r8
xorq 344(%rsp), %r11
xorq 352(%rsp), %rbx
xorq 360(%rsp), %rbp
xorq 368(%rsp), %r9
xorq 376(%rsp), %r8
xorq 384(%rsp), %r11
xorq 392(%rsp), %rbx
xorq 400(%rsp), %rbp
xorq 408(%rsp), %r9
xorq 416(%rsp), %r8
xorq 424(%rsp), %r11
xorq 432(%rsp), %rbx
xorq 440(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 248(%rsp), %r11
xorq %rdx, %r11
movq 296(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 344(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 392(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 440(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 48(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 56(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 64(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 72(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 80(%rsp)
movq 272(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 320(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 328(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 376(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 424(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 88(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 96(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 104(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 112(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 120(%rsp)
movq 256(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 304(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 352(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 400(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 408(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 128(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 136(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 144(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 152(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 160(%rsp)
movq 280(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 288(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 336(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 384(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 432(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 168(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 176(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 184(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 192(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 200(%rsp)
movq 264(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 312(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 360(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 368(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 416(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 208(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 216(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 224(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 232(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 240(%rsp)
addq $2, %rcx
cmpq $23, %rcx
jb L_keccak1600_ref$18
movq 24(%rsp), %rsi
movq 32(%rsp), %rdx
movq 40(%rsp), %rax
L_keccak1600_ref$16:
cmpq %rax, %rdx
jnb L_keccak1600_ref$17
movb 448(%rsp), %cl
movq %rdx, %rdi
shrq $3, %rdi
movq $0, %r8
jmp L_keccak1600_ref$14
L_keccak1600_ref$15:
movq (%rsi,%r8,8), %r9
xorq %r9, 48(%rsp,%r8,8)
incq %r8
L_keccak1600_ref$14:
cmpq %rdi, %r8
jb L_keccak1600_ref$15
shlq $3, %r8
jmp L_keccak1600_ref$12
L_keccak1600_ref$13:
movb (%rsi,%r8), %dil
xorb %dil, 48(%rsp,%r8)
incq %r8
L_keccak1600_ref$12:
cmpq %rdx, %r8
jb L_keccak1600_ref$13
xorb %cl, 48(%rsp,%r8)
movq %rax, %rcx
addq $-1, %rcx
xorb $-128, 48(%rsp,%rcx)
movq 16(%rsp), %rdx
jmp L_keccak1600_ref$7
L_keccak1600_ref$8:
movq %rdx, 16(%rsp)
movq %rax, 40(%rsp)
leaq glob_data + 0(%rip), %rax
movq $0, %rcx
L_keccak1600_ref$11:
movq (%rax,%rcx,8), %r10
movq 48(%rsp), %r9
movq 56(%rsp), %r8
movq 64(%rsp), %r11
movq 72(%rsp), %rbx
movq 80(%rsp), %rbp
xorq 88(%rsp), %r9
xorq 96(%rsp), %r8
xorq 104(%rsp), %r11
xorq 112(%rsp), %rbx
xorq 120(%rsp), %rbp
xorq 128(%rsp), %r9
xorq 136(%rsp), %r8
xorq 144(%rsp), %r11
xorq 152(%rsp), %rbx
xorq 160(%rsp), %rbp
xorq 168(%rsp), %r9
xorq 176(%rsp), %r8
xorq 184(%rsp), %r11
xorq 192(%rsp), %rbx
xorq 200(%rsp), %rbp
xorq 208(%rsp), %r9
xorq 216(%rsp), %r8
xorq 224(%rsp), %r11
xorq 232(%rsp), %rbx
xorq 240(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 48(%rsp), %r11
xorq %rdx, %r11
movq 96(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 144(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 192(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 240(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 248(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 256(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 264(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 272(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 280(%rsp)
movq 72(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 120(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 128(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 176(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 224(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 288(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 296(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 304(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 312(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 320(%rsp)
movq 56(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 104(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 152(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 200(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 208(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 328(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 336(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 344(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 352(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 360(%rsp)
movq 80(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 88(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 136(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 184(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 232(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 368(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 376(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 384(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 392(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 400(%rsp)
movq 64(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 112(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 160(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 168(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 216(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 408(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 416(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 424(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 432(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 440(%rsp)
movq 8(%rax,%rcx,8), %r10
movq 248(%rsp), %r9
movq 256(%rsp), %r8
movq 264(%rsp), %r11
movq 272(%rsp), %rbx
movq 280(%rsp), %rbp
xorq 288(%rsp), %r9
xorq 296(%rsp), %r8
xorq 304(%rsp), %r11
xorq 312(%rsp), %rbx
xorq 320(%rsp), %rbp
xorq 328(%rsp), %r9
xorq 336(%rsp), %r8
xorq 344(%rsp), %r11
xorq 352(%rsp), %rbx
xorq 360(%rsp), %rbp
xorq 368(%rsp), %r9
xorq 376(%rsp), %r8
xorq 384(%rsp), %r11
xorq 392(%rsp), %rbx
xorq 400(%rsp), %rbp
xorq 408(%rsp), %r9
xorq 416(%rsp), %r8
xorq 424(%rsp), %r11
xorq 432(%rsp), %rbx
xorq 440(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 248(%rsp), %r11
xorq %rdx, %r11
movq 296(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 344(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 392(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 440(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 48(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 56(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 64(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 72(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 80(%rsp)
movq 272(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 320(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 328(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 376(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 424(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 88(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 96(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 104(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 112(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 120(%rsp)
movq 256(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 304(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 352(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 400(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 408(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 128(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 136(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 144(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 152(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 160(%rsp)
movq 280(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 288(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 336(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 384(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 432(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 168(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 176(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 184(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 192(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 200(%rsp)
movq 264(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 312(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 360(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 368(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 416(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 208(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 216(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 224(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 232(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 240(%rsp)
addq $2, %rcx
cmpq $23, %rcx
jb L_keccak1600_ref$11
movq 8(%rsp), %rcx
movq 16(%rsp), %rdx
movq 40(%rsp), %rax
movq %rax, %rsi
shrq $3, %rsi
movq $0, %rdi
jmp L_keccak1600_ref$9
L_keccak1600_ref$10:
movq 48(%rsp,%rdi,8), %r8
movq %r8, (%rcx,%rdi,8)
incq %rdi
L_keccak1600_ref$9:
cmpq %rsi, %rdi
jb L_keccak1600_ref$10
addq %rax, %rcx
subq %rax, %rdx
movq %rcx, 8(%rsp)
L_keccak1600_ref$7:
cmpq %rax, %rdx
jnbe L_keccak1600_ref$8
movq %rdx, 40(%rsp)
leaq glob_data + 0(%rip), %rax
movq $0, %rcx
L_keccak1600_ref$6:
movq (%rax,%rcx,8), %r10
movq 48(%rsp), %r9
movq 56(%rsp), %r8
movq 64(%rsp), %r11
movq 72(%rsp), %rbx
movq 80(%rsp), %rbp
xorq 88(%rsp), %r9
xorq 96(%rsp), %r8
xorq 104(%rsp), %r11
xorq 112(%rsp), %rbx
xorq 120(%rsp), %rbp
xorq 128(%rsp), %r9
xorq 136(%rsp), %r8
xorq 144(%rsp), %r11
xorq 152(%rsp), %rbx
xorq 160(%rsp), %rbp
xorq 168(%rsp), %r9
xorq 176(%rsp), %r8
xorq 184(%rsp), %r11
xorq 192(%rsp), %rbx
xorq 200(%rsp), %rbp
xorq 208(%rsp), %r9
xorq 216(%rsp), %r8
xorq 224(%rsp), %r11
xorq 232(%rsp), %rbx
xorq 240(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 48(%rsp), %r11
xorq %rdx, %r11
movq 96(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 144(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 192(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 240(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 248(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 256(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 264(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 272(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 280(%rsp)
movq 72(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 120(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 128(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 176(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 224(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 288(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 296(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 304(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 312(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 320(%rsp)
movq 56(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 104(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 152(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 200(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 208(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 328(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 336(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 344(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 352(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 360(%rsp)
movq 80(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 88(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 136(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 184(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 232(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 368(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 376(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 384(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 392(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 400(%rsp)
movq 64(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 112(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 160(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 168(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 216(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 408(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 416(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 424(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 432(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 440(%rsp)
movq 8(%rax,%rcx,8), %r10
movq 248(%rsp), %r9
movq 256(%rsp), %r8
movq 264(%rsp), %r11
movq 272(%rsp), %rbx
movq 280(%rsp), %rbp
xorq 288(%rsp), %r9
xorq 296(%rsp), %r8
xorq 304(%rsp), %r11
xorq 312(%rsp), %rbx
xorq 320(%rsp), %rbp
xorq 328(%rsp), %r9
xorq 336(%rsp), %r8
xorq 344(%rsp), %r11
xorq 352(%rsp), %rbx
xorq 360(%rsp), %rbp
xorq 368(%rsp), %r9
xorq 376(%rsp), %r8
xorq 384(%rsp), %r11
xorq 392(%rsp), %rbx
xorq 400(%rsp), %rbp
xorq 408(%rsp), %r9
xorq 416(%rsp), %r8
xorq 424(%rsp), %r11
xorq 432(%rsp), %rbx
xorq 440(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 248(%rsp), %r11
xorq %rdx, %r11
movq 296(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 344(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 392(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 440(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 48(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 56(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 64(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 72(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 80(%rsp)
movq 272(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 320(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 328(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 376(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 424(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 88(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 96(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 104(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 112(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 120(%rsp)
movq 256(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 304(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 352(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 400(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 408(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 128(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 136(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 144(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 152(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 160(%rsp)
movq 280(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 288(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 336(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 384(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 432(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 168(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 176(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 184(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 192(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 200(%rsp)
movq 264(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 312(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 360(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 368(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 416(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 208(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 216(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 224(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 232(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 240(%rsp)
addq $2, %rcx
cmpq $23, %rcx
jb L_keccak1600_ref$6
movq 8(%rsp), %rax
movq 40(%rsp), %rcx
movq %rcx, %rdx
shrq $3, %rdx
movq $0, %rsi
jmp L_keccak1600_ref$4
L_keccak1600_ref$5:
movq 48(%rsp,%rsi,8), %rdi
movq %rdi, (%rax,%rsi,8)
incq %rsi
L_keccak1600_ref$4:
cmpq %rdx, %rsi
jb L_keccak1600_ref$5
shlq $3, %rsi
jmp L_keccak1600_ref$2
L_keccak1600_ref$3:
movb 48(%rsp,%rsi), %dl
movb %dl, (%rax,%rsi)
incq %rsi
L_keccak1600_ref$2:
cmpq %rcx, %rsi
jb L_keccak1600_ref$3
ret
.data
.p2align 5
_glob_data:
glob_data:
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
|
usenix-security-verdict/verdict
| 678,286
|
deps/libcrux/sys/libjade/jazz/kyber_kyber768_avx2.s
|
.att_syntax
.text
.p2align 5
.globl _jade_kem_kyber_kyber768_amd64_avx2_dec
.globl jade_kem_kyber_kyber768_amd64_avx2_dec
.globl _jade_kem_kyber_kyber768_amd64_avx2_enc
.globl jade_kem_kyber_kyber768_amd64_avx2_enc
.globl _jade_kem_kyber_kyber768_amd64_avx2_enc_derand
.globl jade_kem_kyber_kyber768_amd64_avx2_enc_derand
.globl _jade_kem_kyber_kyber768_amd64_avx2_keypair
.globl jade_kem_kyber_kyber768_amd64_avx2_keypair
.globl _jade_kem_kyber_kyber768_amd64_avx2_keypair_derand
.globl jade_kem_kyber_kyber768_amd64_avx2_keypair_derand
_jade_kem_kyber_kyber768_amd64_avx2_dec:
jade_kem_kyber_kyber768_amd64_avx2_dec:
movq %rsp, %rax
leaq -17200(%rsp), %rsp
andq $-32, %rsp
movq %rax, 17192(%rsp)
movq %rbx, 17160(%rsp)
movq %rbp, 17168(%rsp)
movq %r12, 17176(%rsp)
movq %r13, 17184(%rsp)
movq %rdi, 17120(%rsp)
movq %rsi, 17128(%rsp)
leaq 32(%rsp), %rax
vpbroadcastd glob_data + 6404(%rip), %ymm0
vmovdqu glob_data + 64(%rip), %ymm1
vpbroadcastq glob_data + 6192(%rip), %ymm2
vpbroadcastd glob_data + 6400(%rip), %ymm3
vmovdqu (%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6368(%rsp)
vmovdqu 20(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6400(%rsp)
vmovdqu 40(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6432(%rsp)
vmovdqu 60(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6464(%rsp)
vmovdqu 80(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6496(%rsp)
vmovdqu 100(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6528(%rsp)
vmovdqu 120(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6560(%rsp)
vmovdqu 140(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6592(%rsp)
vmovdqu 160(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6624(%rsp)
vmovdqu 180(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6656(%rsp)
vmovdqu 200(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6688(%rsp)
vmovdqu 220(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6720(%rsp)
vmovdqu 240(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6752(%rsp)
vmovdqu 260(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6784(%rsp)
vmovdqu 280(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6816(%rsp)
vmovdqu 300(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6848(%rsp)
vmovdqu 320(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6880(%rsp)
vmovdqu 340(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6912(%rsp)
vmovdqu 360(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6944(%rsp)
vmovdqu 380(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6976(%rsp)
vmovdqu 400(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7008(%rsp)
vmovdqu 420(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7040(%rsp)
vmovdqu 440(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7072(%rsp)
vmovdqu 460(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7104(%rsp)
vmovdqu 480(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7136(%rsp)
vmovdqu 500(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7168(%rsp)
vmovdqu 520(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7200(%rsp)
vmovdqu 540(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7232(%rsp)
vmovdqu 560(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7264(%rsp)
vmovdqu 580(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7296(%rsp)
vmovdqu 600(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7328(%rsp)
vmovdqu 620(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7360(%rsp)
vmovdqu 640(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7392(%rsp)
vmovdqu 660(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7424(%rsp)
vmovdqu 680(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7456(%rsp)
vmovdqu 700(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7488(%rsp)
vmovdqu 720(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7520(%rsp)
vmovdqu 740(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7552(%rsp)
vmovdqu 760(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7584(%rsp)
vmovdqu 780(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7616(%rsp)
vmovdqu 800(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7648(%rsp)
vmovdqu 820(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7680(%rsp)
vmovdqu 840(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7712(%rsp)
vmovdqu 860(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7744(%rsp)
vmovdqu 880(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7776(%rsp)
vmovdqu 900(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7808(%rsp)
vmovdqu 920(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7840(%rsp)
vmovdqu 940(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm1
vpsllvd %ymm2, %ymm1, %ymm1
vpsrlw $1, %ymm1, %ymm1
vpand %ymm3, %ymm1, %ymm1
vpmulhrsw %ymm0, %ymm1, %ymm0
vmovdqu %ymm0, 7872(%rsp)
addq $960, %rsi
leaq 2432(%rsp), %rcx
leaq -16(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$145(%rip), %r8
jmp L_poly_decompress$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$145:
leaq 16(%rsp), %rsp
movq %rdx, %rdi
leaq 7904(%rsp), %r8
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$144(%rip), %r10
jmp L_poly_frombytes$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$144:
addq $384, %rdi
leaq 8416(%rsp), %r8
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$143(%rip), %r10
jmp L_poly_frombytes$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$143:
addq $384, %rdi
leaq 8928(%rsp), %r8
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$142(%rip), %r10
jmp L_poly_frombytes$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$142:
leaq 6368(%rsp), %rcx
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$141(%rip), %rdi
jmp L_poly_ntt$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$141:
leaq 6880(%rsp), %rcx
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$140(%rip), %rdi
jmp L_poly_ntt$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$140:
leaq 7392(%rsp), %rcx
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$139(%rip), %rdi
jmp L_poly_ntt$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$139:
leaq 2944(%rsp), %rcx
leaq 7904(%rsp), %rsi
leaq 6368(%rsp), %rdi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$138(%rip), %r8
jmp L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$138:
leaq 3456(%rsp), %rcx
leaq 8416(%rsp), %rsi
leaq 6880(%rsp), %rdi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$137(%rip), %r8
jmp L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$137:
leaq 2944(%rsp), %rcx
leaq 3456(%rsp), %rsi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$136(%rip), %rdi
jmp L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$136:
leaq 3456(%rsp), %rcx
leaq 8928(%rsp), %rsi
leaq 7392(%rsp), %rdi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$135(%rip), %r8
jmp L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$135:
leaq 2944(%rsp), %rcx
leaq 3456(%rsp), %rsi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$134(%rip), %rdi
jmp L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$134:
leaq 2944(%rsp), %rcx
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$133(%rip), %rdi
jmp L_poly_invntt$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$133:
leaq 3456(%rsp), %rcx
leaq 2432(%rsp), %rsi
leaq 2944(%rsp), %rdi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$132(%rip), %r8
jmp L_poly_sub$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$132:
leaq 3456(%rsp), %rcx
vmovdqu glob_data + 448(%rip), %ymm0
vmovdqu glob_data + 384(%rip), %ymm1
vmovdqu (%rcx), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, (%rcx)
vmovdqu 32(%rcx), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 32(%rcx)
vmovdqu 64(%rcx), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 64(%rcx)
vmovdqu 96(%rcx), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 96(%rcx)
vmovdqu 128(%rcx), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 128(%rcx)
vmovdqu 160(%rcx), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 160(%rcx)
vmovdqu 192(%rcx), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 192(%rcx)
vmovdqu 224(%rcx), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 224(%rcx)
vmovdqu 256(%rcx), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 256(%rcx)
vmovdqu 288(%rcx), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 288(%rcx)
vmovdqu 320(%rcx), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 320(%rcx)
vmovdqu 352(%rcx), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 352(%rcx)
vmovdqu 384(%rcx), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 384(%rcx)
vmovdqu 416(%rcx), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 416(%rcx)
vmovdqu 448(%rcx), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 448(%rcx)
vmovdqu 480(%rcx), %ymm2
vpmulhw %ymm1, %ymm2, %ymm1
vpsraw $10, %ymm1, %ymm1
vpmullw %ymm0, %ymm1, %ymm0
vpsubw %ymm0, %ymm2, %ymm0
vmovdqu %ymm0, 480(%rcx)
leaq 3456(%rsp), %rcx
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$131(%rip), %rdi
jmp L_poly_tomsg_1$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$131:
leaq 32(%rdx), %rax
addq $2304, %rax
movq (%rax), %rcx
movq %rcx, 64(%rsp)
movq 8(%rax), %rcx
movq %rcx, 72(%rsp)
movq 16(%rax), %rcx
movq %rcx, 80(%rsp)
movq 24(%rax), %rax
movq %rax, 88(%rsp)
movq %rdx, 17136(%rsp)
leaq 96(%rsp), %rax
leaq 32(%rsp), %rcx
leaq -256(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$130(%rip), %rdx
movq %rdx, 224(%rsp)
jmp L_sha3_512_64$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$130:
leaq 256(%rsp), %rsp
movq 17136(%rsp), %rcx
addq $1152, %rcx
leaq 5280(%rsp), %rdx
leaq 32(%rsp), %rax
leaq 128(%rsp), %rsi
movq %rdx, 17144(%rsp)
movq %rcx, %rdi
leaq 6368(%rsp), %r8
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$129(%rip), %r10
jmp L_poly_frombytes$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$129:
addq $384, %rdi
leaq 6880(%rsp), %r8
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$128(%rip), %r10
jmp L_poly_frombytes$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$128:
addq $384, %rdi
leaq 7392(%rsp), %r8
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$127(%rip), %r10
jmp L_poly_frombytes$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$127:
movq $0, %rdx
addq $1152, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$125
Ljade_kem_kyber_kyber768_amd64_avx2_dec$126:
movq (%rcx), %rdi
movq %rdi, (%rsp,%rdx,8)
addq $8, %rcx
incq %rdx
Ljade_kem_kyber_kyber768_amd64_avx2_dec$125:
cmpq $4, %rdx
jb Ljade_kem_kyber_kyber768_amd64_avx2_dec$126
leaq 3456(%rsp), %rcx
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$124(%rip), %r8
jmp L_poly_frommsg_1$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$124:
movq %rsi, 17152(%rsp)
vmovdqu (%rsp), %ymm0
vmovdqu %ymm0, 384(%rsp)
vmovdqu %ymm0, 896(%rsp)
vmovdqu %ymm0, 1408(%rsp)
vmovdqu %ymm0, 1920(%rsp)
vmovdqu %ymm0, (%rsp)
movb $0, 416(%rsp)
movb $0, 417(%rsp)
movb $0, 928(%rsp)
movb $1, 929(%rsp)
movb $0, 1440(%rsp)
movb $2, 1441(%rsp)
movb $1, 1952(%rsp)
movb $0, 1953(%rsp)
leaq 4480(%rsp), %rax
leaq 384(%rsp), %rcx
leaq 896(%rsp), %rdx
leaq 1408(%rsp), %rsi
leaq 1920(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$123(%rip), %r8
movq %r8, (%rsp)
jmp L_shake128_absorb4x_34$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$123:
leaq 8(%rsp), %rsp
leaq 4480(%rsp), %rax
leaq 384(%rsp), %rdi
leaq 896(%rsp), %r8
leaq 1408(%rsp), %r9
leaq 1920(%rsp), %r10
movq %rdi, %r11
movq %r8, %rbx
movq %r9, %rbp
movq %r10, %r12
leaq -832(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$122(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$122:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r11)
vmovhpd %xmm1, (%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbp)
vmovhpd %xmm0, (%r12)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r11)
vmovhpd %xmm1, 8(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbp)
vmovhpd %xmm0, 8(%r12)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r11)
vmovhpd %xmm1, 16(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbp)
vmovhpd %xmm0, 16(%r12)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r11)
vmovhpd %xmm1, 24(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbp)
vmovhpd %xmm0, 24(%r12)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r11)
vmovhpd %xmm1, 32(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbp)
vmovhpd %xmm0, 32(%r12)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r11)
vmovhpd %xmm1, 40(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbp)
vmovhpd %xmm0, 40(%r12)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r11)
vmovhpd %xmm1, 48(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbp)
vmovhpd %xmm0, 48(%r12)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r11)
vmovhpd %xmm1, 56(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbp)
vmovhpd %xmm0, 56(%r12)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r11)
vmovhpd %xmm1, 64(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbp)
vmovhpd %xmm0, 64(%r12)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r11)
vmovhpd %xmm1, 72(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbp)
vmovhpd %xmm0, 72(%r12)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r11)
vmovhpd %xmm1, 80(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbp)
vmovhpd %xmm0, 80(%r12)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r11)
vmovhpd %xmm1, 88(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbp)
vmovhpd %xmm0, 88(%r12)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r11)
vmovhpd %xmm1, 96(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbp)
vmovhpd %xmm0, 96(%r12)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r11)
vmovhpd %xmm1, 104(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbp)
vmovhpd %xmm0, 104(%r12)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r11)
vmovhpd %xmm1, 112(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbp)
vmovhpd %xmm0, 112(%r12)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r11)
vmovhpd %xmm1, 120(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbp)
vmovhpd %xmm0, 120(%r12)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r11)
vmovhpd %xmm1, 128(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbp)
vmovhpd %xmm0, 128(%r12)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%r11)
vmovhpd %xmm1, 136(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%rbp)
vmovhpd %xmm0, 136(%r12)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%r11)
vmovhpd %xmm1, 144(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%rbp)
vmovhpd %xmm0, 144(%r12)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%r11)
vmovhpd %xmm1, 152(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%rbp)
vmovhpd %xmm0, 152(%r12)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%r11)
vmovhpd %xmm1, 160(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%rbp)
vmovhpd %xmm0, 160(%r12)
leaq 168(%rdi), %r11
leaq 168(%r8), %rbx
leaq 168(%r9), %rbp
leaq 168(%r10), %r12
leaq -832(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$121(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$121:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r11)
vmovhpd %xmm1, (%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbp)
vmovhpd %xmm0, (%r12)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r11)
vmovhpd %xmm1, 8(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbp)
vmovhpd %xmm0, 8(%r12)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r11)
vmovhpd %xmm1, 16(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbp)
vmovhpd %xmm0, 16(%r12)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r11)
vmovhpd %xmm1, 24(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbp)
vmovhpd %xmm0, 24(%r12)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r11)
vmovhpd %xmm1, 32(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbp)
vmovhpd %xmm0, 32(%r12)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r11)
vmovhpd %xmm1, 40(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbp)
vmovhpd %xmm0, 40(%r12)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r11)
vmovhpd %xmm1, 48(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbp)
vmovhpd %xmm0, 48(%r12)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r11)
vmovhpd %xmm1, 56(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbp)
vmovhpd %xmm0, 56(%r12)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r11)
vmovhpd %xmm1, 64(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbp)
vmovhpd %xmm0, 64(%r12)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r11)
vmovhpd %xmm1, 72(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbp)
vmovhpd %xmm0, 72(%r12)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r11)
vmovhpd %xmm1, 80(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbp)
vmovhpd %xmm0, 80(%r12)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r11)
vmovhpd %xmm1, 88(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbp)
vmovhpd %xmm0, 88(%r12)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r11)
vmovhpd %xmm1, 96(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbp)
vmovhpd %xmm0, 96(%r12)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r11)
vmovhpd %xmm1, 104(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbp)
vmovhpd %xmm0, 104(%r12)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r11)
vmovhpd %xmm1, 112(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbp)
vmovhpd %xmm0, 112(%r12)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r11)
vmovhpd %xmm1, 120(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbp)
vmovhpd %xmm0, 120(%r12)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r11)
vmovhpd %xmm1, 128(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbp)
vmovhpd %xmm0, 128(%r12)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%r11)
vmovhpd %xmm1, 136(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%rbp)
vmovhpd %xmm0, 136(%r12)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%r11)
vmovhpd %xmm1, 144(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%rbp)
vmovhpd %xmm0, 144(%r12)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%r11)
vmovhpd %xmm1, 152(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%rbp)
vmovhpd %xmm0, 152(%r12)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%r11)
vmovhpd %xmm1, 160(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%rbp)
vmovhpd %xmm0, 160(%r12)
leaq 336(%rdi), %rdi
leaq 336(%r8), %r8
leaq 336(%r9), %r9
leaq 336(%r10), %r10
leaq -832(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$120(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$120:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%rdi)
vmovhpd %xmm1, (%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%r9)
vmovhpd %xmm0, (%r10)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%rdi)
vmovhpd %xmm1, 8(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%r9)
vmovhpd %xmm0, 8(%r10)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%rdi)
vmovhpd %xmm1, 16(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%r9)
vmovhpd %xmm0, 16(%r10)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%rdi)
vmovhpd %xmm1, 24(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%r9)
vmovhpd %xmm0, 24(%r10)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%rdi)
vmovhpd %xmm1, 32(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%r9)
vmovhpd %xmm0, 32(%r10)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%rdi)
vmovhpd %xmm1, 40(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%r9)
vmovhpd %xmm0, 40(%r10)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%rdi)
vmovhpd %xmm1, 48(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%r9)
vmovhpd %xmm0, 48(%r10)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%rdi)
vmovhpd %xmm1, 56(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%r9)
vmovhpd %xmm0, 56(%r10)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%rdi)
vmovhpd %xmm1, 64(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%r9)
vmovhpd %xmm0, 64(%r10)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%rdi)
vmovhpd %xmm1, 72(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%r9)
vmovhpd %xmm0, 72(%r10)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%rdi)
vmovhpd %xmm1, 80(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%r9)
vmovhpd %xmm0, 80(%r10)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%rdi)
vmovhpd %xmm1, 88(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%r9)
vmovhpd %xmm0, 88(%r10)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%rdi)
vmovhpd %xmm1, 96(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%r9)
vmovhpd %xmm0, 96(%r10)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%rdi)
vmovhpd %xmm1, 104(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%r9)
vmovhpd %xmm0, 104(%r10)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%rdi)
vmovhpd %xmm1, 112(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%r9)
vmovhpd %xmm0, 112(%r10)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%rdi)
vmovhpd %xmm1, 120(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%r9)
vmovhpd %xmm0, 120(%r10)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%rdi)
vmovhpd %xmm1, 128(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%r9)
vmovhpd %xmm0, 128(%r10)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%rdi)
vmovhpd %xmm1, 136(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%r9)
vmovhpd %xmm0, 136(%r10)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%rdi)
vmovhpd %xmm1, 144(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%r9)
vmovhpd %xmm0, 144(%r10)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%rdi)
vmovhpd %xmm1, 152(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%r9)
vmovhpd %xmm0, 152(%r10)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%rdi)
vmovhpd %xmm1, 160(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%r9)
vmovhpd %xmm0, 160(%r10)
leaq 12512(%rsp), %rbx
leaq 384(%rsp), %rbp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$119(%rip), %r11
jmp L_rej_uniform_avx$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$119:
movq %r13, %r9
leaq 13024(%rsp), %rbx
leaq 896(%rsp), %rbp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$118(%rip), %r11
jmp L_rej_uniform_avx$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$118:
movq %r13, %rdi
leaq 13536(%rsp), %rbx
leaq 1408(%rsp), %rbp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$117(%rip), %r11
jmp L_rej_uniform_avx$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$117:
movq %r13, %r8
leaq 14048(%rsp), %rbx
leaq 1920(%rsp), %rbp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$116(%rip), %r11
jmp L_rej_uniform_avx$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$116:
cmpq $255, %r9
setbe %al
cmpq $255, %rdi
setbe %cl
orb %cl, %al
cmpq $255, %r8
setbe %cl
cmpq $255, %r13
setbe %dl
orb %dl, %cl
orb %al, %cl
jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$93
Ljade_kem_kyber_kyber768_amd64_avx2_dec$94:
leaq 4480(%rsp), %rax
leaq 384(%rsp), %r10
leaq 896(%rsp), %r11
leaq 1408(%rsp), %rbx
leaq 1920(%rsp), %rbp
leaq -832(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$115(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$115:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r10)
vmovhpd %xmm1, (%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbx)
vmovhpd %xmm0, (%rbp)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r10)
vmovhpd %xmm1, 8(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbx)
vmovhpd %xmm0, 8(%rbp)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r10)
vmovhpd %xmm1, 16(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbx)
vmovhpd %xmm0, 16(%rbp)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r10)
vmovhpd %xmm1, 24(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbx)
vmovhpd %xmm0, 24(%rbp)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r10)
vmovhpd %xmm1, 32(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbx)
vmovhpd %xmm0, 32(%rbp)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r10)
vmovhpd %xmm1, 40(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbx)
vmovhpd %xmm0, 40(%rbp)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r10)
vmovhpd %xmm1, 48(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbx)
vmovhpd %xmm0, 48(%rbp)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r10)
vmovhpd %xmm1, 56(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbx)
vmovhpd %xmm0, 56(%rbp)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r10)
vmovhpd %xmm1, 64(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbx)
vmovhpd %xmm0, 64(%rbp)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r10)
vmovhpd %xmm1, 72(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbx)
vmovhpd %xmm0, 72(%rbp)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r10)
vmovhpd %xmm1, 80(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbx)
vmovhpd %xmm0, 80(%rbp)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r10)
vmovhpd %xmm1, 88(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbx)
vmovhpd %xmm0, 88(%rbp)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r10)
vmovhpd %xmm1, 96(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbx)
vmovhpd %xmm0, 96(%rbp)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r10)
vmovhpd %xmm1, 104(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbx)
vmovhpd %xmm0, 104(%rbp)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r10)
vmovhpd %xmm1, 112(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbx)
vmovhpd %xmm0, 112(%rbp)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r10)
vmovhpd %xmm1, 120(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbx)
vmovhpd %xmm0, 120(%rbp)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r10)
vmovhpd %xmm1, 128(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbx)
vmovhpd %xmm0, 128(%rbp)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%r10)
vmovhpd %xmm1, 136(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%rbx)
vmovhpd %xmm0, 136(%rbp)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%r10)
vmovhpd %xmm1, 144(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%rbx)
vmovhpd %xmm0, 144(%rbp)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%r10)
vmovhpd %xmm1, 152(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%rbx)
vmovhpd %xmm0, 152(%rbp)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%r10)
vmovhpd %xmm1, 160(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%rbx)
vmovhpd %xmm0, 160(%rbp)
leaq 12512(%rsp), %rax
leaq 384(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r9
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$110
Ljade_kem_kyber_kyber768_amd64_avx2_dec$111:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$114
movw %si, (%rax,%r9,2)
incq %r9
Ljade_kem_kyber_kyber768_amd64_avx2_dec$114:
cmpq $256, %r9
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$112
cmpw $3329, %r11w
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$112
movw %r11w, (%rax,%r9,2)
incq %r9
Ljade_kem_kyber_kyber768_amd64_avx2_dec$113:
Ljade_kem_kyber_kyber768_amd64_avx2_dec$112:
cmpq $255, %r9
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
Ljade_kem_kyber_kyber768_amd64_avx2_dec$110:
jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$111
leaq 13024(%rsp), %rax
leaq 896(%rsp), %rcx
movq $0, %rdx
cmpq $255, %rdi
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$105
Ljade_kem_kyber_kyber768_amd64_avx2_dec$106:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$109
movw %si, (%rax,%rdi,2)
incq %rdi
Ljade_kem_kyber_kyber768_amd64_avx2_dec$109:
cmpq $256, %rdi
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$107
cmpw $3329, %r11w
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$107
movw %r11w, (%rax,%rdi,2)
incq %rdi
Ljade_kem_kyber_kyber768_amd64_avx2_dec$108:
Ljade_kem_kyber_kyber768_amd64_avx2_dec$107:
cmpq $255, %rdi
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
Ljade_kem_kyber_kyber768_amd64_avx2_dec$105:
jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$106
leaq 13536(%rsp), %rax
leaq 1408(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r8
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$100
Ljade_kem_kyber_kyber768_amd64_avx2_dec$101:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$104
movw %si, (%rax,%r8,2)
incq %r8
Ljade_kem_kyber_kyber768_amd64_avx2_dec$104:
cmpq $256, %r8
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$102
cmpw $3329, %r11w
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$102
movw %r11w, (%rax,%r8,2)
incq %r8
Ljade_kem_kyber_kyber768_amd64_avx2_dec$103:
Ljade_kem_kyber_kyber768_amd64_avx2_dec$102:
cmpq $255, %r8
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
Ljade_kem_kyber_kyber768_amd64_avx2_dec$100:
jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$101
leaq 14048(%rsp), %rax
leaq 1920(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r13
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$95
Ljade_kem_kyber_kyber768_amd64_avx2_dec$96:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$99
movw %si, (%rax,%r13,2)
incq %r13
Ljade_kem_kyber_kyber768_amd64_avx2_dec$99:
cmpq $256, %r13
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$97
cmpw $3329, %r11w
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$97
movw %r11w, (%rax,%r13,2)
incq %r13
Ljade_kem_kyber_kyber768_amd64_avx2_dec$98:
Ljade_kem_kyber_kyber768_amd64_avx2_dec$97:
cmpq $255, %r13
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
Ljade_kem_kyber_kyber768_amd64_avx2_dec$95:
jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$96
cmpq $255, %r9
setbe %al
cmpq $255, %rdi
setbe %cl
orb %cl, %al
cmpq $255, %r8
setbe %cl
cmpq $255, %r13
setbe %dl
orb %dl, %cl
orb %al, %cl
Ljade_kem_kyber_kyber768_amd64_avx2_dec$93:
jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$94
vmovdqu (%rsp), %ymm0
vmovdqu %ymm0, 384(%rsp)
vmovdqu %ymm0, 896(%rsp)
vmovdqu %ymm0, 1408(%rsp)
vmovdqu %ymm0, 1920(%rsp)
vmovdqu %ymm0, (%rsp)
movb $1, 416(%rsp)
movb $1, 417(%rsp)
movb $1, 928(%rsp)
movb $2, 929(%rsp)
movb $2, 1440(%rsp)
movb $0, 1441(%rsp)
movb $2, 1952(%rsp)
movb $1, 1953(%rsp)
leaq 4480(%rsp), %rax
leaq 384(%rsp), %rcx
leaq 896(%rsp), %rdx
leaq 1408(%rsp), %rsi
leaq 1920(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$92(%rip), %r8
movq %r8, (%rsp)
jmp L_shake128_absorb4x_34$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$92:
leaq 8(%rsp), %rsp
leaq 4480(%rsp), %rax
leaq 384(%rsp), %rdi
leaq 896(%rsp), %r8
leaq 1408(%rsp), %r9
leaq 1920(%rsp), %r10
movq %rdi, %r11
movq %r8, %rbx
movq %r9, %rbp
movq %r10, %r12
leaq -832(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$91(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$91:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r11)
vmovhpd %xmm1, (%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbp)
vmovhpd %xmm0, (%r12)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r11)
vmovhpd %xmm1, 8(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbp)
vmovhpd %xmm0, 8(%r12)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r11)
vmovhpd %xmm1, 16(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbp)
vmovhpd %xmm0, 16(%r12)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r11)
vmovhpd %xmm1, 24(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbp)
vmovhpd %xmm0, 24(%r12)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r11)
vmovhpd %xmm1, 32(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbp)
vmovhpd %xmm0, 32(%r12)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r11)
vmovhpd %xmm1, 40(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbp)
vmovhpd %xmm0, 40(%r12)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r11)
vmovhpd %xmm1, 48(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbp)
vmovhpd %xmm0, 48(%r12)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r11)
vmovhpd %xmm1, 56(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbp)
vmovhpd %xmm0, 56(%r12)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r11)
vmovhpd %xmm1, 64(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbp)
vmovhpd %xmm0, 64(%r12)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r11)
vmovhpd %xmm1, 72(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbp)
vmovhpd %xmm0, 72(%r12)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r11)
vmovhpd %xmm1, 80(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbp)
vmovhpd %xmm0, 80(%r12)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r11)
vmovhpd %xmm1, 88(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbp)
vmovhpd %xmm0, 88(%r12)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r11)
vmovhpd %xmm1, 96(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbp)
vmovhpd %xmm0, 96(%r12)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r11)
vmovhpd %xmm1, 104(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbp)
vmovhpd %xmm0, 104(%r12)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r11)
vmovhpd %xmm1, 112(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbp)
vmovhpd %xmm0, 112(%r12)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r11)
vmovhpd %xmm1, 120(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbp)
vmovhpd %xmm0, 120(%r12)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r11)
vmovhpd %xmm1, 128(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbp)
vmovhpd %xmm0, 128(%r12)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%r11)
vmovhpd %xmm1, 136(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%rbp)
vmovhpd %xmm0, 136(%r12)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%r11)
vmovhpd %xmm1, 144(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%rbp)
vmovhpd %xmm0, 144(%r12)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%r11)
vmovhpd %xmm1, 152(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%rbp)
vmovhpd %xmm0, 152(%r12)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%r11)
vmovhpd %xmm1, 160(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%rbp)
vmovhpd %xmm0, 160(%r12)
leaq 168(%rdi), %r11
leaq 168(%r8), %rbx
leaq 168(%r9), %rbp
leaq 168(%r10), %r12
leaq -832(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$90(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$90:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r11)
vmovhpd %xmm1, (%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbp)
vmovhpd %xmm0, (%r12)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r11)
vmovhpd %xmm1, 8(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbp)
vmovhpd %xmm0, 8(%r12)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r11)
vmovhpd %xmm1, 16(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbp)
vmovhpd %xmm0, 16(%r12)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r11)
vmovhpd %xmm1, 24(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbp)
vmovhpd %xmm0, 24(%r12)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r11)
vmovhpd %xmm1, 32(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbp)
vmovhpd %xmm0, 32(%r12)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r11)
vmovhpd %xmm1, 40(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbp)
vmovhpd %xmm0, 40(%r12)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r11)
vmovhpd %xmm1, 48(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbp)
vmovhpd %xmm0, 48(%r12)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r11)
vmovhpd %xmm1, 56(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbp)
vmovhpd %xmm0, 56(%r12)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r11)
vmovhpd %xmm1, 64(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbp)
vmovhpd %xmm0, 64(%r12)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r11)
vmovhpd %xmm1, 72(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbp)
vmovhpd %xmm0, 72(%r12)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r11)
vmovhpd %xmm1, 80(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbp)
vmovhpd %xmm0, 80(%r12)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r11)
vmovhpd %xmm1, 88(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbp)
vmovhpd %xmm0, 88(%r12)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r11)
vmovhpd %xmm1, 96(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbp)
vmovhpd %xmm0, 96(%r12)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r11)
vmovhpd %xmm1, 104(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbp)
vmovhpd %xmm0, 104(%r12)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r11)
vmovhpd %xmm1, 112(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbp)
vmovhpd %xmm0, 112(%r12)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r11)
vmovhpd %xmm1, 120(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbp)
vmovhpd %xmm0, 120(%r12)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r11)
vmovhpd %xmm1, 128(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbp)
vmovhpd %xmm0, 128(%r12)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%r11)
vmovhpd %xmm1, 136(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%rbp)
vmovhpd %xmm0, 136(%r12)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%r11)
vmovhpd %xmm1, 144(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%rbp)
vmovhpd %xmm0, 144(%r12)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%r11)
vmovhpd %xmm1, 152(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%rbp)
vmovhpd %xmm0, 152(%r12)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%r11)
vmovhpd %xmm1, 160(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%rbp)
vmovhpd %xmm0, 160(%r12)
leaq 336(%rdi), %rdi
leaq 336(%r8), %r8
leaq 336(%r9), %r9
leaq 336(%r10), %r10
leaq -832(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$89(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$89:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%rdi)
vmovhpd %xmm1, (%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%r9)
vmovhpd %xmm0, (%r10)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%rdi)
vmovhpd %xmm1, 8(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%r9)
vmovhpd %xmm0, 8(%r10)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%rdi)
vmovhpd %xmm1, 16(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%r9)
vmovhpd %xmm0, 16(%r10)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%rdi)
vmovhpd %xmm1, 24(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%r9)
vmovhpd %xmm0, 24(%r10)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%rdi)
vmovhpd %xmm1, 32(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%r9)
vmovhpd %xmm0, 32(%r10)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%rdi)
vmovhpd %xmm1, 40(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%r9)
vmovhpd %xmm0, 40(%r10)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%rdi)
vmovhpd %xmm1, 48(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%r9)
vmovhpd %xmm0, 48(%r10)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%rdi)
vmovhpd %xmm1, 56(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%r9)
vmovhpd %xmm0, 56(%r10)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%rdi)
vmovhpd %xmm1, 64(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%r9)
vmovhpd %xmm0, 64(%r10)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%rdi)
vmovhpd %xmm1, 72(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%r9)
vmovhpd %xmm0, 72(%r10)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%rdi)
vmovhpd %xmm1, 80(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%r9)
vmovhpd %xmm0, 80(%r10)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%rdi)
vmovhpd %xmm1, 88(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%r9)
vmovhpd %xmm0, 88(%r10)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%rdi)
vmovhpd %xmm1, 96(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%r9)
vmovhpd %xmm0, 96(%r10)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%rdi)
vmovhpd %xmm1, 104(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%r9)
vmovhpd %xmm0, 104(%r10)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%rdi)
vmovhpd %xmm1, 112(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%r9)
vmovhpd %xmm0, 112(%r10)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%rdi)
vmovhpd %xmm1, 120(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%r9)
vmovhpd %xmm0, 120(%r10)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%rdi)
vmovhpd %xmm1, 128(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%r9)
vmovhpd %xmm0, 128(%r10)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%rdi)
vmovhpd %xmm1, 136(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%r9)
vmovhpd %xmm0, 136(%r10)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%rdi)
vmovhpd %xmm1, 144(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%r9)
vmovhpd %xmm0, 144(%r10)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%rdi)
vmovhpd %xmm1, 152(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%r9)
vmovhpd %xmm0, 152(%r10)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%rdi)
vmovhpd %xmm1, 160(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%r9)
vmovhpd %xmm0, 160(%r10)
leaq 14560(%rsp), %rbx
leaq 384(%rsp), %rbp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$88(%rip), %r11
jmp L_rej_uniform_avx$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$88:
movq %r13, %rdi
leaq 15072(%rsp), %rbx
leaq 896(%rsp), %rbp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$87(%rip), %r11
jmp L_rej_uniform_avx$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$87:
movq %r13, %r8
leaq 15584(%rsp), %rbx
leaq 1408(%rsp), %rbp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$86(%rip), %r11
jmp L_rej_uniform_avx$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$86:
movq %r13, %r9
leaq 16096(%rsp), %rbx
leaq 1920(%rsp), %rbp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$85(%rip), %r11
jmp L_rej_uniform_avx$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$85:
cmpq $255, %rdi
setbe %al
cmpq $255, %r8
setbe %cl
orb %cl, %al
cmpq $255, %r9
setbe %cl
cmpq $255, %r13
setbe %dl
orb %dl, %cl
orb %al, %cl
jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$62
Ljade_kem_kyber_kyber768_amd64_avx2_dec$63:
leaq 4480(%rsp), %rax
leaq 384(%rsp), %r10
leaq 896(%rsp), %r11
leaq 1408(%rsp), %rbx
leaq 1920(%rsp), %rbp
leaq -832(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$84(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$84:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r10)
vmovhpd %xmm1, (%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbx)
vmovhpd %xmm0, (%rbp)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r10)
vmovhpd %xmm1, 8(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbx)
vmovhpd %xmm0, 8(%rbp)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r10)
vmovhpd %xmm1, 16(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbx)
vmovhpd %xmm0, 16(%rbp)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r10)
vmovhpd %xmm1, 24(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbx)
vmovhpd %xmm0, 24(%rbp)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r10)
vmovhpd %xmm1, 32(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbx)
vmovhpd %xmm0, 32(%rbp)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r10)
vmovhpd %xmm1, 40(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbx)
vmovhpd %xmm0, 40(%rbp)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r10)
vmovhpd %xmm1, 48(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbx)
vmovhpd %xmm0, 48(%rbp)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r10)
vmovhpd %xmm1, 56(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbx)
vmovhpd %xmm0, 56(%rbp)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r10)
vmovhpd %xmm1, 64(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbx)
vmovhpd %xmm0, 64(%rbp)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r10)
vmovhpd %xmm1, 72(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbx)
vmovhpd %xmm0, 72(%rbp)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r10)
vmovhpd %xmm1, 80(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbx)
vmovhpd %xmm0, 80(%rbp)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r10)
vmovhpd %xmm1, 88(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbx)
vmovhpd %xmm0, 88(%rbp)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r10)
vmovhpd %xmm1, 96(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbx)
vmovhpd %xmm0, 96(%rbp)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r10)
vmovhpd %xmm1, 104(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbx)
vmovhpd %xmm0, 104(%rbp)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r10)
vmovhpd %xmm1, 112(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbx)
vmovhpd %xmm0, 112(%rbp)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r10)
vmovhpd %xmm1, 120(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbx)
vmovhpd %xmm0, 120(%rbp)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r10)
vmovhpd %xmm1, 128(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbx)
vmovhpd %xmm0, 128(%rbp)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%r10)
vmovhpd %xmm1, 136(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%rbx)
vmovhpd %xmm0, 136(%rbp)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%r10)
vmovhpd %xmm1, 144(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%rbx)
vmovhpd %xmm0, 144(%rbp)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%r10)
vmovhpd %xmm1, 152(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%rbx)
vmovhpd %xmm0, 152(%rbp)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%r10)
vmovhpd %xmm1, 160(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%rbx)
vmovhpd %xmm0, 160(%rbp)
leaq 14560(%rsp), %rax
leaq 384(%rsp), %rcx
movq $0, %rdx
cmpq $255, %rdi
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$79
Ljade_kem_kyber_kyber768_amd64_avx2_dec$80:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$83
movw %si, (%rax,%rdi,2)
incq %rdi
Ljade_kem_kyber_kyber768_amd64_avx2_dec$83:
cmpq $256, %rdi
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$81
cmpw $3329, %r11w
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$81
movw %r11w, (%rax,%rdi,2)
incq %rdi
Ljade_kem_kyber_kyber768_amd64_avx2_dec$82:
Ljade_kem_kyber_kyber768_amd64_avx2_dec$81:
cmpq $255, %rdi
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
Ljade_kem_kyber_kyber768_amd64_avx2_dec$79:
jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$80
leaq 15072(%rsp), %rax
leaq 896(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r8
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$74
Ljade_kem_kyber_kyber768_amd64_avx2_dec$75:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$78
movw %si, (%rax,%r8,2)
incq %r8
Ljade_kem_kyber_kyber768_amd64_avx2_dec$78:
cmpq $256, %r8
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$76
cmpw $3329, %r11w
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$76
movw %r11w, (%rax,%r8,2)
incq %r8
Ljade_kem_kyber_kyber768_amd64_avx2_dec$77:
Ljade_kem_kyber_kyber768_amd64_avx2_dec$76:
cmpq $255, %r8
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
Ljade_kem_kyber_kyber768_amd64_avx2_dec$74:
jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$75
leaq 15584(%rsp), %rax
leaq 1408(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r9
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$69
Ljade_kem_kyber_kyber768_amd64_avx2_dec$70:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$73
movw %si, (%rax,%r9,2)
incq %r9
Ljade_kem_kyber_kyber768_amd64_avx2_dec$73:
cmpq $256, %r9
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$71
cmpw $3329, %r11w
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$71
movw %r11w, (%rax,%r9,2)
incq %r9
Ljade_kem_kyber_kyber768_amd64_avx2_dec$72:
Ljade_kem_kyber_kyber768_amd64_avx2_dec$71:
cmpq $255, %r9
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
Ljade_kem_kyber_kyber768_amd64_avx2_dec$69:
jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$70
leaq 16096(%rsp), %rax
leaq 1920(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r13
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$64
Ljade_kem_kyber_kyber768_amd64_avx2_dec$65:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$68
movw %si, (%rax,%r13,2)
incq %r13
Ljade_kem_kyber_kyber768_amd64_avx2_dec$68:
cmpq $256, %r13
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$66
cmpw $3329, %r11w
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$66
movw %r11w, (%rax,%r13,2)
incq %r13
Ljade_kem_kyber_kyber768_amd64_avx2_dec$67:
Ljade_kem_kyber_kyber768_amd64_avx2_dec$66:
cmpq $255, %r13
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
Ljade_kem_kyber_kyber768_amd64_avx2_dec$64:
jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$65
cmpq $255, %rdi
setbe %al
cmpq $255, %r8
setbe %cl
orb %cl, %al
cmpq $255, %r9
setbe %cl
cmpq $255, %r13
setbe %dl
orb %dl, %cl
orb %al, %cl
Ljade_kem_kyber_kyber768_amd64_avx2_dec$62:
jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$63
vmovdqu (%rsp), %ymm0
vmovdqu %ymm0, 384(%rsp)
movb $2, 416(%rsp)
movb $2, 417(%rsp)
leaq 384(%rsp), %rax
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 160(%rsp)
vmovdqu %ymm0, 192(%rsp)
vmovdqu %ymm0, 224(%rsp)
vmovdqu %ymm0, 256(%rsp)
vmovdqu %ymm0, 288(%rsp)
vmovdqu %ymm0, 320(%rsp)
vmovdqu %ymm0, 352(%rsp)
vpbroadcastq (%rax), %ymm5
movq 8(%rax), %rcx
movq glob_data + 6208(%rip), %rdx
movq %rcx, 160(%rsp,%rdx,8)
movq 16(%rax), %rcx
movq glob_data + 6216(%rip), %rdx
movq %rcx, 160(%rsp,%rdx,8)
movq 24(%rax), %rcx
movq glob_data + 6224(%rip), %rdx
movq %rcx, 160(%rsp,%rdx,8)
movb 32(%rax), %cl
movq glob_data + 6232(%rip), %rdx
shlq $3, %rdx
movb %cl, 160(%rsp,%rdx)
movb 33(%rax), %al
incq %rdx
movb %al, 160(%rsp,%rdx)
incq %rdx
movb $31, 160(%rsp,%rdx)
movq glob_data + 6360(%rip), %rax
shlq $3, %rax
movq $167, %rcx
andq $7, %rcx
addq %rcx, %rax
movb $-128, 160(%rsp,%rax)
vmovdqu 192(%rsp), %ymm0
vmovdqu 224(%rsp), %ymm1
vmovdqu 256(%rsp), %ymm2
vmovdqu 288(%rsp), %ymm6
vmovdqu 320(%rsp), %ymm3
vmovdqu 352(%rsp), %ymm4
leaq 384(%rsp), %rax
leaq glob_data + 3328(%rip), %rcx
movq $0, %rdx
leaq glob_data + 3136(%rip), %rsi
leaq glob_data + 2944(%rip), %rdi
movq $24, %r8
Ljade_kem_kyber_kyber768_amd64_avx2_dec$61:
vpshufd $78, %ymm1, %ymm8
vpxor %ymm2, %ymm3, %ymm7
vpxor %ymm4, %ymm6, %ymm9
vpxor %ymm0, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm1, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm5, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm1, %ymm1
vpxor %ymm11, %ymm5, %ymm5
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm1, %ymm7
vpsrlvq (%rdi), %ymm1, %ymm1
vpor %ymm7, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpsllvq 64(%rsi), %ymm2, %ymm7
vpsrlvq 64(%rdi), %ymm2, %ymm2
vpor %ymm7, %ymm2, %ymm2
vpxor %ymm9, %ymm6, %ymm6
vpsllvq 96(%rsi), %ymm6, %ymm7
vpsrlvq 96(%rdi), %ymm6, %ymm6
vpor %ymm7, %ymm6, %ymm10
vpxor %ymm9, %ymm3, %ymm3
vpsllvq 128(%rsi), %ymm3, %ymm6
vpsrlvq 128(%rdi), %ymm3, %ymm3
vpor %ymm6, %ymm3, %ymm3
vpxor %ymm9, %ymm4, %ymm4
vpermq $-115, %ymm1, %ymm6
vpermq $-115, %ymm2, %ymm7
vpsllvq 160(%rsi), %ymm4, %ymm1
vpsrlvq 160(%rdi), %ymm4, %ymm2
vpor %ymm1, %ymm2, %ymm8
vpxor %ymm9, %ymm0, %ymm1
vpermq $27, %ymm10, %ymm0
vpermq $114, %ymm3, %ymm9
vpsllvq 32(%rsi), %ymm1, %ymm2
vpsrlvq 32(%rdi), %ymm1, %ymm1
vpor %ymm2, %ymm1, %ymm10
vpsrldq $8, %ymm8, %ymm1
vpandn %ymm1, %ymm8, %ymm2
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm3
vpblendd $12, %ymm7, %ymm6, %ymm4
vpblendd $12, %ymm6, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm0, %ymm3, %ymm3
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm0, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm3, %ymm3
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm3, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm4
vpblendd $12, %ymm10, %ymm0, %ymm11
vpblendd $12, %ymm0, %ymm6, %ymm12
vpxor %ymm6, %ymm1, %ymm3
vpblendd $48, %ymm6, %ymm11, %ymm1
vpblendd $48, %ymm7, %ymm12, %ymm11
vpxor %ymm0, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm1, %ymm1
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm1, %ymm1
vpxor %ymm9, %ymm1, %ymm12
vpermq $30, %ymm8, %ymm1
vpblendd $48, %ymm5, %ymm1, %ymm1
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm5, %ymm11, %ymm11
vpandn %ymm1, %ymm11, %ymm11
vpblendd $12, %ymm0, %ymm7, %ymm1
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm1, %ymm1
vpblendd $48, %ymm6, %ymm13, %ymm13
vpblendd $-64, %ymm6, %ymm1, %ymm1
vpblendd $-64, %ymm0, %ymm13, %ymm13
vpandn %ymm13, %ymm1, %ymm1
vpxor %ymm10, %ymm1, %ymm1
vpermq $0, %ymm2, %ymm13
vpermq $27, %ymm3, %ymm2
vpermq $-115, %ymm4, %ymm3
vpermq $114, %ymm12, %ymm4
vpblendd $12, %ymm6, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm0, %ymm9
vpblendd $48, %ymm0, %ymm12, %ymm0
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm0, %ymm0
vpblendd $-64, %ymm6, %ymm9, %ymm6
vpandn %ymm6, %ymm0, %ymm6
vpxor %ymm13, %ymm5, %ymm5
vpxor %ymm8, %ymm11, %ymm0
vpxor %ymm7, %ymm6, %ymm6
vpxor (%rcx,%rdx), %ymm5, %ymm5
addq $32, %rdx
decq %r8
jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$61
vmovdqu %ymm5, 160(%rsp)
vmovdqu %ymm0, 192(%rsp)
vmovdqu %ymm1, 224(%rsp)
vmovdqu %ymm2, 256(%rsp)
vmovdqu %ymm6, 288(%rsp)
vmovdqu %ymm3, 320(%rsp)
vmovdqu %ymm4, 352(%rsp)
movq glob_data + 6200(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, (%rax)
movq glob_data + 6208(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 8(%rax)
movq glob_data + 6216(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 16(%rax)
movq glob_data + 6224(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 24(%rax)
movq glob_data + 6232(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 32(%rax)
movq glob_data + 6240(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 40(%rax)
movq glob_data + 6248(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 48(%rax)
movq glob_data + 6256(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 56(%rax)
movq glob_data + 6264(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 64(%rax)
movq glob_data + 6272(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 72(%rax)
movq glob_data + 6280(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 80(%rax)
movq glob_data + 6288(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 88(%rax)
movq glob_data + 6296(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 96(%rax)
movq glob_data + 6304(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 104(%rax)
movq glob_data + 6312(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 112(%rax)
movq glob_data + 6320(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 120(%rax)
movq glob_data + 6328(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 128(%rax)
movq glob_data + 6336(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 136(%rax)
movq glob_data + 6344(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 144(%rax)
movq glob_data + 6352(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 152(%rax)
movq glob_data + 6360(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 160(%rax)
leaq 552(%rsp), %rax
leaq glob_data + 3328(%rip), %rcx
movq $0, %rdx
leaq glob_data + 3136(%rip), %rsi
leaq glob_data + 2944(%rip), %rdi
movq $24, %r8
Ljade_kem_kyber_kyber768_amd64_avx2_dec$60:
vpshufd $78, %ymm1, %ymm8
vpxor %ymm2, %ymm3, %ymm7
vpxor %ymm4, %ymm6, %ymm9
vpxor %ymm0, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm1, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm5, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm1, %ymm1
vpxor %ymm11, %ymm5, %ymm5
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm1, %ymm7
vpsrlvq (%rdi), %ymm1, %ymm1
vpor %ymm7, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpsllvq 64(%rsi), %ymm2, %ymm7
vpsrlvq 64(%rdi), %ymm2, %ymm2
vpor %ymm7, %ymm2, %ymm2
vpxor %ymm9, %ymm6, %ymm6
vpsllvq 96(%rsi), %ymm6, %ymm7
vpsrlvq 96(%rdi), %ymm6, %ymm6
vpor %ymm7, %ymm6, %ymm10
vpxor %ymm9, %ymm3, %ymm3
vpsllvq 128(%rsi), %ymm3, %ymm6
vpsrlvq 128(%rdi), %ymm3, %ymm3
vpor %ymm6, %ymm3, %ymm3
vpxor %ymm9, %ymm4, %ymm4
vpermq $-115, %ymm1, %ymm6
vpermq $-115, %ymm2, %ymm7
vpsllvq 160(%rsi), %ymm4, %ymm1
vpsrlvq 160(%rdi), %ymm4, %ymm2
vpor %ymm1, %ymm2, %ymm8
vpxor %ymm9, %ymm0, %ymm1
vpermq $27, %ymm10, %ymm0
vpermq $114, %ymm3, %ymm9
vpsllvq 32(%rsi), %ymm1, %ymm2
vpsrlvq 32(%rdi), %ymm1, %ymm1
vpor %ymm2, %ymm1, %ymm10
vpsrldq $8, %ymm8, %ymm1
vpandn %ymm1, %ymm8, %ymm2
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm3
vpblendd $12, %ymm7, %ymm6, %ymm4
vpblendd $12, %ymm6, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm0, %ymm3, %ymm3
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm0, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm3, %ymm3
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm3, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm4
vpblendd $12, %ymm10, %ymm0, %ymm11
vpblendd $12, %ymm0, %ymm6, %ymm12
vpxor %ymm6, %ymm1, %ymm3
vpblendd $48, %ymm6, %ymm11, %ymm1
vpblendd $48, %ymm7, %ymm12, %ymm11
vpxor %ymm0, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm1, %ymm1
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm1, %ymm1
vpxor %ymm9, %ymm1, %ymm12
vpermq $30, %ymm8, %ymm1
vpblendd $48, %ymm5, %ymm1, %ymm1
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm5, %ymm11, %ymm11
vpandn %ymm1, %ymm11, %ymm11
vpblendd $12, %ymm0, %ymm7, %ymm1
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm1, %ymm1
vpblendd $48, %ymm6, %ymm13, %ymm13
vpblendd $-64, %ymm6, %ymm1, %ymm1
vpblendd $-64, %ymm0, %ymm13, %ymm13
vpandn %ymm13, %ymm1, %ymm1
vpxor %ymm10, %ymm1, %ymm1
vpermq $0, %ymm2, %ymm13
vpermq $27, %ymm3, %ymm2
vpermq $-115, %ymm4, %ymm3
vpermq $114, %ymm12, %ymm4
vpblendd $12, %ymm6, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm0, %ymm9
vpblendd $48, %ymm0, %ymm12, %ymm0
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm0, %ymm0
vpblendd $-64, %ymm6, %ymm9, %ymm6
vpandn %ymm6, %ymm0, %ymm6
vpxor %ymm13, %ymm5, %ymm5
vpxor %ymm8, %ymm11, %ymm0
vpxor %ymm7, %ymm6, %ymm6
vpxor (%rcx,%rdx), %ymm5, %ymm5
addq $32, %rdx
decq %r8
jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$60
vmovdqu %ymm5, 160(%rsp)
vmovdqu %ymm0, 192(%rsp)
vmovdqu %ymm1, 224(%rsp)
vmovdqu %ymm2, 256(%rsp)
vmovdqu %ymm6, 288(%rsp)
vmovdqu %ymm3, 320(%rsp)
vmovdqu %ymm4, 352(%rsp)
movq glob_data + 6200(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, (%rax)
movq glob_data + 6208(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 8(%rax)
movq glob_data + 6216(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 16(%rax)
movq glob_data + 6224(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 24(%rax)
movq glob_data + 6232(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 32(%rax)
movq glob_data + 6240(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 40(%rax)
movq glob_data + 6248(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 48(%rax)
movq glob_data + 6256(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 56(%rax)
movq glob_data + 6264(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 64(%rax)
movq glob_data + 6272(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 72(%rax)
movq glob_data + 6280(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 80(%rax)
movq glob_data + 6288(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 88(%rax)
movq glob_data + 6296(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 96(%rax)
movq glob_data + 6304(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 104(%rax)
movq glob_data + 6312(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 112(%rax)
movq glob_data + 6320(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 120(%rax)
movq glob_data + 6328(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 128(%rax)
movq glob_data + 6336(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 136(%rax)
movq glob_data + 6344(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 144(%rax)
movq glob_data + 6352(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 152(%rax)
movq glob_data + 6360(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 160(%rax)
leaq 720(%rsp), %rax
leaq glob_data + 3328(%rip), %rcx
movq $0, %rdx
leaq glob_data + 3136(%rip), %rsi
leaq glob_data + 2944(%rip), %rdi
movq $24, %r8
Ljade_kem_kyber_kyber768_amd64_avx2_dec$59:
vpshufd $78, %ymm1, %ymm8
vpxor %ymm2, %ymm3, %ymm7
vpxor %ymm4, %ymm6, %ymm9
vpxor %ymm0, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm1, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm5, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm1, %ymm1
vpxor %ymm11, %ymm5, %ymm5
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm1, %ymm7
vpsrlvq (%rdi), %ymm1, %ymm1
vpor %ymm7, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpsllvq 64(%rsi), %ymm2, %ymm7
vpsrlvq 64(%rdi), %ymm2, %ymm2
vpor %ymm7, %ymm2, %ymm2
vpxor %ymm9, %ymm6, %ymm6
vpsllvq 96(%rsi), %ymm6, %ymm7
vpsrlvq 96(%rdi), %ymm6, %ymm6
vpor %ymm7, %ymm6, %ymm10
vpxor %ymm9, %ymm3, %ymm3
vpsllvq 128(%rsi), %ymm3, %ymm6
vpsrlvq 128(%rdi), %ymm3, %ymm3
vpor %ymm6, %ymm3, %ymm3
vpxor %ymm9, %ymm4, %ymm4
vpermq $-115, %ymm1, %ymm6
vpermq $-115, %ymm2, %ymm7
vpsllvq 160(%rsi), %ymm4, %ymm1
vpsrlvq 160(%rdi), %ymm4, %ymm2
vpor %ymm1, %ymm2, %ymm8
vpxor %ymm9, %ymm0, %ymm1
vpermq $27, %ymm10, %ymm0
vpermq $114, %ymm3, %ymm9
vpsllvq 32(%rsi), %ymm1, %ymm2
vpsrlvq 32(%rdi), %ymm1, %ymm1
vpor %ymm2, %ymm1, %ymm10
vpsrldq $8, %ymm8, %ymm1
vpandn %ymm1, %ymm8, %ymm2
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm3
vpblendd $12, %ymm7, %ymm6, %ymm4
vpblendd $12, %ymm6, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm0, %ymm3, %ymm3
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm0, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm3, %ymm3
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm3, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm4
vpblendd $12, %ymm10, %ymm0, %ymm11
vpblendd $12, %ymm0, %ymm6, %ymm12
vpxor %ymm6, %ymm1, %ymm3
vpblendd $48, %ymm6, %ymm11, %ymm1
vpblendd $48, %ymm7, %ymm12, %ymm11
vpxor %ymm0, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm1, %ymm1
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm1, %ymm1
vpxor %ymm9, %ymm1, %ymm12
vpermq $30, %ymm8, %ymm1
vpblendd $48, %ymm5, %ymm1, %ymm1
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm5, %ymm11, %ymm11
vpandn %ymm1, %ymm11, %ymm11
vpblendd $12, %ymm0, %ymm7, %ymm1
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm1, %ymm1
vpblendd $48, %ymm6, %ymm13, %ymm13
vpblendd $-64, %ymm6, %ymm1, %ymm1
vpblendd $-64, %ymm0, %ymm13, %ymm13
vpandn %ymm13, %ymm1, %ymm1
vpxor %ymm10, %ymm1, %ymm1
vpermq $0, %ymm2, %ymm13
vpermq $27, %ymm3, %ymm2
vpermq $-115, %ymm4, %ymm3
vpermq $114, %ymm12, %ymm4
vpblendd $12, %ymm6, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm0, %ymm9
vpblendd $48, %ymm0, %ymm12, %ymm0
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm0, %ymm0
vpblendd $-64, %ymm6, %ymm9, %ymm6
vpandn %ymm6, %ymm0, %ymm6
vpxor %ymm13, %ymm5, %ymm5
vpxor %ymm8, %ymm11, %ymm0
vpxor %ymm7, %ymm6, %ymm6
vpxor (%rcx,%rdx), %ymm5, %ymm5
addq $32, %rdx
decq %r8
jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$59
vmovdqu %ymm5, 160(%rsp)
vmovdqu %ymm0, 192(%rsp)
vmovdqu %ymm1, 224(%rsp)
vmovdqu %ymm2, 256(%rsp)
vmovdqu %ymm6, 288(%rsp)
vmovdqu %ymm3, 320(%rsp)
vmovdqu %ymm4, 352(%rsp)
movq glob_data + 6200(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, (%rax)
movq glob_data + 6208(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 8(%rax)
movq glob_data + 6216(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 16(%rax)
movq glob_data + 6224(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 24(%rax)
movq glob_data + 6232(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 32(%rax)
movq glob_data + 6240(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 40(%rax)
movq glob_data + 6248(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 48(%rax)
movq glob_data + 6256(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 56(%rax)
movq glob_data + 6264(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 64(%rax)
movq glob_data + 6272(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 72(%rax)
movq glob_data + 6280(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 80(%rax)
movq glob_data + 6288(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 88(%rax)
movq glob_data + 6296(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 96(%rax)
movq glob_data + 6304(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 104(%rax)
movq glob_data + 6312(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 112(%rax)
movq glob_data + 6320(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 120(%rax)
movq glob_data + 6328(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 128(%rax)
movq glob_data + 6336(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 136(%rax)
movq glob_data + 6344(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 144(%rax)
movq glob_data + 6352(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 152(%rax)
movq glob_data + 6360(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 160(%rax)
vmovdqu %ymm5, 160(%rsp)
vmovdqu %ymm0, 192(%rsp)
vmovdqu %ymm1, 224(%rsp)
vmovdqu %ymm2, 256(%rsp)
vmovdqu %ymm6, 288(%rsp)
vmovdqu %ymm3, 320(%rsp)
vmovdqu %ymm4, 352(%rsp)
leaq 16608(%rsp), %rbx
leaq 384(%rsp), %rbp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$58(%rip), %r11
jmp L_rej_uniform_avx$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$58:
cmpq $255, %r13
setbe %al
vmovdqu 160(%rsp), %ymm6
vmovdqu 192(%rsp), %ymm0
vmovdqu 224(%rsp), %ymm1
vmovdqu 256(%rsp), %ymm2
vmovdqu 288(%rsp), %ymm3
vmovdqu 320(%rsp), %ymm4
vmovdqu 352(%rsp), %ymm5
jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$50
Ljade_kem_kyber_kyber768_amd64_avx2_dec$51:
leaq 384(%rsp), %rax
leaq glob_data + 3328(%rip), %rcx
movq $0, %rdx
leaq glob_data + 3136(%rip), %rsi
leaq glob_data + 2944(%rip), %rdi
movq $24, %r8
Ljade_kem_kyber_kyber768_amd64_avx2_dec$57:
vpshufd $78, %ymm1, %ymm8
vpxor %ymm2, %ymm4, %ymm7
vpxor %ymm5, %ymm3, %ymm9
vpxor %ymm0, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm1, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm1, %ymm1
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm1, %ymm7
vpsrlvq (%rdi), %ymm1, %ymm1
vpor %ymm7, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpsllvq 64(%rsi), %ymm2, %ymm7
vpsrlvq 64(%rdi), %ymm2, %ymm2
vpor %ymm7, %ymm2, %ymm2
vpxor %ymm9, %ymm3, %ymm3
vpsllvq 96(%rsi), %ymm3, %ymm7
vpsrlvq 96(%rdi), %ymm3, %ymm3
vpor %ymm7, %ymm3, %ymm10
vpxor %ymm9, %ymm4, %ymm3
vpsllvq 128(%rsi), %ymm3, %ymm4
vpsrlvq 128(%rdi), %ymm3, %ymm3
vpor %ymm4, %ymm3, %ymm4
vpxor %ymm9, %ymm5, %ymm5
vpermq $-115, %ymm1, %ymm3
vpermq $-115, %ymm2, %ymm7
vpsllvq 160(%rsi), %ymm5, %ymm1
vpsrlvq 160(%rdi), %ymm5, %ymm2
vpor %ymm1, %ymm2, %ymm8
vpxor %ymm9, %ymm0, %ymm1
vpermq $27, %ymm10, %ymm0
vpermq $114, %ymm4, %ymm9
vpsllvq 32(%rsi), %ymm1, %ymm2
vpsrlvq 32(%rdi), %ymm1, %ymm1
vpor %ymm2, %ymm1, %ymm10
vpsrldq $8, %ymm8, %ymm1
vpandn %ymm1, %ymm8, %ymm2
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm3, %ymm5
vpblendd $12, %ymm3, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm0, %ymm4, %ymm4
vpblendd $48, %ymm10, %ymm5, %ymm5
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm0, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm9, %ymm5, %ymm5
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm4, %ymm1, %ymm1
vpandn %ymm11, %ymm5, %ymm5
vpblendd $12, %ymm10, %ymm0, %ymm11
vpblendd $12, %ymm0, %ymm3, %ymm12
vpxor %ymm3, %ymm1, %ymm4
vpblendd $48, %ymm3, %ymm11, %ymm1
vpblendd $48, %ymm7, %ymm12, %ymm11
vpxor %ymm0, %ymm5, %ymm5
vpblendd $-64, %ymm7, %ymm1, %ymm1
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm1, %ymm1
vpxor %ymm9, %ymm1, %ymm12
vpermq $30, %ymm8, %ymm1
vpblendd $48, %ymm6, %ymm1, %ymm1
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm1, %ymm11, %ymm11
vpblendd $12, %ymm0, %ymm7, %ymm1
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm13, %ymm13
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm0, %ymm13, %ymm13
vpandn %ymm13, %ymm1, %ymm1
vpxor %ymm10, %ymm1, %ymm1
vpermq $0, %ymm2, %ymm13
vpermq $27, %ymm4, %ymm2
vpermq $-115, %ymm5, %ymm4
vpermq $114, %ymm12, %ymm5
vpblendd $12, %ymm3, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm0, %ymm9
vpblendd $48, %ymm0, %ymm12, %ymm0
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm0, %ymm0
vpblendd $-64, %ymm3, %ymm9, %ymm3
vpandn %ymm3, %ymm0, %ymm3
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm0
vpxor %ymm7, %ymm3, %ymm3
vpxor (%rcx,%rdx), %ymm6, %ymm6
addq $32, %rdx
decq %r8
jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$57
vmovdqu %ymm6, 160(%rsp)
vmovdqu %ymm0, 192(%rsp)
vmovdqu %ymm1, 224(%rsp)
vmovdqu %ymm2, 256(%rsp)
vmovdqu %ymm3, 288(%rsp)
vmovdqu %ymm4, 320(%rsp)
vmovdqu %ymm5, 352(%rsp)
movq glob_data + 6200(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, (%rax)
movq glob_data + 6208(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 8(%rax)
movq glob_data + 6216(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 16(%rax)
movq glob_data + 6224(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 24(%rax)
movq glob_data + 6232(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 32(%rax)
movq glob_data + 6240(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 40(%rax)
movq glob_data + 6248(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 48(%rax)
movq glob_data + 6256(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 56(%rax)
movq glob_data + 6264(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 64(%rax)
movq glob_data + 6272(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 72(%rax)
movq glob_data + 6280(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 80(%rax)
movq glob_data + 6288(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 88(%rax)
movq glob_data + 6296(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 96(%rax)
movq glob_data + 6304(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 104(%rax)
movq glob_data + 6312(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 112(%rax)
movq glob_data + 6320(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 120(%rax)
movq glob_data + 6328(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 128(%rax)
movq glob_data + 6336(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 136(%rax)
movq glob_data + 6344(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 144(%rax)
movq glob_data + 6352(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 152(%rax)
movq glob_data + 6360(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 160(%rax)
leaq 16608(%rsp), %rax
leaq 384(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r13
setbe %sil
cmpq $165, %rdx
setbe %dil
testb %dil, %sil
jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$52
Ljade_kem_kyber_kyber768_amd64_avx2_dec$53:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw (%rcx,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$56
movw %si, (%rax,%r13,2)
incq %r13
Ljade_kem_kyber_kyber768_amd64_avx2_dec$56:
cmpq $256, %r13
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$54
cmpw $3329, %r8w
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$54
movw %r8w, (%rax,%r13,2)
incq %r13
Ljade_kem_kyber_kyber768_amd64_avx2_dec$55:
Ljade_kem_kyber_kyber768_amd64_avx2_dec$54:
cmpq $255, %r13
setbe %sil
cmpq $165, %rdx
setbe %dil
testb %dil, %sil
Ljade_kem_kyber_kyber768_amd64_avx2_dec$52:
jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$53
cmpq $255, %r13
setbe %al
Ljade_kem_kyber_kyber768_amd64_avx2_dec$50:
cmpb $0, %al
jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$51
leaq 12512(%rsp), %rax
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$49(%rip), %rcx
jmp L_nttunpack$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$49:
leaq 13024(%rsp), %rax
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$48(%rip), %rcx
jmp L_nttunpack$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$48:
leaq 13536(%rsp), %rax
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$47(%rip), %rcx
jmp L_nttunpack$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$47:
leaq 14048(%rsp), %rax
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$46(%rip), %rcx
jmp L_nttunpack$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$46:
leaq 14560(%rsp), %rax
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$45(%rip), %rcx
jmp L_nttunpack$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$45:
leaq 15072(%rsp), %rax
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$44(%rip), %rcx
jmp L_nttunpack$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$44:
leaq 15584(%rsp), %rax
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$43(%rip), %rcx
jmp L_nttunpack$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$43:
leaq 16096(%rsp), %rax
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$42(%rip), %rcx
jmp L_nttunpack$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$42:
leaq 16608(%rsp), %rax
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$41(%rip), %rcx
jmp L_nttunpack$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$41:
movq 17152(%rsp), %r10
movb $0, %cl
leaq 7904(%rsp), %rax
leaq 8416(%rsp), %rdi
leaq 8928(%rsp), %r8
leaq 9440(%rsp), %r9
leaq -1472(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$40(%rip), %rdx
movq %rdx, 1464(%rsp)
jmp L_poly_getnoise_eta1_4x$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$40:
leaq 1472(%rsp), %rsp
movb $4, %cl
leaq 9952(%rsp), %rax
leaq 10464(%rsp), %rdi
leaq 2944(%rsp), %r8
leaq 10976(%rsp), %r9
leaq -1472(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$39(%rip), %rdx
movq %rdx, 1464(%rsp)
jmp L_poly_getnoise_eta1_4x$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$39:
leaq 1472(%rsp), %rsp
leaq 7904(%rsp), %rcx
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$38(%rip), %rdi
jmp L_poly_ntt$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$38:
leaq 8416(%rsp), %rcx
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$37(%rip), %rdi
jmp L_poly_ntt$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$37:
leaq 8928(%rsp), %rcx
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$36(%rip), %rdi
jmp L_poly_ntt$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$36:
leaq 10976(%rsp), %rcx
leaq 12512(%rsp), %rsi
leaq 7904(%rsp), %rdi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$35(%rip), %r8
jmp L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$35:
leaq 2432(%rsp), %rcx
leaq 13024(%rsp), %rsi
leaq 8416(%rsp), %rdi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$34(%rip), %r8
jmp L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$34:
leaq 10976(%rsp), %rcx
leaq 2432(%rsp), %rsi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$33(%rip), %rdi
jmp L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$33:
leaq 2432(%rsp), %rcx
leaq 13536(%rsp), %rsi
leaq 8928(%rsp), %rdi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$32(%rip), %r8
jmp L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$32:
leaq 10976(%rsp), %rcx
leaq 2432(%rsp), %rsi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$31(%rip), %rdi
jmp L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$31:
leaq 11488(%rsp), %rcx
leaq 14048(%rsp), %rsi
leaq 7904(%rsp), %rdi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$30(%rip), %r8
jmp L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$30:
leaq 2432(%rsp), %rcx
leaq 14560(%rsp), %rsi
leaq 8416(%rsp), %rdi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$29(%rip), %r8
jmp L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$29:
leaq 11488(%rsp), %rcx
leaq 2432(%rsp), %rsi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$28(%rip), %rdi
jmp L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$28:
leaq 2432(%rsp), %rcx
leaq 15072(%rsp), %rsi
leaq 8928(%rsp), %rdi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$27(%rip), %r8
jmp L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$27:
leaq 11488(%rsp), %rcx
leaq 2432(%rsp), %rsi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$26(%rip), %rdi
jmp L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$26:
leaq 12000(%rsp), %rcx
leaq 15584(%rsp), %rsi
leaq 7904(%rsp), %rdi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$25(%rip), %r8
jmp L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$25:
leaq 2432(%rsp), %rcx
leaq 16096(%rsp), %rsi
leaq 8416(%rsp), %rdi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$24(%rip), %r8
jmp L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$24:
leaq 12000(%rsp), %rcx
leaq 2432(%rsp), %rsi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$23(%rip), %rdi
jmp L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$23:
leaq 2432(%rsp), %rcx
leaq 16608(%rsp), %rsi
leaq 8928(%rsp), %rdi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$22(%rip), %r8
jmp L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$22:
leaq 12000(%rsp), %rcx
leaq 2432(%rsp), %rsi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$21(%rip), %rdi
jmp L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$21:
leaq 2432(%rsp), %rcx
leaq 6368(%rsp), %rsi
leaq 7904(%rsp), %rdi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$20(%rip), %r8
jmp L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$20:
leaq 3968(%rsp), %rcx
leaq 6880(%rsp), %rsi
leaq 8416(%rsp), %rdi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$19(%rip), %r8
jmp L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$19:
leaq 2432(%rsp), %rcx
leaq 3968(%rsp), %rsi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$18(%rip), %rdi
jmp L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$18:
leaq 3968(%rsp), %rcx
leaq 7392(%rsp), %rsi
leaq 8928(%rsp), %rdi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$17(%rip), %r8
jmp L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$17:
leaq 2432(%rsp), %rcx
leaq 3968(%rsp), %rsi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$16(%rip), %rdi
jmp L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$16:
leaq 10976(%rsp), %rcx
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$15(%rip), %rdi
jmp L_poly_invntt$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$15:
leaq 11488(%rsp), %rcx
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$14(%rip), %rdi
jmp L_poly_invntt$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$14:
leaq 12000(%rsp), %rcx
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$13(%rip), %rdi
jmp L_poly_invntt$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$13:
leaq 2432(%rsp), %rcx
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$12(%rip), %rdi
jmp L_poly_invntt$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$12:
leaq 10976(%rsp), %rcx
leaq 9440(%rsp), %rsi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$11(%rip), %rdi
jmp L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$11:
leaq 11488(%rsp), %rcx
leaq 9952(%rsp), %rsi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$10(%rip), %rdi
jmp L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$10:
leaq 12000(%rsp), %rcx
leaq 10464(%rsp), %rsi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$9(%rip), %rdi
jmp L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$9:
leaq 2432(%rsp), %rcx
leaq 2944(%rsp), %rsi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$8(%rip), %rdi
jmp L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$8:
leaq 2432(%rsp), %rcx
leaq 3456(%rsp), %rsi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$7(%rip), %rdi
jmp L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$7:
leaq 10976(%rsp), %rax
vmovdqu glob_data + 448(%rip), %ymm0
vmovdqu glob_data + 384(%rip), %ymm1
vmovdqu (%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, (%rax)
vmovdqu 32(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 32(%rax)
vmovdqu 64(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 64(%rax)
vmovdqu 96(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 96(%rax)
vmovdqu 128(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 128(%rax)
vmovdqu 160(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 160(%rax)
vmovdqu 192(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 192(%rax)
vmovdqu 224(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 224(%rax)
vmovdqu 256(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 256(%rax)
vmovdqu 288(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 288(%rax)
vmovdqu 320(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 320(%rax)
vmovdqu 352(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 352(%rax)
vmovdqu 384(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 384(%rax)
vmovdqu 416(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 416(%rax)
vmovdqu 448(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 448(%rax)
vmovdqu 480(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm1
vpsraw $10, %ymm1, %ymm1
vpmullw %ymm0, %ymm1, %ymm0
vpsubw %ymm0, %ymm2, %ymm0
vmovdqu %ymm0, 480(%rax)
leaq 11488(%rsp), %rax
vmovdqu glob_data + 448(%rip), %ymm0
vmovdqu glob_data + 384(%rip), %ymm1
vmovdqu (%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, (%rax)
vmovdqu 32(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 32(%rax)
vmovdqu 64(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 64(%rax)
vmovdqu 96(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 96(%rax)
vmovdqu 128(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 128(%rax)
vmovdqu 160(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 160(%rax)
vmovdqu 192(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 192(%rax)
vmovdqu 224(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 224(%rax)
vmovdqu 256(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 256(%rax)
vmovdqu 288(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 288(%rax)
vmovdqu 320(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 320(%rax)
vmovdqu 352(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 352(%rax)
vmovdqu 384(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 384(%rax)
vmovdqu 416(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 416(%rax)
vmovdqu 448(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 448(%rax)
vmovdqu 480(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm1
vpsraw $10, %ymm1, %ymm1
vpmullw %ymm0, %ymm1, %ymm0
vpsubw %ymm0, %ymm2, %ymm0
vmovdqu %ymm0, 480(%rax)
leaq 12000(%rsp), %rax
vmovdqu glob_data + 448(%rip), %ymm0
vmovdqu glob_data + 384(%rip), %ymm1
vmovdqu (%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, (%rax)
vmovdqu 32(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 32(%rax)
vmovdqu 64(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 64(%rax)
vmovdqu 96(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 96(%rax)
vmovdqu 128(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 128(%rax)
vmovdqu 160(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 160(%rax)
vmovdqu 192(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 192(%rax)
vmovdqu 224(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 224(%rax)
vmovdqu 256(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 256(%rax)
vmovdqu 288(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 288(%rax)
vmovdqu 320(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 320(%rax)
vmovdqu 352(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 352(%rax)
vmovdqu 384(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 384(%rax)
vmovdqu 416(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 416(%rax)
vmovdqu 448(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 448(%rax)
vmovdqu 480(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm1
vpsraw $10, %ymm1, %ymm1
vpmullw %ymm0, %ymm1, %ymm0
vpsubw %ymm0, %ymm2, %ymm0
vmovdqu %ymm0, 480(%rax)
leaq 2432(%rsp), %rax
vmovdqu glob_data + 448(%rip), %ymm0
vmovdqu glob_data + 384(%rip), %ymm1
vmovdqu (%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, (%rax)
vmovdqu 32(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 32(%rax)
vmovdqu 64(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 64(%rax)
vmovdqu 96(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 96(%rax)
vmovdqu 128(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 128(%rax)
vmovdqu 160(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 160(%rax)
vmovdqu 192(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 192(%rax)
vmovdqu 224(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 224(%rax)
vmovdqu 256(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 256(%rax)
vmovdqu 288(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 288(%rax)
vmovdqu 320(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 320(%rax)
vmovdqu 352(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 352(%rax)
vmovdqu 384(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 384(%rax)
vmovdqu 416(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 416(%rax)
vmovdqu 448(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 448(%rax)
vmovdqu 480(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm1
vpsraw $10, %ymm1, %ymm1
vpmullw %ymm0, %ymm1, %ymm0
vpsubw %ymm0, %ymm2, %ymm0
vmovdqu %ymm0, 480(%rax)
movq 17144(%rsp), %rax
movq %rax, %rdx
leaq 10976(%rsp), %rcx
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$6(%rip), %r8
jmp L_poly_csubq$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$6:
leaq 11488(%rsp), %rcx
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$5(%rip), %r8
jmp L_poly_csubq$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$5:
leaq 12000(%rsp), %rcx
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$4(%rip), %r8
jmp L_poly_csubq$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$4:
leaq glob_data + 384(%rip), %rcx
vmovdqu (%rcx), %ymm0
vpsllw $3, %ymm0, %ymm1
vpbroadcastw glob_data + 6422(%rip), %ymm2
vpbroadcastw glob_data + 6420(%rip), %ymm3
vpbroadcastw glob_data + 6418(%rip), %ymm4
vpbroadcastq glob_data + 6184(%rip), %ymm5
vpbroadcastq glob_data + 6176(%rip), %ymm6
vmovdqu glob_data + 32(%rip), %ymm7
vmovdqu 10976(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, (%rdx)
vpextrd $0, %xmm8, 16(%rdx)
vmovdqu 11008(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 20(%rdx)
vpextrd $0, %xmm8, 36(%rdx)
vmovdqu 11040(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 40(%rdx)
vpextrd $0, %xmm8, 56(%rdx)
vmovdqu 11072(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 60(%rdx)
vpextrd $0, %xmm8, 76(%rdx)
vmovdqu 11104(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 80(%rdx)
vpextrd $0, %xmm8, 96(%rdx)
vmovdqu 11136(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 100(%rdx)
vpextrd $0, %xmm8, 116(%rdx)
vmovdqu 11168(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 120(%rdx)
vpextrd $0, %xmm8, 136(%rdx)
vmovdqu 11200(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 140(%rdx)
vpextrd $0, %xmm8, 156(%rdx)
vmovdqu 11232(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 160(%rdx)
vpextrd $0, %xmm8, 176(%rdx)
vmovdqu 11264(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 180(%rdx)
vpextrd $0, %xmm8, 196(%rdx)
vmovdqu 11296(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 200(%rdx)
vpextrd $0, %xmm8, 216(%rdx)
vmovdqu 11328(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 220(%rdx)
vpextrd $0, %xmm8, 236(%rdx)
vmovdqu 11360(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 240(%rdx)
vpextrd $0, %xmm8, 256(%rdx)
vmovdqu 11392(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 260(%rdx)
vpextrd $0, %xmm8, 276(%rdx)
vmovdqu 11424(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 280(%rdx)
vpextrd $0, %xmm8, 296(%rdx)
vmovdqu 11456(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 300(%rdx)
vpextrd $0, %xmm8, 316(%rdx)
vmovdqu 11488(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 320(%rdx)
vpextrd $0, %xmm8, 336(%rdx)
vmovdqu 11520(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 340(%rdx)
vpextrd $0, %xmm8, 356(%rdx)
vmovdqu 11552(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 360(%rdx)
vpextrd $0, %xmm8, 376(%rdx)
vmovdqu 11584(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 380(%rdx)
vpextrd $0, %xmm8, 396(%rdx)
vmovdqu 11616(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 400(%rdx)
vpextrd $0, %xmm8, 416(%rdx)
vmovdqu 11648(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 420(%rdx)
vpextrd $0, %xmm8, 436(%rdx)
vmovdqu 11680(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 440(%rdx)
vpextrd $0, %xmm8, 456(%rdx)
vmovdqu 11712(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 460(%rdx)
vpextrd $0, %xmm8, 476(%rdx)
vmovdqu 11744(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 480(%rdx)
vpextrd $0, %xmm8, 496(%rdx)
vmovdqu 11776(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 500(%rdx)
vpextrd $0, %xmm8, 516(%rdx)
vmovdqu 11808(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 520(%rdx)
vpextrd $0, %xmm8, 536(%rdx)
vmovdqu 11840(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 540(%rdx)
vpextrd $0, %xmm8, 556(%rdx)
vmovdqu 11872(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 560(%rdx)
vpextrd $0, %xmm8, 576(%rdx)
vmovdqu 11904(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 580(%rdx)
vpextrd $0, %xmm8, 596(%rdx)
vmovdqu 11936(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 600(%rdx)
vpextrd $0, %xmm8, 616(%rdx)
vmovdqu 11968(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 620(%rdx)
vpextrd $0, %xmm8, 636(%rdx)
vmovdqu 12000(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 640(%rdx)
vpextrd $0, %xmm8, 656(%rdx)
vmovdqu 12032(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 660(%rdx)
vpextrd $0, %xmm8, 676(%rdx)
vmovdqu 12064(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 680(%rdx)
vpextrd $0, %xmm8, 696(%rdx)
vmovdqu 12096(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 700(%rdx)
vpextrd $0, %xmm8, 716(%rdx)
vmovdqu 12128(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 720(%rdx)
vpextrd $0, %xmm8, 736(%rdx)
vmovdqu 12160(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 740(%rdx)
vpextrd $0, %xmm8, 756(%rdx)
vmovdqu 12192(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 760(%rdx)
vpextrd $0, %xmm8, 776(%rdx)
vmovdqu 12224(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 780(%rdx)
vpextrd $0, %xmm8, 796(%rdx)
vmovdqu 12256(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 800(%rdx)
vpextrd $0, %xmm8, 816(%rdx)
vmovdqu 12288(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 820(%rdx)
vpextrd $0, %xmm8, 836(%rdx)
vmovdqu 12320(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 840(%rdx)
vpextrd $0, %xmm8, 856(%rdx)
vmovdqu 12352(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 860(%rdx)
vpextrd $0, %xmm8, 876(%rdx)
vmovdqu 12384(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 880(%rdx)
vpextrd $0, %xmm8, 896(%rdx)
vmovdqu 12416(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 900(%rdx)
vpextrd $0, %xmm8, 916(%rdx)
vmovdqu 12448(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 920(%rdx)
vpextrd $0, %xmm8, 936(%rdx)
vmovdqu 12480(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm1
vpaddw %ymm2, %ymm8, %ymm2
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm0
vpsubw %ymm2, %ymm1, %ymm2
vpandn %ymm2, %ymm1, %ymm1
vpsrlw $15, %ymm1, %ymm1
vpsubw %ymm1, %ymm0, %ymm0
vpmulhrsw %ymm3, %ymm0, %ymm0
vpand %ymm4, %ymm0, %ymm0
vpmaddwd %ymm5, %ymm0, %ymm0
vpsllvd %ymm6, %ymm0, %ymm0
vpsrlq $12, %ymm0, %ymm0
vpshufb %ymm7, %ymm0, %ymm0
vmovdqu %xmm0, %xmm1
vextracti128 $1, %ymm0, %xmm0
vpblendw $-32, %xmm0, %xmm1, %xmm1
vmovdqu %xmm1, 940(%rdx)
vpextrd $0, %xmm0, 956(%rdx)
leaq 960(%rax), %rax
leaq 2432(%rsp), %rcx
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$3(%rip), %rsi
jmp L_poly_compress_1$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$3:
movq 17128(%rsp), %r8
leaq 5280(%rsp), %rax
movq $0, %rcx
movq $1, %rdx
vpxor %ymm0, %ymm0, %ymm0
vmovdqu (%rax), %ymm1
vmovdqu (%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 32(%rax), %ymm1
vmovdqu 32(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 64(%rax), %ymm1
vmovdqu 64(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 96(%rax), %ymm1
vmovdqu 96(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 128(%rax), %ymm1
vmovdqu 128(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 160(%rax), %ymm1
vmovdqu 160(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 192(%rax), %ymm1
vmovdqu 192(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 224(%rax), %ymm1
vmovdqu 224(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 256(%rax), %ymm1
vmovdqu 256(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 288(%rax), %ymm1
vmovdqu 288(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 320(%rax), %ymm1
vmovdqu 320(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 352(%rax), %ymm1
vmovdqu 352(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 384(%rax), %ymm1
vmovdqu 384(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 416(%rax), %ymm1
vmovdqu 416(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 448(%rax), %ymm1
vmovdqu 448(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 480(%rax), %ymm1
vmovdqu 480(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 512(%rax), %ymm1
vmovdqu 512(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 544(%rax), %ymm1
vmovdqu 544(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 576(%rax), %ymm1
vmovdqu 576(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 608(%rax), %ymm1
vmovdqu 608(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 640(%rax), %ymm1
vmovdqu 640(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 672(%rax), %ymm1
vmovdqu 672(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 704(%rax), %ymm1
vmovdqu 704(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 736(%rax), %ymm1
vmovdqu 736(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 768(%rax), %ymm1
vmovdqu 768(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 800(%rax), %ymm1
vmovdqu 800(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 832(%rax), %ymm1
vmovdqu 832(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 864(%rax), %ymm1
vmovdqu 864(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 896(%rax), %ymm1
vmovdqu 896(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 928(%rax), %ymm1
vmovdqu 928(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 960(%rax), %ymm1
vmovdqu 960(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 992(%rax), %ymm1
vmovdqu 992(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 1024(%rax), %ymm1
vmovdqu 1024(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 1056(%rax), %ymm1
vmovdqu 1056(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vptest %ymm0, %ymm0
cmovne %rdx, %rcx
negq %rcx
shrq $63, %rcx
movq 17136(%rsp), %rax
addq $64, %rax
addq $2304, %rax
leaq 96(%rsp), %rdx
negq %rcx
movq %rcx, 17136(%rsp)
vpbroadcastq 17136(%rsp), %ymm0
vmovdqu (%rdx), %ymm1
vmovdqu (%rax), %ymm2
vpblendvb %ymm0, %ymm2, %ymm1, %ymm0
vmovdqu %ymm0, (%rdx)
movq $1088, %rdi
leaq 128(%rsp), %rax
leaq -256(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$2(%rip), %rcx
movq %rcx, 224(%rsp)
jmp L_sha3_256$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$2:
leaq 256(%rsp), %rsp
movq 17120(%rsp), %rdx
movq $32, %rcx
leaq 96(%rsp), %rax
leaq -256(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$1(%rip), %rsi
movq %rsi, 224(%rsp)
jmp L_shake256_64$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$1:
leaq 256(%rsp), %rsp
xorq %rax, %rax
movq 17160(%rsp), %rbx
movq 17168(%rsp), %rbp
movq 17176(%rsp), %r12
movq 17184(%rsp), %r13
movq 17192(%rsp), %rsp
ret
_jade_kem_kyber_kyber768_amd64_avx2_enc:
jade_kem_kyber_kyber768_amd64_avx2_enc:
movq %rsp, %rax
leaq -72(%rsp), %rsp
andq $-32, %rsp
movq %rax, 64(%rsp)
movq %rbx, 32(%rsp)
movq %rbp, 40(%rsp)
movq %r12, 48(%rsp)
movq %r13, 56(%rsp)
movq %rdi, %rbp
movq %rsi, %r12
movq %rdx, %rbx
movq %rsp, %rdi
movq $32, %rsi
call __jasmin_syscall_randombytes__
movq %rsp, %rcx
leaq -16064(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_enc$1(%rip), %rax
movq %rax, 16056(%rsp)
jmp L__crypto_kem_enc_derand_jazz$1
Ljade_kem_kyber_kyber768_amd64_avx2_enc$1:
leaq 16064(%rsp), %rsp
xorq %rax, %rax
movq 32(%rsp), %rbx
movq 40(%rsp), %rbp
movq 48(%rsp), %r12
movq 56(%rsp), %r13
movq 64(%rsp), %rsp
ret
_jade_kem_kyber_kyber768_amd64_avx2_enc_derand:
jade_kem_kyber_kyber768_amd64_avx2_enc_derand:
movq %rsp, %rax
leaq -72(%rsp), %rsp
andq $-32, %rsp
movq %rax, 64(%rsp)
movq %rbx, 32(%rsp)
movq %rbp, 40(%rsp)
movq %r12, 48(%rsp)
movq %r13, 56(%rsp)
movq %rdi, %rbp
movq %rsi, %r12
movq %rdx, %rbx
movq %rsp, %rax
movb (%rcx), %dl
movb %dl, (%rax)
movb 1(%rcx), %dl
movb %dl, 1(%rax)
movb 2(%rcx), %dl
movb %dl, 2(%rax)
movb 3(%rcx), %dl
movb %dl, 3(%rax)
movb 4(%rcx), %dl
movb %dl, 4(%rax)
movb 5(%rcx), %dl
movb %dl, 5(%rax)
movb 6(%rcx), %dl
movb %dl, 6(%rax)
movb 7(%rcx), %dl
movb %dl, 7(%rax)
movb 8(%rcx), %dl
movb %dl, 8(%rax)
movb 9(%rcx), %dl
movb %dl, 9(%rax)
movb 10(%rcx), %dl
movb %dl, 10(%rax)
movb 11(%rcx), %dl
movb %dl, 11(%rax)
movb 12(%rcx), %dl
movb %dl, 12(%rax)
movb 13(%rcx), %dl
movb %dl, 13(%rax)
movb 14(%rcx), %dl
movb %dl, 14(%rax)
movb 15(%rcx), %dl
movb %dl, 15(%rax)
movb 16(%rcx), %dl
movb %dl, 16(%rax)
movb 17(%rcx), %dl
movb %dl, 17(%rax)
movb 18(%rcx), %dl
movb %dl, 18(%rax)
movb 19(%rcx), %dl
movb %dl, 19(%rax)
movb 20(%rcx), %dl
movb %dl, 20(%rax)
movb 21(%rcx), %dl
movb %dl, 21(%rax)
movb 22(%rcx), %dl
movb %dl, 22(%rax)
movb 23(%rcx), %dl
movb %dl, 23(%rax)
movb 24(%rcx), %dl
movb %dl, 24(%rax)
movb 25(%rcx), %dl
movb %dl, 25(%rax)
movb 26(%rcx), %dl
movb %dl, 26(%rax)
movb 27(%rcx), %dl
movb %dl, 27(%rax)
movb 28(%rcx), %dl
movb %dl, 28(%rax)
movb 29(%rcx), %dl
movb %dl, 29(%rax)
movb 30(%rcx), %dl
movb %dl, 30(%rax)
movb 31(%rcx), %cl
movb %cl, 31(%rax)
movq %rsp, %rcx
leaq -16064(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_enc_derand$1(%rip), %rax
movq %rax, 16056(%rsp)
jmp L__crypto_kem_enc_derand_jazz$1
Ljade_kem_kyber_kyber768_amd64_avx2_enc_derand$1:
leaq 16064(%rsp), %rsp
xorq %rax, %rax
movq 32(%rsp), %rbx
movq 40(%rsp), %rbp
movq 48(%rsp), %r12
movq 56(%rsp), %r13
movq 64(%rsp), %rsp
ret
_jade_kem_kyber_kyber768_amd64_avx2_keypair:
jade_kem_kyber_kyber768_amd64_avx2_keypair:
movq %rsp, %rax
leaq -104(%rsp), %rsp
andq $-32, %rsp
movq %rax, 96(%rsp)
movq %rbx, 64(%rsp)
movq %rbp, 72(%rsp)
movq %r12, 80(%rsp)
movq %r13, 88(%rsp)
movq %rdi, %rbp
movq %rsi, %rbx
movq %rsp, %rdi
movq $64, %rsi
call __jasmin_syscall_randombytes__
movq %rsp, %rax
leaq -13024(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_keypair$1(%rip), %rcx
movq %rcx, 13000(%rsp)
jmp L__crypto_kem_keypair_derand_jazz$1
Ljade_kem_kyber_kyber768_amd64_avx2_keypair$1:
leaq 13024(%rsp), %rsp
xorq %rax, %rax
movq 64(%rsp), %rbx
movq 72(%rsp), %rbp
movq 80(%rsp), %r12
movq 88(%rsp), %r13
movq 96(%rsp), %rsp
ret
_jade_kem_kyber_kyber768_amd64_avx2_keypair_derand:
jade_kem_kyber_kyber768_amd64_avx2_keypair_derand:
movq %rsp, %rax
leaq -104(%rsp), %rsp
andq $-32, %rsp
movq %rax, 96(%rsp)
movq %rbx, 64(%rsp)
movq %rbp, 72(%rsp)
movq %r12, 80(%rsp)
movq %r13, 88(%rsp)
movq %rdi, %rbp
movq %rsi, %rbx
movq %rsp, %rax
movb (%rdx), %cl
movb %cl, (%rax)
movb 1(%rdx), %cl
movb %cl, 1(%rax)
movb 2(%rdx), %cl
movb %cl, 2(%rax)
movb 3(%rdx), %cl
movb %cl, 3(%rax)
movb 4(%rdx), %cl
movb %cl, 4(%rax)
movb 5(%rdx), %cl
movb %cl, 5(%rax)
movb 6(%rdx), %cl
movb %cl, 6(%rax)
movb 7(%rdx), %cl
movb %cl, 7(%rax)
movb 8(%rdx), %cl
movb %cl, 8(%rax)
movb 9(%rdx), %cl
movb %cl, 9(%rax)
movb 10(%rdx), %cl
movb %cl, 10(%rax)
movb 11(%rdx), %cl
movb %cl, 11(%rax)
movb 12(%rdx), %cl
movb %cl, 12(%rax)
movb 13(%rdx), %cl
movb %cl, 13(%rax)
movb 14(%rdx), %cl
movb %cl, 14(%rax)
movb 15(%rdx), %cl
movb %cl, 15(%rax)
movb 16(%rdx), %cl
movb %cl, 16(%rax)
movb 17(%rdx), %cl
movb %cl, 17(%rax)
movb 18(%rdx), %cl
movb %cl, 18(%rax)
movb 19(%rdx), %cl
movb %cl, 19(%rax)
movb 20(%rdx), %cl
movb %cl, 20(%rax)
movb 21(%rdx), %cl
movb %cl, 21(%rax)
movb 22(%rdx), %cl
movb %cl, 22(%rax)
movb 23(%rdx), %cl
movb %cl, 23(%rax)
movb 24(%rdx), %cl
movb %cl, 24(%rax)
movb 25(%rdx), %cl
movb %cl, 25(%rax)
movb 26(%rdx), %cl
movb %cl, 26(%rax)
movb 27(%rdx), %cl
movb %cl, 27(%rax)
movb 28(%rdx), %cl
movb %cl, 28(%rax)
movb 29(%rdx), %cl
movb %cl, 29(%rax)
movb 30(%rdx), %cl
movb %cl, 30(%rax)
movb 31(%rdx), %cl
movb %cl, 31(%rax)
movb 32(%rdx), %cl
movb %cl, 32(%rax)
movb 33(%rdx), %cl
movb %cl, 33(%rax)
movb 34(%rdx), %cl
movb %cl, 34(%rax)
movb 35(%rdx), %cl
movb %cl, 35(%rax)
movb 36(%rdx), %cl
movb %cl, 36(%rax)
movb 37(%rdx), %cl
movb %cl, 37(%rax)
movb 38(%rdx), %cl
movb %cl, 38(%rax)
movb 39(%rdx), %cl
movb %cl, 39(%rax)
movb 40(%rdx), %cl
movb %cl, 40(%rax)
movb 41(%rdx), %cl
movb %cl, 41(%rax)
movb 42(%rdx), %cl
movb %cl, 42(%rax)
movb 43(%rdx), %cl
movb %cl, 43(%rax)
movb 44(%rdx), %cl
movb %cl, 44(%rax)
movb 45(%rdx), %cl
movb %cl, 45(%rax)
movb 46(%rdx), %cl
movb %cl, 46(%rax)
movb 47(%rdx), %cl
movb %cl, 47(%rax)
movb 48(%rdx), %cl
movb %cl, 48(%rax)
movb 49(%rdx), %cl
movb %cl, 49(%rax)
movb 50(%rdx), %cl
movb %cl, 50(%rax)
movb 51(%rdx), %cl
movb %cl, 51(%rax)
movb 52(%rdx), %cl
movb %cl, 52(%rax)
movb 53(%rdx), %cl
movb %cl, 53(%rax)
movb 54(%rdx), %cl
movb %cl, 54(%rax)
movb 55(%rdx), %cl
movb %cl, 55(%rax)
movb 56(%rdx), %cl
movb %cl, 56(%rax)
movb 57(%rdx), %cl
movb %cl, 57(%rax)
movb 58(%rdx), %cl
movb %cl, 58(%rax)
movb 59(%rdx), %cl
movb %cl, 59(%rax)
movb 60(%rdx), %cl
movb %cl, 60(%rax)
movb 61(%rdx), %cl
movb %cl, 61(%rax)
movb 62(%rdx), %cl
movb %cl, 62(%rax)
movb 63(%rdx), %cl
movb %cl, 63(%rax)
movq %rsp, %rax
leaq -13024(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_keypair_derand$1(%rip), %rcx
movq %rcx, 13000(%rsp)
jmp L__crypto_kem_keypair_derand_jazz$1
Ljade_kem_kyber_kyber768_amd64_avx2_keypair_derand$1:
leaq 13024(%rsp), %rsp
xorq %rax, %rax
movq 64(%rsp), %rbx
movq 72(%rsp), %rbp
movq 80(%rsp), %r12
movq 88(%rsp), %r13
movq 96(%rsp), %rsp
ret
L__crypto_kem_enc_derand_jazz$1:
movq %rbx, 16032(%rsp)
movq %rbp, 16040(%rsp)
movq %r12, 16048(%rsp)
leaq 32(%rsp), %rax
leaq -256(%rsp), %rsp
leaq L__crypto_kem_enc_derand_jazz$133(%rip), %rdx
movq %rdx, 224(%rsp)
jmp L_sha3_256_32$1
L__crypto_kem_enc_derand_jazz$133:
leaq 256(%rsp), %rsp
movq 16032(%rsp), %r8
movq $1184, %rdi
leaq 64(%rsp), %rax
leaq -256(%rsp), %rsp
leaq L__crypto_kem_enc_derand_jazz$132(%rip), %rcx
movq %rcx, 224(%rsp)
jmp L_sha3_256$1
L__crypto_kem_enc_derand_jazz$132:
leaq 256(%rsp), %rsp
leaq 96(%rsp), %rax
leaq 32(%rsp), %rcx
leaq -256(%rsp), %rsp
leaq L__crypto_kem_enc_derand_jazz$131(%rip), %rdx
movq %rdx, 224(%rsp)
jmp L_sha3_512_64$1
L__crypto_kem_enc_derand_jazz$131:
leaq 256(%rsp), %rsp
movq 16032(%rsp), %rcx
leaq 32(%rsp), %rax
leaq 128(%rsp), %rdx
movq %rcx, %rdi
leaq 5280(%rsp), %r8
leaq L__crypto_kem_enc_derand_jazz$130(%rip), %r10
jmp L_poly_frombytes$1
L__crypto_kem_enc_derand_jazz$130:
addq $384, %rdi
leaq 5792(%rsp), %r8
leaq L__crypto_kem_enc_derand_jazz$129(%rip), %r10
jmp L_poly_frombytes$1
L__crypto_kem_enc_derand_jazz$129:
addq $384, %rdi
leaq 6304(%rsp), %r8
leaq L__crypto_kem_enc_derand_jazz$128(%rip), %r10
jmp L_poly_frombytes$1
L__crypto_kem_enc_derand_jazz$128:
movq $0, %rsi
addq $1152, %rcx
jmp L__crypto_kem_enc_derand_jazz$126
L__crypto_kem_enc_derand_jazz$127:
movq (%rcx), %rdi
movq %rdi, (%rsp,%rsi,8)
addq $8, %rcx
incq %rsi
L__crypto_kem_enc_derand_jazz$126:
cmpq $4, %rsi
jb L__crypto_kem_enc_derand_jazz$127
leaq 2432(%rsp), %rcx
leaq L__crypto_kem_enc_derand_jazz$125(%rip), %r8
jmp L_poly_frommsg_1$1
L__crypto_kem_enc_derand_jazz$125:
movq %rdx, 16032(%rsp)
vmovdqu (%rsp), %ymm0
vmovdqu %ymm0, 384(%rsp)
vmovdqu %ymm0, 896(%rsp)
vmovdqu %ymm0, 1408(%rsp)
vmovdqu %ymm0, 1920(%rsp)
vmovdqu %ymm0, (%rsp)
movb $0, 416(%rsp)
movb $0, 417(%rsp)
movb $0, 928(%rsp)
movb $1, 929(%rsp)
movb $0, 1440(%rsp)
movb $2, 1441(%rsp)
movb $1, 1952(%rsp)
movb $0, 1953(%rsp)
leaq 4480(%rsp), %rax
leaq 384(%rsp), %rcx
leaq 896(%rsp), %rdx
leaq 1408(%rsp), %rsi
leaq 1920(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq L__crypto_kem_enc_derand_jazz$124(%rip), %r8
movq %r8, (%rsp)
jmp L_shake128_absorb4x_34$1
L__crypto_kem_enc_derand_jazz$124:
leaq 8(%rsp), %rsp
leaq 4480(%rsp), %rax
leaq 384(%rsp), %rdi
leaq 896(%rsp), %r8
leaq 1408(%rsp), %r9
leaq 1920(%rsp), %r10
movq %rdi, %r11
movq %r8, %rbx
movq %r9, %rbp
movq %r10, %r12
leaq -832(%rsp), %rsp
leaq L__crypto_kem_enc_derand_jazz$123(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
L__crypto_kem_enc_derand_jazz$123:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r11)
vmovhpd %xmm1, (%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbp)
vmovhpd %xmm0, (%r12)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r11)
vmovhpd %xmm1, 8(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbp)
vmovhpd %xmm0, 8(%r12)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r11)
vmovhpd %xmm1, 16(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbp)
vmovhpd %xmm0, 16(%r12)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r11)
vmovhpd %xmm1, 24(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbp)
vmovhpd %xmm0, 24(%r12)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r11)
vmovhpd %xmm1, 32(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbp)
vmovhpd %xmm0, 32(%r12)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r11)
vmovhpd %xmm1, 40(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbp)
vmovhpd %xmm0, 40(%r12)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r11)
vmovhpd %xmm1, 48(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbp)
vmovhpd %xmm0, 48(%r12)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r11)
vmovhpd %xmm1, 56(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbp)
vmovhpd %xmm0, 56(%r12)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r11)
vmovhpd %xmm1, 64(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbp)
vmovhpd %xmm0, 64(%r12)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r11)
vmovhpd %xmm1, 72(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbp)
vmovhpd %xmm0, 72(%r12)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r11)
vmovhpd %xmm1, 80(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbp)
vmovhpd %xmm0, 80(%r12)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r11)
vmovhpd %xmm1, 88(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbp)
vmovhpd %xmm0, 88(%r12)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r11)
vmovhpd %xmm1, 96(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbp)
vmovhpd %xmm0, 96(%r12)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r11)
vmovhpd %xmm1, 104(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbp)
vmovhpd %xmm0, 104(%r12)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r11)
vmovhpd %xmm1, 112(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbp)
vmovhpd %xmm0, 112(%r12)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r11)
vmovhpd %xmm1, 120(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbp)
vmovhpd %xmm0, 120(%r12)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r11)
vmovhpd %xmm1, 128(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbp)
vmovhpd %xmm0, 128(%r12)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%r11)
vmovhpd %xmm1, 136(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%rbp)
vmovhpd %xmm0, 136(%r12)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%r11)
vmovhpd %xmm1, 144(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%rbp)
vmovhpd %xmm0, 144(%r12)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%r11)
vmovhpd %xmm1, 152(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%rbp)
vmovhpd %xmm0, 152(%r12)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%r11)
vmovhpd %xmm1, 160(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%rbp)
vmovhpd %xmm0, 160(%r12)
leaq 168(%rdi), %r11
leaq 168(%r8), %rbx
leaq 168(%r9), %rbp
leaq 168(%r10), %r12
leaq -832(%rsp), %rsp
leaq L__crypto_kem_enc_derand_jazz$122(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
L__crypto_kem_enc_derand_jazz$122:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r11)
vmovhpd %xmm1, (%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbp)
vmovhpd %xmm0, (%r12)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r11)
vmovhpd %xmm1, 8(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbp)
vmovhpd %xmm0, 8(%r12)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r11)
vmovhpd %xmm1, 16(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbp)
vmovhpd %xmm0, 16(%r12)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r11)
vmovhpd %xmm1, 24(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbp)
vmovhpd %xmm0, 24(%r12)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r11)
vmovhpd %xmm1, 32(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbp)
vmovhpd %xmm0, 32(%r12)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r11)
vmovhpd %xmm1, 40(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbp)
vmovhpd %xmm0, 40(%r12)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r11)
vmovhpd %xmm1, 48(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbp)
vmovhpd %xmm0, 48(%r12)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r11)
vmovhpd %xmm1, 56(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbp)
vmovhpd %xmm0, 56(%r12)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r11)
vmovhpd %xmm1, 64(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbp)
vmovhpd %xmm0, 64(%r12)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r11)
vmovhpd %xmm1, 72(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbp)
vmovhpd %xmm0, 72(%r12)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r11)
vmovhpd %xmm1, 80(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbp)
vmovhpd %xmm0, 80(%r12)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r11)
vmovhpd %xmm1, 88(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbp)
vmovhpd %xmm0, 88(%r12)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r11)
vmovhpd %xmm1, 96(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbp)
vmovhpd %xmm0, 96(%r12)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r11)
vmovhpd %xmm1, 104(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbp)
vmovhpd %xmm0, 104(%r12)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r11)
vmovhpd %xmm1, 112(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbp)
vmovhpd %xmm0, 112(%r12)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r11)
vmovhpd %xmm1, 120(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbp)
vmovhpd %xmm0, 120(%r12)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r11)
vmovhpd %xmm1, 128(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbp)
vmovhpd %xmm0, 128(%r12)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%r11)
vmovhpd %xmm1, 136(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%rbp)
vmovhpd %xmm0, 136(%r12)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%r11)
vmovhpd %xmm1, 144(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%rbp)
vmovhpd %xmm0, 144(%r12)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%r11)
vmovhpd %xmm1, 152(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%rbp)
vmovhpd %xmm0, 152(%r12)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%r11)
vmovhpd %xmm1, 160(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%rbp)
vmovhpd %xmm0, 160(%r12)
leaq 336(%rdi), %rdi
leaq 336(%r8), %r8
leaq 336(%r9), %r9
leaq 336(%r10), %r10
leaq -832(%rsp), %rsp
leaq L__crypto_kem_enc_derand_jazz$121(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
L__crypto_kem_enc_derand_jazz$121:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%rdi)
vmovhpd %xmm1, (%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%r9)
vmovhpd %xmm0, (%r10)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%rdi)
vmovhpd %xmm1, 8(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%r9)
vmovhpd %xmm0, 8(%r10)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%rdi)
vmovhpd %xmm1, 16(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%r9)
vmovhpd %xmm0, 16(%r10)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%rdi)
vmovhpd %xmm1, 24(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%r9)
vmovhpd %xmm0, 24(%r10)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%rdi)
vmovhpd %xmm1, 32(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%r9)
vmovhpd %xmm0, 32(%r10)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%rdi)
vmovhpd %xmm1, 40(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%r9)
vmovhpd %xmm0, 40(%r10)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%rdi)
vmovhpd %xmm1, 48(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%r9)
vmovhpd %xmm0, 48(%r10)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%rdi)
vmovhpd %xmm1, 56(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%r9)
vmovhpd %xmm0, 56(%r10)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%rdi)
vmovhpd %xmm1, 64(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%r9)
vmovhpd %xmm0, 64(%r10)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%rdi)
vmovhpd %xmm1, 72(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%r9)
vmovhpd %xmm0, 72(%r10)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%rdi)
vmovhpd %xmm1, 80(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%r9)
vmovhpd %xmm0, 80(%r10)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%rdi)
vmovhpd %xmm1, 88(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%r9)
vmovhpd %xmm0, 88(%r10)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%rdi)
vmovhpd %xmm1, 96(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%r9)
vmovhpd %xmm0, 96(%r10)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%rdi)
vmovhpd %xmm1, 104(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%r9)
vmovhpd %xmm0, 104(%r10)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%rdi)
vmovhpd %xmm1, 112(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%r9)
vmovhpd %xmm0, 112(%r10)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%rdi)
vmovhpd %xmm1, 120(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%r9)
vmovhpd %xmm0, 120(%r10)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%rdi)
vmovhpd %xmm1, 128(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%r9)
vmovhpd %xmm0, 128(%r10)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%rdi)
vmovhpd %xmm1, 136(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%r9)
vmovhpd %xmm0, 136(%r10)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%rdi)
vmovhpd %xmm1, 144(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%r9)
vmovhpd %xmm0, 144(%r10)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%rdi)
vmovhpd %xmm1, 152(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%r9)
vmovhpd %xmm0, 152(%r10)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%rdi)
vmovhpd %xmm1, 160(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%r9)
vmovhpd %xmm0, 160(%r10)
leaq 11424(%rsp), %rbx
leaq 384(%rsp), %rbp
leaq L__crypto_kem_enc_derand_jazz$120(%rip), %r11
jmp L_rej_uniform_avx$1
L__crypto_kem_enc_derand_jazz$120:
movq %r13, %r9
leaq 11936(%rsp), %rbx
leaq 896(%rsp), %rbp
leaq L__crypto_kem_enc_derand_jazz$119(%rip), %r11
jmp L_rej_uniform_avx$1
L__crypto_kem_enc_derand_jazz$119:
movq %r13, %rdi
leaq 12448(%rsp), %rbx
leaq 1408(%rsp), %rbp
leaq L__crypto_kem_enc_derand_jazz$118(%rip), %r11
jmp L_rej_uniform_avx$1
L__crypto_kem_enc_derand_jazz$118:
movq %r13, %r8
leaq 12960(%rsp), %rbx
leaq 1920(%rsp), %rbp
leaq L__crypto_kem_enc_derand_jazz$117(%rip), %r11
jmp L_rej_uniform_avx$1
L__crypto_kem_enc_derand_jazz$117:
cmpq $255, %r9
setbe %al
cmpq $255, %rdi
setbe %cl
orb %cl, %al
cmpq $255, %r8
setbe %cl
cmpq $255, %r13
setbe %dl
orb %dl, %cl
orb %al, %cl
jmp L__crypto_kem_enc_derand_jazz$94
L__crypto_kem_enc_derand_jazz$95:
leaq 4480(%rsp), %rax
leaq 384(%rsp), %r10
leaq 896(%rsp), %r11
leaq 1408(%rsp), %rbx
leaq 1920(%rsp), %rbp
leaq -832(%rsp), %rsp
leaq L__crypto_kem_enc_derand_jazz$116(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
L__crypto_kem_enc_derand_jazz$116:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r10)
vmovhpd %xmm1, (%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbx)
vmovhpd %xmm0, (%rbp)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r10)
vmovhpd %xmm1, 8(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbx)
vmovhpd %xmm0, 8(%rbp)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r10)
vmovhpd %xmm1, 16(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbx)
vmovhpd %xmm0, 16(%rbp)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r10)
vmovhpd %xmm1, 24(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbx)
vmovhpd %xmm0, 24(%rbp)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r10)
vmovhpd %xmm1, 32(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbx)
vmovhpd %xmm0, 32(%rbp)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r10)
vmovhpd %xmm1, 40(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbx)
vmovhpd %xmm0, 40(%rbp)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r10)
vmovhpd %xmm1, 48(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbx)
vmovhpd %xmm0, 48(%rbp)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r10)
vmovhpd %xmm1, 56(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbx)
vmovhpd %xmm0, 56(%rbp)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r10)
vmovhpd %xmm1, 64(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbx)
vmovhpd %xmm0, 64(%rbp)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r10)
vmovhpd %xmm1, 72(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbx)
vmovhpd %xmm0, 72(%rbp)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r10)
vmovhpd %xmm1, 80(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbx)
vmovhpd %xmm0, 80(%rbp)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r10)
vmovhpd %xmm1, 88(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbx)
vmovhpd %xmm0, 88(%rbp)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r10)
vmovhpd %xmm1, 96(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbx)
vmovhpd %xmm0, 96(%rbp)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r10)
vmovhpd %xmm1, 104(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbx)
vmovhpd %xmm0, 104(%rbp)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r10)
vmovhpd %xmm1, 112(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbx)
vmovhpd %xmm0, 112(%rbp)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r10)
vmovhpd %xmm1, 120(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbx)
vmovhpd %xmm0, 120(%rbp)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r10)
vmovhpd %xmm1, 128(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbx)
vmovhpd %xmm0, 128(%rbp)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%r10)
vmovhpd %xmm1, 136(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%rbx)
vmovhpd %xmm0, 136(%rbp)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%r10)
vmovhpd %xmm1, 144(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%rbx)
vmovhpd %xmm0, 144(%rbp)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%r10)
vmovhpd %xmm1, 152(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%rbx)
vmovhpd %xmm0, 152(%rbp)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%r10)
vmovhpd %xmm1, 160(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%rbx)
vmovhpd %xmm0, 160(%rbp)
leaq 11424(%rsp), %rax
leaq 384(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r9
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp L__crypto_kem_enc_derand_jazz$111
L__crypto_kem_enc_derand_jazz$112:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb L__crypto_kem_enc_derand_jazz$115
movw %si, (%rax,%r9,2)
incq %r9
L__crypto_kem_enc_derand_jazz$115:
cmpq $256, %r9
jnb L__crypto_kem_enc_derand_jazz$113
cmpw $3329, %r11w
jnb L__crypto_kem_enc_derand_jazz$113
movw %r11w, (%rax,%r9,2)
incq %r9
L__crypto_kem_enc_derand_jazz$114:
L__crypto_kem_enc_derand_jazz$113:
cmpq $255, %r9
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
L__crypto_kem_enc_derand_jazz$111:
jne L__crypto_kem_enc_derand_jazz$112
leaq 11936(%rsp), %rax
leaq 896(%rsp), %rcx
movq $0, %rdx
cmpq $255, %rdi
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp L__crypto_kem_enc_derand_jazz$106
L__crypto_kem_enc_derand_jazz$107:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb L__crypto_kem_enc_derand_jazz$110
movw %si, (%rax,%rdi,2)
incq %rdi
L__crypto_kem_enc_derand_jazz$110:
cmpq $256, %rdi
jnb L__crypto_kem_enc_derand_jazz$108
cmpw $3329, %r11w
jnb L__crypto_kem_enc_derand_jazz$108
movw %r11w, (%rax,%rdi,2)
incq %rdi
L__crypto_kem_enc_derand_jazz$109:
L__crypto_kem_enc_derand_jazz$108:
cmpq $255, %rdi
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
L__crypto_kem_enc_derand_jazz$106:
jne L__crypto_kem_enc_derand_jazz$107
leaq 12448(%rsp), %rax
leaq 1408(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r8
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp L__crypto_kem_enc_derand_jazz$101
L__crypto_kem_enc_derand_jazz$102:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb L__crypto_kem_enc_derand_jazz$105
movw %si, (%rax,%r8,2)
incq %r8
L__crypto_kem_enc_derand_jazz$105:
cmpq $256, %r8
jnb L__crypto_kem_enc_derand_jazz$103
cmpw $3329, %r11w
jnb L__crypto_kem_enc_derand_jazz$103
movw %r11w, (%rax,%r8,2)
incq %r8
L__crypto_kem_enc_derand_jazz$104:
L__crypto_kem_enc_derand_jazz$103:
cmpq $255, %r8
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
L__crypto_kem_enc_derand_jazz$101:
jne L__crypto_kem_enc_derand_jazz$102
leaq 12960(%rsp), %rax
leaq 1920(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r13
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp L__crypto_kem_enc_derand_jazz$96
L__crypto_kem_enc_derand_jazz$97:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb L__crypto_kem_enc_derand_jazz$100
movw %si, (%rax,%r13,2)
incq %r13
L__crypto_kem_enc_derand_jazz$100:
cmpq $256, %r13
jnb L__crypto_kem_enc_derand_jazz$98
cmpw $3329, %r11w
jnb L__crypto_kem_enc_derand_jazz$98
movw %r11w, (%rax,%r13,2)
incq %r13
L__crypto_kem_enc_derand_jazz$99:
L__crypto_kem_enc_derand_jazz$98:
cmpq $255, %r13
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
L__crypto_kem_enc_derand_jazz$96:
jne L__crypto_kem_enc_derand_jazz$97
cmpq $255, %r9
setbe %al
cmpq $255, %rdi
setbe %cl
orb %cl, %al
cmpq $255, %r8
setbe %cl
cmpq $255, %r13
setbe %dl
orb %dl, %cl
orb %al, %cl
L__crypto_kem_enc_derand_jazz$94:
jne L__crypto_kem_enc_derand_jazz$95
vmovdqu (%rsp), %ymm0
vmovdqu %ymm0, 384(%rsp)
vmovdqu %ymm0, 896(%rsp)
vmovdqu %ymm0, 1408(%rsp)
vmovdqu %ymm0, 1920(%rsp)
vmovdqu %ymm0, (%rsp)
movb $1, 416(%rsp)
movb $1, 417(%rsp)
movb $1, 928(%rsp)
movb $2, 929(%rsp)
movb $2, 1440(%rsp)
movb $0, 1441(%rsp)
movb $2, 1952(%rsp)
movb $1, 1953(%rsp)
leaq 4480(%rsp), %rax
leaq 384(%rsp), %rcx
leaq 896(%rsp), %rdx
leaq 1408(%rsp), %rsi
leaq 1920(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq L__crypto_kem_enc_derand_jazz$93(%rip), %r8
movq %r8, (%rsp)
jmp L_shake128_absorb4x_34$1
L__crypto_kem_enc_derand_jazz$93:
leaq 8(%rsp), %rsp
leaq 4480(%rsp), %rax
leaq 384(%rsp), %rdi
leaq 896(%rsp), %r8
leaq 1408(%rsp), %r9
leaq 1920(%rsp), %r10
movq %rdi, %r11
movq %r8, %rbx
movq %r9, %rbp
movq %r10, %r12
leaq -832(%rsp), %rsp
leaq L__crypto_kem_enc_derand_jazz$92(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
L__crypto_kem_enc_derand_jazz$92:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r11)
vmovhpd %xmm1, (%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbp)
vmovhpd %xmm0, (%r12)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r11)
vmovhpd %xmm1, 8(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbp)
vmovhpd %xmm0, 8(%r12)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r11)
vmovhpd %xmm1, 16(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbp)
vmovhpd %xmm0, 16(%r12)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r11)
vmovhpd %xmm1, 24(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbp)
vmovhpd %xmm0, 24(%r12)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r11)
vmovhpd %xmm1, 32(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbp)
vmovhpd %xmm0, 32(%r12)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r11)
vmovhpd %xmm1, 40(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbp)
vmovhpd %xmm0, 40(%r12)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r11)
vmovhpd %xmm1, 48(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbp)
vmovhpd %xmm0, 48(%r12)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r11)
vmovhpd %xmm1, 56(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbp)
vmovhpd %xmm0, 56(%r12)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r11)
vmovhpd %xmm1, 64(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbp)
vmovhpd %xmm0, 64(%r12)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r11)
vmovhpd %xmm1, 72(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbp)
vmovhpd %xmm0, 72(%r12)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r11)
vmovhpd %xmm1, 80(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbp)
vmovhpd %xmm0, 80(%r12)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r11)
vmovhpd %xmm1, 88(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbp)
vmovhpd %xmm0, 88(%r12)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r11)
vmovhpd %xmm1, 96(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbp)
vmovhpd %xmm0, 96(%r12)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r11)
vmovhpd %xmm1, 104(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbp)
vmovhpd %xmm0, 104(%r12)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r11)
vmovhpd %xmm1, 112(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbp)
vmovhpd %xmm0, 112(%r12)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r11)
vmovhpd %xmm1, 120(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbp)
vmovhpd %xmm0, 120(%r12)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r11)
vmovhpd %xmm1, 128(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbp)
vmovhpd %xmm0, 128(%r12)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%r11)
vmovhpd %xmm1, 136(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%rbp)
vmovhpd %xmm0, 136(%r12)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%r11)
vmovhpd %xmm1, 144(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%rbp)
vmovhpd %xmm0, 144(%r12)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%r11)
vmovhpd %xmm1, 152(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%rbp)
vmovhpd %xmm0, 152(%r12)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%r11)
vmovhpd %xmm1, 160(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%rbp)
vmovhpd %xmm0, 160(%r12)
leaq 168(%rdi), %r11
leaq 168(%r8), %rbx
leaq 168(%r9), %rbp
leaq 168(%r10), %r12
leaq -832(%rsp), %rsp
leaq L__crypto_kem_enc_derand_jazz$91(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
L__crypto_kem_enc_derand_jazz$91:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r11)
vmovhpd %xmm1, (%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbp)
vmovhpd %xmm0, (%r12)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r11)
vmovhpd %xmm1, 8(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbp)
vmovhpd %xmm0, 8(%r12)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r11)
vmovhpd %xmm1, 16(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbp)
vmovhpd %xmm0, 16(%r12)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r11)
vmovhpd %xmm1, 24(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbp)
vmovhpd %xmm0, 24(%r12)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r11)
vmovhpd %xmm1, 32(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbp)
vmovhpd %xmm0, 32(%r12)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r11)
vmovhpd %xmm1, 40(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbp)
vmovhpd %xmm0, 40(%r12)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r11)
vmovhpd %xmm1, 48(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbp)
vmovhpd %xmm0, 48(%r12)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r11)
vmovhpd %xmm1, 56(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbp)
vmovhpd %xmm0, 56(%r12)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r11)
vmovhpd %xmm1, 64(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbp)
vmovhpd %xmm0, 64(%r12)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r11)
vmovhpd %xmm1, 72(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbp)
vmovhpd %xmm0, 72(%r12)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r11)
vmovhpd %xmm1, 80(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbp)
vmovhpd %xmm0, 80(%r12)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r11)
vmovhpd %xmm1, 88(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbp)
vmovhpd %xmm0, 88(%r12)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r11)
vmovhpd %xmm1, 96(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbp)
vmovhpd %xmm0, 96(%r12)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r11)
vmovhpd %xmm1, 104(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbp)
vmovhpd %xmm0, 104(%r12)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r11)
vmovhpd %xmm1, 112(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbp)
vmovhpd %xmm0, 112(%r12)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r11)
vmovhpd %xmm1, 120(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbp)
vmovhpd %xmm0, 120(%r12)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r11)
vmovhpd %xmm1, 128(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbp)
vmovhpd %xmm0, 128(%r12)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%r11)
vmovhpd %xmm1, 136(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%rbp)
vmovhpd %xmm0, 136(%r12)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%r11)
vmovhpd %xmm1, 144(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%rbp)
vmovhpd %xmm0, 144(%r12)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%r11)
vmovhpd %xmm1, 152(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%rbp)
vmovhpd %xmm0, 152(%r12)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%r11)
vmovhpd %xmm1, 160(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%rbp)
vmovhpd %xmm0, 160(%r12)
leaq 336(%rdi), %rdi
leaq 336(%r8), %r8
leaq 336(%r9), %r9
leaq 336(%r10), %r10
leaq -832(%rsp), %rsp
leaq L__crypto_kem_enc_derand_jazz$90(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
L__crypto_kem_enc_derand_jazz$90:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%rdi)
vmovhpd %xmm1, (%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%r9)
vmovhpd %xmm0, (%r10)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%rdi)
vmovhpd %xmm1, 8(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%r9)
vmovhpd %xmm0, 8(%r10)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%rdi)
vmovhpd %xmm1, 16(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%r9)
vmovhpd %xmm0, 16(%r10)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%rdi)
vmovhpd %xmm1, 24(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%r9)
vmovhpd %xmm0, 24(%r10)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%rdi)
vmovhpd %xmm1, 32(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%r9)
vmovhpd %xmm0, 32(%r10)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%rdi)
vmovhpd %xmm1, 40(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%r9)
vmovhpd %xmm0, 40(%r10)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%rdi)
vmovhpd %xmm1, 48(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%r9)
vmovhpd %xmm0, 48(%r10)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%rdi)
vmovhpd %xmm1, 56(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%r9)
vmovhpd %xmm0, 56(%r10)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%rdi)
vmovhpd %xmm1, 64(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%r9)
vmovhpd %xmm0, 64(%r10)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%rdi)
vmovhpd %xmm1, 72(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%r9)
vmovhpd %xmm0, 72(%r10)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%rdi)
vmovhpd %xmm1, 80(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%r9)
vmovhpd %xmm0, 80(%r10)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%rdi)
vmovhpd %xmm1, 88(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%r9)
vmovhpd %xmm0, 88(%r10)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%rdi)
vmovhpd %xmm1, 96(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%r9)
vmovhpd %xmm0, 96(%r10)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%rdi)
vmovhpd %xmm1, 104(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%r9)
vmovhpd %xmm0, 104(%r10)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%rdi)
vmovhpd %xmm1, 112(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%r9)
vmovhpd %xmm0, 112(%r10)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%rdi)
vmovhpd %xmm1, 120(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%r9)
vmovhpd %xmm0, 120(%r10)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%rdi)
vmovhpd %xmm1, 128(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%r9)
vmovhpd %xmm0, 128(%r10)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%rdi)
vmovhpd %xmm1, 136(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%r9)
vmovhpd %xmm0, 136(%r10)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%rdi)
vmovhpd %xmm1, 144(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%r9)
vmovhpd %xmm0, 144(%r10)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%rdi)
vmovhpd %xmm1, 152(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%r9)
vmovhpd %xmm0, 152(%r10)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%rdi)
vmovhpd %xmm1, 160(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%r9)
vmovhpd %xmm0, 160(%r10)
leaq 13472(%rsp), %rbx
leaq 384(%rsp), %rbp
leaq L__crypto_kem_enc_derand_jazz$89(%rip), %r11
jmp L_rej_uniform_avx$1
L__crypto_kem_enc_derand_jazz$89:
movq %r13, %rdi
leaq 13984(%rsp), %rbx
leaq 896(%rsp), %rbp
leaq L__crypto_kem_enc_derand_jazz$88(%rip), %r11
jmp L_rej_uniform_avx$1
L__crypto_kem_enc_derand_jazz$88:
movq %r13, %r8
leaq 14496(%rsp), %rbx
leaq 1408(%rsp), %rbp
leaq L__crypto_kem_enc_derand_jazz$87(%rip), %r11
jmp L_rej_uniform_avx$1
L__crypto_kem_enc_derand_jazz$87:
movq %r13, %r9
leaq 15008(%rsp), %rbx
leaq 1920(%rsp), %rbp
leaq L__crypto_kem_enc_derand_jazz$86(%rip), %r11
jmp L_rej_uniform_avx$1
L__crypto_kem_enc_derand_jazz$86:
cmpq $255, %rdi
setbe %al
cmpq $255, %r8
setbe %cl
orb %cl, %al
cmpq $255, %r9
setbe %cl
cmpq $255, %r13
setbe %dl
orb %dl, %cl
orb %al, %cl
jmp L__crypto_kem_enc_derand_jazz$63
L__crypto_kem_enc_derand_jazz$64:
leaq 4480(%rsp), %rax
leaq 384(%rsp), %r10
leaq 896(%rsp), %r11
leaq 1408(%rsp), %rbx
leaq 1920(%rsp), %rbp
leaq -832(%rsp), %rsp
leaq L__crypto_kem_enc_derand_jazz$85(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
L__crypto_kem_enc_derand_jazz$85:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r10)
vmovhpd %xmm1, (%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbx)
vmovhpd %xmm0, (%rbp)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r10)
vmovhpd %xmm1, 8(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbx)
vmovhpd %xmm0, 8(%rbp)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r10)
vmovhpd %xmm1, 16(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbx)
vmovhpd %xmm0, 16(%rbp)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r10)
vmovhpd %xmm1, 24(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbx)
vmovhpd %xmm0, 24(%rbp)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r10)
vmovhpd %xmm1, 32(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbx)
vmovhpd %xmm0, 32(%rbp)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r10)
vmovhpd %xmm1, 40(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbx)
vmovhpd %xmm0, 40(%rbp)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r10)
vmovhpd %xmm1, 48(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbx)
vmovhpd %xmm0, 48(%rbp)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r10)
vmovhpd %xmm1, 56(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbx)
vmovhpd %xmm0, 56(%rbp)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r10)
vmovhpd %xmm1, 64(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbx)
vmovhpd %xmm0, 64(%rbp)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r10)
vmovhpd %xmm1, 72(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbx)
vmovhpd %xmm0, 72(%rbp)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r10)
vmovhpd %xmm1, 80(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbx)
vmovhpd %xmm0, 80(%rbp)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r10)
vmovhpd %xmm1, 88(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbx)
vmovhpd %xmm0, 88(%rbp)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r10)
vmovhpd %xmm1, 96(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbx)
vmovhpd %xmm0, 96(%rbp)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r10)
vmovhpd %xmm1, 104(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbx)
vmovhpd %xmm0, 104(%rbp)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r10)
vmovhpd %xmm1, 112(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbx)
vmovhpd %xmm0, 112(%rbp)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r10)
vmovhpd %xmm1, 120(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbx)
vmovhpd %xmm0, 120(%rbp)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r10)
vmovhpd %xmm1, 128(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbx)
vmovhpd %xmm0, 128(%rbp)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%r10)
vmovhpd %xmm1, 136(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%rbx)
vmovhpd %xmm0, 136(%rbp)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%r10)
vmovhpd %xmm1, 144(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%rbx)
vmovhpd %xmm0, 144(%rbp)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%r10)
vmovhpd %xmm1, 152(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%rbx)
vmovhpd %xmm0, 152(%rbp)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%r10)
vmovhpd %xmm1, 160(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%rbx)
vmovhpd %xmm0, 160(%rbp)
leaq 13472(%rsp), %rax
leaq 384(%rsp), %rcx
movq $0, %rdx
cmpq $255, %rdi
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp L__crypto_kem_enc_derand_jazz$80
L__crypto_kem_enc_derand_jazz$81:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb L__crypto_kem_enc_derand_jazz$84
movw %si, (%rax,%rdi,2)
incq %rdi
L__crypto_kem_enc_derand_jazz$84:
cmpq $256, %rdi
jnb L__crypto_kem_enc_derand_jazz$82
cmpw $3329, %r11w
jnb L__crypto_kem_enc_derand_jazz$82
movw %r11w, (%rax,%rdi,2)
incq %rdi
L__crypto_kem_enc_derand_jazz$83:
L__crypto_kem_enc_derand_jazz$82:
cmpq $255, %rdi
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
L__crypto_kem_enc_derand_jazz$80:
jne L__crypto_kem_enc_derand_jazz$81
leaq 13984(%rsp), %rax
leaq 896(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r8
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp L__crypto_kem_enc_derand_jazz$75
L__crypto_kem_enc_derand_jazz$76:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb L__crypto_kem_enc_derand_jazz$79
movw %si, (%rax,%r8,2)
incq %r8
L__crypto_kem_enc_derand_jazz$79:
cmpq $256, %r8
jnb L__crypto_kem_enc_derand_jazz$77
cmpw $3329, %r11w
jnb L__crypto_kem_enc_derand_jazz$77
movw %r11w, (%rax,%r8,2)
incq %r8
L__crypto_kem_enc_derand_jazz$78:
L__crypto_kem_enc_derand_jazz$77:
cmpq $255, %r8
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
L__crypto_kem_enc_derand_jazz$75:
jne L__crypto_kem_enc_derand_jazz$76
leaq 14496(%rsp), %rax
leaq 1408(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r9
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp L__crypto_kem_enc_derand_jazz$70
L__crypto_kem_enc_derand_jazz$71:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb L__crypto_kem_enc_derand_jazz$74
movw %si, (%rax,%r9,2)
incq %r9
L__crypto_kem_enc_derand_jazz$74:
cmpq $256, %r9
jnb L__crypto_kem_enc_derand_jazz$72
cmpw $3329, %r11w
jnb L__crypto_kem_enc_derand_jazz$72
movw %r11w, (%rax,%r9,2)
incq %r9
L__crypto_kem_enc_derand_jazz$73:
L__crypto_kem_enc_derand_jazz$72:
cmpq $255, %r9
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
L__crypto_kem_enc_derand_jazz$70:
jne L__crypto_kem_enc_derand_jazz$71
leaq 15008(%rsp), %rax
leaq 1920(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r13
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp L__crypto_kem_enc_derand_jazz$65
L__crypto_kem_enc_derand_jazz$66:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb L__crypto_kem_enc_derand_jazz$69
movw %si, (%rax,%r13,2)
incq %r13
L__crypto_kem_enc_derand_jazz$69:
cmpq $256, %r13
jnb L__crypto_kem_enc_derand_jazz$67
cmpw $3329, %r11w
jnb L__crypto_kem_enc_derand_jazz$67
movw %r11w, (%rax,%r13,2)
incq %r13
L__crypto_kem_enc_derand_jazz$68:
L__crypto_kem_enc_derand_jazz$67:
cmpq $255, %r13
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
L__crypto_kem_enc_derand_jazz$65:
jne L__crypto_kem_enc_derand_jazz$66
cmpq $255, %rdi
setbe %al
cmpq $255, %r8
setbe %cl
orb %cl, %al
cmpq $255, %r9
setbe %cl
cmpq $255, %r13
setbe %dl
orb %dl, %cl
orb %al, %cl
L__crypto_kem_enc_derand_jazz$63:
jne L__crypto_kem_enc_derand_jazz$64
vmovdqu (%rsp), %ymm0
vmovdqu %ymm0, 384(%rsp)
movb $2, 416(%rsp)
movb $2, 417(%rsp)
leaq 384(%rsp), %rax
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 160(%rsp)
vmovdqu %ymm0, 192(%rsp)
vmovdqu %ymm0, 224(%rsp)
vmovdqu %ymm0, 256(%rsp)
vmovdqu %ymm0, 288(%rsp)
vmovdqu %ymm0, 320(%rsp)
vmovdqu %ymm0, 352(%rsp)
vpbroadcastq (%rax), %ymm5
movq 8(%rax), %rcx
movq glob_data + 6208(%rip), %rdx
movq %rcx, 160(%rsp,%rdx,8)
movq 16(%rax), %rcx
movq glob_data + 6216(%rip), %rdx
movq %rcx, 160(%rsp,%rdx,8)
movq 24(%rax), %rcx
movq glob_data + 6224(%rip), %rdx
movq %rcx, 160(%rsp,%rdx,8)
movb 32(%rax), %cl
movq glob_data + 6232(%rip), %rdx
shlq $3, %rdx
movb %cl, 160(%rsp,%rdx)
movb 33(%rax), %al
incq %rdx
movb %al, 160(%rsp,%rdx)
incq %rdx
movb $31, 160(%rsp,%rdx)
movq glob_data + 6360(%rip), %rax
shlq $3, %rax
movq $167, %rcx
andq $7, %rcx
addq %rcx, %rax
movb $-128, 160(%rsp,%rax)
vmovdqu 192(%rsp), %ymm0
vmovdqu 224(%rsp), %ymm1
vmovdqu 256(%rsp), %ymm2
vmovdqu 288(%rsp), %ymm6
vmovdqu 320(%rsp), %ymm3
vmovdqu 352(%rsp), %ymm4
leaq 384(%rsp), %rax
leaq glob_data + 3328(%rip), %rcx
movq $0, %rdx
leaq glob_data + 3136(%rip), %rsi
leaq glob_data + 2944(%rip), %rdi
movq $24, %r8
L__crypto_kem_enc_derand_jazz$62:
vpshufd $78, %ymm1, %ymm8
vpxor %ymm2, %ymm3, %ymm7
vpxor %ymm4, %ymm6, %ymm9
vpxor %ymm0, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm1, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm5, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm1, %ymm1
vpxor %ymm11, %ymm5, %ymm5
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm1, %ymm7
vpsrlvq (%rdi), %ymm1, %ymm1
vpor %ymm7, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpsllvq 64(%rsi), %ymm2, %ymm7
vpsrlvq 64(%rdi), %ymm2, %ymm2
vpor %ymm7, %ymm2, %ymm2
vpxor %ymm9, %ymm6, %ymm6
vpsllvq 96(%rsi), %ymm6, %ymm7
vpsrlvq 96(%rdi), %ymm6, %ymm6
vpor %ymm7, %ymm6, %ymm10
vpxor %ymm9, %ymm3, %ymm3
vpsllvq 128(%rsi), %ymm3, %ymm6
vpsrlvq 128(%rdi), %ymm3, %ymm3
vpor %ymm6, %ymm3, %ymm3
vpxor %ymm9, %ymm4, %ymm4
vpermq $-115, %ymm1, %ymm6
vpermq $-115, %ymm2, %ymm7
vpsllvq 160(%rsi), %ymm4, %ymm1
vpsrlvq 160(%rdi), %ymm4, %ymm2
vpor %ymm1, %ymm2, %ymm8
vpxor %ymm9, %ymm0, %ymm1
vpermq $27, %ymm10, %ymm0
vpermq $114, %ymm3, %ymm9
vpsllvq 32(%rsi), %ymm1, %ymm2
vpsrlvq 32(%rdi), %ymm1, %ymm1
vpor %ymm2, %ymm1, %ymm10
vpsrldq $8, %ymm8, %ymm1
vpandn %ymm1, %ymm8, %ymm2
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm3
vpblendd $12, %ymm7, %ymm6, %ymm4
vpblendd $12, %ymm6, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm0, %ymm3, %ymm3
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm0, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm3, %ymm3
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm3, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm4
vpblendd $12, %ymm10, %ymm0, %ymm11
vpblendd $12, %ymm0, %ymm6, %ymm12
vpxor %ymm6, %ymm1, %ymm3
vpblendd $48, %ymm6, %ymm11, %ymm1
vpblendd $48, %ymm7, %ymm12, %ymm11
vpxor %ymm0, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm1, %ymm1
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm1, %ymm1
vpxor %ymm9, %ymm1, %ymm12
vpermq $30, %ymm8, %ymm1
vpblendd $48, %ymm5, %ymm1, %ymm1
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm5, %ymm11, %ymm11
vpandn %ymm1, %ymm11, %ymm11
vpblendd $12, %ymm0, %ymm7, %ymm1
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm1, %ymm1
vpblendd $48, %ymm6, %ymm13, %ymm13
vpblendd $-64, %ymm6, %ymm1, %ymm1
vpblendd $-64, %ymm0, %ymm13, %ymm13
vpandn %ymm13, %ymm1, %ymm1
vpxor %ymm10, %ymm1, %ymm1
vpermq $0, %ymm2, %ymm13
vpermq $27, %ymm3, %ymm2
vpermq $-115, %ymm4, %ymm3
vpermq $114, %ymm12, %ymm4
vpblendd $12, %ymm6, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm0, %ymm9
vpblendd $48, %ymm0, %ymm12, %ymm0
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm0, %ymm0
vpblendd $-64, %ymm6, %ymm9, %ymm6
vpandn %ymm6, %ymm0, %ymm6
vpxor %ymm13, %ymm5, %ymm5
vpxor %ymm8, %ymm11, %ymm0
vpxor %ymm7, %ymm6, %ymm6
vpxor (%rcx,%rdx), %ymm5, %ymm5
addq $32, %rdx
decq %r8
jne L__crypto_kem_enc_derand_jazz$62
vmovdqu %ymm5, 160(%rsp)
vmovdqu %ymm0, 192(%rsp)
vmovdqu %ymm1, 224(%rsp)
vmovdqu %ymm2, 256(%rsp)
vmovdqu %ymm6, 288(%rsp)
vmovdqu %ymm3, 320(%rsp)
vmovdqu %ymm4, 352(%rsp)
movq glob_data + 6200(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, (%rax)
movq glob_data + 6208(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 8(%rax)
movq glob_data + 6216(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 16(%rax)
movq glob_data + 6224(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 24(%rax)
movq glob_data + 6232(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 32(%rax)
movq glob_data + 6240(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 40(%rax)
movq glob_data + 6248(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 48(%rax)
movq glob_data + 6256(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 56(%rax)
movq glob_data + 6264(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 64(%rax)
movq glob_data + 6272(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 72(%rax)
movq glob_data + 6280(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 80(%rax)
movq glob_data + 6288(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 88(%rax)
movq glob_data + 6296(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 96(%rax)
movq glob_data + 6304(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 104(%rax)
movq glob_data + 6312(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 112(%rax)
movq glob_data + 6320(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 120(%rax)
movq glob_data + 6328(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 128(%rax)
movq glob_data + 6336(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 136(%rax)
movq glob_data + 6344(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 144(%rax)
movq glob_data + 6352(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 152(%rax)
movq glob_data + 6360(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 160(%rax)
leaq 552(%rsp), %rax
leaq glob_data + 3328(%rip), %rcx
movq $0, %rdx
leaq glob_data + 3136(%rip), %rsi
leaq glob_data + 2944(%rip), %rdi
movq $24, %r8
L__crypto_kem_enc_derand_jazz$61:
vpshufd $78, %ymm1, %ymm8
vpxor %ymm2, %ymm3, %ymm7
vpxor %ymm4, %ymm6, %ymm9
vpxor %ymm0, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm1, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm5, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm1, %ymm1
vpxor %ymm11, %ymm5, %ymm5
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm1, %ymm7
vpsrlvq (%rdi), %ymm1, %ymm1
vpor %ymm7, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpsllvq 64(%rsi), %ymm2, %ymm7
vpsrlvq 64(%rdi), %ymm2, %ymm2
vpor %ymm7, %ymm2, %ymm2
vpxor %ymm9, %ymm6, %ymm6
vpsllvq 96(%rsi), %ymm6, %ymm7
vpsrlvq 96(%rdi), %ymm6, %ymm6
vpor %ymm7, %ymm6, %ymm10
vpxor %ymm9, %ymm3, %ymm3
vpsllvq 128(%rsi), %ymm3, %ymm6
vpsrlvq 128(%rdi), %ymm3, %ymm3
vpor %ymm6, %ymm3, %ymm3
vpxor %ymm9, %ymm4, %ymm4
vpermq $-115, %ymm1, %ymm6
vpermq $-115, %ymm2, %ymm7
vpsllvq 160(%rsi), %ymm4, %ymm1
vpsrlvq 160(%rdi), %ymm4, %ymm2
vpor %ymm1, %ymm2, %ymm8
vpxor %ymm9, %ymm0, %ymm1
vpermq $27, %ymm10, %ymm0
vpermq $114, %ymm3, %ymm9
vpsllvq 32(%rsi), %ymm1, %ymm2
vpsrlvq 32(%rdi), %ymm1, %ymm1
vpor %ymm2, %ymm1, %ymm10
vpsrldq $8, %ymm8, %ymm1
vpandn %ymm1, %ymm8, %ymm2
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm3
vpblendd $12, %ymm7, %ymm6, %ymm4
vpblendd $12, %ymm6, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm0, %ymm3, %ymm3
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm0, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm3, %ymm3
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm3, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm4
vpblendd $12, %ymm10, %ymm0, %ymm11
vpblendd $12, %ymm0, %ymm6, %ymm12
vpxor %ymm6, %ymm1, %ymm3
vpblendd $48, %ymm6, %ymm11, %ymm1
vpblendd $48, %ymm7, %ymm12, %ymm11
vpxor %ymm0, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm1, %ymm1
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm1, %ymm1
vpxor %ymm9, %ymm1, %ymm12
vpermq $30, %ymm8, %ymm1
vpblendd $48, %ymm5, %ymm1, %ymm1
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm5, %ymm11, %ymm11
vpandn %ymm1, %ymm11, %ymm11
vpblendd $12, %ymm0, %ymm7, %ymm1
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm1, %ymm1
vpblendd $48, %ymm6, %ymm13, %ymm13
vpblendd $-64, %ymm6, %ymm1, %ymm1
vpblendd $-64, %ymm0, %ymm13, %ymm13
vpandn %ymm13, %ymm1, %ymm1
vpxor %ymm10, %ymm1, %ymm1
vpermq $0, %ymm2, %ymm13
vpermq $27, %ymm3, %ymm2
vpermq $-115, %ymm4, %ymm3
vpermq $114, %ymm12, %ymm4
vpblendd $12, %ymm6, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm0, %ymm9
vpblendd $48, %ymm0, %ymm12, %ymm0
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm0, %ymm0
vpblendd $-64, %ymm6, %ymm9, %ymm6
vpandn %ymm6, %ymm0, %ymm6
vpxor %ymm13, %ymm5, %ymm5
vpxor %ymm8, %ymm11, %ymm0
vpxor %ymm7, %ymm6, %ymm6
vpxor (%rcx,%rdx), %ymm5, %ymm5
addq $32, %rdx
decq %r8
jne L__crypto_kem_enc_derand_jazz$61
vmovdqu %ymm5, 160(%rsp)
vmovdqu %ymm0, 192(%rsp)
vmovdqu %ymm1, 224(%rsp)
vmovdqu %ymm2, 256(%rsp)
vmovdqu %ymm6, 288(%rsp)
vmovdqu %ymm3, 320(%rsp)
vmovdqu %ymm4, 352(%rsp)
movq glob_data + 6200(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, (%rax)
movq glob_data + 6208(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 8(%rax)
movq glob_data + 6216(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 16(%rax)
movq glob_data + 6224(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 24(%rax)
movq glob_data + 6232(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 32(%rax)
movq glob_data + 6240(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 40(%rax)
movq glob_data + 6248(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 48(%rax)
movq glob_data + 6256(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 56(%rax)
movq glob_data + 6264(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 64(%rax)
movq glob_data + 6272(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 72(%rax)
movq glob_data + 6280(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 80(%rax)
movq glob_data + 6288(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 88(%rax)
movq glob_data + 6296(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 96(%rax)
movq glob_data + 6304(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 104(%rax)
movq glob_data + 6312(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 112(%rax)
movq glob_data + 6320(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 120(%rax)
movq glob_data + 6328(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 128(%rax)
movq glob_data + 6336(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 136(%rax)
movq glob_data + 6344(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 144(%rax)
movq glob_data + 6352(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 152(%rax)
movq glob_data + 6360(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 160(%rax)
leaq 720(%rsp), %rax
leaq glob_data + 3328(%rip), %rcx
movq $0, %rdx
leaq glob_data + 3136(%rip), %rsi
leaq glob_data + 2944(%rip), %rdi
movq $24, %r8
L__crypto_kem_enc_derand_jazz$60:
vpshufd $78, %ymm1, %ymm8
vpxor %ymm2, %ymm3, %ymm7
vpxor %ymm4, %ymm6, %ymm9
vpxor %ymm0, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm1, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm5, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm1, %ymm1
vpxor %ymm11, %ymm5, %ymm5
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm1, %ymm7
vpsrlvq (%rdi), %ymm1, %ymm1
vpor %ymm7, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpsllvq 64(%rsi), %ymm2, %ymm7
vpsrlvq 64(%rdi), %ymm2, %ymm2
vpor %ymm7, %ymm2, %ymm2
vpxor %ymm9, %ymm6, %ymm6
vpsllvq 96(%rsi), %ymm6, %ymm7
vpsrlvq 96(%rdi), %ymm6, %ymm6
vpor %ymm7, %ymm6, %ymm10
vpxor %ymm9, %ymm3, %ymm3
vpsllvq 128(%rsi), %ymm3, %ymm6
vpsrlvq 128(%rdi), %ymm3, %ymm3
vpor %ymm6, %ymm3, %ymm3
vpxor %ymm9, %ymm4, %ymm4
vpermq $-115, %ymm1, %ymm6
vpermq $-115, %ymm2, %ymm7
vpsllvq 160(%rsi), %ymm4, %ymm1
vpsrlvq 160(%rdi), %ymm4, %ymm2
vpor %ymm1, %ymm2, %ymm8
vpxor %ymm9, %ymm0, %ymm1
vpermq $27, %ymm10, %ymm0
vpermq $114, %ymm3, %ymm9
vpsllvq 32(%rsi), %ymm1, %ymm2
vpsrlvq 32(%rdi), %ymm1, %ymm1
vpor %ymm2, %ymm1, %ymm10
vpsrldq $8, %ymm8, %ymm1
vpandn %ymm1, %ymm8, %ymm2
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm3
vpblendd $12, %ymm7, %ymm6, %ymm4
vpblendd $12, %ymm6, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm0, %ymm3, %ymm3
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm0, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm3, %ymm3
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm3, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm4
vpblendd $12, %ymm10, %ymm0, %ymm11
vpblendd $12, %ymm0, %ymm6, %ymm12
vpxor %ymm6, %ymm1, %ymm3
vpblendd $48, %ymm6, %ymm11, %ymm1
vpblendd $48, %ymm7, %ymm12, %ymm11
vpxor %ymm0, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm1, %ymm1
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm1, %ymm1
vpxor %ymm9, %ymm1, %ymm12
vpermq $30, %ymm8, %ymm1
vpblendd $48, %ymm5, %ymm1, %ymm1
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm5, %ymm11, %ymm11
vpandn %ymm1, %ymm11, %ymm11
vpblendd $12, %ymm0, %ymm7, %ymm1
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm1, %ymm1
vpblendd $48, %ymm6, %ymm13, %ymm13
vpblendd $-64, %ymm6, %ymm1, %ymm1
vpblendd $-64, %ymm0, %ymm13, %ymm13
vpandn %ymm13, %ymm1, %ymm1
vpxor %ymm10, %ymm1, %ymm1
vpermq $0, %ymm2, %ymm13
vpermq $27, %ymm3, %ymm2
vpermq $-115, %ymm4, %ymm3
vpermq $114, %ymm12, %ymm4
vpblendd $12, %ymm6, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm0, %ymm9
vpblendd $48, %ymm0, %ymm12, %ymm0
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm0, %ymm0
vpblendd $-64, %ymm6, %ymm9, %ymm6
vpandn %ymm6, %ymm0, %ymm6
vpxor %ymm13, %ymm5, %ymm5
vpxor %ymm8, %ymm11, %ymm0
vpxor %ymm7, %ymm6, %ymm6
vpxor (%rcx,%rdx), %ymm5, %ymm5
addq $32, %rdx
decq %r8
jne L__crypto_kem_enc_derand_jazz$60
vmovdqu %ymm5, 160(%rsp)
vmovdqu %ymm0, 192(%rsp)
vmovdqu %ymm1, 224(%rsp)
vmovdqu %ymm2, 256(%rsp)
vmovdqu %ymm6, 288(%rsp)
vmovdqu %ymm3, 320(%rsp)
vmovdqu %ymm4, 352(%rsp)
movq glob_data + 6200(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, (%rax)
movq glob_data + 6208(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 8(%rax)
movq glob_data + 6216(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 16(%rax)
movq glob_data + 6224(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 24(%rax)
movq glob_data + 6232(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 32(%rax)
movq glob_data + 6240(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 40(%rax)
movq glob_data + 6248(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 48(%rax)
movq glob_data + 6256(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 56(%rax)
movq glob_data + 6264(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 64(%rax)
movq glob_data + 6272(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 72(%rax)
movq glob_data + 6280(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 80(%rax)
movq glob_data + 6288(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 88(%rax)
movq glob_data + 6296(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 96(%rax)
movq glob_data + 6304(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 104(%rax)
movq glob_data + 6312(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 112(%rax)
movq glob_data + 6320(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 120(%rax)
movq glob_data + 6328(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 128(%rax)
movq glob_data + 6336(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 136(%rax)
movq glob_data + 6344(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 144(%rax)
movq glob_data + 6352(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 152(%rax)
movq glob_data + 6360(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 160(%rax)
vmovdqu %ymm5, 160(%rsp)
vmovdqu %ymm0, 192(%rsp)
vmovdqu %ymm1, 224(%rsp)
vmovdqu %ymm2, 256(%rsp)
vmovdqu %ymm6, 288(%rsp)
vmovdqu %ymm3, 320(%rsp)
vmovdqu %ymm4, 352(%rsp)
leaq 15520(%rsp), %rbx
leaq 384(%rsp), %rbp
leaq L__crypto_kem_enc_derand_jazz$59(%rip), %r11
jmp L_rej_uniform_avx$1
L__crypto_kem_enc_derand_jazz$59:
cmpq $255, %r13
setbe %al
vmovdqu 160(%rsp), %ymm6
vmovdqu 192(%rsp), %ymm0
vmovdqu 224(%rsp), %ymm1
vmovdqu 256(%rsp), %ymm2
vmovdqu 288(%rsp), %ymm3
vmovdqu 320(%rsp), %ymm4
vmovdqu 352(%rsp), %ymm5
jmp L__crypto_kem_enc_derand_jazz$51
L__crypto_kem_enc_derand_jazz$52:
leaq 384(%rsp), %rax
leaq glob_data + 3328(%rip), %rcx
movq $0, %rdx
leaq glob_data + 3136(%rip), %rsi
leaq glob_data + 2944(%rip), %rdi
movq $24, %r8
L__crypto_kem_enc_derand_jazz$58:
vpshufd $78, %ymm1, %ymm8
vpxor %ymm2, %ymm4, %ymm7
vpxor %ymm5, %ymm3, %ymm9
vpxor %ymm0, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm1, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm1, %ymm1
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm1, %ymm7
vpsrlvq (%rdi), %ymm1, %ymm1
vpor %ymm7, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpsllvq 64(%rsi), %ymm2, %ymm7
vpsrlvq 64(%rdi), %ymm2, %ymm2
vpor %ymm7, %ymm2, %ymm2
vpxor %ymm9, %ymm3, %ymm3
vpsllvq 96(%rsi), %ymm3, %ymm7
vpsrlvq 96(%rdi), %ymm3, %ymm3
vpor %ymm7, %ymm3, %ymm10
vpxor %ymm9, %ymm4, %ymm3
vpsllvq 128(%rsi), %ymm3, %ymm4
vpsrlvq 128(%rdi), %ymm3, %ymm3
vpor %ymm4, %ymm3, %ymm4
vpxor %ymm9, %ymm5, %ymm5
vpermq $-115, %ymm1, %ymm3
vpermq $-115, %ymm2, %ymm7
vpsllvq 160(%rsi), %ymm5, %ymm1
vpsrlvq 160(%rdi), %ymm5, %ymm2
vpor %ymm1, %ymm2, %ymm8
vpxor %ymm9, %ymm0, %ymm1
vpermq $27, %ymm10, %ymm0
vpermq $114, %ymm4, %ymm9
vpsllvq 32(%rsi), %ymm1, %ymm2
vpsrlvq 32(%rdi), %ymm1, %ymm1
vpor %ymm2, %ymm1, %ymm10
vpsrldq $8, %ymm8, %ymm1
vpandn %ymm1, %ymm8, %ymm2
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm3, %ymm5
vpblendd $12, %ymm3, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm0, %ymm4, %ymm4
vpblendd $48, %ymm10, %ymm5, %ymm5
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm0, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm9, %ymm5, %ymm5
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm4, %ymm1, %ymm1
vpandn %ymm11, %ymm5, %ymm5
vpblendd $12, %ymm10, %ymm0, %ymm11
vpblendd $12, %ymm0, %ymm3, %ymm12
vpxor %ymm3, %ymm1, %ymm4
vpblendd $48, %ymm3, %ymm11, %ymm1
vpblendd $48, %ymm7, %ymm12, %ymm11
vpxor %ymm0, %ymm5, %ymm5
vpblendd $-64, %ymm7, %ymm1, %ymm1
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm1, %ymm1
vpxor %ymm9, %ymm1, %ymm12
vpermq $30, %ymm8, %ymm1
vpblendd $48, %ymm6, %ymm1, %ymm1
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm1, %ymm11, %ymm11
vpblendd $12, %ymm0, %ymm7, %ymm1
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm13, %ymm13
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm0, %ymm13, %ymm13
vpandn %ymm13, %ymm1, %ymm1
vpxor %ymm10, %ymm1, %ymm1
vpermq $0, %ymm2, %ymm13
vpermq $27, %ymm4, %ymm2
vpermq $-115, %ymm5, %ymm4
vpermq $114, %ymm12, %ymm5
vpblendd $12, %ymm3, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm0, %ymm9
vpblendd $48, %ymm0, %ymm12, %ymm0
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm0, %ymm0
vpblendd $-64, %ymm3, %ymm9, %ymm3
vpandn %ymm3, %ymm0, %ymm3
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm0
vpxor %ymm7, %ymm3, %ymm3
vpxor (%rcx,%rdx), %ymm6, %ymm6
addq $32, %rdx
decq %r8
jne L__crypto_kem_enc_derand_jazz$58
vmovdqu %ymm6, 160(%rsp)
vmovdqu %ymm0, 192(%rsp)
vmovdqu %ymm1, 224(%rsp)
vmovdqu %ymm2, 256(%rsp)
vmovdqu %ymm3, 288(%rsp)
vmovdqu %ymm4, 320(%rsp)
vmovdqu %ymm5, 352(%rsp)
movq glob_data + 6200(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, (%rax)
movq glob_data + 6208(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 8(%rax)
movq glob_data + 6216(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 16(%rax)
movq glob_data + 6224(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 24(%rax)
movq glob_data + 6232(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 32(%rax)
movq glob_data + 6240(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 40(%rax)
movq glob_data + 6248(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 48(%rax)
movq glob_data + 6256(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 56(%rax)
movq glob_data + 6264(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 64(%rax)
movq glob_data + 6272(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 72(%rax)
movq glob_data + 6280(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 80(%rax)
movq glob_data + 6288(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 88(%rax)
movq glob_data + 6296(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 96(%rax)
movq glob_data + 6304(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 104(%rax)
movq glob_data + 6312(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 112(%rax)
movq glob_data + 6320(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 120(%rax)
movq glob_data + 6328(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 128(%rax)
movq glob_data + 6336(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 136(%rax)
movq glob_data + 6344(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 144(%rax)
movq glob_data + 6352(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 152(%rax)
movq glob_data + 6360(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 160(%rax)
leaq 15520(%rsp), %rax
leaq 384(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r13
setbe %sil
cmpq $165, %rdx
setbe %dil
testb %dil, %sil
jmp L__crypto_kem_enc_derand_jazz$53
L__crypto_kem_enc_derand_jazz$54:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw (%rcx,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb L__crypto_kem_enc_derand_jazz$57
movw %si, (%rax,%r13,2)
incq %r13
L__crypto_kem_enc_derand_jazz$57:
cmpq $256, %r13
jnb L__crypto_kem_enc_derand_jazz$55
cmpw $3329, %r8w
jnb L__crypto_kem_enc_derand_jazz$55
movw %r8w, (%rax,%r13,2)
incq %r13
L__crypto_kem_enc_derand_jazz$56:
L__crypto_kem_enc_derand_jazz$55:
cmpq $255, %r13
setbe %sil
cmpq $165, %rdx
setbe %dil
testb %dil, %sil
L__crypto_kem_enc_derand_jazz$53:
jne L__crypto_kem_enc_derand_jazz$54
cmpq $255, %r13
setbe %al
L__crypto_kem_enc_derand_jazz$51:
cmpb $0, %al
jne L__crypto_kem_enc_derand_jazz$52
leaq 11424(%rsp), %rax
leaq L__crypto_kem_enc_derand_jazz$50(%rip), %rcx
jmp L_nttunpack$1
L__crypto_kem_enc_derand_jazz$50:
leaq 11936(%rsp), %rax
leaq L__crypto_kem_enc_derand_jazz$49(%rip), %rcx
jmp L_nttunpack$1
L__crypto_kem_enc_derand_jazz$49:
leaq 12448(%rsp), %rax
leaq L__crypto_kem_enc_derand_jazz$48(%rip), %rcx
jmp L_nttunpack$1
L__crypto_kem_enc_derand_jazz$48:
leaq 12960(%rsp), %rax
leaq L__crypto_kem_enc_derand_jazz$47(%rip), %rcx
jmp L_nttunpack$1
L__crypto_kem_enc_derand_jazz$47:
leaq 13472(%rsp), %rax
leaq L__crypto_kem_enc_derand_jazz$46(%rip), %rcx
jmp L_nttunpack$1
L__crypto_kem_enc_derand_jazz$46:
leaq 13984(%rsp), %rax
leaq L__crypto_kem_enc_derand_jazz$45(%rip), %rcx
jmp L_nttunpack$1
L__crypto_kem_enc_derand_jazz$45:
leaq 14496(%rsp), %rax
leaq L__crypto_kem_enc_derand_jazz$44(%rip), %rcx
jmp L_nttunpack$1
L__crypto_kem_enc_derand_jazz$44:
leaq 15008(%rsp), %rax
leaq L__crypto_kem_enc_derand_jazz$43(%rip), %rcx
jmp L_nttunpack$1
L__crypto_kem_enc_derand_jazz$43:
leaq 15520(%rsp), %rax
leaq L__crypto_kem_enc_derand_jazz$42(%rip), %rcx
jmp L_nttunpack$1
L__crypto_kem_enc_derand_jazz$42:
movq 16032(%rsp), %r10
movb $0, %cl
leaq 6816(%rsp), %rax
leaq 7328(%rsp), %rdi
leaq 7840(%rsp), %r8
leaq 8352(%rsp), %r9
leaq -1472(%rsp), %rsp
leaq L__crypto_kem_enc_derand_jazz$41(%rip), %rdx
movq %rdx, 1464(%rsp)
jmp L_poly_getnoise_eta1_4x$1
L__crypto_kem_enc_derand_jazz$41:
leaq 1472(%rsp), %rsp
movb $4, %cl
leaq 8864(%rsp), %rax
leaq 9376(%rsp), %rdi
leaq 2944(%rsp), %r8
leaq 9888(%rsp), %r9
leaq -1472(%rsp), %rsp
leaq L__crypto_kem_enc_derand_jazz$40(%rip), %rdx
movq %rdx, 1464(%rsp)
jmp L_poly_getnoise_eta1_4x$1
L__crypto_kem_enc_derand_jazz$40:
leaq 1472(%rsp), %rsp
leaq 6816(%rsp), %rcx
leaq L__crypto_kem_enc_derand_jazz$39(%rip), %rdi
jmp L_poly_ntt$1
L__crypto_kem_enc_derand_jazz$39:
leaq 7328(%rsp), %rcx
leaq L__crypto_kem_enc_derand_jazz$38(%rip), %rdi
jmp L_poly_ntt$1
L__crypto_kem_enc_derand_jazz$38:
leaq 7840(%rsp), %rcx
leaq L__crypto_kem_enc_derand_jazz$37(%rip), %rdi
jmp L_poly_ntt$1
L__crypto_kem_enc_derand_jazz$37:
leaq 9888(%rsp), %rcx
leaq 11424(%rsp), %rsi
leaq 6816(%rsp), %rdi
leaq L__crypto_kem_enc_derand_jazz$36(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_enc_derand_jazz$36:
leaq 3456(%rsp), %rcx
leaq 11936(%rsp), %rsi
leaq 7328(%rsp), %rdi
leaq L__crypto_kem_enc_derand_jazz$35(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_enc_derand_jazz$35:
leaq 9888(%rsp), %rcx
leaq 3456(%rsp), %rsi
leaq L__crypto_kem_enc_derand_jazz$34(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_enc_derand_jazz$34:
leaq 3456(%rsp), %rcx
leaq 12448(%rsp), %rsi
leaq 7840(%rsp), %rdi
leaq L__crypto_kem_enc_derand_jazz$33(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_enc_derand_jazz$33:
leaq 9888(%rsp), %rcx
leaq 3456(%rsp), %rsi
leaq L__crypto_kem_enc_derand_jazz$32(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_enc_derand_jazz$32:
leaq 10400(%rsp), %rcx
leaq 12960(%rsp), %rsi
leaq 6816(%rsp), %rdi
leaq L__crypto_kem_enc_derand_jazz$31(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_enc_derand_jazz$31:
leaq 3456(%rsp), %rcx
leaq 13472(%rsp), %rsi
leaq 7328(%rsp), %rdi
leaq L__crypto_kem_enc_derand_jazz$30(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_enc_derand_jazz$30:
leaq 10400(%rsp), %rcx
leaq 3456(%rsp), %rsi
leaq L__crypto_kem_enc_derand_jazz$29(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_enc_derand_jazz$29:
leaq 3456(%rsp), %rcx
leaq 13984(%rsp), %rsi
leaq 7840(%rsp), %rdi
leaq L__crypto_kem_enc_derand_jazz$28(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_enc_derand_jazz$28:
leaq 10400(%rsp), %rcx
leaq 3456(%rsp), %rsi
leaq L__crypto_kem_enc_derand_jazz$27(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_enc_derand_jazz$27:
leaq 10912(%rsp), %rcx
leaq 14496(%rsp), %rsi
leaq 6816(%rsp), %rdi
leaq L__crypto_kem_enc_derand_jazz$26(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_enc_derand_jazz$26:
leaq 3456(%rsp), %rcx
leaq 15008(%rsp), %rsi
leaq 7328(%rsp), %rdi
leaq L__crypto_kem_enc_derand_jazz$25(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_enc_derand_jazz$25:
leaq 10912(%rsp), %rcx
leaq 3456(%rsp), %rsi
leaq L__crypto_kem_enc_derand_jazz$24(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_enc_derand_jazz$24:
leaq 3456(%rsp), %rcx
leaq 15520(%rsp), %rsi
leaq 7840(%rsp), %rdi
leaq L__crypto_kem_enc_derand_jazz$23(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_enc_derand_jazz$23:
leaq 10912(%rsp), %rcx
leaq 3456(%rsp), %rsi
leaq L__crypto_kem_enc_derand_jazz$22(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_enc_derand_jazz$22:
leaq 3456(%rsp), %rcx
leaq 5280(%rsp), %rsi
leaq 6816(%rsp), %rdi
leaq L__crypto_kem_enc_derand_jazz$21(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_enc_derand_jazz$21:
leaq 3968(%rsp), %rcx
leaq 5792(%rsp), %rsi
leaq 7328(%rsp), %rdi
leaq L__crypto_kem_enc_derand_jazz$20(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_enc_derand_jazz$20:
leaq 3456(%rsp), %rcx
leaq 3968(%rsp), %rsi
leaq L__crypto_kem_enc_derand_jazz$19(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_enc_derand_jazz$19:
leaq 3968(%rsp), %rcx
leaq 6304(%rsp), %rsi
leaq 7840(%rsp), %rdi
leaq L__crypto_kem_enc_derand_jazz$18(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_enc_derand_jazz$18:
leaq 3456(%rsp), %rcx
leaq 3968(%rsp), %rsi
leaq L__crypto_kem_enc_derand_jazz$17(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_enc_derand_jazz$17:
leaq 9888(%rsp), %rcx
leaq L__crypto_kem_enc_derand_jazz$16(%rip), %rdi
jmp L_poly_invntt$1
L__crypto_kem_enc_derand_jazz$16:
leaq 10400(%rsp), %rcx
leaq L__crypto_kem_enc_derand_jazz$15(%rip), %rdi
jmp L_poly_invntt$1
L__crypto_kem_enc_derand_jazz$15:
leaq 10912(%rsp), %rcx
leaq L__crypto_kem_enc_derand_jazz$14(%rip), %rdi
jmp L_poly_invntt$1
L__crypto_kem_enc_derand_jazz$14:
leaq 3456(%rsp), %rcx
leaq L__crypto_kem_enc_derand_jazz$13(%rip), %rdi
jmp L_poly_invntt$1
L__crypto_kem_enc_derand_jazz$13:
leaq 9888(%rsp), %rcx
leaq 8352(%rsp), %rsi
leaq L__crypto_kem_enc_derand_jazz$12(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_enc_derand_jazz$12:
leaq 10400(%rsp), %rcx
leaq 8864(%rsp), %rsi
leaq L__crypto_kem_enc_derand_jazz$11(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_enc_derand_jazz$11:
leaq 10912(%rsp), %rcx
leaq 9376(%rsp), %rsi
leaq L__crypto_kem_enc_derand_jazz$10(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_enc_derand_jazz$10:
leaq 3456(%rsp), %rcx
leaq 2944(%rsp), %rsi
leaq L__crypto_kem_enc_derand_jazz$9(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_enc_derand_jazz$9:
leaq 3456(%rsp), %rcx
leaq 2432(%rsp), %rsi
leaq L__crypto_kem_enc_derand_jazz$8(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_enc_derand_jazz$8:
leaq 9888(%rsp), %rax
vmovdqu glob_data + 448(%rip), %ymm0
vmovdqu glob_data + 384(%rip), %ymm1
vmovdqu (%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, (%rax)
vmovdqu 32(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 32(%rax)
vmovdqu 64(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 64(%rax)
vmovdqu 96(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 96(%rax)
vmovdqu 128(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 128(%rax)
vmovdqu 160(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 160(%rax)
vmovdqu 192(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 192(%rax)
vmovdqu 224(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 224(%rax)
vmovdqu 256(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 256(%rax)
vmovdqu 288(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 288(%rax)
vmovdqu 320(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 320(%rax)
vmovdqu 352(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 352(%rax)
vmovdqu 384(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 384(%rax)
vmovdqu 416(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 416(%rax)
vmovdqu 448(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 448(%rax)
vmovdqu 480(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm1
vpsraw $10, %ymm1, %ymm1
vpmullw %ymm0, %ymm1, %ymm0
vpsubw %ymm0, %ymm2, %ymm0
vmovdqu %ymm0, 480(%rax)
leaq 10400(%rsp), %rax
vmovdqu glob_data + 448(%rip), %ymm0
vmovdqu glob_data + 384(%rip), %ymm1
vmovdqu (%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, (%rax)
vmovdqu 32(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 32(%rax)
vmovdqu 64(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 64(%rax)
vmovdqu 96(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 96(%rax)
vmovdqu 128(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 128(%rax)
vmovdqu 160(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 160(%rax)
vmovdqu 192(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 192(%rax)
vmovdqu 224(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 224(%rax)
vmovdqu 256(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 256(%rax)
vmovdqu 288(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 288(%rax)
vmovdqu 320(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 320(%rax)
vmovdqu 352(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 352(%rax)
vmovdqu 384(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 384(%rax)
vmovdqu 416(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 416(%rax)
vmovdqu 448(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 448(%rax)
vmovdqu 480(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm1
vpsraw $10, %ymm1, %ymm1
vpmullw %ymm0, %ymm1, %ymm0
vpsubw %ymm0, %ymm2, %ymm0
vmovdqu %ymm0, 480(%rax)
leaq 10912(%rsp), %rax
vmovdqu glob_data + 448(%rip), %ymm0
vmovdqu glob_data + 384(%rip), %ymm1
vmovdqu (%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, (%rax)
vmovdqu 32(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 32(%rax)
vmovdqu 64(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 64(%rax)
vmovdqu 96(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 96(%rax)
vmovdqu 128(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 128(%rax)
vmovdqu 160(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 160(%rax)
vmovdqu 192(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 192(%rax)
vmovdqu 224(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 224(%rax)
vmovdqu 256(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 256(%rax)
vmovdqu 288(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 288(%rax)
vmovdqu 320(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 320(%rax)
vmovdqu 352(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 352(%rax)
vmovdqu 384(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 384(%rax)
vmovdqu 416(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 416(%rax)
vmovdqu 448(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 448(%rax)
vmovdqu 480(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm1
vpsraw $10, %ymm1, %ymm1
vpmullw %ymm0, %ymm1, %ymm0
vpsubw %ymm0, %ymm2, %ymm0
vmovdqu %ymm0, 480(%rax)
leaq 3456(%rsp), %rax
vmovdqu glob_data + 448(%rip), %ymm0
vmovdqu glob_data + 384(%rip), %ymm1
vmovdqu (%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, (%rax)
vmovdqu 32(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 32(%rax)
vmovdqu 64(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 64(%rax)
vmovdqu 96(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 96(%rax)
vmovdqu 128(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 128(%rax)
vmovdqu 160(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 160(%rax)
vmovdqu 192(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 192(%rax)
vmovdqu 224(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 224(%rax)
vmovdqu 256(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 256(%rax)
vmovdqu 288(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 288(%rax)
vmovdqu 320(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 320(%rax)
vmovdqu 352(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 352(%rax)
vmovdqu 384(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 384(%rax)
vmovdqu 416(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 416(%rax)
vmovdqu 448(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 448(%rax)
vmovdqu 480(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm1
vpsraw $10, %ymm1, %ymm1
vpmullw %ymm0, %ymm1, %ymm0
vpsubw %ymm0, %ymm2, %ymm0
vmovdqu %ymm0, 480(%rax)
movq 16040(%rsp), %rax
leaq 9888(%rsp), %rcx
leaq L__crypto_kem_enc_derand_jazz$7(%rip), %r8
jmp L_poly_csubq$1
L__crypto_kem_enc_derand_jazz$7:
leaq 10400(%rsp), %rcx
leaq L__crypto_kem_enc_derand_jazz$6(%rip), %r8
jmp L_poly_csubq$1
L__crypto_kem_enc_derand_jazz$6:
leaq 10912(%rsp), %rcx
leaq L__crypto_kem_enc_derand_jazz$5(%rip), %r8
jmp L_poly_csubq$1
L__crypto_kem_enc_derand_jazz$5:
leaq glob_data + 384(%rip), %rcx
vmovdqu (%rcx), %ymm0
vpsllw $3, %ymm0, %ymm1
vpbroadcastw glob_data + 6422(%rip), %ymm2
vpbroadcastw glob_data + 6420(%rip), %ymm3
vpbroadcastw glob_data + 6418(%rip), %ymm4
vpbroadcastq glob_data + 6184(%rip), %ymm5
vpbroadcastq glob_data + 6176(%rip), %ymm6
vmovdqu glob_data + 32(%rip), %ymm7
vmovdqu 9888(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, (%rax)
vpextrd $0, %xmm8, 16(%rax)
vmovdqu 9920(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 20(%rax)
vpextrd $0, %xmm8, 36(%rax)
vmovdqu 9952(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 40(%rax)
vpextrd $0, %xmm8, 56(%rax)
vmovdqu 9984(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 60(%rax)
vpextrd $0, %xmm8, 76(%rax)
vmovdqu 10016(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 80(%rax)
vpextrd $0, %xmm8, 96(%rax)
vmovdqu 10048(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 100(%rax)
vpextrd $0, %xmm8, 116(%rax)
vmovdqu 10080(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 120(%rax)
vpextrd $0, %xmm8, 136(%rax)
vmovdqu 10112(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 140(%rax)
vpextrd $0, %xmm8, 156(%rax)
vmovdqu 10144(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 160(%rax)
vpextrd $0, %xmm8, 176(%rax)
vmovdqu 10176(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 180(%rax)
vpextrd $0, %xmm8, 196(%rax)
vmovdqu 10208(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 200(%rax)
vpextrd $0, %xmm8, 216(%rax)
vmovdqu 10240(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 220(%rax)
vpextrd $0, %xmm8, 236(%rax)
vmovdqu 10272(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 240(%rax)
vpextrd $0, %xmm8, 256(%rax)
vmovdqu 10304(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 260(%rax)
vpextrd $0, %xmm8, 276(%rax)
vmovdqu 10336(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 280(%rax)
vpextrd $0, %xmm8, 296(%rax)
vmovdqu 10368(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 300(%rax)
vpextrd $0, %xmm8, 316(%rax)
vmovdqu 10400(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 320(%rax)
vpextrd $0, %xmm8, 336(%rax)
vmovdqu 10432(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 340(%rax)
vpextrd $0, %xmm8, 356(%rax)
vmovdqu 10464(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 360(%rax)
vpextrd $0, %xmm8, 376(%rax)
vmovdqu 10496(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 380(%rax)
vpextrd $0, %xmm8, 396(%rax)
vmovdqu 10528(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 400(%rax)
vpextrd $0, %xmm8, 416(%rax)
vmovdqu 10560(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 420(%rax)
vpextrd $0, %xmm8, 436(%rax)
vmovdqu 10592(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 440(%rax)
vpextrd $0, %xmm8, 456(%rax)
vmovdqu 10624(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 460(%rax)
vpextrd $0, %xmm8, 476(%rax)
vmovdqu 10656(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 480(%rax)
vpextrd $0, %xmm8, 496(%rax)
vmovdqu 10688(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 500(%rax)
vpextrd $0, %xmm8, 516(%rax)
vmovdqu 10720(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 520(%rax)
vpextrd $0, %xmm8, 536(%rax)
vmovdqu 10752(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 540(%rax)
vpextrd $0, %xmm8, 556(%rax)
vmovdqu 10784(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 560(%rax)
vpextrd $0, %xmm8, 576(%rax)
vmovdqu 10816(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 580(%rax)
vpextrd $0, %xmm8, 596(%rax)
vmovdqu 10848(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 600(%rax)
vpextrd $0, %xmm8, 616(%rax)
vmovdqu 10880(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 620(%rax)
vpextrd $0, %xmm8, 636(%rax)
vmovdqu 10912(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 640(%rax)
vpextrd $0, %xmm8, 656(%rax)
vmovdqu 10944(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 660(%rax)
vpextrd $0, %xmm8, 676(%rax)
vmovdqu 10976(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 680(%rax)
vpextrd $0, %xmm8, 696(%rax)
vmovdqu 11008(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 700(%rax)
vpextrd $0, %xmm8, 716(%rax)
vmovdqu 11040(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 720(%rax)
vpextrd $0, %xmm8, 736(%rax)
vmovdqu 11072(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 740(%rax)
vpextrd $0, %xmm8, 756(%rax)
vmovdqu 11104(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 760(%rax)
vpextrd $0, %xmm8, 776(%rax)
vmovdqu 11136(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 780(%rax)
vpextrd $0, %xmm8, 796(%rax)
vmovdqu 11168(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 800(%rax)
vpextrd $0, %xmm8, 816(%rax)
vmovdqu 11200(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 820(%rax)
vpextrd $0, %xmm8, 836(%rax)
vmovdqu 11232(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 840(%rax)
vpextrd $0, %xmm8, 856(%rax)
vmovdqu 11264(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 860(%rax)
vpextrd $0, %xmm8, 876(%rax)
vmovdqu 11296(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 880(%rax)
vpextrd $0, %xmm8, 896(%rax)
vmovdqu 11328(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 900(%rax)
vpextrd $0, %xmm8, 916(%rax)
vmovdqu 11360(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 920(%rax)
vpextrd $0, %xmm8, 936(%rax)
vmovdqu 11392(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm1
vpaddw %ymm2, %ymm8, %ymm2
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm0
vpsubw %ymm2, %ymm1, %ymm2
vpandn %ymm2, %ymm1, %ymm1
vpsrlw $15, %ymm1, %ymm1
vpsubw %ymm1, %ymm0, %ymm0
vpmulhrsw %ymm3, %ymm0, %ymm0
vpand %ymm4, %ymm0, %ymm0
vpmaddwd %ymm5, %ymm0, %ymm0
vpsllvd %ymm6, %ymm0, %ymm0
vpsrlq $12, %ymm0, %ymm0
vpshufb %ymm7, %ymm0, %ymm0
vmovdqu %xmm0, %xmm1
vextracti128 $1, %ymm0, %xmm0
vpblendw $-32, %xmm0, %xmm1, %xmm1
vmovdqu %xmm1, 940(%rax)
vpextrd $0, %xmm0, 956(%rax)
addq $960, %rax
leaq 3456(%rsp), %rcx
leaq L__crypto_kem_enc_derand_jazz$4(%rip), %rsi
jmp L_poly_compress$1
L__crypto_kem_enc_derand_jazz$4:
movq 16040(%rsp), %r8
movq $1088, %rdi
leaq 128(%rsp), %rax
leaq -256(%rsp), %rsp
leaq L__crypto_kem_enc_derand_jazz$3(%rip), %rcx
movq %rcx, 224(%rsp)
jmp L_sha3_256$1
L__crypto_kem_enc_derand_jazz$3:
leaq 256(%rsp), %rsp
movq 16048(%rsp), %rdx
movq $32, %rcx
leaq 96(%rsp), %rax
leaq -256(%rsp), %rsp
leaq L__crypto_kem_enc_derand_jazz$2(%rip), %rsi
movq %rsi, 224(%rsp)
jmp L_shake256_64$1
L__crypto_kem_enc_derand_jazz$2:
leaq 256(%rsp), %rsp
jmp *16056(%rsp)
L__crypto_kem_keypair_derand_jazz$1:
movq %rax, 12896(%rsp)
movq %rbp, 12904(%rsp)
movq %rbx, 12912(%rsp)
movq %rax, %rcx
movq %rbp, 12920(%rsp)
movq %rbx, 12928(%rsp)
leaq 12936(%rsp), %rax
leaq -256(%rsp), %rsp
leaq L__crypto_kem_keypair_derand_jazz$121(%rip), %rdx
movq %rdx, 224(%rsp)
jmp L_sha3_512_32$1
L__crypto_kem_keypair_derand_jazz$121:
leaq 256(%rsp), %rsp
movq 12936(%rsp), %rax
movq %rax, (%rsp)
movq 12968(%rsp), %rax
movq %rax, 32(%rsp)
movq 12944(%rsp), %rax
movq %rax, 8(%rsp)
movq 12976(%rsp), %rax
movq %rax, 40(%rsp)
movq 12952(%rsp), %rax
movq %rax, 16(%rsp)
movq 12984(%rsp), %rax
movq %rax, 48(%rsp)
movq 12960(%rsp), %rax
movq %rax, 24(%rsp)
movq 12992(%rsp), %rax
movq %rax, 56(%rsp)
vmovdqu (%rsp), %ymm0
vmovdqu %ymm0, 320(%rsp)
vmovdqu %ymm0, 832(%rsp)
vmovdqu %ymm0, 1344(%rsp)
vmovdqu %ymm0, 1856(%rsp)
vmovdqu %ymm0, 64(%rsp)
movb $0, 352(%rsp)
movb $0, 353(%rsp)
movb $1, 864(%rsp)
movb $0, 865(%rsp)
movb $2, 1376(%rsp)
movb $0, 1377(%rsp)
movb $0, 1888(%rsp)
movb $1, 1889(%rsp)
leaq 2880(%rsp), %rax
leaq 320(%rsp), %rcx
leaq 832(%rsp), %rdx
leaq 1344(%rsp), %rsi
leaq 1856(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq L__crypto_kem_keypair_derand_jazz$120(%rip), %r8
movq %r8, (%rsp)
jmp L_shake128_absorb4x_34$1
L__crypto_kem_keypair_derand_jazz$120:
leaq 8(%rsp), %rsp
leaq 2880(%rsp), %rax
leaq 320(%rsp), %rdi
leaq 832(%rsp), %r8
leaq 1344(%rsp), %r9
leaq 1856(%rsp), %r10
movq %rdi, %r11
movq %r8, %rbx
movq %r9, %rbp
movq %r10, %r12
leaq -832(%rsp), %rsp
leaq L__crypto_kem_keypair_derand_jazz$119(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
L__crypto_kem_keypair_derand_jazz$119:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r11)
vmovhpd %xmm1, (%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbp)
vmovhpd %xmm0, (%r12)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r11)
vmovhpd %xmm1, 8(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbp)
vmovhpd %xmm0, 8(%r12)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r11)
vmovhpd %xmm1, 16(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbp)
vmovhpd %xmm0, 16(%r12)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r11)
vmovhpd %xmm1, 24(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbp)
vmovhpd %xmm0, 24(%r12)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r11)
vmovhpd %xmm1, 32(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbp)
vmovhpd %xmm0, 32(%r12)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r11)
vmovhpd %xmm1, 40(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbp)
vmovhpd %xmm0, 40(%r12)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r11)
vmovhpd %xmm1, 48(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbp)
vmovhpd %xmm0, 48(%r12)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r11)
vmovhpd %xmm1, 56(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbp)
vmovhpd %xmm0, 56(%r12)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r11)
vmovhpd %xmm1, 64(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbp)
vmovhpd %xmm0, 64(%r12)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r11)
vmovhpd %xmm1, 72(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbp)
vmovhpd %xmm0, 72(%r12)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r11)
vmovhpd %xmm1, 80(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbp)
vmovhpd %xmm0, 80(%r12)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r11)
vmovhpd %xmm1, 88(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbp)
vmovhpd %xmm0, 88(%r12)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r11)
vmovhpd %xmm1, 96(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbp)
vmovhpd %xmm0, 96(%r12)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r11)
vmovhpd %xmm1, 104(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbp)
vmovhpd %xmm0, 104(%r12)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r11)
vmovhpd %xmm1, 112(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbp)
vmovhpd %xmm0, 112(%r12)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r11)
vmovhpd %xmm1, 120(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbp)
vmovhpd %xmm0, 120(%r12)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r11)
vmovhpd %xmm1, 128(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbp)
vmovhpd %xmm0, 128(%r12)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%r11)
vmovhpd %xmm1, 136(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%rbp)
vmovhpd %xmm0, 136(%r12)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%r11)
vmovhpd %xmm1, 144(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%rbp)
vmovhpd %xmm0, 144(%r12)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%r11)
vmovhpd %xmm1, 152(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%rbp)
vmovhpd %xmm0, 152(%r12)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%r11)
vmovhpd %xmm1, 160(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%rbp)
vmovhpd %xmm0, 160(%r12)
leaq 168(%rdi), %r11
leaq 168(%r8), %rbx
leaq 168(%r9), %rbp
leaq 168(%r10), %r12
leaq -832(%rsp), %rsp
leaq L__crypto_kem_keypair_derand_jazz$118(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
L__crypto_kem_keypair_derand_jazz$118:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r11)
vmovhpd %xmm1, (%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbp)
vmovhpd %xmm0, (%r12)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r11)
vmovhpd %xmm1, 8(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbp)
vmovhpd %xmm0, 8(%r12)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r11)
vmovhpd %xmm1, 16(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbp)
vmovhpd %xmm0, 16(%r12)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r11)
vmovhpd %xmm1, 24(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbp)
vmovhpd %xmm0, 24(%r12)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r11)
vmovhpd %xmm1, 32(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbp)
vmovhpd %xmm0, 32(%r12)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r11)
vmovhpd %xmm1, 40(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbp)
vmovhpd %xmm0, 40(%r12)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r11)
vmovhpd %xmm1, 48(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbp)
vmovhpd %xmm0, 48(%r12)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r11)
vmovhpd %xmm1, 56(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbp)
vmovhpd %xmm0, 56(%r12)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r11)
vmovhpd %xmm1, 64(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbp)
vmovhpd %xmm0, 64(%r12)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r11)
vmovhpd %xmm1, 72(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbp)
vmovhpd %xmm0, 72(%r12)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r11)
vmovhpd %xmm1, 80(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbp)
vmovhpd %xmm0, 80(%r12)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r11)
vmovhpd %xmm1, 88(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbp)
vmovhpd %xmm0, 88(%r12)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r11)
vmovhpd %xmm1, 96(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbp)
vmovhpd %xmm0, 96(%r12)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r11)
vmovhpd %xmm1, 104(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbp)
vmovhpd %xmm0, 104(%r12)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r11)
vmovhpd %xmm1, 112(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbp)
vmovhpd %xmm0, 112(%r12)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r11)
vmovhpd %xmm1, 120(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbp)
vmovhpd %xmm0, 120(%r12)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r11)
vmovhpd %xmm1, 128(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbp)
vmovhpd %xmm0, 128(%r12)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%r11)
vmovhpd %xmm1, 136(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%rbp)
vmovhpd %xmm0, 136(%r12)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%r11)
vmovhpd %xmm1, 144(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%rbp)
vmovhpd %xmm0, 144(%r12)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%r11)
vmovhpd %xmm1, 152(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%rbp)
vmovhpd %xmm0, 152(%r12)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%r11)
vmovhpd %xmm1, 160(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%rbp)
vmovhpd %xmm0, 160(%r12)
leaq 336(%rdi), %rdi
leaq 336(%r8), %r8
leaq 336(%r9), %r9
leaq 336(%r10), %r10
leaq -832(%rsp), %rsp
leaq L__crypto_kem_keypair_derand_jazz$117(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
L__crypto_kem_keypair_derand_jazz$117:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%rdi)
vmovhpd %xmm1, (%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%r9)
vmovhpd %xmm0, (%r10)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%rdi)
vmovhpd %xmm1, 8(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%r9)
vmovhpd %xmm0, 8(%r10)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%rdi)
vmovhpd %xmm1, 16(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%r9)
vmovhpd %xmm0, 16(%r10)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%rdi)
vmovhpd %xmm1, 24(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%r9)
vmovhpd %xmm0, 24(%r10)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%rdi)
vmovhpd %xmm1, 32(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%r9)
vmovhpd %xmm0, 32(%r10)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%rdi)
vmovhpd %xmm1, 40(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%r9)
vmovhpd %xmm0, 40(%r10)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%rdi)
vmovhpd %xmm1, 48(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%r9)
vmovhpd %xmm0, 48(%r10)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%rdi)
vmovhpd %xmm1, 56(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%r9)
vmovhpd %xmm0, 56(%r10)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%rdi)
vmovhpd %xmm1, 64(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%r9)
vmovhpd %xmm0, 64(%r10)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%rdi)
vmovhpd %xmm1, 72(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%r9)
vmovhpd %xmm0, 72(%r10)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%rdi)
vmovhpd %xmm1, 80(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%r9)
vmovhpd %xmm0, 80(%r10)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%rdi)
vmovhpd %xmm1, 88(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%r9)
vmovhpd %xmm0, 88(%r10)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%rdi)
vmovhpd %xmm1, 96(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%r9)
vmovhpd %xmm0, 96(%r10)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%rdi)
vmovhpd %xmm1, 104(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%r9)
vmovhpd %xmm0, 104(%r10)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%rdi)
vmovhpd %xmm1, 112(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%r9)
vmovhpd %xmm0, 112(%r10)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%rdi)
vmovhpd %xmm1, 120(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%r9)
vmovhpd %xmm0, 120(%r10)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%rdi)
vmovhpd %xmm1, 128(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%r9)
vmovhpd %xmm0, 128(%r10)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%rdi)
vmovhpd %xmm1, 136(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%r9)
vmovhpd %xmm0, 136(%r10)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%rdi)
vmovhpd %xmm1, 144(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%r9)
vmovhpd %xmm0, 144(%r10)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%rdi)
vmovhpd %xmm1, 152(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%r9)
vmovhpd %xmm0, 152(%r10)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%rdi)
vmovhpd %xmm1, 160(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%r9)
vmovhpd %xmm0, 160(%r10)
leaq 8288(%rsp), %rbx
leaq 320(%rsp), %rbp
leaq L__crypto_kem_keypair_derand_jazz$116(%rip), %r11
jmp L_rej_uniform_avx$1
L__crypto_kem_keypair_derand_jazz$116:
movq %r13, %rdi
leaq 8800(%rsp), %rbx
leaq 832(%rsp), %rbp
leaq L__crypto_kem_keypair_derand_jazz$115(%rip), %r11
jmp L_rej_uniform_avx$1
L__crypto_kem_keypair_derand_jazz$115:
movq %r13, %r9
leaq 9312(%rsp), %rbx
leaq 1344(%rsp), %rbp
leaq L__crypto_kem_keypair_derand_jazz$114(%rip), %r11
jmp L_rej_uniform_avx$1
L__crypto_kem_keypair_derand_jazz$114:
movq %r13, %r8
leaq 9824(%rsp), %rbx
leaq 1856(%rsp), %rbp
leaq L__crypto_kem_keypair_derand_jazz$113(%rip), %r11
jmp L_rej_uniform_avx$1
L__crypto_kem_keypair_derand_jazz$113:
cmpq $255, %rdi
setbe %al
cmpq $255, %r9
setbe %cl
orb %cl, %al
cmpq $255, %r8
setbe %cl
cmpq $255, %r13
setbe %dl
orb %dl, %cl
orb %al, %cl
jmp L__crypto_kem_keypair_derand_jazz$90
L__crypto_kem_keypair_derand_jazz$91:
leaq 2880(%rsp), %rax
leaq 320(%rsp), %r10
leaq 832(%rsp), %r11
leaq 1344(%rsp), %rbx
leaq 1856(%rsp), %rbp
leaq -832(%rsp), %rsp
leaq L__crypto_kem_keypair_derand_jazz$112(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
L__crypto_kem_keypair_derand_jazz$112:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r10)
vmovhpd %xmm1, (%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbx)
vmovhpd %xmm0, (%rbp)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r10)
vmovhpd %xmm1, 8(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbx)
vmovhpd %xmm0, 8(%rbp)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r10)
vmovhpd %xmm1, 16(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbx)
vmovhpd %xmm0, 16(%rbp)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r10)
vmovhpd %xmm1, 24(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbx)
vmovhpd %xmm0, 24(%rbp)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r10)
vmovhpd %xmm1, 32(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbx)
vmovhpd %xmm0, 32(%rbp)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r10)
vmovhpd %xmm1, 40(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbx)
vmovhpd %xmm0, 40(%rbp)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r10)
vmovhpd %xmm1, 48(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbx)
vmovhpd %xmm0, 48(%rbp)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r10)
vmovhpd %xmm1, 56(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbx)
vmovhpd %xmm0, 56(%rbp)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r10)
vmovhpd %xmm1, 64(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbx)
vmovhpd %xmm0, 64(%rbp)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r10)
vmovhpd %xmm1, 72(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbx)
vmovhpd %xmm0, 72(%rbp)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r10)
vmovhpd %xmm1, 80(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbx)
vmovhpd %xmm0, 80(%rbp)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r10)
vmovhpd %xmm1, 88(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbx)
vmovhpd %xmm0, 88(%rbp)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r10)
vmovhpd %xmm1, 96(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbx)
vmovhpd %xmm0, 96(%rbp)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r10)
vmovhpd %xmm1, 104(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbx)
vmovhpd %xmm0, 104(%rbp)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r10)
vmovhpd %xmm1, 112(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbx)
vmovhpd %xmm0, 112(%rbp)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r10)
vmovhpd %xmm1, 120(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbx)
vmovhpd %xmm0, 120(%rbp)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r10)
vmovhpd %xmm1, 128(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbx)
vmovhpd %xmm0, 128(%rbp)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%r10)
vmovhpd %xmm1, 136(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%rbx)
vmovhpd %xmm0, 136(%rbp)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%r10)
vmovhpd %xmm1, 144(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%rbx)
vmovhpd %xmm0, 144(%rbp)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%r10)
vmovhpd %xmm1, 152(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%rbx)
vmovhpd %xmm0, 152(%rbp)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%r10)
vmovhpd %xmm1, 160(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%rbx)
vmovhpd %xmm0, 160(%rbp)
leaq 8288(%rsp), %rax
leaq 320(%rsp), %rcx
movq $0, %rdx
cmpq $255, %rdi
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp L__crypto_kem_keypair_derand_jazz$107
L__crypto_kem_keypair_derand_jazz$108:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb L__crypto_kem_keypair_derand_jazz$111
movw %si, (%rax,%rdi,2)
incq %rdi
L__crypto_kem_keypair_derand_jazz$111:
cmpq $256, %rdi
jnb L__crypto_kem_keypair_derand_jazz$109
cmpw $3329, %r11w
jnb L__crypto_kem_keypair_derand_jazz$109
movw %r11w, (%rax,%rdi,2)
incq %rdi
L__crypto_kem_keypair_derand_jazz$110:
L__crypto_kem_keypair_derand_jazz$109:
cmpq $255, %rdi
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
L__crypto_kem_keypair_derand_jazz$107:
jne L__crypto_kem_keypair_derand_jazz$108
leaq 8800(%rsp), %rax
leaq 832(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r9
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp L__crypto_kem_keypair_derand_jazz$102
L__crypto_kem_keypair_derand_jazz$103:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb L__crypto_kem_keypair_derand_jazz$106
movw %si, (%rax,%r9,2)
incq %r9
L__crypto_kem_keypair_derand_jazz$106:
cmpq $256, %r9
jnb L__crypto_kem_keypair_derand_jazz$104
cmpw $3329, %r11w
jnb L__crypto_kem_keypair_derand_jazz$104
movw %r11w, (%rax,%r9,2)
incq %r9
L__crypto_kem_keypair_derand_jazz$105:
L__crypto_kem_keypair_derand_jazz$104:
cmpq $255, %r9
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
L__crypto_kem_keypair_derand_jazz$102:
jne L__crypto_kem_keypair_derand_jazz$103
leaq 9312(%rsp), %rax
leaq 1344(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r8
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp L__crypto_kem_keypair_derand_jazz$97
L__crypto_kem_keypair_derand_jazz$98:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb L__crypto_kem_keypair_derand_jazz$101
movw %si, (%rax,%r8,2)
incq %r8
L__crypto_kem_keypair_derand_jazz$101:
cmpq $256, %r8
jnb L__crypto_kem_keypair_derand_jazz$99
cmpw $3329, %r11w
jnb L__crypto_kem_keypair_derand_jazz$99
movw %r11w, (%rax,%r8,2)
incq %r8
L__crypto_kem_keypair_derand_jazz$100:
L__crypto_kem_keypair_derand_jazz$99:
cmpq $255, %r8
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
L__crypto_kem_keypair_derand_jazz$97:
jne L__crypto_kem_keypair_derand_jazz$98
leaq 9824(%rsp), %rax
leaq 1856(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r13
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp L__crypto_kem_keypair_derand_jazz$92
L__crypto_kem_keypair_derand_jazz$93:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb L__crypto_kem_keypair_derand_jazz$96
movw %si, (%rax,%r13,2)
incq %r13
L__crypto_kem_keypair_derand_jazz$96:
cmpq $256, %r13
jnb L__crypto_kem_keypair_derand_jazz$94
cmpw $3329, %r11w
jnb L__crypto_kem_keypair_derand_jazz$94
movw %r11w, (%rax,%r13,2)
incq %r13
L__crypto_kem_keypair_derand_jazz$95:
L__crypto_kem_keypair_derand_jazz$94:
cmpq $255, %r13
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
L__crypto_kem_keypair_derand_jazz$92:
jne L__crypto_kem_keypair_derand_jazz$93
cmpq $255, %rdi
setbe %al
cmpq $255, %r9
setbe %cl
orb %cl, %al
cmpq $255, %r8
setbe %cl
cmpq $255, %r13
setbe %dl
orb %dl, %cl
orb %al, %cl
L__crypto_kem_keypair_derand_jazz$90:
jne L__crypto_kem_keypair_derand_jazz$91
vmovdqu 64(%rsp), %ymm0
vmovdqu %ymm0, 320(%rsp)
vmovdqu %ymm0, 832(%rsp)
vmovdqu %ymm0, 1344(%rsp)
vmovdqu %ymm0, 1856(%rsp)
vmovdqu %ymm0, 64(%rsp)
movb $1, 352(%rsp)
movb $1, 353(%rsp)
movb $2, 864(%rsp)
movb $1, 865(%rsp)
movb $0, 1376(%rsp)
movb $2, 1377(%rsp)
movb $1, 1888(%rsp)
movb $2, 1889(%rsp)
leaq 2880(%rsp), %rax
leaq 320(%rsp), %rcx
leaq 832(%rsp), %rdx
leaq 1344(%rsp), %rsi
leaq 1856(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq L__crypto_kem_keypair_derand_jazz$89(%rip), %r8
movq %r8, (%rsp)
jmp L_shake128_absorb4x_34$1
L__crypto_kem_keypair_derand_jazz$89:
leaq 8(%rsp), %rsp
leaq 2880(%rsp), %rax
leaq 320(%rsp), %rdi
leaq 832(%rsp), %r8
leaq 1344(%rsp), %r9
leaq 1856(%rsp), %r10
movq %rdi, %r11
movq %r8, %rbx
movq %r9, %rbp
movq %r10, %r12
leaq -832(%rsp), %rsp
leaq L__crypto_kem_keypair_derand_jazz$88(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
L__crypto_kem_keypair_derand_jazz$88:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r11)
vmovhpd %xmm1, (%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbp)
vmovhpd %xmm0, (%r12)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r11)
vmovhpd %xmm1, 8(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbp)
vmovhpd %xmm0, 8(%r12)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r11)
vmovhpd %xmm1, 16(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbp)
vmovhpd %xmm0, 16(%r12)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r11)
vmovhpd %xmm1, 24(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbp)
vmovhpd %xmm0, 24(%r12)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r11)
vmovhpd %xmm1, 32(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbp)
vmovhpd %xmm0, 32(%r12)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r11)
vmovhpd %xmm1, 40(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbp)
vmovhpd %xmm0, 40(%r12)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r11)
vmovhpd %xmm1, 48(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbp)
vmovhpd %xmm0, 48(%r12)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r11)
vmovhpd %xmm1, 56(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbp)
vmovhpd %xmm0, 56(%r12)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r11)
vmovhpd %xmm1, 64(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbp)
vmovhpd %xmm0, 64(%r12)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r11)
vmovhpd %xmm1, 72(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbp)
vmovhpd %xmm0, 72(%r12)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r11)
vmovhpd %xmm1, 80(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbp)
vmovhpd %xmm0, 80(%r12)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r11)
vmovhpd %xmm1, 88(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbp)
vmovhpd %xmm0, 88(%r12)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r11)
vmovhpd %xmm1, 96(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbp)
vmovhpd %xmm0, 96(%r12)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r11)
vmovhpd %xmm1, 104(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbp)
vmovhpd %xmm0, 104(%r12)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r11)
vmovhpd %xmm1, 112(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbp)
vmovhpd %xmm0, 112(%r12)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r11)
vmovhpd %xmm1, 120(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbp)
vmovhpd %xmm0, 120(%r12)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r11)
vmovhpd %xmm1, 128(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbp)
vmovhpd %xmm0, 128(%r12)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%r11)
vmovhpd %xmm1, 136(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%rbp)
vmovhpd %xmm0, 136(%r12)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%r11)
vmovhpd %xmm1, 144(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%rbp)
vmovhpd %xmm0, 144(%r12)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%r11)
vmovhpd %xmm1, 152(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%rbp)
vmovhpd %xmm0, 152(%r12)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%r11)
vmovhpd %xmm1, 160(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%rbp)
vmovhpd %xmm0, 160(%r12)
leaq 168(%rdi), %r11
leaq 168(%r8), %rbx
leaq 168(%r9), %rbp
leaq 168(%r10), %r12
leaq -832(%rsp), %rsp
leaq L__crypto_kem_keypair_derand_jazz$87(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
L__crypto_kem_keypair_derand_jazz$87:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r11)
vmovhpd %xmm1, (%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbp)
vmovhpd %xmm0, (%r12)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r11)
vmovhpd %xmm1, 8(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbp)
vmovhpd %xmm0, 8(%r12)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r11)
vmovhpd %xmm1, 16(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbp)
vmovhpd %xmm0, 16(%r12)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r11)
vmovhpd %xmm1, 24(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbp)
vmovhpd %xmm0, 24(%r12)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r11)
vmovhpd %xmm1, 32(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbp)
vmovhpd %xmm0, 32(%r12)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r11)
vmovhpd %xmm1, 40(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbp)
vmovhpd %xmm0, 40(%r12)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r11)
vmovhpd %xmm1, 48(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbp)
vmovhpd %xmm0, 48(%r12)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r11)
vmovhpd %xmm1, 56(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbp)
vmovhpd %xmm0, 56(%r12)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r11)
vmovhpd %xmm1, 64(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbp)
vmovhpd %xmm0, 64(%r12)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r11)
vmovhpd %xmm1, 72(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbp)
vmovhpd %xmm0, 72(%r12)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r11)
vmovhpd %xmm1, 80(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbp)
vmovhpd %xmm0, 80(%r12)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r11)
vmovhpd %xmm1, 88(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbp)
vmovhpd %xmm0, 88(%r12)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r11)
vmovhpd %xmm1, 96(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbp)
vmovhpd %xmm0, 96(%r12)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r11)
vmovhpd %xmm1, 104(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbp)
vmovhpd %xmm0, 104(%r12)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r11)
vmovhpd %xmm1, 112(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbp)
vmovhpd %xmm0, 112(%r12)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r11)
vmovhpd %xmm1, 120(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbp)
vmovhpd %xmm0, 120(%r12)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r11)
vmovhpd %xmm1, 128(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbp)
vmovhpd %xmm0, 128(%r12)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%r11)
vmovhpd %xmm1, 136(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%rbp)
vmovhpd %xmm0, 136(%r12)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%r11)
vmovhpd %xmm1, 144(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%rbp)
vmovhpd %xmm0, 144(%r12)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%r11)
vmovhpd %xmm1, 152(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%rbp)
vmovhpd %xmm0, 152(%r12)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%r11)
vmovhpd %xmm1, 160(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%rbp)
vmovhpd %xmm0, 160(%r12)
leaq 336(%rdi), %rdi
leaq 336(%r8), %r8
leaq 336(%r9), %r9
leaq 336(%r10), %r10
leaq -832(%rsp), %rsp
leaq L__crypto_kem_keypair_derand_jazz$86(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
L__crypto_kem_keypair_derand_jazz$86:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%rdi)
vmovhpd %xmm1, (%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%r9)
vmovhpd %xmm0, (%r10)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%rdi)
vmovhpd %xmm1, 8(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%r9)
vmovhpd %xmm0, 8(%r10)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%rdi)
vmovhpd %xmm1, 16(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%r9)
vmovhpd %xmm0, 16(%r10)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%rdi)
vmovhpd %xmm1, 24(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%r9)
vmovhpd %xmm0, 24(%r10)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%rdi)
vmovhpd %xmm1, 32(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%r9)
vmovhpd %xmm0, 32(%r10)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%rdi)
vmovhpd %xmm1, 40(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%r9)
vmovhpd %xmm0, 40(%r10)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%rdi)
vmovhpd %xmm1, 48(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%r9)
vmovhpd %xmm0, 48(%r10)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%rdi)
vmovhpd %xmm1, 56(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%r9)
vmovhpd %xmm0, 56(%r10)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%rdi)
vmovhpd %xmm1, 64(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%r9)
vmovhpd %xmm0, 64(%r10)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%rdi)
vmovhpd %xmm1, 72(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%r9)
vmovhpd %xmm0, 72(%r10)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%rdi)
vmovhpd %xmm1, 80(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%r9)
vmovhpd %xmm0, 80(%r10)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%rdi)
vmovhpd %xmm1, 88(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%r9)
vmovhpd %xmm0, 88(%r10)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%rdi)
vmovhpd %xmm1, 96(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%r9)
vmovhpd %xmm0, 96(%r10)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%rdi)
vmovhpd %xmm1, 104(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%r9)
vmovhpd %xmm0, 104(%r10)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%rdi)
vmovhpd %xmm1, 112(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%r9)
vmovhpd %xmm0, 112(%r10)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%rdi)
vmovhpd %xmm1, 120(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%r9)
vmovhpd %xmm0, 120(%r10)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%rdi)
vmovhpd %xmm1, 128(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%r9)
vmovhpd %xmm0, 128(%r10)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%rdi)
vmovhpd %xmm1, 136(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%r9)
vmovhpd %xmm0, 136(%r10)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%rdi)
vmovhpd %xmm1, 144(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%r9)
vmovhpd %xmm0, 144(%r10)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%rdi)
vmovhpd %xmm1, 152(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%r9)
vmovhpd %xmm0, 152(%r10)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%rdi)
vmovhpd %xmm1, 160(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%r9)
vmovhpd %xmm0, 160(%r10)
leaq 10336(%rsp), %rbx
leaq 320(%rsp), %rbp
leaq L__crypto_kem_keypair_derand_jazz$85(%rip), %r11
jmp L_rej_uniform_avx$1
L__crypto_kem_keypair_derand_jazz$85:
movq %r13, %r9
leaq 10848(%rsp), %rbx
leaq 832(%rsp), %rbp
leaq L__crypto_kem_keypair_derand_jazz$84(%rip), %r11
jmp L_rej_uniform_avx$1
L__crypto_kem_keypair_derand_jazz$84:
movq %r13, %rdi
leaq 11360(%rsp), %rbx
leaq 1344(%rsp), %rbp
leaq L__crypto_kem_keypair_derand_jazz$83(%rip), %r11
jmp L_rej_uniform_avx$1
L__crypto_kem_keypair_derand_jazz$83:
movq %r13, %r8
leaq 11872(%rsp), %rbx
leaq 1856(%rsp), %rbp
leaq L__crypto_kem_keypair_derand_jazz$82(%rip), %r11
jmp L_rej_uniform_avx$1
L__crypto_kem_keypair_derand_jazz$82:
cmpq $255, %r9
setbe %al
cmpq $255, %rdi
setbe %cl
orb %cl, %al
cmpq $255, %r8
setbe %cl
cmpq $255, %r13
setbe %dl
orb %dl, %cl
orb %al, %cl
jmp L__crypto_kem_keypair_derand_jazz$59
L__crypto_kem_keypair_derand_jazz$60:
leaq 2880(%rsp), %rax
leaq 320(%rsp), %r10
leaq 832(%rsp), %r11
leaq 1344(%rsp), %rbx
leaq 1856(%rsp), %rbp
leaq -832(%rsp), %rsp
leaq L__crypto_kem_keypair_derand_jazz$81(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
L__crypto_kem_keypair_derand_jazz$81:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r10)
vmovhpd %xmm1, (%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbx)
vmovhpd %xmm0, (%rbp)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r10)
vmovhpd %xmm1, 8(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbx)
vmovhpd %xmm0, 8(%rbp)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r10)
vmovhpd %xmm1, 16(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbx)
vmovhpd %xmm0, 16(%rbp)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r10)
vmovhpd %xmm1, 24(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbx)
vmovhpd %xmm0, 24(%rbp)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r10)
vmovhpd %xmm1, 32(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbx)
vmovhpd %xmm0, 32(%rbp)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r10)
vmovhpd %xmm1, 40(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbx)
vmovhpd %xmm0, 40(%rbp)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r10)
vmovhpd %xmm1, 48(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbx)
vmovhpd %xmm0, 48(%rbp)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r10)
vmovhpd %xmm1, 56(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbx)
vmovhpd %xmm0, 56(%rbp)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r10)
vmovhpd %xmm1, 64(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbx)
vmovhpd %xmm0, 64(%rbp)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r10)
vmovhpd %xmm1, 72(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbx)
vmovhpd %xmm0, 72(%rbp)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r10)
vmovhpd %xmm1, 80(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbx)
vmovhpd %xmm0, 80(%rbp)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r10)
vmovhpd %xmm1, 88(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbx)
vmovhpd %xmm0, 88(%rbp)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r10)
vmovhpd %xmm1, 96(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbx)
vmovhpd %xmm0, 96(%rbp)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r10)
vmovhpd %xmm1, 104(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbx)
vmovhpd %xmm0, 104(%rbp)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r10)
vmovhpd %xmm1, 112(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbx)
vmovhpd %xmm0, 112(%rbp)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r10)
vmovhpd %xmm1, 120(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbx)
vmovhpd %xmm0, 120(%rbp)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r10)
vmovhpd %xmm1, 128(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbx)
vmovhpd %xmm0, 128(%rbp)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%r10)
vmovhpd %xmm1, 136(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%rbx)
vmovhpd %xmm0, 136(%rbp)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%r10)
vmovhpd %xmm1, 144(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%rbx)
vmovhpd %xmm0, 144(%rbp)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%r10)
vmovhpd %xmm1, 152(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%rbx)
vmovhpd %xmm0, 152(%rbp)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%r10)
vmovhpd %xmm1, 160(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%rbx)
vmovhpd %xmm0, 160(%rbp)
leaq 10336(%rsp), %rax
leaq 320(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r9
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp L__crypto_kem_keypair_derand_jazz$76
L__crypto_kem_keypair_derand_jazz$77:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb L__crypto_kem_keypair_derand_jazz$80
movw %si, (%rax,%r9,2)
incq %r9
L__crypto_kem_keypair_derand_jazz$80:
cmpq $256, %r9
jnb L__crypto_kem_keypair_derand_jazz$78
cmpw $3329, %r11w
jnb L__crypto_kem_keypair_derand_jazz$78
movw %r11w, (%rax,%r9,2)
incq %r9
L__crypto_kem_keypair_derand_jazz$79:
L__crypto_kem_keypair_derand_jazz$78:
cmpq $255, %r9
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
L__crypto_kem_keypair_derand_jazz$76:
jne L__crypto_kem_keypair_derand_jazz$77
leaq 10848(%rsp), %rax
leaq 832(%rsp), %rcx
movq $0, %rdx
cmpq $255, %rdi
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp L__crypto_kem_keypair_derand_jazz$71
L__crypto_kem_keypair_derand_jazz$72:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb L__crypto_kem_keypair_derand_jazz$75
movw %si, (%rax,%rdi,2)
incq %rdi
L__crypto_kem_keypair_derand_jazz$75:
cmpq $256, %rdi
jnb L__crypto_kem_keypair_derand_jazz$73
cmpw $3329, %r11w
jnb L__crypto_kem_keypair_derand_jazz$73
movw %r11w, (%rax,%rdi,2)
incq %rdi
L__crypto_kem_keypair_derand_jazz$74:
L__crypto_kem_keypair_derand_jazz$73:
cmpq $255, %rdi
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
L__crypto_kem_keypair_derand_jazz$71:
jne L__crypto_kem_keypair_derand_jazz$72
leaq 11360(%rsp), %rax
leaq 1344(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r8
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp L__crypto_kem_keypair_derand_jazz$66
L__crypto_kem_keypair_derand_jazz$67:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb L__crypto_kem_keypair_derand_jazz$70
movw %si, (%rax,%r8,2)
incq %r8
L__crypto_kem_keypair_derand_jazz$70:
cmpq $256, %r8
jnb L__crypto_kem_keypair_derand_jazz$68
cmpw $3329, %r11w
jnb L__crypto_kem_keypair_derand_jazz$68
movw %r11w, (%rax,%r8,2)
incq %r8
L__crypto_kem_keypair_derand_jazz$69:
L__crypto_kem_keypair_derand_jazz$68:
cmpq $255, %r8
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
L__crypto_kem_keypair_derand_jazz$66:
jne L__crypto_kem_keypair_derand_jazz$67
leaq 11872(%rsp), %rax
leaq 1856(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r13
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp L__crypto_kem_keypair_derand_jazz$61
L__crypto_kem_keypair_derand_jazz$62:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb L__crypto_kem_keypair_derand_jazz$65
movw %si, (%rax,%r13,2)
incq %r13
L__crypto_kem_keypair_derand_jazz$65:
cmpq $256, %r13
jnb L__crypto_kem_keypair_derand_jazz$63
cmpw $3329, %r11w
jnb L__crypto_kem_keypair_derand_jazz$63
movw %r11w, (%rax,%r13,2)
incq %r13
L__crypto_kem_keypair_derand_jazz$64:
L__crypto_kem_keypair_derand_jazz$63:
cmpq $255, %r13
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
L__crypto_kem_keypair_derand_jazz$61:
jne L__crypto_kem_keypair_derand_jazz$62
cmpq $255, %r9
setbe %al
cmpq $255, %rdi
setbe %cl
orb %cl, %al
cmpq $255, %r8
setbe %cl
cmpq $255, %r13
setbe %dl
orb %dl, %cl
orb %al, %cl
L__crypto_kem_keypair_derand_jazz$59:
jne L__crypto_kem_keypair_derand_jazz$60
vmovdqu 64(%rsp), %ymm0
vmovdqu %ymm0, 320(%rsp)
movb $2, 352(%rsp)
movb $2, 353(%rsp)
leaq 320(%rsp), %rax
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 96(%rsp)
vmovdqu %ymm0, 128(%rsp)
vmovdqu %ymm0, 160(%rsp)
vmovdqu %ymm0, 192(%rsp)
vmovdqu %ymm0, 224(%rsp)
vmovdqu %ymm0, 256(%rsp)
vmovdqu %ymm0, 288(%rsp)
vpbroadcastq (%rax), %ymm5
movq 8(%rax), %rcx
movq glob_data + 6208(%rip), %rdx
movq %rcx, 96(%rsp,%rdx,8)
movq 16(%rax), %rcx
movq glob_data + 6216(%rip), %rdx
movq %rcx, 96(%rsp,%rdx,8)
movq 24(%rax), %rcx
movq glob_data + 6224(%rip), %rdx
movq %rcx, 96(%rsp,%rdx,8)
movb 32(%rax), %cl
movq glob_data + 6232(%rip), %rdx
shlq $3, %rdx
movb %cl, 96(%rsp,%rdx)
movb 33(%rax), %al
incq %rdx
movb %al, 96(%rsp,%rdx)
incq %rdx
movb $31, 96(%rsp,%rdx)
movq glob_data + 6360(%rip), %rax
shlq $3, %rax
movq $167, %rcx
andq $7, %rcx
addq %rcx, %rax
movb $-128, 96(%rsp,%rax)
vmovdqu 128(%rsp), %ymm0
vmovdqu 160(%rsp), %ymm1
vmovdqu 192(%rsp), %ymm2
vmovdqu 224(%rsp), %ymm6
vmovdqu 256(%rsp), %ymm3
vmovdqu 288(%rsp), %ymm4
leaq 320(%rsp), %rax
leaq glob_data + 3328(%rip), %rcx
movq $0, %rdx
leaq glob_data + 3136(%rip), %rsi
leaq glob_data + 2944(%rip), %rdi
movq $24, %r8
L__crypto_kem_keypair_derand_jazz$58:
vpshufd $78, %ymm1, %ymm8
vpxor %ymm2, %ymm3, %ymm7
vpxor %ymm4, %ymm6, %ymm9
vpxor %ymm0, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm1, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm5, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm1, %ymm1
vpxor %ymm11, %ymm5, %ymm5
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm1, %ymm7
vpsrlvq (%rdi), %ymm1, %ymm1
vpor %ymm7, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpsllvq 64(%rsi), %ymm2, %ymm7
vpsrlvq 64(%rdi), %ymm2, %ymm2
vpor %ymm7, %ymm2, %ymm2
vpxor %ymm9, %ymm6, %ymm6
vpsllvq 96(%rsi), %ymm6, %ymm7
vpsrlvq 96(%rdi), %ymm6, %ymm6
vpor %ymm7, %ymm6, %ymm10
vpxor %ymm9, %ymm3, %ymm3
vpsllvq 128(%rsi), %ymm3, %ymm6
vpsrlvq 128(%rdi), %ymm3, %ymm3
vpor %ymm6, %ymm3, %ymm3
vpxor %ymm9, %ymm4, %ymm4
vpermq $-115, %ymm1, %ymm6
vpermq $-115, %ymm2, %ymm7
vpsllvq 160(%rsi), %ymm4, %ymm1
vpsrlvq 160(%rdi), %ymm4, %ymm2
vpor %ymm1, %ymm2, %ymm8
vpxor %ymm9, %ymm0, %ymm1
vpermq $27, %ymm10, %ymm0
vpermq $114, %ymm3, %ymm9
vpsllvq 32(%rsi), %ymm1, %ymm2
vpsrlvq 32(%rdi), %ymm1, %ymm1
vpor %ymm2, %ymm1, %ymm10
vpsrldq $8, %ymm8, %ymm1
vpandn %ymm1, %ymm8, %ymm2
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm3
vpblendd $12, %ymm7, %ymm6, %ymm4
vpblendd $12, %ymm6, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm0, %ymm3, %ymm3
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm0, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm3, %ymm3
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm3, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm4
vpblendd $12, %ymm10, %ymm0, %ymm11
vpblendd $12, %ymm0, %ymm6, %ymm12
vpxor %ymm6, %ymm1, %ymm3
vpblendd $48, %ymm6, %ymm11, %ymm1
vpblendd $48, %ymm7, %ymm12, %ymm11
vpxor %ymm0, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm1, %ymm1
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm1, %ymm1
vpxor %ymm9, %ymm1, %ymm12
vpermq $30, %ymm8, %ymm1
vpblendd $48, %ymm5, %ymm1, %ymm1
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm5, %ymm11, %ymm11
vpandn %ymm1, %ymm11, %ymm11
vpblendd $12, %ymm0, %ymm7, %ymm1
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm1, %ymm1
vpblendd $48, %ymm6, %ymm13, %ymm13
vpblendd $-64, %ymm6, %ymm1, %ymm1
vpblendd $-64, %ymm0, %ymm13, %ymm13
vpandn %ymm13, %ymm1, %ymm1
vpxor %ymm10, %ymm1, %ymm1
vpermq $0, %ymm2, %ymm13
vpermq $27, %ymm3, %ymm2
vpermq $-115, %ymm4, %ymm3
vpermq $114, %ymm12, %ymm4
vpblendd $12, %ymm6, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm0, %ymm9
vpblendd $48, %ymm0, %ymm12, %ymm0
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm0, %ymm0
vpblendd $-64, %ymm6, %ymm9, %ymm6
vpandn %ymm6, %ymm0, %ymm6
vpxor %ymm13, %ymm5, %ymm5
vpxor %ymm8, %ymm11, %ymm0
vpxor %ymm7, %ymm6, %ymm6
vpxor (%rcx,%rdx), %ymm5, %ymm5
addq $32, %rdx
decq %r8
jne L__crypto_kem_keypair_derand_jazz$58
vmovdqu %ymm5, 96(%rsp)
vmovdqu %ymm0, 128(%rsp)
vmovdqu %ymm1, 160(%rsp)
vmovdqu %ymm2, 192(%rsp)
vmovdqu %ymm6, 224(%rsp)
vmovdqu %ymm3, 256(%rsp)
vmovdqu %ymm4, 288(%rsp)
movq glob_data + 6200(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, (%rax)
movq glob_data + 6208(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 8(%rax)
movq glob_data + 6216(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 16(%rax)
movq glob_data + 6224(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 24(%rax)
movq glob_data + 6232(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 32(%rax)
movq glob_data + 6240(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 40(%rax)
movq glob_data + 6248(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 48(%rax)
movq glob_data + 6256(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 56(%rax)
movq glob_data + 6264(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 64(%rax)
movq glob_data + 6272(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 72(%rax)
movq glob_data + 6280(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 80(%rax)
movq glob_data + 6288(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 88(%rax)
movq glob_data + 6296(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 96(%rax)
movq glob_data + 6304(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 104(%rax)
movq glob_data + 6312(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 112(%rax)
movq glob_data + 6320(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 120(%rax)
movq glob_data + 6328(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 128(%rax)
movq glob_data + 6336(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 136(%rax)
movq glob_data + 6344(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 144(%rax)
movq glob_data + 6352(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 152(%rax)
movq glob_data + 6360(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 160(%rax)
leaq 488(%rsp), %rax
leaq glob_data + 3328(%rip), %rcx
movq $0, %rdx
leaq glob_data + 3136(%rip), %rsi
leaq glob_data + 2944(%rip), %rdi
movq $24, %r8
L__crypto_kem_keypair_derand_jazz$57:
vpshufd $78, %ymm1, %ymm8
vpxor %ymm2, %ymm3, %ymm7
vpxor %ymm4, %ymm6, %ymm9
vpxor %ymm0, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm1, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm5, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm1, %ymm1
vpxor %ymm11, %ymm5, %ymm5
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm1, %ymm7
vpsrlvq (%rdi), %ymm1, %ymm1
vpor %ymm7, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpsllvq 64(%rsi), %ymm2, %ymm7
vpsrlvq 64(%rdi), %ymm2, %ymm2
vpor %ymm7, %ymm2, %ymm2
vpxor %ymm9, %ymm6, %ymm6
vpsllvq 96(%rsi), %ymm6, %ymm7
vpsrlvq 96(%rdi), %ymm6, %ymm6
vpor %ymm7, %ymm6, %ymm10
vpxor %ymm9, %ymm3, %ymm3
vpsllvq 128(%rsi), %ymm3, %ymm6
vpsrlvq 128(%rdi), %ymm3, %ymm3
vpor %ymm6, %ymm3, %ymm3
vpxor %ymm9, %ymm4, %ymm4
vpermq $-115, %ymm1, %ymm6
vpermq $-115, %ymm2, %ymm7
vpsllvq 160(%rsi), %ymm4, %ymm1
vpsrlvq 160(%rdi), %ymm4, %ymm2
vpor %ymm1, %ymm2, %ymm8
vpxor %ymm9, %ymm0, %ymm1
vpermq $27, %ymm10, %ymm0
vpermq $114, %ymm3, %ymm9
vpsllvq 32(%rsi), %ymm1, %ymm2
vpsrlvq 32(%rdi), %ymm1, %ymm1
vpor %ymm2, %ymm1, %ymm10
vpsrldq $8, %ymm8, %ymm1
vpandn %ymm1, %ymm8, %ymm2
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm3
vpblendd $12, %ymm7, %ymm6, %ymm4
vpblendd $12, %ymm6, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm0, %ymm3, %ymm3
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm0, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm3, %ymm3
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm3, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm4
vpblendd $12, %ymm10, %ymm0, %ymm11
vpblendd $12, %ymm0, %ymm6, %ymm12
vpxor %ymm6, %ymm1, %ymm3
vpblendd $48, %ymm6, %ymm11, %ymm1
vpblendd $48, %ymm7, %ymm12, %ymm11
vpxor %ymm0, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm1, %ymm1
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm1, %ymm1
vpxor %ymm9, %ymm1, %ymm12
vpermq $30, %ymm8, %ymm1
vpblendd $48, %ymm5, %ymm1, %ymm1
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm5, %ymm11, %ymm11
vpandn %ymm1, %ymm11, %ymm11
vpblendd $12, %ymm0, %ymm7, %ymm1
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm1, %ymm1
vpblendd $48, %ymm6, %ymm13, %ymm13
vpblendd $-64, %ymm6, %ymm1, %ymm1
vpblendd $-64, %ymm0, %ymm13, %ymm13
vpandn %ymm13, %ymm1, %ymm1
vpxor %ymm10, %ymm1, %ymm1
vpermq $0, %ymm2, %ymm13
vpermq $27, %ymm3, %ymm2
vpermq $-115, %ymm4, %ymm3
vpermq $114, %ymm12, %ymm4
vpblendd $12, %ymm6, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm0, %ymm9
vpblendd $48, %ymm0, %ymm12, %ymm0
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm0, %ymm0
vpblendd $-64, %ymm6, %ymm9, %ymm6
vpandn %ymm6, %ymm0, %ymm6
vpxor %ymm13, %ymm5, %ymm5
vpxor %ymm8, %ymm11, %ymm0
vpxor %ymm7, %ymm6, %ymm6
vpxor (%rcx,%rdx), %ymm5, %ymm5
addq $32, %rdx
decq %r8
jne L__crypto_kem_keypair_derand_jazz$57
vmovdqu %ymm5, 96(%rsp)
vmovdqu %ymm0, 128(%rsp)
vmovdqu %ymm1, 160(%rsp)
vmovdqu %ymm2, 192(%rsp)
vmovdqu %ymm6, 224(%rsp)
vmovdqu %ymm3, 256(%rsp)
vmovdqu %ymm4, 288(%rsp)
movq glob_data + 6200(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, (%rax)
movq glob_data + 6208(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 8(%rax)
movq glob_data + 6216(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 16(%rax)
movq glob_data + 6224(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 24(%rax)
movq glob_data + 6232(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 32(%rax)
movq glob_data + 6240(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 40(%rax)
movq glob_data + 6248(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 48(%rax)
movq glob_data + 6256(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 56(%rax)
movq glob_data + 6264(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 64(%rax)
movq glob_data + 6272(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 72(%rax)
movq glob_data + 6280(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 80(%rax)
movq glob_data + 6288(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 88(%rax)
movq glob_data + 6296(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 96(%rax)
movq glob_data + 6304(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 104(%rax)
movq glob_data + 6312(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 112(%rax)
movq glob_data + 6320(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 120(%rax)
movq glob_data + 6328(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 128(%rax)
movq glob_data + 6336(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 136(%rax)
movq glob_data + 6344(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 144(%rax)
movq glob_data + 6352(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 152(%rax)
movq glob_data + 6360(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 160(%rax)
leaq 656(%rsp), %rax
leaq glob_data + 3328(%rip), %rcx
movq $0, %rdx
leaq glob_data + 3136(%rip), %rsi
leaq glob_data + 2944(%rip), %rdi
movq $24, %r8
L__crypto_kem_keypair_derand_jazz$56:
vpshufd $78, %ymm1, %ymm8
vpxor %ymm2, %ymm3, %ymm7
vpxor %ymm4, %ymm6, %ymm9
vpxor %ymm0, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm1, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm5, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm1, %ymm1
vpxor %ymm11, %ymm5, %ymm5
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm1, %ymm7
vpsrlvq (%rdi), %ymm1, %ymm1
vpor %ymm7, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpsllvq 64(%rsi), %ymm2, %ymm7
vpsrlvq 64(%rdi), %ymm2, %ymm2
vpor %ymm7, %ymm2, %ymm2
vpxor %ymm9, %ymm6, %ymm6
vpsllvq 96(%rsi), %ymm6, %ymm7
vpsrlvq 96(%rdi), %ymm6, %ymm6
vpor %ymm7, %ymm6, %ymm10
vpxor %ymm9, %ymm3, %ymm3
vpsllvq 128(%rsi), %ymm3, %ymm6
vpsrlvq 128(%rdi), %ymm3, %ymm3
vpor %ymm6, %ymm3, %ymm3
vpxor %ymm9, %ymm4, %ymm4
vpermq $-115, %ymm1, %ymm6
vpermq $-115, %ymm2, %ymm7
vpsllvq 160(%rsi), %ymm4, %ymm1
vpsrlvq 160(%rdi), %ymm4, %ymm2
vpor %ymm1, %ymm2, %ymm8
vpxor %ymm9, %ymm0, %ymm1
vpermq $27, %ymm10, %ymm0
vpermq $114, %ymm3, %ymm9
vpsllvq 32(%rsi), %ymm1, %ymm2
vpsrlvq 32(%rdi), %ymm1, %ymm1
vpor %ymm2, %ymm1, %ymm10
vpsrldq $8, %ymm8, %ymm1
vpandn %ymm1, %ymm8, %ymm2
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm3
vpblendd $12, %ymm7, %ymm6, %ymm4
vpblendd $12, %ymm6, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm0, %ymm3, %ymm3
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm0, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm3, %ymm3
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm3, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm4
vpblendd $12, %ymm10, %ymm0, %ymm11
vpblendd $12, %ymm0, %ymm6, %ymm12
vpxor %ymm6, %ymm1, %ymm3
vpblendd $48, %ymm6, %ymm11, %ymm1
vpblendd $48, %ymm7, %ymm12, %ymm11
vpxor %ymm0, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm1, %ymm1
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm1, %ymm1
vpxor %ymm9, %ymm1, %ymm12
vpermq $30, %ymm8, %ymm1
vpblendd $48, %ymm5, %ymm1, %ymm1
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm5, %ymm11, %ymm11
vpandn %ymm1, %ymm11, %ymm11
vpblendd $12, %ymm0, %ymm7, %ymm1
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm1, %ymm1
vpblendd $48, %ymm6, %ymm13, %ymm13
vpblendd $-64, %ymm6, %ymm1, %ymm1
vpblendd $-64, %ymm0, %ymm13, %ymm13
vpandn %ymm13, %ymm1, %ymm1
vpxor %ymm10, %ymm1, %ymm1
vpermq $0, %ymm2, %ymm13
vpermq $27, %ymm3, %ymm2
vpermq $-115, %ymm4, %ymm3
vpermq $114, %ymm12, %ymm4
vpblendd $12, %ymm6, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm0, %ymm9
vpblendd $48, %ymm0, %ymm12, %ymm0
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm0, %ymm0
vpblendd $-64, %ymm6, %ymm9, %ymm6
vpandn %ymm6, %ymm0, %ymm6
vpxor %ymm13, %ymm5, %ymm5
vpxor %ymm8, %ymm11, %ymm0
vpxor %ymm7, %ymm6, %ymm6
vpxor (%rcx,%rdx), %ymm5, %ymm5
addq $32, %rdx
decq %r8
jne L__crypto_kem_keypair_derand_jazz$56
vmovdqu %ymm5, 96(%rsp)
vmovdqu %ymm0, 128(%rsp)
vmovdqu %ymm1, 160(%rsp)
vmovdqu %ymm2, 192(%rsp)
vmovdqu %ymm6, 224(%rsp)
vmovdqu %ymm3, 256(%rsp)
vmovdqu %ymm4, 288(%rsp)
movq glob_data + 6200(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, (%rax)
movq glob_data + 6208(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 8(%rax)
movq glob_data + 6216(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 16(%rax)
movq glob_data + 6224(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 24(%rax)
movq glob_data + 6232(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 32(%rax)
movq glob_data + 6240(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 40(%rax)
movq glob_data + 6248(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 48(%rax)
movq glob_data + 6256(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 56(%rax)
movq glob_data + 6264(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 64(%rax)
movq glob_data + 6272(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 72(%rax)
movq glob_data + 6280(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 80(%rax)
movq glob_data + 6288(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 88(%rax)
movq glob_data + 6296(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 96(%rax)
movq glob_data + 6304(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 104(%rax)
movq glob_data + 6312(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 112(%rax)
movq glob_data + 6320(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 120(%rax)
movq glob_data + 6328(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 128(%rax)
movq glob_data + 6336(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 136(%rax)
movq glob_data + 6344(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 144(%rax)
movq glob_data + 6352(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 152(%rax)
movq glob_data + 6360(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 160(%rax)
vmovdqu %ymm5, 96(%rsp)
vmovdqu %ymm0, 128(%rsp)
vmovdqu %ymm1, 160(%rsp)
vmovdqu %ymm2, 192(%rsp)
vmovdqu %ymm6, 224(%rsp)
vmovdqu %ymm3, 256(%rsp)
vmovdqu %ymm4, 288(%rsp)
leaq 12384(%rsp), %rbx
leaq 320(%rsp), %rbp
leaq L__crypto_kem_keypair_derand_jazz$55(%rip), %r11
jmp L_rej_uniform_avx$1
L__crypto_kem_keypair_derand_jazz$55:
cmpq $255, %r13
setbe %al
vmovdqu 96(%rsp), %ymm6
vmovdqu 128(%rsp), %ymm0
vmovdqu 160(%rsp), %ymm1
vmovdqu 192(%rsp), %ymm2
vmovdqu 224(%rsp), %ymm3
vmovdqu 256(%rsp), %ymm4
vmovdqu 288(%rsp), %ymm5
jmp L__crypto_kem_keypair_derand_jazz$47
L__crypto_kem_keypair_derand_jazz$48:
leaq 320(%rsp), %rax
leaq glob_data + 3328(%rip), %rcx
movq $0, %rdx
leaq glob_data + 3136(%rip), %rsi
leaq glob_data + 2944(%rip), %rdi
movq $24, %r8
L__crypto_kem_keypair_derand_jazz$54:
vpshufd $78, %ymm1, %ymm8
vpxor %ymm2, %ymm4, %ymm7
vpxor %ymm5, %ymm3, %ymm9
vpxor %ymm0, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm1, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm1, %ymm1
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm1, %ymm7
vpsrlvq (%rdi), %ymm1, %ymm1
vpor %ymm7, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpsllvq 64(%rsi), %ymm2, %ymm7
vpsrlvq 64(%rdi), %ymm2, %ymm2
vpor %ymm7, %ymm2, %ymm2
vpxor %ymm9, %ymm3, %ymm3
vpsllvq 96(%rsi), %ymm3, %ymm7
vpsrlvq 96(%rdi), %ymm3, %ymm3
vpor %ymm7, %ymm3, %ymm10
vpxor %ymm9, %ymm4, %ymm3
vpsllvq 128(%rsi), %ymm3, %ymm4
vpsrlvq 128(%rdi), %ymm3, %ymm3
vpor %ymm4, %ymm3, %ymm4
vpxor %ymm9, %ymm5, %ymm5
vpermq $-115, %ymm1, %ymm3
vpermq $-115, %ymm2, %ymm7
vpsllvq 160(%rsi), %ymm5, %ymm1
vpsrlvq 160(%rdi), %ymm5, %ymm2
vpor %ymm1, %ymm2, %ymm8
vpxor %ymm9, %ymm0, %ymm1
vpermq $27, %ymm10, %ymm0
vpermq $114, %ymm4, %ymm9
vpsllvq 32(%rsi), %ymm1, %ymm2
vpsrlvq 32(%rdi), %ymm1, %ymm1
vpor %ymm2, %ymm1, %ymm10
vpsrldq $8, %ymm8, %ymm1
vpandn %ymm1, %ymm8, %ymm2
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm3, %ymm5
vpblendd $12, %ymm3, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm0, %ymm4, %ymm4
vpblendd $48, %ymm10, %ymm5, %ymm5
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm0, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm9, %ymm5, %ymm5
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm4, %ymm1, %ymm1
vpandn %ymm11, %ymm5, %ymm5
vpblendd $12, %ymm10, %ymm0, %ymm11
vpblendd $12, %ymm0, %ymm3, %ymm12
vpxor %ymm3, %ymm1, %ymm4
vpblendd $48, %ymm3, %ymm11, %ymm1
vpblendd $48, %ymm7, %ymm12, %ymm11
vpxor %ymm0, %ymm5, %ymm5
vpblendd $-64, %ymm7, %ymm1, %ymm1
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm1, %ymm1
vpxor %ymm9, %ymm1, %ymm12
vpermq $30, %ymm8, %ymm1
vpblendd $48, %ymm6, %ymm1, %ymm1
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm1, %ymm11, %ymm11
vpblendd $12, %ymm0, %ymm7, %ymm1
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm13, %ymm13
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm0, %ymm13, %ymm13
vpandn %ymm13, %ymm1, %ymm1
vpxor %ymm10, %ymm1, %ymm1
vpermq $0, %ymm2, %ymm13
vpermq $27, %ymm4, %ymm2
vpermq $-115, %ymm5, %ymm4
vpermq $114, %ymm12, %ymm5
vpblendd $12, %ymm3, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm0, %ymm9
vpblendd $48, %ymm0, %ymm12, %ymm0
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm0, %ymm0
vpblendd $-64, %ymm3, %ymm9, %ymm3
vpandn %ymm3, %ymm0, %ymm3
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm0
vpxor %ymm7, %ymm3, %ymm3
vpxor (%rcx,%rdx), %ymm6, %ymm6
addq $32, %rdx
decq %r8
jne L__crypto_kem_keypair_derand_jazz$54
vmovdqu %ymm6, 96(%rsp)
vmovdqu %ymm0, 128(%rsp)
vmovdqu %ymm1, 160(%rsp)
vmovdqu %ymm2, 192(%rsp)
vmovdqu %ymm3, 224(%rsp)
vmovdqu %ymm4, 256(%rsp)
vmovdqu %ymm5, 288(%rsp)
movq glob_data + 6200(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, (%rax)
movq glob_data + 6208(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 8(%rax)
movq glob_data + 6216(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 16(%rax)
movq glob_data + 6224(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 24(%rax)
movq glob_data + 6232(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 32(%rax)
movq glob_data + 6240(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 40(%rax)
movq glob_data + 6248(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 48(%rax)
movq glob_data + 6256(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 56(%rax)
movq glob_data + 6264(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 64(%rax)
movq glob_data + 6272(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 72(%rax)
movq glob_data + 6280(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 80(%rax)
movq glob_data + 6288(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 88(%rax)
movq glob_data + 6296(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 96(%rax)
movq glob_data + 6304(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 104(%rax)
movq glob_data + 6312(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 112(%rax)
movq glob_data + 6320(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 120(%rax)
movq glob_data + 6328(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 128(%rax)
movq glob_data + 6336(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 136(%rax)
movq glob_data + 6344(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 144(%rax)
movq glob_data + 6352(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 152(%rax)
movq glob_data + 6360(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 160(%rax)
leaq 12384(%rsp), %rax
leaq 320(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r13
setbe %sil
cmpq $165, %rdx
setbe %dil
testb %dil, %sil
jmp L__crypto_kem_keypair_derand_jazz$49
L__crypto_kem_keypair_derand_jazz$50:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw (%rcx,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb L__crypto_kem_keypair_derand_jazz$53
movw %si, (%rax,%r13,2)
incq %r13
L__crypto_kem_keypair_derand_jazz$53:
cmpq $256, %r13
jnb L__crypto_kem_keypair_derand_jazz$51
cmpw $3329, %r8w
jnb L__crypto_kem_keypair_derand_jazz$51
movw %r8w, (%rax,%r13,2)
incq %r13
L__crypto_kem_keypair_derand_jazz$52:
L__crypto_kem_keypair_derand_jazz$51:
cmpq $255, %r13
setbe %sil
cmpq $165, %rdx
setbe %dil
testb %dil, %sil
L__crypto_kem_keypair_derand_jazz$49:
jne L__crypto_kem_keypair_derand_jazz$50
cmpq $255, %r13
setbe %al
L__crypto_kem_keypair_derand_jazz$47:
cmpb $0, %al
jne L__crypto_kem_keypair_derand_jazz$48
leaq 8288(%rsp), %rax
leaq L__crypto_kem_keypair_derand_jazz$46(%rip), %rcx
jmp L_nttunpack$1
L__crypto_kem_keypair_derand_jazz$46:
leaq 8800(%rsp), %rax
leaq L__crypto_kem_keypair_derand_jazz$45(%rip), %rcx
jmp L_nttunpack$1
L__crypto_kem_keypair_derand_jazz$45:
leaq 9312(%rsp), %rax
leaq L__crypto_kem_keypair_derand_jazz$44(%rip), %rcx
jmp L_nttunpack$1
L__crypto_kem_keypair_derand_jazz$44:
leaq 9824(%rsp), %rax
leaq L__crypto_kem_keypair_derand_jazz$43(%rip), %rcx
jmp L_nttunpack$1
L__crypto_kem_keypair_derand_jazz$43:
leaq 10336(%rsp), %rax
leaq L__crypto_kem_keypair_derand_jazz$42(%rip), %rcx
jmp L_nttunpack$1
L__crypto_kem_keypair_derand_jazz$42:
leaq 10848(%rsp), %rax
leaq L__crypto_kem_keypair_derand_jazz$41(%rip), %rcx
jmp L_nttunpack$1
L__crypto_kem_keypair_derand_jazz$41:
leaq 11360(%rsp), %rax
leaq L__crypto_kem_keypair_derand_jazz$40(%rip), %rcx
jmp L_nttunpack$1
L__crypto_kem_keypair_derand_jazz$40:
leaq 11872(%rsp), %rax
leaq L__crypto_kem_keypair_derand_jazz$39(%rip), %rcx
jmp L_nttunpack$1
L__crypto_kem_keypair_derand_jazz$39:
leaq 12384(%rsp), %rax
leaq L__crypto_kem_keypair_derand_jazz$38(%rip), %rcx
jmp L_nttunpack$1
L__crypto_kem_keypair_derand_jazz$38:
movb $0, %cl
leaq 3680(%rsp), %rax
leaq 4192(%rsp), %rdi
leaq 4704(%rsp), %r8
leaq 5216(%rsp), %r9
leaq 32(%rsp), %r10
leaq -1472(%rsp), %rsp
leaq L__crypto_kem_keypair_derand_jazz$37(%rip), %rdx
movq %rdx, 1464(%rsp)
jmp L_poly_getnoise_eta1_4x$1
L__crypto_kem_keypair_derand_jazz$37:
leaq 1472(%rsp), %rsp
movb $4, %cl
leaq 5728(%rsp), %rax
leaq 6240(%rsp), %rdi
leaq 6752(%rsp), %r8
leaq 7264(%rsp), %r9
leaq 32(%rsp), %r10
leaq -1472(%rsp), %rsp
leaq L__crypto_kem_keypair_derand_jazz$36(%rip), %rdx
movq %rdx, 1464(%rsp)
jmp L_poly_getnoise_eta1_4x$1
L__crypto_kem_keypair_derand_jazz$36:
leaq 1472(%rsp), %rsp
leaq 3680(%rsp), %rcx
leaq L__crypto_kem_keypair_derand_jazz$35(%rip), %rdi
jmp L_poly_ntt$1
L__crypto_kem_keypair_derand_jazz$35:
leaq 4192(%rsp), %rcx
leaq L__crypto_kem_keypair_derand_jazz$34(%rip), %rdi
jmp L_poly_ntt$1
L__crypto_kem_keypair_derand_jazz$34:
leaq 4704(%rsp), %rcx
leaq L__crypto_kem_keypair_derand_jazz$33(%rip), %rdi
jmp L_poly_ntt$1
L__crypto_kem_keypair_derand_jazz$33:
leaq 5216(%rsp), %rcx
leaq L__crypto_kem_keypair_derand_jazz$32(%rip), %rdi
jmp L_poly_ntt$1
L__crypto_kem_keypair_derand_jazz$32:
leaq 5728(%rsp), %rcx
leaq L__crypto_kem_keypair_derand_jazz$31(%rip), %rdi
jmp L_poly_ntt$1
L__crypto_kem_keypair_derand_jazz$31:
leaq 6240(%rsp), %rcx
leaq L__crypto_kem_keypair_derand_jazz$30(%rip), %rdi
jmp L_poly_ntt$1
L__crypto_kem_keypair_derand_jazz$30:
leaq 6752(%rsp), %rcx
leaq 8288(%rsp), %rsi
leaq 3680(%rsp), %rdi
leaq L__crypto_kem_keypair_derand_jazz$29(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_keypair_derand_jazz$29:
leaq 2368(%rsp), %rcx
leaq 8800(%rsp), %rsi
leaq 4192(%rsp), %rdi
leaq L__crypto_kem_keypair_derand_jazz$28(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_keypair_derand_jazz$28:
leaq 6752(%rsp), %rcx
leaq 2368(%rsp), %rsi
leaq L__crypto_kem_keypair_derand_jazz$27(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_keypair_derand_jazz$27:
leaq 2368(%rsp), %rcx
leaq 9312(%rsp), %rsi
leaq 4704(%rsp), %rdi
leaq L__crypto_kem_keypair_derand_jazz$26(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_keypair_derand_jazz$26:
leaq 6752(%rsp), %rcx
leaq 2368(%rsp), %rsi
leaq L__crypto_kem_keypair_derand_jazz$25(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_keypair_derand_jazz$25:
leaq 6752(%rsp), %rax
leaq L__crypto_kem_keypair_derand_jazz$24(%rip), %rdx
jmp L_poly_frommont$1
L__crypto_kem_keypair_derand_jazz$24:
leaq 7264(%rsp), %rcx
leaq 9824(%rsp), %rsi
leaq 3680(%rsp), %rdi
leaq L__crypto_kem_keypair_derand_jazz$23(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_keypair_derand_jazz$23:
leaq 2368(%rsp), %rcx
leaq 10336(%rsp), %rsi
leaq 4192(%rsp), %rdi
leaq L__crypto_kem_keypair_derand_jazz$22(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_keypair_derand_jazz$22:
leaq 7264(%rsp), %rcx
leaq 2368(%rsp), %rsi
leaq L__crypto_kem_keypair_derand_jazz$21(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_keypair_derand_jazz$21:
leaq 2368(%rsp), %rcx
leaq 10848(%rsp), %rsi
leaq 4704(%rsp), %rdi
leaq L__crypto_kem_keypair_derand_jazz$20(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_keypair_derand_jazz$20:
leaq 7264(%rsp), %rcx
leaq 2368(%rsp), %rsi
leaq L__crypto_kem_keypair_derand_jazz$19(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_keypair_derand_jazz$19:
leaq 7264(%rsp), %rax
leaq L__crypto_kem_keypair_derand_jazz$18(%rip), %rdx
jmp L_poly_frommont$1
L__crypto_kem_keypair_derand_jazz$18:
leaq 7776(%rsp), %rcx
leaq 11360(%rsp), %rsi
leaq 3680(%rsp), %rdi
leaq L__crypto_kem_keypair_derand_jazz$17(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_keypair_derand_jazz$17:
leaq 2368(%rsp), %rcx
leaq 11872(%rsp), %rsi
leaq 4192(%rsp), %rdi
leaq L__crypto_kem_keypair_derand_jazz$16(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_keypair_derand_jazz$16:
leaq 7776(%rsp), %rcx
leaq 2368(%rsp), %rsi
leaq L__crypto_kem_keypair_derand_jazz$15(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_keypair_derand_jazz$15:
leaq 2368(%rsp), %rcx
leaq 12384(%rsp), %rsi
leaq 4704(%rsp), %rdi
leaq L__crypto_kem_keypair_derand_jazz$14(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_keypair_derand_jazz$14:
leaq 7776(%rsp), %rcx
leaq 2368(%rsp), %rsi
leaq L__crypto_kem_keypair_derand_jazz$13(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_keypair_derand_jazz$13:
leaq 7776(%rsp), %rax
leaq L__crypto_kem_keypair_derand_jazz$12(%rip), %rdx
jmp L_poly_frommont$1
L__crypto_kem_keypair_derand_jazz$12:
leaq 6752(%rsp), %rcx
leaq 5216(%rsp), %rsi
leaq L__crypto_kem_keypair_derand_jazz$11(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_keypair_derand_jazz$11:
leaq 7264(%rsp), %rcx
leaq 5728(%rsp), %rsi
leaq L__crypto_kem_keypair_derand_jazz$10(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_keypair_derand_jazz$10:
leaq 7776(%rsp), %rcx
leaq 6240(%rsp), %rsi
leaq L__crypto_kem_keypair_derand_jazz$9(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_keypair_derand_jazz$9:
leaq 6752(%rsp), %rax
vmovdqu glob_data + 448(%rip), %ymm0
vmovdqu glob_data + 384(%rip), %ymm1
vmovdqu (%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, (%rax)
vmovdqu 32(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 32(%rax)
vmovdqu 64(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 64(%rax)
vmovdqu 96(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 96(%rax)
vmovdqu 128(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 128(%rax)
vmovdqu 160(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 160(%rax)
vmovdqu 192(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 192(%rax)
vmovdqu 224(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 224(%rax)
vmovdqu 256(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 256(%rax)
vmovdqu 288(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 288(%rax)
vmovdqu 320(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 320(%rax)
vmovdqu 352(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 352(%rax)
vmovdqu 384(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 384(%rax)
vmovdqu 416(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 416(%rax)
vmovdqu 448(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 448(%rax)
vmovdqu 480(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm1
vpsraw $10, %ymm1, %ymm1
vpmullw %ymm0, %ymm1, %ymm0
vpsubw %ymm0, %ymm2, %ymm0
vmovdqu %ymm0, 480(%rax)
leaq 7264(%rsp), %rax
vmovdqu glob_data + 448(%rip), %ymm0
vmovdqu glob_data + 384(%rip), %ymm1
vmovdqu (%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, (%rax)
vmovdqu 32(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 32(%rax)
vmovdqu 64(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 64(%rax)
vmovdqu 96(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 96(%rax)
vmovdqu 128(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 128(%rax)
vmovdqu 160(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 160(%rax)
vmovdqu 192(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 192(%rax)
vmovdqu 224(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 224(%rax)
vmovdqu 256(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 256(%rax)
vmovdqu 288(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 288(%rax)
vmovdqu 320(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 320(%rax)
vmovdqu 352(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 352(%rax)
vmovdqu 384(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 384(%rax)
vmovdqu 416(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 416(%rax)
vmovdqu 448(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 448(%rax)
vmovdqu 480(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm1
vpsraw $10, %ymm1, %ymm1
vpmullw %ymm0, %ymm1, %ymm0
vpsubw %ymm0, %ymm2, %ymm0
vmovdqu %ymm0, 480(%rax)
leaq 7776(%rsp), %rax
vmovdqu glob_data + 448(%rip), %ymm0
vmovdqu glob_data + 384(%rip), %ymm1
vmovdqu (%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, (%rax)
vmovdqu 32(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 32(%rax)
vmovdqu 64(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 64(%rax)
vmovdqu 96(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 96(%rax)
vmovdqu 128(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 128(%rax)
vmovdqu 160(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 160(%rax)
vmovdqu 192(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 192(%rax)
vmovdqu 224(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 224(%rax)
vmovdqu 256(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 256(%rax)
vmovdqu 288(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 288(%rax)
vmovdqu 320(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 320(%rax)
vmovdqu 352(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 352(%rax)
vmovdqu 384(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 384(%rax)
vmovdqu 416(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 416(%rax)
vmovdqu 448(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 448(%rax)
vmovdqu 480(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm1
vpsraw $10, %ymm1, %ymm1
vpmullw %ymm0, %ymm1, %ymm0
vpsubw %ymm0, %ymm2, %ymm0
vmovdqu %ymm0, 480(%rax)
movq 12920(%rsp), %rax
movq 12928(%rsp), %rcx
leaq 3680(%rsp), %rdx
leaq L__crypto_kem_keypair_derand_jazz$8(%rip), %rdi
jmp L_poly_tobytes$1
L__crypto_kem_keypair_derand_jazz$8:
addq $384, %rcx
leaq 4192(%rsp), %rdx
leaq L__crypto_kem_keypair_derand_jazz$7(%rip), %rdi
jmp L_poly_tobytes$1
L__crypto_kem_keypair_derand_jazz$7:
addq $384, %rcx
leaq 4704(%rsp), %rdx
leaq L__crypto_kem_keypair_derand_jazz$6(%rip), %rdi
jmp L_poly_tobytes$1
L__crypto_kem_keypair_derand_jazz$6:
movq %rax, %rcx
leaq 6752(%rsp), %rdx
leaq L__crypto_kem_keypair_derand_jazz$5(%rip), %rdi
jmp L_poly_tobytes$1
L__crypto_kem_keypair_derand_jazz$5:
addq $384, %rcx
leaq 7264(%rsp), %rdx
leaq L__crypto_kem_keypair_derand_jazz$4(%rip), %rdi
jmp L_poly_tobytes$1
L__crypto_kem_keypair_derand_jazz$4:
addq $384, %rcx
leaq 7776(%rsp), %rdx
leaq L__crypto_kem_keypair_derand_jazz$3(%rip), %rdi
jmp L_poly_tobytes$1
L__crypto_kem_keypair_derand_jazz$3:
addq $1152, %rax
movq (%rsp), %rcx
movq %rcx, (%rax)
addq $8, %rax
movq 8(%rsp), %rcx
movq %rcx, (%rax)
addq $8, %rax
movq 16(%rsp), %rcx
movq %rcx, (%rax)
addq $8, %rax
movq 24(%rsp), %rcx
movq %rcx, (%rax)
movq 12912(%rsp), %rax
addq $1152, %rax
movq 12904(%rsp), %rcx
movq (%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 8(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 16(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 24(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 32(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 40(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 48(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 56(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 64(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 72(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 80(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 88(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 96(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 104(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 112(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 120(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 128(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 136(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 144(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 152(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 160(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 168(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 176(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 184(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 192(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 200(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 208(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 216(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 224(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 232(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 240(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 248(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 256(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 264(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 272(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 280(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 288(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 296(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 304(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 312(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 320(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 328(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 336(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 344(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 352(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 360(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 368(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 376(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 384(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 392(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 400(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 408(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 416(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 424(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 432(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 440(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 448(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 456(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 464(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 472(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 480(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 488(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 496(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 504(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 512(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 520(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 528(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 536(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 544(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 552(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 560(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 568(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 576(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 584(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 592(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 600(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 608(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 616(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 624(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 632(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 640(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 648(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 656(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 664(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 672(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 680(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 688(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 696(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 704(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 712(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 720(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 728(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 736(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 744(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 752(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 760(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 768(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 776(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 784(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 792(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 800(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 808(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 816(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 824(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 832(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 840(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 848(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 856(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 864(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 872(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 880(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 888(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 896(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 904(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 912(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 920(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 928(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 936(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 944(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 952(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 960(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 968(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 976(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 984(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 992(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1000(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1008(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1016(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1024(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1032(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1040(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1048(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1056(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1064(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1072(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1080(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1088(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1096(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1104(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1112(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1120(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1128(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1136(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1144(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1152(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1160(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1168(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1176(%rcx), %rcx
movq %rcx, (%rax)
addq $8, %rax
movq %rax, 12912(%rsp)
movq 12904(%rsp), %r8
movq $1184, %rdi
movq %rsp, %rax
leaq -256(%rsp), %rsp
leaq L__crypto_kem_keypair_derand_jazz$2(%rip), %rcx
movq %rcx, 224(%rsp)
jmp L_sha3_256$1
L__crypto_kem_keypair_derand_jazz$2:
leaq 256(%rsp), %rsp
movq 12912(%rsp), %rax
movq 12896(%rsp), %rcx
movq %rsp, %rdx
movb (%rdx), %sil
movb %sil, (%rax)
movb 1(%rdx), %sil
movb %sil, 1(%rax)
movb 2(%rdx), %sil
movb %sil, 2(%rax)
movb 3(%rdx), %sil
movb %sil, 3(%rax)
movb 4(%rdx), %sil
movb %sil, 4(%rax)
movb 5(%rdx), %sil
movb %sil, 5(%rax)
movb 6(%rdx), %sil
movb %sil, 6(%rax)
movb 7(%rdx), %sil
movb %sil, 7(%rax)
movb 8(%rdx), %sil
movb %sil, 8(%rax)
movb 9(%rdx), %sil
movb %sil, 9(%rax)
movb 10(%rdx), %sil
movb %sil, 10(%rax)
movb 11(%rdx), %sil
movb %sil, 11(%rax)
movb 12(%rdx), %sil
movb %sil, 12(%rax)
movb 13(%rdx), %sil
movb %sil, 13(%rax)
movb 14(%rdx), %sil
movb %sil, 14(%rax)
movb 15(%rdx), %sil
movb %sil, 15(%rax)
movb 16(%rdx), %sil
movb %sil, 16(%rax)
movb 17(%rdx), %sil
movb %sil, 17(%rax)
movb 18(%rdx), %sil
movb %sil, 18(%rax)
movb 19(%rdx), %sil
movb %sil, 19(%rax)
movb 20(%rdx), %sil
movb %sil, 20(%rax)
movb 21(%rdx), %sil
movb %sil, 21(%rax)
movb 22(%rdx), %sil
movb %sil, 22(%rax)
movb 23(%rdx), %sil
movb %sil, 23(%rax)
movb 24(%rdx), %sil
movb %sil, 24(%rax)
movb 25(%rdx), %sil
movb %sil, 25(%rax)
movb 26(%rdx), %sil
movb %sil, 26(%rax)
movb 27(%rdx), %sil
movb %sil, 27(%rax)
movb 28(%rdx), %sil
movb %sil, 28(%rax)
movb 29(%rdx), %sil
movb %sil, 29(%rax)
movb 30(%rdx), %sil
movb %sil, 30(%rax)
movb 31(%rdx), %dl
movb %dl, 31(%rax)
addq $32, %rax
leaq 32(%rcx), %rcx
movb (%rcx), %dl
movb %dl, (%rax)
movb 1(%rcx), %dl
movb %dl, 1(%rax)
movb 2(%rcx), %dl
movb %dl, 2(%rax)
movb 3(%rcx), %dl
movb %dl, 3(%rax)
movb 4(%rcx), %dl
movb %dl, 4(%rax)
movb 5(%rcx), %dl
movb %dl, 5(%rax)
movb 6(%rcx), %dl
movb %dl, 6(%rax)
movb 7(%rcx), %dl
movb %dl, 7(%rax)
movb 8(%rcx), %dl
movb %dl, 8(%rax)
movb 9(%rcx), %dl
movb %dl, 9(%rax)
movb 10(%rcx), %dl
movb %dl, 10(%rax)
movb 11(%rcx), %dl
movb %dl, 11(%rax)
movb 12(%rcx), %dl
movb %dl, 12(%rax)
movb 13(%rcx), %dl
movb %dl, 13(%rax)
movb 14(%rcx), %dl
movb %dl, 14(%rax)
movb 15(%rcx), %dl
movb %dl, 15(%rax)
movb 16(%rcx), %dl
movb %dl, 16(%rax)
movb 17(%rcx), %dl
movb %dl, 17(%rax)
movb 18(%rcx), %dl
movb %dl, 18(%rax)
movb 19(%rcx), %dl
movb %dl, 19(%rax)
movb 20(%rcx), %dl
movb %dl, 20(%rax)
movb 21(%rcx), %dl
movb %dl, 21(%rax)
movb 22(%rcx), %dl
movb %dl, 22(%rax)
movb 23(%rcx), %dl
movb %dl, 23(%rax)
movb 24(%rcx), %dl
movb %dl, 24(%rax)
movb 25(%rcx), %dl
movb %dl, 25(%rax)
movb 26(%rcx), %dl
movb %dl, 26(%rax)
movb 27(%rcx), %dl
movb %dl, 27(%rax)
movb 28(%rcx), %dl
movb %dl, 28(%rax)
movb 29(%rcx), %dl
movb %dl, 29(%rax)
movb 30(%rcx), %dl
movb %dl, 30(%rax)
movb 31(%rcx), %cl
movb %cl, 31(%rax)
jmp *13000(%rsp)
L_rej_uniform_avx$1:
leaq glob_data + 4128(%rip), %r10
vmovdqu glob_data + 448(%rip), %ymm0
movq $0, %r13
movq $0, %r12
vpbroadcastb glob_data + 6430(%rip), %ymm1
vpbroadcastw glob_data + 6416(%rip), %ymm2
vmovdqu glob_data + 0(%rip), %ymm3
cmpq $224, %r13
setbe %al
cmpq $448, %r12
setbe %cl
testb %cl, %al
jmp L_rej_uniform_avx$9
L_rej_uniform_avx$10:
vpermq $-108, (%rbp,%r12), %ymm4
vpermq $-108, 24(%rbp,%r12), %ymm5
vpshufb %ymm3, %ymm4, %ymm4
vpshufb %ymm3, %ymm5, %ymm5
vpsrlw $4, %ymm4, %ymm6
vpsrlw $4, %ymm5, %ymm7
vpblendw $-86, %ymm6, %ymm4, %ymm4
vpblendw $-86, %ymm7, %ymm5, %ymm5
vpand %ymm2, %ymm4, %ymm4
vpand %ymm2, %ymm5, %ymm5
vpcmpgtw %ymm4, %ymm0, %ymm6
vpcmpgtw %ymm5, %ymm0, %ymm7
vpacksswb %ymm7, %ymm6, %ymm6
vpmovmskb %ymm6, %rax
movq %rax, %rcx
andq $255, %rcx
vmovq (%r10,%rcx,8), %xmm6
movq %rax, %rdx
shrq $16, %rdx
andq $255, %rdx
vmovq (%r10,%rdx,8), %xmm7
movq %rax, %rsi
shrq $8, %rsi
andq $255, %rsi
vmovq (%r10,%rsi,8), %xmm8
shrq $24, %rax
andq $255, %rax
vmovq (%r10,%rax,8), %xmm9
vinserti128 $1, %xmm7, %ymm6, %ymm6
popcnt %rcx, %rcx
popcnt %rdx, %rdx
addq %r13, %rcx
vinserti128 $1, %xmm9, %ymm8, %ymm7
addq %rcx, %rdx
popcnt %rsi, %rsi
addq %rdx, %rsi
popcnt %rax, %rax
addq %rsi, %rax
vpaddb %ymm1, %ymm6, %ymm8
vpunpcklbw %ymm8, %ymm6, %ymm6
vpaddb %ymm1, %ymm7, %ymm8
vpunpcklbw %ymm8, %ymm7, %ymm7
vpshufb %ymm6, %ymm4, %ymm4
vpshufb %ymm7, %ymm5, %ymm5
vmovdqu %xmm4, (%rbx,%r13,2)
vextracti128 $1, %ymm4, (%rbx,%rcx,2)
vmovdqu %xmm5, (%rbx,%rdx,2)
vextracti128 $1, %ymm5, (%rbx,%rsi,2)
movq %rax, %r13
cmpq $224, %r13
setbe %al
addq $48, %r12
cmpq $448, %r12
setbe %cl
testb %cl, %al
L_rej_uniform_avx$9:
jne L_rej_uniform_avx$10
cmpq $248, %r13
setbe %al
cmpq $488, %r12
setbe %cl
testb %cl, %al
movq $21845, %rax
jmp L_rej_uniform_avx$7
L_rej_uniform_avx$8:
vmovdqu (%rbp,%r12), %xmm4
vpshufb %xmm3, %xmm4, %xmm4
vpsrlw $4, %xmm4, %xmm5
vpblendw $-86, %xmm5, %xmm4, %xmm4
vpand %xmm2, %xmm4, %xmm4
vpcmpgtw %xmm4, %xmm0, %xmm5
vpmovmskb %xmm5, %rcx
pext %rax, %rcx, %rcx
vmovq (%r10,%rcx,8), %xmm5
popcnt %rcx, %rcx
vpaddb %xmm1, %xmm5, %xmm6
vpunpcklbw %xmm6, %xmm5, %xmm5
vpshufb %xmm5, %xmm4, %xmm4
vmovdqu %xmm4, (%rbx,%r13,2)
addq %rcx, %r13
addq $12, %r12
cmpq $248, %r13
setbe %cl
cmpq $488, %r12
setbe %dl
testb %dl, %cl
L_rej_uniform_avx$7:
jne L_rej_uniform_avx$8
cmpq $255, %r13
setbe %al
cmpq $501, %r12
setbe %cl
testb %cl, %al
jmp L_rej_uniform_avx$2
L_rej_uniform_avx$3:
movzbw (%rbp,%r12), %ax
incq %r12
movzbw (%rbp,%r12), %dx
incq %r12
movw %dx, %cx
shlw $8, %dx
orw %dx, %ax
andw $4095, %ax
shrw $4, %cx
movzbw (%rbp,%r12), %dx
incq %r12
shlw $4, %dx
orw %dx, %cx
cmpw $3329, %ax
jnb L_rej_uniform_avx$6
movw %ax, (%rbx,%r13,2)
incq %r13
L_rej_uniform_avx$6:
cmpw $3329, %cx
jnb L_rej_uniform_avx$4
cmpq $256, %r13
jnb L_rej_uniform_avx$4
movw %cx, (%rbx,%r13,2)
incq %r13
L_rej_uniform_avx$5:
L_rej_uniform_avx$4:
cmpq $255, %r13
setbe %al
cmpq $501, %r12
setbe %cl
testb %cl, %al
L_rej_uniform_avx$2:
jne L_rej_uniform_avx$3
jmp *%r11
L_poly_tomsg_1$1:
leaq L_poly_tomsg_1$2(%rip), %r8
jmp L_poly_csubq$1
L_poly_tomsg_1$2:
leaq glob_data + 224(%rip), %rsi
vmovdqu (%rsi), %ymm0
leaq glob_data + 192(%rip), %rsi
vmovdqu (%rsi), %ymm1
vmovdqu (%rcx), %ymm2
vmovdqu 32(%rcx), %ymm3
vpsubw %ymm2, %ymm0, %ymm2
vpsubw %ymm3, %ymm0, %ymm3
vpsraw $15, %ymm2, %ymm4
vpsraw $15, %ymm3, %ymm5
vpxor %ymm4, %ymm2, %ymm2
vpxor %ymm5, %ymm3, %ymm3
vpsubw %ymm1, %ymm2, %ymm2
vpsubw %ymm1, %ymm3, %ymm3
vpacksswb %ymm3, %ymm2, %ymm2
vpermq $-40, %ymm2, %ymm2
vpmovmskb %ymm2, %esi
movl %esi, (%rax)
vmovdqu 64(%rcx), %ymm2
vmovdqu 96(%rcx), %ymm3
vpsubw %ymm2, %ymm0, %ymm2
vpsubw %ymm3, %ymm0, %ymm3
vpsraw $15, %ymm2, %ymm4
vpsraw $15, %ymm3, %ymm5
vpxor %ymm4, %ymm2, %ymm2
vpxor %ymm5, %ymm3, %ymm3
vpsubw %ymm1, %ymm2, %ymm2
vpsubw %ymm1, %ymm3, %ymm3
vpacksswb %ymm3, %ymm2, %ymm2
vpermq $-40, %ymm2, %ymm2
vpmovmskb %ymm2, %esi
movl %esi, 4(%rax)
vmovdqu 128(%rcx), %ymm2
vmovdqu 160(%rcx), %ymm3
vpsubw %ymm2, %ymm0, %ymm2
vpsubw %ymm3, %ymm0, %ymm3
vpsraw $15, %ymm2, %ymm4
vpsraw $15, %ymm3, %ymm5
vpxor %ymm4, %ymm2, %ymm2
vpxor %ymm5, %ymm3, %ymm3
vpsubw %ymm1, %ymm2, %ymm2
vpsubw %ymm1, %ymm3, %ymm3
vpacksswb %ymm3, %ymm2, %ymm2
vpermq $-40, %ymm2, %ymm2
vpmovmskb %ymm2, %esi
movl %esi, 8(%rax)
vmovdqu 192(%rcx), %ymm2
vmovdqu 224(%rcx), %ymm3
vpsubw %ymm2, %ymm0, %ymm2
vpsubw %ymm3, %ymm0, %ymm3
vpsraw $15, %ymm2, %ymm4
vpsraw $15, %ymm3, %ymm5
vpxor %ymm4, %ymm2, %ymm2
vpxor %ymm5, %ymm3, %ymm3
vpsubw %ymm1, %ymm2, %ymm2
vpsubw %ymm1, %ymm3, %ymm3
vpacksswb %ymm3, %ymm2, %ymm2
vpermq $-40, %ymm2, %ymm2
vpmovmskb %ymm2, %esi
movl %esi, 12(%rax)
vmovdqu 256(%rcx), %ymm2
vmovdqu 288(%rcx), %ymm3
vpsubw %ymm2, %ymm0, %ymm2
vpsubw %ymm3, %ymm0, %ymm3
vpsraw $15, %ymm2, %ymm4
vpsraw $15, %ymm3, %ymm5
vpxor %ymm4, %ymm2, %ymm2
vpxor %ymm5, %ymm3, %ymm3
vpsubw %ymm1, %ymm2, %ymm2
vpsubw %ymm1, %ymm3, %ymm3
vpacksswb %ymm3, %ymm2, %ymm2
vpermq $-40, %ymm2, %ymm2
vpmovmskb %ymm2, %esi
movl %esi, 16(%rax)
vmovdqu 320(%rcx), %ymm2
vmovdqu 352(%rcx), %ymm3
vpsubw %ymm2, %ymm0, %ymm2
vpsubw %ymm3, %ymm0, %ymm3
vpsraw $15, %ymm2, %ymm4
vpsraw $15, %ymm3, %ymm5
vpxor %ymm4, %ymm2, %ymm2
vpxor %ymm5, %ymm3, %ymm3
vpsubw %ymm1, %ymm2, %ymm2
vpsubw %ymm1, %ymm3, %ymm3
vpacksswb %ymm3, %ymm2, %ymm2
vpermq $-40, %ymm2, %ymm2
vpmovmskb %ymm2, %esi
movl %esi, 20(%rax)
vmovdqu 384(%rcx), %ymm2
vmovdqu 416(%rcx), %ymm3
vpsubw %ymm2, %ymm0, %ymm2
vpsubw %ymm3, %ymm0, %ymm3
vpsraw $15, %ymm2, %ymm4
vpsraw $15, %ymm3, %ymm5
vpxor %ymm4, %ymm2, %ymm2
vpxor %ymm5, %ymm3, %ymm3
vpsubw %ymm1, %ymm2, %ymm2
vpsubw %ymm1, %ymm3, %ymm3
vpacksswb %ymm3, %ymm2, %ymm2
vpermq $-40, %ymm2, %ymm2
vpmovmskb %ymm2, %esi
movl %esi, 24(%rax)
vmovdqu 448(%rcx), %ymm2
vmovdqu 480(%rcx), %ymm3
vpsubw %ymm2, %ymm0, %ymm2
vpsubw %ymm3, %ymm0, %ymm0
vpsraw $15, %ymm2, %ymm3
vpsraw $15, %ymm0, %ymm4
vpxor %ymm3, %ymm2, %ymm2
vpxor %ymm4, %ymm0, %ymm0
vpsubw %ymm1, %ymm2, %ymm2
vpsubw %ymm1, %ymm0, %ymm0
vpacksswb %ymm0, %ymm2, %ymm0
vpermq $-40, %ymm0, %ymm0
vpmovmskb %ymm0, %ecx
movl %ecx, 28(%rax)
jmp *%rdi
L_poly_tomsg$1:
leaq L_poly_tomsg$2(%rip), %r8
jmp L_poly_csubq$1
L_poly_tomsg$2:
leaq glob_data + 224(%rip), %rax
vmovdqu (%rax), %ymm0
leaq glob_data + 192(%rip), %rax
vmovdqu (%rax), %ymm1
vmovdqu (%rcx), %ymm2
vmovdqu 32(%rcx), %ymm3
vpsubw %ymm2, %ymm0, %ymm2
vpsubw %ymm3, %ymm0, %ymm3
vpsraw $15, %ymm2, %ymm4
vpsraw $15, %ymm3, %ymm5
vpxor %ymm4, %ymm2, %ymm2
vpxor %ymm5, %ymm3, %ymm3
vpsubw %ymm1, %ymm2, %ymm2
vpsubw %ymm1, %ymm3, %ymm3
vpacksswb %ymm3, %ymm2, %ymm2
vpermq $-40, %ymm2, %ymm2
vpmovmskb %ymm2, %eax
movl %eax, (%rdx)
vmovdqu 64(%rcx), %ymm2
vmovdqu 96(%rcx), %ymm3
vpsubw %ymm2, %ymm0, %ymm2
vpsubw %ymm3, %ymm0, %ymm3
vpsraw $15, %ymm2, %ymm4
vpsraw $15, %ymm3, %ymm5
vpxor %ymm4, %ymm2, %ymm2
vpxor %ymm5, %ymm3, %ymm3
vpsubw %ymm1, %ymm2, %ymm2
vpsubw %ymm1, %ymm3, %ymm3
vpacksswb %ymm3, %ymm2, %ymm2
vpermq $-40, %ymm2, %ymm2
vpmovmskb %ymm2, %eax
movl %eax, 4(%rdx)
vmovdqu 128(%rcx), %ymm2
vmovdqu 160(%rcx), %ymm3
vpsubw %ymm2, %ymm0, %ymm2
vpsubw %ymm3, %ymm0, %ymm3
vpsraw $15, %ymm2, %ymm4
vpsraw $15, %ymm3, %ymm5
vpxor %ymm4, %ymm2, %ymm2
vpxor %ymm5, %ymm3, %ymm3
vpsubw %ymm1, %ymm2, %ymm2
vpsubw %ymm1, %ymm3, %ymm3
vpacksswb %ymm3, %ymm2, %ymm2
vpermq $-40, %ymm2, %ymm2
vpmovmskb %ymm2, %eax
movl %eax, 8(%rdx)
vmovdqu 192(%rcx), %ymm2
vmovdqu 224(%rcx), %ymm3
vpsubw %ymm2, %ymm0, %ymm2
vpsubw %ymm3, %ymm0, %ymm3
vpsraw $15, %ymm2, %ymm4
vpsraw $15, %ymm3, %ymm5
vpxor %ymm4, %ymm2, %ymm2
vpxor %ymm5, %ymm3, %ymm3
vpsubw %ymm1, %ymm2, %ymm2
vpsubw %ymm1, %ymm3, %ymm3
vpacksswb %ymm3, %ymm2, %ymm2
vpermq $-40, %ymm2, %ymm2
vpmovmskb %ymm2, %eax
movl %eax, 12(%rdx)
vmovdqu 256(%rcx), %ymm2
vmovdqu 288(%rcx), %ymm3
vpsubw %ymm2, %ymm0, %ymm2
vpsubw %ymm3, %ymm0, %ymm3
vpsraw $15, %ymm2, %ymm4
vpsraw $15, %ymm3, %ymm5
vpxor %ymm4, %ymm2, %ymm2
vpxor %ymm5, %ymm3, %ymm3
vpsubw %ymm1, %ymm2, %ymm2
vpsubw %ymm1, %ymm3, %ymm3
vpacksswb %ymm3, %ymm2, %ymm2
vpermq $-40, %ymm2, %ymm2
vpmovmskb %ymm2, %eax
movl %eax, 16(%rdx)
vmovdqu 320(%rcx), %ymm2
vmovdqu 352(%rcx), %ymm3
vpsubw %ymm2, %ymm0, %ymm2
vpsubw %ymm3, %ymm0, %ymm3
vpsraw $15, %ymm2, %ymm4
vpsraw $15, %ymm3, %ymm5
vpxor %ymm4, %ymm2, %ymm2
vpxor %ymm5, %ymm3, %ymm3
vpsubw %ymm1, %ymm2, %ymm2
vpsubw %ymm1, %ymm3, %ymm3
vpacksswb %ymm3, %ymm2, %ymm2
vpermq $-40, %ymm2, %ymm2
vpmovmskb %ymm2, %eax
movl %eax, 20(%rdx)
vmovdqu 384(%rcx), %ymm2
vmovdqu 416(%rcx), %ymm3
vpsubw %ymm2, %ymm0, %ymm2
vpsubw %ymm3, %ymm0, %ymm3
vpsraw $15, %ymm2, %ymm4
vpsraw $15, %ymm3, %ymm5
vpxor %ymm4, %ymm2, %ymm2
vpxor %ymm5, %ymm3, %ymm3
vpsubw %ymm1, %ymm2, %ymm2
vpsubw %ymm1, %ymm3, %ymm3
vpacksswb %ymm3, %ymm2, %ymm2
vpermq $-40, %ymm2, %ymm2
vpmovmskb %ymm2, %eax
movl %eax, 24(%rdx)
vmovdqu 448(%rcx), %ymm2
vmovdqu 480(%rcx), %ymm3
vpsubw %ymm2, %ymm0, %ymm2
vpsubw %ymm3, %ymm0, %ymm0
vpsraw $15, %ymm2, %ymm3
vpsraw $15, %ymm0, %ymm4
vpxor %ymm3, %ymm2, %ymm2
vpxor %ymm4, %ymm0, %ymm0
vpsubw %ymm1, %ymm2, %ymm2
vpsubw %ymm1, %ymm0, %ymm0
vpacksswb %ymm0, %ymm2, %ymm0
vpermq $-40, %ymm0, %ymm0
vpmovmskb %ymm0, %eax
movl %eax, 28(%rdx)
jmp *%rsi
L_poly_tobytes$1:
leaq glob_data + 448(%rip), %rsi
vmovdqu (%rsi), %ymm0
vmovdqu (%rdx), %ymm7
vmovdqu 32(%rdx), %ymm8
vmovdqu 64(%rdx), %ymm1
vmovdqu 96(%rdx), %ymm2
vmovdqu 128(%rdx), %ymm3
vmovdqu 160(%rdx), %ymm4
vmovdqu 192(%rdx), %ymm5
vmovdqu 224(%rdx), %ymm6
vpsubw %ymm0, %ymm7, %ymm7
vpsraw $15, %ymm7, %ymm9
vpand %ymm0, %ymm9, %ymm9
vpaddw %ymm7, %ymm9, %ymm7
vpsubw %ymm0, %ymm8, %ymm8
vpsraw $15, %ymm8, %ymm9
vpand %ymm0, %ymm9, %ymm9
vpaddw %ymm8, %ymm9, %ymm8
vpsubw %ymm0, %ymm1, %ymm1
vpsraw $15, %ymm1, %ymm9
vpand %ymm0, %ymm9, %ymm9
vpaddw %ymm1, %ymm9, %ymm1
vpsubw %ymm0, %ymm2, %ymm2
vpsraw $15, %ymm2, %ymm9
vpand %ymm0, %ymm9, %ymm9
vpaddw %ymm2, %ymm9, %ymm2
vpsubw %ymm0, %ymm3, %ymm3
vpsraw $15, %ymm3, %ymm9
vpand %ymm0, %ymm9, %ymm9
vpaddw %ymm3, %ymm9, %ymm3
vpsubw %ymm0, %ymm4, %ymm4
vpsraw $15, %ymm4, %ymm9
vpand %ymm0, %ymm9, %ymm9
vpaddw %ymm4, %ymm9, %ymm4
vpsubw %ymm0, %ymm5, %ymm5
vpsraw $15, %ymm5, %ymm9
vpand %ymm0, %ymm9, %ymm9
vpaddw %ymm5, %ymm9, %ymm5
vpsubw %ymm0, %ymm6, %ymm6
vpsraw $15, %ymm6, %ymm9
vpand %ymm0, %ymm9, %ymm9
vpaddw %ymm6, %ymm9, %ymm6
vpsllw $12, %ymm8, %ymm9
vpor %ymm7, %ymm9, %ymm7
vpsrlw $4, %ymm8, %ymm8
vpsllw $8, %ymm1, %ymm9
vpor %ymm9, %ymm8, %ymm8
vpsrlw $8, %ymm1, %ymm1
vpsllw $4, %ymm2, %ymm2
vpor %ymm2, %ymm1, %ymm1
vpsllw $12, %ymm4, %ymm2
vpor %ymm3, %ymm2, %ymm2
vpsrlw $4, %ymm4, %ymm3
vpsllw $8, %ymm5, %ymm4
vpor %ymm4, %ymm3, %ymm3
vpsrlw $8, %ymm5, %ymm4
vpsllw $4, %ymm6, %ymm5
vpor %ymm5, %ymm4, %ymm4
vpslld $16, %ymm8, %ymm5
vpblendw $-86, %ymm5, %ymm7, %ymm5
vpsrld $16, %ymm7, %ymm6
vpblendw $-86, %ymm8, %ymm6, %ymm6
vpslld $16, %ymm2, %ymm7
vpblendw $-86, %ymm7, %ymm1, %ymm7
vpsrld $16, %ymm1, %ymm1
vpblendw $-86, %ymm2, %ymm1, %ymm1
vpslld $16, %ymm4, %ymm2
vpblendw $-86, %ymm2, %ymm3, %ymm8
vpsrld $16, %ymm3, %ymm2
vpblendw $-86, %ymm4, %ymm2, %ymm2
vmovsldup %ymm7, %ymm3
vpblendd $-86, %ymm3, %ymm5, %ymm3
vpsrlq $32, %ymm5, %ymm4
vpblendd $-86, %ymm7, %ymm4, %ymm4
vmovsldup %ymm6, %ymm5
vpblendd $-86, %ymm5, %ymm8, %ymm5
vpsrlq $32, %ymm8, %ymm7
vpblendd $-86, %ymm6, %ymm7, %ymm6
vmovsldup %ymm2, %ymm7
vpblendd $-86, %ymm7, %ymm1, %ymm7
vpsrlq $32, %ymm1, %ymm1
vpblendd $-86, %ymm2, %ymm1, %ymm1
vpunpcklqdq %ymm5, %ymm3, %ymm2
vpunpckhqdq %ymm5, %ymm3, %ymm3
vpunpcklqdq %ymm4, %ymm7, %ymm5
vpunpckhqdq %ymm4, %ymm7, %ymm4
vpunpcklqdq %ymm1, %ymm6, %ymm7
vpunpckhqdq %ymm1, %ymm6, %ymm1
vperm2i128 $32, %ymm5, %ymm2, %ymm6
vperm2i128 $49, %ymm5, %ymm2, %ymm2
vperm2i128 $32, %ymm3, %ymm7, %ymm5
vperm2i128 $49, %ymm3, %ymm7, %ymm3
vperm2i128 $32, %ymm1, %ymm4, %ymm7
vperm2i128 $49, %ymm1, %ymm4, %ymm1
vmovdqu %ymm6, (%rcx)
vmovdqu %ymm5, 32(%rcx)
vmovdqu %ymm7, 64(%rcx)
vmovdqu %ymm2, 96(%rcx)
vmovdqu %ymm3, 128(%rcx)
vmovdqu %ymm1, 160(%rcx)
vmovdqu 256(%rdx), %ymm7
vmovdqu 288(%rdx), %ymm8
vmovdqu 320(%rdx), %ymm1
vmovdqu 352(%rdx), %ymm2
vmovdqu 384(%rdx), %ymm3
vmovdqu 416(%rdx), %ymm4
vmovdqu 448(%rdx), %ymm5
vmovdqu 480(%rdx), %ymm6
vpsubw %ymm0, %ymm7, %ymm7
vpsraw $15, %ymm7, %ymm9
vpand %ymm0, %ymm9, %ymm9
vpaddw %ymm7, %ymm9, %ymm7
vpsubw %ymm0, %ymm8, %ymm8
vpsraw $15, %ymm8, %ymm9
vpand %ymm0, %ymm9, %ymm9
vpaddw %ymm8, %ymm9, %ymm8
vpsubw %ymm0, %ymm1, %ymm1
vpsraw $15, %ymm1, %ymm9
vpand %ymm0, %ymm9, %ymm9
vpaddw %ymm1, %ymm9, %ymm1
vpsubw %ymm0, %ymm2, %ymm2
vpsraw $15, %ymm2, %ymm9
vpand %ymm0, %ymm9, %ymm9
vpaddw %ymm2, %ymm9, %ymm2
vpsubw %ymm0, %ymm3, %ymm3
vpsraw $15, %ymm3, %ymm9
vpand %ymm0, %ymm9, %ymm9
vpaddw %ymm3, %ymm9, %ymm3
vpsubw %ymm0, %ymm4, %ymm4
vpsraw $15, %ymm4, %ymm9
vpand %ymm0, %ymm9, %ymm9
vpaddw %ymm4, %ymm9, %ymm4
vpsubw %ymm0, %ymm5, %ymm5
vpsraw $15, %ymm5, %ymm9
vpand %ymm0, %ymm9, %ymm9
vpaddw %ymm5, %ymm9, %ymm5
vpsubw %ymm0, %ymm6, %ymm6
vpsraw $15, %ymm6, %ymm9
vpand %ymm0, %ymm9, %ymm0
vpaddw %ymm6, %ymm0, %ymm0
vpsllw $12, %ymm8, %ymm6
vpor %ymm7, %ymm6, %ymm6
vpsrlw $4, %ymm8, %ymm7
vpsllw $8, %ymm1, %ymm8
vpor %ymm8, %ymm7, %ymm7
vpsrlw $8, %ymm1, %ymm1
vpsllw $4, %ymm2, %ymm2
vpor %ymm2, %ymm1, %ymm1
vpsllw $12, %ymm4, %ymm2
vpor %ymm3, %ymm2, %ymm2
vpsrlw $4, %ymm4, %ymm3
vpsllw $8, %ymm5, %ymm4
vpor %ymm4, %ymm3, %ymm3
vpsrlw $8, %ymm5, %ymm4
vpsllw $4, %ymm0, %ymm0
vpor %ymm0, %ymm4, %ymm0
vpslld $16, %ymm7, %ymm4
vpblendw $-86, %ymm4, %ymm6, %ymm4
vpsrld $16, %ymm6, %ymm5
vpblendw $-86, %ymm7, %ymm5, %ymm5
vpslld $16, %ymm2, %ymm6
vpblendw $-86, %ymm6, %ymm1, %ymm6
vpsrld $16, %ymm1, %ymm1
vpblendw $-86, %ymm2, %ymm1, %ymm1
vpslld $16, %ymm0, %ymm2
vpblendw $-86, %ymm2, %ymm3, %ymm7
vpsrld $16, %ymm3, %ymm2
vpblendw $-86, %ymm0, %ymm2, %ymm0
vmovsldup %ymm6, %ymm2
vpblendd $-86, %ymm2, %ymm4, %ymm2
vpsrlq $32, %ymm4, %ymm3
vpblendd $-86, %ymm6, %ymm3, %ymm3
vmovsldup %ymm5, %ymm4
vpblendd $-86, %ymm4, %ymm7, %ymm4
vpsrlq $32, %ymm7, %ymm6
vpblendd $-86, %ymm5, %ymm6, %ymm5
vmovsldup %ymm0, %ymm6
vpblendd $-86, %ymm6, %ymm1, %ymm6
vpsrlq $32, %ymm1, %ymm1
vpblendd $-86, %ymm0, %ymm1, %ymm0
vpunpcklqdq %ymm4, %ymm2, %ymm1
vpunpckhqdq %ymm4, %ymm2, %ymm2
vpunpcklqdq %ymm3, %ymm6, %ymm4
vpunpckhqdq %ymm3, %ymm6, %ymm3
vpunpcklqdq %ymm0, %ymm5, %ymm6
vpunpckhqdq %ymm0, %ymm5, %ymm0
vperm2i128 $32, %ymm4, %ymm1, %ymm5
vperm2i128 $49, %ymm4, %ymm1, %ymm1
vperm2i128 $32, %ymm2, %ymm6, %ymm4
vperm2i128 $49, %ymm2, %ymm6, %ymm2
vperm2i128 $32, %ymm0, %ymm3, %ymm6
vperm2i128 $49, %ymm0, %ymm3, %ymm0
vmovdqu %ymm5, 192(%rcx)
vmovdqu %ymm4, 224(%rcx)
vmovdqu %ymm6, 256(%rcx)
vmovdqu %ymm1, 288(%rcx)
vmovdqu %ymm2, 320(%rcx)
vmovdqu %ymm0, 352(%rcx)
jmp *%rdi
L_poly_sub$1:
vmovdqu (%rsi), %ymm0
vmovdqu (%rdi), %ymm1
vpsubw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, (%rcx)
vmovdqu 32(%rsi), %ymm0
vmovdqu 32(%rdi), %ymm1
vpsubw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 32(%rcx)
vmovdqu 64(%rsi), %ymm0
vmovdqu 64(%rdi), %ymm1
vpsubw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 64(%rcx)
vmovdqu 96(%rsi), %ymm0
vmovdqu 96(%rdi), %ymm1
vpsubw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 96(%rcx)
vmovdqu 128(%rsi), %ymm0
vmovdqu 128(%rdi), %ymm1
vpsubw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 128(%rcx)
vmovdqu 160(%rsi), %ymm0
vmovdqu 160(%rdi), %ymm1
vpsubw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 160(%rcx)
vmovdqu 192(%rsi), %ymm0
vmovdqu 192(%rdi), %ymm1
vpsubw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 192(%rcx)
vmovdqu 224(%rsi), %ymm0
vmovdqu 224(%rdi), %ymm1
vpsubw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 224(%rcx)
vmovdqu 256(%rsi), %ymm0
vmovdqu 256(%rdi), %ymm1
vpsubw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 256(%rcx)
vmovdqu 288(%rsi), %ymm0
vmovdqu 288(%rdi), %ymm1
vpsubw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 288(%rcx)
vmovdqu 320(%rsi), %ymm0
vmovdqu 320(%rdi), %ymm1
vpsubw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 320(%rcx)
vmovdqu 352(%rsi), %ymm0
vmovdqu 352(%rdi), %ymm1
vpsubw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 352(%rcx)
vmovdqu 384(%rsi), %ymm0
vmovdqu 384(%rdi), %ymm1
vpsubw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 384(%rcx)
vmovdqu 416(%rsi), %ymm0
vmovdqu 416(%rdi), %ymm1
vpsubw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 416(%rcx)
vmovdqu 448(%rsi), %ymm0
vmovdqu 448(%rdi), %ymm1
vpsubw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 448(%rcx)
vmovdqu 480(%rsi), %ymm0
vmovdqu 480(%rdi), %ymm1
vpsubw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 480(%rcx)
jmp *%r8
L_poly_ntt$1:
leaq glob_data + 1280(%rip), %rsi
vmovdqu glob_data + 448(%rip), %ymm0
vpbroadcastd (%rsi), %ymm1
vpbroadcastd 4(%rsi), %ymm2
vmovdqu (%rcx), %ymm3
vmovdqu 32(%rcx), %ymm14
vmovdqu 64(%rcx), %ymm4
vmovdqu 96(%rcx), %ymm5
vmovdqu 256(%rcx), %ymm6
vmovdqu 288(%rcx), %ymm7
vmovdqu 320(%rcx), %ymm12
vmovdqu 352(%rcx), %ymm8
vpmullw %ymm6, %ymm1, %ymm9
vpmulhw %ymm6, %ymm2, %ymm6
vpmullw %ymm7, %ymm1, %ymm10
vpmulhw %ymm7, %ymm2, %ymm15
vpmullw %ymm12, %ymm1, %ymm11
vpmulhw %ymm12, %ymm2, %ymm7
vpmullw %ymm8, %ymm1, %ymm12
vpmulhw %ymm8, %ymm2, %ymm8
vpmulhw %ymm0, %ymm9, %ymm9
vpmulhw %ymm0, %ymm10, %ymm10
vpmulhw %ymm0, %ymm11, %ymm11
vpmulhw %ymm0, %ymm12, %ymm12
vpsubw %ymm15, %ymm14, %ymm13
vpaddw %ymm14, %ymm15, %ymm14
vpsubw %ymm6, %ymm3, %ymm15
vpaddw %ymm3, %ymm6, %ymm3
vpsubw %ymm8, %ymm5, %ymm6
vpaddw %ymm5, %ymm8, %ymm5
vpsubw %ymm7, %ymm4, %ymm8
vpaddw %ymm4, %ymm7, %ymm4
vpaddw %ymm15, %ymm9, %ymm7
vpsubw %ymm9, %ymm3, %ymm3
vpaddw %ymm13, %ymm10, %ymm9
vpsubw %ymm10, %ymm14, %ymm10
vpaddw %ymm8, %ymm11, %ymm8
vpsubw %ymm11, %ymm4, %ymm4
vpaddw %ymm6, %ymm12, %ymm6
vpsubw %ymm12, %ymm5, %ymm5
vmovdqu %ymm3, (%rcx)
vmovdqu %ymm10, 32(%rcx)
vmovdqu %ymm4, 64(%rcx)
vmovdqu %ymm5, 96(%rcx)
vmovdqu %ymm7, 256(%rcx)
vmovdqu %ymm9, 288(%rcx)
vmovdqu %ymm8, 320(%rcx)
vmovdqu %ymm6, 352(%rcx)
vmovdqu 128(%rcx), %ymm3
vmovdqu 160(%rcx), %ymm12
vmovdqu 192(%rcx), %ymm4
vmovdqu 224(%rcx), %ymm5
vmovdqu 384(%rcx), %ymm6
vmovdqu 416(%rcx), %ymm7
vmovdqu 448(%rcx), %ymm10
vmovdqu 480(%rcx), %ymm11
vpmullw %ymm6, %ymm1, %ymm14
vpmulhw %ymm6, %ymm2, %ymm6
vpmullw %ymm7, %ymm1, %ymm8
vpmulhw %ymm7, %ymm2, %ymm13
vpmullw %ymm10, %ymm1, %ymm9
vpmulhw %ymm10, %ymm2, %ymm7
vpmullw %ymm11, %ymm1, %ymm10
vpmulhw %ymm11, %ymm2, %ymm1
vpmulhw %ymm0, %ymm14, %ymm2
vpmulhw %ymm0, %ymm8, %ymm8
vpmulhw %ymm0, %ymm9, %ymm9
vpmulhw %ymm0, %ymm10, %ymm10
vpsubw %ymm13, %ymm12, %ymm11
vpaddw %ymm12, %ymm13, %ymm12
vpsubw %ymm6, %ymm3, %ymm13
vpaddw %ymm3, %ymm6, %ymm3
vpsubw %ymm1, %ymm5, %ymm6
vpaddw %ymm5, %ymm1, %ymm1
vpsubw %ymm7, %ymm4, %ymm5
vpaddw %ymm4, %ymm7, %ymm4
vpaddw %ymm13, %ymm2, %ymm7
vpsubw %ymm2, %ymm3, %ymm2
vpaddw %ymm11, %ymm8, %ymm3
vpsubw %ymm8, %ymm12, %ymm8
vpaddw %ymm5, %ymm9, %ymm5
vpsubw %ymm9, %ymm4, %ymm9
vpaddw %ymm6, %ymm10, %ymm4
vpsubw %ymm10, %ymm1, %ymm14
vmovdqu %ymm7, 384(%rcx)
vmovdqu %ymm3, 416(%rcx)
vmovdqu %ymm5, 448(%rcx)
vmovdqu %ymm4, 480(%rcx)
vpbroadcastd 8(%rsi), %ymm1
vpbroadcastd 12(%rsi), %ymm4
vmovdqu %ymm8, %ymm10
vmovdqu %ymm9, %ymm3
vmovdqu (%rcx), %ymm6
vmovdqu 32(%rcx), %ymm5
vmovdqu 64(%rcx), %ymm9
vmovdqu 96(%rcx), %ymm7
vpmullw %ymm2, %ymm1, %ymm11
vpmulhw %ymm2, %ymm4, %ymm8
vpmullw %ymm10, %ymm1, %ymm13
vpmulhw %ymm10, %ymm4, %ymm12
vpmullw %ymm3, %ymm1, %ymm2
vpmulhw %ymm3, %ymm4, %ymm10
vpmullw %ymm14, %ymm1, %ymm3
vpmulhw %ymm14, %ymm4, %ymm14
vpmulhw %ymm0, %ymm11, %ymm11
vpmulhw %ymm0, %ymm13, %ymm1
vpmulhw %ymm0, %ymm2, %ymm2
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm12, %ymm5, %ymm4
vpaddw %ymm5, %ymm12, %ymm5
vpsubw %ymm8, %ymm6, %ymm12
vpaddw %ymm6, %ymm8, %ymm13
vpsubw %ymm14, %ymm7, %ymm6
vpaddw %ymm7, %ymm14, %ymm7
vpsubw %ymm10, %ymm9, %ymm8
vpaddw %ymm9, %ymm10, %ymm9
vpaddw %ymm12, %ymm11, %ymm10
vpsubw %ymm11, %ymm13, %ymm12
vpaddw %ymm4, %ymm1, %ymm4
vpsubw %ymm1, %ymm5, %ymm5
vpaddw %ymm8, %ymm2, %ymm8
vpsubw %ymm2, %ymm9, %ymm2
vpaddw %ymm6, %ymm3, %ymm13
vpsubw %ymm3, %ymm7, %ymm7
vmovdqu 16(%rsi), %ymm3
vmovdqu 48(%rsi), %ymm6
vperm2i128 $32, %ymm10, %ymm12, %ymm11
vperm2i128 $49, %ymm10, %ymm12, %ymm9
vperm2i128 $32, %ymm4, %ymm5, %ymm1
vperm2i128 $49, %ymm4, %ymm5, %ymm12
vperm2i128 $32, %ymm8, %ymm2, %ymm5
vperm2i128 $49, %ymm8, %ymm2, %ymm8
vperm2i128 $32, %ymm13, %ymm7, %ymm2
vperm2i128 $49, %ymm13, %ymm7, %ymm13
vpmullw %ymm5, %ymm3, %ymm4
vpmulhw %ymm5, %ymm6, %ymm10
vpmullw %ymm8, %ymm3, %ymm14
vpmulhw %ymm8, %ymm6, %ymm8
vpmullw %ymm2, %ymm3, %ymm5
vpmulhw %ymm2, %ymm6, %ymm2
vpmullw %ymm13, %ymm3, %ymm7
vpmulhw %ymm13, %ymm6, %ymm13
vpmulhw %ymm0, %ymm4, %ymm3
vpmulhw %ymm0, %ymm14, %ymm4
vpmulhw %ymm0, %ymm5, %ymm5
vpmulhw %ymm0, %ymm7, %ymm6
vpsubw %ymm8, %ymm9, %ymm7
vpaddw %ymm9, %ymm8, %ymm8
vpsubw %ymm10, %ymm11, %ymm9
vpaddw %ymm11, %ymm10, %ymm10
vpsubw %ymm13, %ymm12, %ymm11
vpaddw %ymm12, %ymm13, %ymm12
vpsubw %ymm2, %ymm1, %ymm13
vpaddw %ymm1, %ymm2, %ymm1
vpaddw %ymm9, %ymm3, %ymm2
vpsubw %ymm3, %ymm10, %ymm9
vpaddw %ymm7, %ymm4, %ymm3
vpsubw %ymm4, %ymm8, %ymm4
vpaddw %ymm13, %ymm5, %ymm7
vpsubw %ymm5, %ymm1, %ymm13
vpaddw %ymm11, %ymm6, %ymm11
vpsubw %ymm6, %ymm12, %ymm14
vmovdqu 80(%rsi), %ymm1
vmovdqu 112(%rsi), %ymm10
vpunpcklqdq %ymm2, %ymm9, %ymm5
vpunpckhqdq %ymm2, %ymm9, %ymm12
vpunpcklqdq %ymm3, %ymm4, %ymm8
vpunpckhqdq %ymm3, %ymm4, %ymm6
vpunpcklqdq %ymm7, %ymm13, %ymm2
vpunpckhqdq %ymm7, %ymm13, %ymm4
vpunpcklqdq %ymm11, %ymm14, %ymm3
vpunpckhqdq %ymm11, %ymm14, %ymm7
vpmullw %ymm2, %ymm1, %ymm11
vpmulhw %ymm2, %ymm10, %ymm13
vpmullw %ymm4, %ymm1, %ymm14
vpmulhw %ymm4, %ymm10, %ymm4
vpmullw %ymm3, %ymm1, %ymm2
vpmulhw %ymm3, %ymm10, %ymm9
vpmullw %ymm7, %ymm1, %ymm3
vpmulhw %ymm7, %ymm10, %ymm7
vpmulhw %ymm0, %ymm11, %ymm10
vpmulhw %ymm0, %ymm14, %ymm1
vpmulhw %ymm0, %ymm2, %ymm2
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm4, %ymm12, %ymm11
vpaddw %ymm12, %ymm4, %ymm4
vpsubw %ymm13, %ymm5, %ymm12
vpaddw %ymm5, %ymm13, %ymm13
vpsubw %ymm7, %ymm6, %ymm5
vpaddw %ymm6, %ymm7, %ymm6
vpsubw %ymm9, %ymm8, %ymm7
vpaddw %ymm8, %ymm9, %ymm8
vpaddw %ymm12, %ymm10, %ymm9
vpsubw %ymm10, %ymm13, %ymm12
vpaddw %ymm11, %ymm1, %ymm10
vpsubw %ymm1, %ymm4, %ymm4
vpaddw %ymm7, %ymm2, %ymm7
vpsubw %ymm2, %ymm8, %ymm2
vpaddw %ymm5, %ymm3, %ymm13
vpsubw %ymm3, %ymm6, %ymm6
vmovdqu 144(%rsi), %ymm3
vmovdqu 176(%rsi), %ymm5
vmovsldup %ymm9, %ymm1
vpblendd $-86, %ymm1, %ymm12, %ymm11
vpsrlq $32, %ymm12, %ymm1
vpblendd $-86, %ymm9, %ymm1, %ymm8
vmovsldup %ymm10, %ymm1
vpblendd $-86, %ymm1, %ymm4, %ymm1
vpsrlq $32, %ymm4, %ymm4
vpblendd $-86, %ymm10, %ymm4, %ymm12
vmovsldup %ymm7, %ymm4
vpblendd $-86, %ymm4, %ymm2, %ymm9
vpsrlq $32, %ymm2, %ymm2
vpblendd $-86, %ymm7, %ymm2, %ymm7
vmovsldup %ymm13, %ymm2
vpblendd $-86, %ymm2, %ymm6, %ymm2
vpsrlq $32, %ymm6, %ymm4
vpblendd $-86, %ymm13, %ymm4, %ymm13
vpmullw %ymm9, %ymm3, %ymm4
vpmulhw %ymm9, %ymm5, %ymm10
vpmullw %ymm7, %ymm3, %ymm14
vpmulhw %ymm7, %ymm5, %ymm9
vpmullw %ymm2, %ymm3, %ymm6
vpmulhw %ymm2, %ymm5, %ymm2
vpmullw %ymm13, %ymm3, %ymm7
vpmulhw %ymm13, %ymm5, %ymm13
vpmulhw %ymm0, %ymm4, %ymm3
vpmulhw %ymm0, %ymm14, %ymm4
vpmulhw %ymm0, %ymm6, %ymm5
vpmulhw %ymm0, %ymm7, %ymm6
vpsubw %ymm9, %ymm8, %ymm7
vpaddw %ymm8, %ymm9, %ymm8
vpsubw %ymm10, %ymm11, %ymm9
vpaddw %ymm11, %ymm10, %ymm10
vpsubw %ymm13, %ymm12, %ymm11
vpaddw %ymm12, %ymm13, %ymm12
vpsubw %ymm2, %ymm1, %ymm13
vpaddw %ymm1, %ymm2, %ymm1
vpaddw %ymm9, %ymm3, %ymm2
vpsubw %ymm3, %ymm10, %ymm9
vpaddw %ymm7, %ymm4, %ymm3
vpsubw %ymm4, %ymm8, %ymm4
vpaddw %ymm13, %ymm5, %ymm7
vpsubw %ymm5, %ymm1, %ymm13
vpaddw %ymm11, %ymm6, %ymm11
vpsubw %ymm6, %ymm12, %ymm14
vmovdqu 208(%rsi), %ymm5
vmovdqu 240(%rsi), %ymm6
vpslld $16, %ymm2, %ymm1
vpblendw $-86, %ymm1, %ymm9, %ymm10
vpsrld $16, %ymm9, %ymm1
vpblendw $-86, %ymm2, %ymm1, %ymm8
vpslld $16, %ymm3, %ymm1
vpblendw $-86, %ymm1, %ymm4, %ymm1
vpsrld $16, %ymm4, %ymm2
vpblendw $-86, %ymm3, %ymm2, %ymm12
vpslld $16, %ymm7, %ymm2
vpblendw $-86, %ymm2, %ymm13, %ymm4
vpsrld $16, %ymm13, %ymm2
vpblendw $-86, %ymm7, %ymm2, %ymm7
vpslld $16, %ymm11, %ymm2
vpblendw $-86, %ymm2, %ymm14, %ymm2
vpsrld $16, %ymm14, %ymm3
vpblendw $-86, %ymm11, %ymm3, %ymm13
vpmullw %ymm4, %ymm5, %ymm3
vpmulhw %ymm4, %ymm6, %ymm11
vpmullw %ymm7, %ymm5, %ymm4
vpmulhw %ymm7, %ymm6, %ymm9
vpmullw %ymm2, %ymm5, %ymm7
vpmulhw %ymm2, %ymm6, %ymm2
vpmullw %ymm13, %ymm5, %ymm14
vpmulhw %ymm13, %ymm6, %ymm13
vpmulhw %ymm0, %ymm3, %ymm3
vpmulhw %ymm0, %ymm4, %ymm4
vpmulhw %ymm0, %ymm7, %ymm5
vpmulhw %ymm0, %ymm14, %ymm6
vpsubw %ymm9, %ymm8, %ymm7
vpaddw %ymm8, %ymm9, %ymm8
vpsubw %ymm11, %ymm10, %ymm9
vpaddw %ymm10, %ymm11, %ymm10
vpsubw %ymm13, %ymm12, %ymm11
vpaddw %ymm12, %ymm13, %ymm12
vpsubw %ymm2, %ymm1, %ymm13
vpaddw %ymm1, %ymm2, %ymm1
vpaddw %ymm9, %ymm3, %ymm2
vpsubw %ymm3, %ymm10, %ymm3
vpaddw %ymm7, %ymm4, %ymm7
vpsubw %ymm4, %ymm8, %ymm4
vpaddw %ymm13, %ymm5, %ymm8
vpsubw %ymm5, %ymm1, %ymm1
vpaddw %ymm11, %ymm6, %ymm5
vpsubw %ymm6, %ymm12, %ymm10
vmovdqu 272(%rsi), %ymm9
vmovdqu 304(%rsi), %ymm13
vmovdqu 336(%rsi), %ymm11
vmovdqu 368(%rsi), %ymm6
vpmullw %ymm1, %ymm9, %ymm14
vpmulhw %ymm1, %ymm13, %ymm12
vpmullw %ymm10, %ymm9, %ymm9
vpmulhw %ymm10, %ymm13, %ymm13
vpmullw %ymm8, %ymm11, %ymm10
vpmulhw %ymm8, %ymm6, %ymm1
vpmullw %ymm5, %ymm11, %ymm11
vpmulhw %ymm5, %ymm6, %ymm5
vpmulhw %ymm0, %ymm14, %ymm6
vpmulhw %ymm0, %ymm9, %ymm8
vpmulhw %ymm0, %ymm10, %ymm9
vpmulhw %ymm0, %ymm11, %ymm10
vpsubw %ymm13, %ymm4, %ymm11
vpaddw %ymm4, %ymm13, %ymm4
vpsubw %ymm12, %ymm3, %ymm13
vpaddw %ymm3, %ymm12, %ymm3
vpsubw %ymm5, %ymm7, %ymm12
vpaddw %ymm7, %ymm5, %ymm5
vpsubw %ymm1, %ymm2, %ymm7
vpaddw %ymm2, %ymm1, %ymm1
vpaddw %ymm13, %ymm6, %ymm2
vpsubw %ymm6, %ymm3, %ymm3
vpaddw %ymm11, %ymm8, %ymm6
vpsubw %ymm8, %ymm4, %ymm4
vpaddw %ymm7, %ymm9, %ymm7
vpsubw %ymm9, %ymm1, %ymm8
vpaddw %ymm12, %ymm10, %ymm1
vpsubw %ymm10, %ymm5, %ymm5
vmovdqu glob_data + 384(%rip), %ymm9
vpmulhw %ymm9, %ymm3, %ymm10
vpsraw $10, %ymm10, %ymm10
vpmullw %ymm0, %ymm10, %ymm10
vpsubw %ymm10, %ymm3, %ymm3
vpmulhw %ymm9, %ymm4, %ymm10
vpsraw $10, %ymm10, %ymm10
vpmullw %ymm0, %ymm10, %ymm10
vpsubw %ymm10, %ymm4, %ymm4
vpmulhw %ymm9, %ymm8, %ymm10
vpsraw $10, %ymm10, %ymm10
vpmullw %ymm0, %ymm10, %ymm10
vpsubw %ymm10, %ymm8, %ymm8
vpmulhw %ymm9, %ymm5, %ymm10
vpsraw $10, %ymm10, %ymm10
vpmullw %ymm0, %ymm10, %ymm10
vpsubw %ymm10, %ymm5, %ymm5
vpmulhw %ymm9, %ymm2, %ymm10
vpsraw $10, %ymm10, %ymm10
vpmullw %ymm0, %ymm10, %ymm10
vpsubw %ymm10, %ymm2, %ymm2
vpmulhw %ymm9, %ymm6, %ymm10
vpsraw $10, %ymm10, %ymm10
vpmullw %ymm0, %ymm10, %ymm10
vpsubw %ymm10, %ymm6, %ymm6
vpmulhw %ymm9, %ymm7, %ymm10
vpsraw $10, %ymm10, %ymm10
vpmullw %ymm0, %ymm10, %ymm10
vpsubw %ymm10, %ymm7, %ymm7
vpmulhw %ymm9, %ymm1, %ymm9
vpsraw $10, %ymm9, %ymm9
vpmullw %ymm0, %ymm9, %ymm9
vpsubw %ymm9, %ymm1, %ymm1
vmovdqu %ymm3, (%rcx)
vmovdqu %ymm4, 32(%rcx)
vmovdqu %ymm2, 64(%rcx)
vmovdqu %ymm6, 96(%rcx)
vmovdqu %ymm8, 128(%rcx)
vmovdqu %ymm5, 160(%rcx)
vmovdqu %ymm7, 192(%rcx)
vmovdqu %ymm1, 224(%rcx)
vpbroadcastd 400(%rsi), %ymm5
vpbroadcastd 404(%rsi), %ymm8
vmovdqu 384(%rcx), %ymm1
vmovdqu 416(%rcx), %ymm2
vmovdqu 448(%rcx), %ymm10
vmovdqu 480(%rcx), %ymm9
vmovdqu 256(%rcx), %ymm3
vmovdqu 288(%rcx), %ymm7
vmovdqu 320(%rcx), %ymm6
vmovdqu 352(%rcx), %ymm4
vpmullw %ymm1, %ymm5, %ymm14
vpmulhw %ymm1, %ymm8, %ymm12
vpmullw %ymm2, %ymm5, %ymm1
vpmulhw %ymm2, %ymm8, %ymm11
vpmullw %ymm10, %ymm5, %ymm2
vpmulhw %ymm10, %ymm8, %ymm13
vpmullw %ymm9, %ymm5, %ymm10
vpmulhw %ymm9, %ymm8, %ymm5
vpmulhw %ymm0, %ymm14, %ymm8
vpmulhw %ymm0, %ymm1, %ymm9
vpmulhw %ymm0, %ymm2, %ymm1
vpmulhw %ymm0, %ymm10, %ymm2
vpsubw %ymm11, %ymm7, %ymm10
vpaddw %ymm7, %ymm11, %ymm11
vpsubw %ymm12, %ymm3, %ymm7
vpaddw %ymm3, %ymm12, %ymm12
vpsubw %ymm5, %ymm4, %ymm3
vpaddw %ymm4, %ymm5, %ymm4
vpsubw %ymm13, %ymm6, %ymm5
vpaddw %ymm6, %ymm13, %ymm6
vpaddw %ymm7, %ymm8, %ymm7
vpsubw %ymm8, %ymm12, %ymm12
vpaddw %ymm10, %ymm9, %ymm8
vpsubw %ymm9, %ymm11, %ymm9
vpaddw %ymm5, %ymm1, %ymm5
vpsubw %ymm1, %ymm6, %ymm6
vpaddw %ymm3, %ymm2, %ymm13
vpsubw %ymm2, %ymm4, %ymm2
vmovdqu 408(%rsi), %ymm3
vmovdqu 440(%rsi), %ymm4
vperm2i128 $32, %ymm7, %ymm12, %ymm10
vperm2i128 $49, %ymm7, %ymm12, %ymm11
vperm2i128 $32, %ymm8, %ymm9, %ymm1
vperm2i128 $49, %ymm8, %ymm9, %ymm12
vperm2i128 $32, %ymm5, %ymm6, %ymm8
vperm2i128 $49, %ymm5, %ymm6, %ymm5
vperm2i128 $32, %ymm13, %ymm2, %ymm6
vperm2i128 $49, %ymm13, %ymm2, %ymm13
vpmullw %ymm8, %ymm3, %ymm7
vpmulhw %ymm8, %ymm4, %ymm14
vpmullw %ymm5, %ymm3, %ymm9
vpmulhw %ymm5, %ymm4, %ymm8
vpmullw %ymm6, %ymm3, %ymm5
vpmulhw %ymm6, %ymm4, %ymm2
vpmullw %ymm13, %ymm3, %ymm6
vpmulhw %ymm13, %ymm4, %ymm13
vpmulhw %ymm0, %ymm7, %ymm3
vpmulhw %ymm0, %ymm9, %ymm4
vpmulhw %ymm0, %ymm5, %ymm5
vpmulhw %ymm0, %ymm6, %ymm6
vpsubw %ymm8, %ymm11, %ymm7
vpaddw %ymm11, %ymm8, %ymm8
vpsubw %ymm14, %ymm10, %ymm9
vpaddw %ymm10, %ymm14, %ymm10
vpsubw %ymm13, %ymm12, %ymm11
vpaddw %ymm12, %ymm13, %ymm12
vpsubw %ymm2, %ymm1, %ymm13
vpaddw %ymm1, %ymm2, %ymm1
vpaddw %ymm9, %ymm3, %ymm2
vpsubw %ymm3, %ymm10, %ymm9
vpaddw %ymm7, %ymm4, %ymm3
vpsubw %ymm4, %ymm8, %ymm4
vpaddw %ymm13, %ymm5, %ymm7
vpsubw %ymm5, %ymm1, %ymm13
vpaddw %ymm11, %ymm6, %ymm11
vpsubw %ymm6, %ymm12, %ymm14
vmovdqu 472(%rsi), %ymm1
vmovdqu 504(%rsi), %ymm10
vpunpcklqdq %ymm2, %ymm9, %ymm5
vpunpckhqdq %ymm2, %ymm9, %ymm12
vpunpcklqdq %ymm3, %ymm4, %ymm8
vpunpckhqdq %ymm3, %ymm4, %ymm6
vpunpcklqdq %ymm7, %ymm13, %ymm2
vpunpckhqdq %ymm7, %ymm13, %ymm4
vpunpcklqdq %ymm11, %ymm14, %ymm3
vpunpckhqdq %ymm11, %ymm14, %ymm7
vpmullw %ymm2, %ymm1, %ymm11
vpmulhw %ymm2, %ymm10, %ymm13
vpmullw %ymm4, %ymm1, %ymm14
vpmulhw %ymm4, %ymm10, %ymm4
vpmullw %ymm3, %ymm1, %ymm2
vpmulhw %ymm3, %ymm10, %ymm9
vpmullw %ymm7, %ymm1, %ymm3
vpmulhw %ymm7, %ymm10, %ymm7
vpmulhw %ymm0, %ymm11, %ymm10
vpmulhw %ymm0, %ymm14, %ymm1
vpmulhw %ymm0, %ymm2, %ymm2
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm4, %ymm12, %ymm11
vpaddw %ymm12, %ymm4, %ymm4
vpsubw %ymm13, %ymm5, %ymm12
vpaddw %ymm5, %ymm13, %ymm13
vpsubw %ymm7, %ymm6, %ymm5
vpaddw %ymm6, %ymm7, %ymm6
vpsubw %ymm9, %ymm8, %ymm7
vpaddw %ymm8, %ymm9, %ymm8
vpaddw %ymm12, %ymm10, %ymm9
vpsubw %ymm10, %ymm13, %ymm12
vpaddw %ymm11, %ymm1, %ymm10
vpsubw %ymm1, %ymm4, %ymm4
vpaddw %ymm7, %ymm2, %ymm7
vpsubw %ymm2, %ymm8, %ymm2
vpaddw %ymm5, %ymm3, %ymm13
vpsubw %ymm3, %ymm6, %ymm6
vmovdqu 536(%rsi), %ymm3
vmovdqu 568(%rsi), %ymm5
vmovsldup %ymm9, %ymm1
vpblendd $-86, %ymm1, %ymm12, %ymm11
vpsrlq $32, %ymm12, %ymm1
vpblendd $-86, %ymm9, %ymm1, %ymm8
vmovsldup %ymm10, %ymm1
vpblendd $-86, %ymm1, %ymm4, %ymm1
vpsrlq $32, %ymm4, %ymm4
vpblendd $-86, %ymm10, %ymm4, %ymm12
vmovsldup %ymm7, %ymm4
vpblendd $-86, %ymm4, %ymm2, %ymm9
vpsrlq $32, %ymm2, %ymm2
vpblendd $-86, %ymm7, %ymm2, %ymm7
vmovsldup %ymm13, %ymm2
vpblendd $-86, %ymm2, %ymm6, %ymm2
vpsrlq $32, %ymm6, %ymm4
vpblendd $-86, %ymm13, %ymm4, %ymm13
vpmullw %ymm9, %ymm3, %ymm4
vpmulhw %ymm9, %ymm5, %ymm10
vpmullw %ymm7, %ymm3, %ymm14
vpmulhw %ymm7, %ymm5, %ymm9
vpmullw %ymm2, %ymm3, %ymm6
vpmulhw %ymm2, %ymm5, %ymm2
vpmullw %ymm13, %ymm3, %ymm7
vpmulhw %ymm13, %ymm5, %ymm13
vpmulhw %ymm0, %ymm4, %ymm3
vpmulhw %ymm0, %ymm14, %ymm4
vpmulhw %ymm0, %ymm6, %ymm5
vpmulhw %ymm0, %ymm7, %ymm6
vpsubw %ymm9, %ymm8, %ymm7
vpaddw %ymm8, %ymm9, %ymm8
vpsubw %ymm10, %ymm11, %ymm9
vpaddw %ymm11, %ymm10, %ymm10
vpsubw %ymm13, %ymm12, %ymm11
vpaddw %ymm12, %ymm13, %ymm12
vpsubw %ymm2, %ymm1, %ymm13
vpaddw %ymm1, %ymm2, %ymm1
vpaddw %ymm9, %ymm3, %ymm2
vpsubw %ymm3, %ymm10, %ymm9
vpaddw %ymm7, %ymm4, %ymm3
vpsubw %ymm4, %ymm8, %ymm4
vpaddw %ymm13, %ymm5, %ymm7
vpsubw %ymm5, %ymm1, %ymm13
vpaddw %ymm11, %ymm6, %ymm11
vpsubw %ymm6, %ymm12, %ymm14
vmovdqu 600(%rsi), %ymm5
vmovdqu 632(%rsi), %ymm6
vpslld $16, %ymm2, %ymm1
vpblendw $-86, %ymm1, %ymm9, %ymm10
vpsrld $16, %ymm9, %ymm1
vpblendw $-86, %ymm2, %ymm1, %ymm8
vpslld $16, %ymm3, %ymm1
vpblendw $-86, %ymm1, %ymm4, %ymm1
vpsrld $16, %ymm4, %ymm2
vpblendw $-86, %ymm3, %ymm2, %ymm12
vpslld $16, %ymm7, %ymm2
vpblendw $-86, %ymm2, %ymm13, %ymm4
vpsrld $16, %ymm13, %ymm2
vpblendw $-86, %ymm7, %ymm2, %ymm7
vpslld $16, %ymm11, %ymm2
vpblendw $-86, %ymm2, %ymm14, %ymm2
vpsrld $16, %ymm14, %ymm3
vpblendw $-86, %ymm11, %ymm3, %ymm13
vpmullw %ymm4, %ymm5, %ymm3
vpmulhw %ymm4, %ymm6, %ymm11
vpmullw %ymm7, %ymm5, %ymm4
vpmulhw %ymm7, %ymm6, %ymm9
vpmullw %ymm2, %ymm5, %ymm7
vpmulhw %ymm2, %ymm6, %ymm2
vpmullw %ymm13, %ymm5, %ymm14
vpmulhw %ymm13, %ymm6, %ymm13
vpmulhw %ymm0, %ymm3, %ymm3
vpmulhw %ymm0, %ymm4, %ymm4
vpmulhw %ymm0, %ymm7, %ymm5
vpmulhw %ymm0, %ymm14, %ymm6
vpsubw %ymm9, %ymm8, %ymm7
vpaddw %ymm8, %ymm9, %ymm8
vpsubw %ymm11, %ymm10, %ymm9
vpaddw %ymm10, %ymm11, %ymm10
vpsubw %ymm13, %ymm12, %ymm11
vpaddw %ymm12, %ymm13, %ymm12
vpsubw %ymm2, %ymm1, %ymm13
vpaddw %ymm1, %ymm2, %ymm1
vpaddw %ymm9, %ymm3, %ymm2
vpsubw %ymm3, %ymm10, %ymm3
vpaddw %ymm7, %ymm4, %ymm7
vpsubw %ymm4, %ymm8, %ymm4
vpaddw %ymm13, %ymm5, %ymm8
vpsubw %ymm5, %ymm1, %ymm1
vpaddw %ymm11, %ymm6, %ymm5
vpsubw %ymm6, %ymm12, %ymm10
vmovdqu 664(%rsi), %ymm9
vmovdqu 696(%rsi), %ymm13
vmovdqu 728(%rsi), %ymm11
vmovdqu 760(%rsi), %ymm6
vpmullw %ymm1, %ymm9, %ymm14
vpmulhw %ymm1, %ymm13, %ymm12
vpmullw %ymm10, %ymm9, %ymm9
vpmulhw %ymm10, %ymm13, %ymm13
vpmullw %ymm8, %ymm11, %ymm10
vpmulhw %ymm8, %ymm6, %ymm1
vpmullw %ymm5, %ymm11, %ymm11
vpmulhw %ymm5, %ymm6, %ymm5
vpmulhw %ymm0, %ymm14, %ymm6
vpmulhw %ymm0, %ymm9, %ymm8
vpmulhw %ymm0, %ymm10, %ymm9
vpmulhw %ymm0, %ymm11, %ymm10
vpsubw %ymm13, %ymm4, %ymm11
vpaddw %ymm4, %ymm13, %ymm4
vpsubw %ymm12, %ymm3, %ymm13
vpaddw %ymm3, %ymm12, %ymm3
vpsubw %ymm5, %ymm7, %ymm12
vpaddw %ymm7, %ymm5, %ymm5
vpsubw %ymm1, %ymm2, %ymm7
vpaddw %ymm2, %ymm1, %ymm1
vpaddw %ymm13, %ymm6, %ymm2
vpsubw %ymm6, %ymm3, %ymm3
vpaddw %ymm11, %ymm8, %ymm6
vpsubw %ymm8, %ymm4, %ymm4
vpaddw %ymm7, %ymm9, %ymm7
vpsubw %ymm9, %ymm1, %ymm8
vpaddw %ymm12, %ymm10, %ymm1
vpsubw %ymm10, %ymm5, %ymm5
vmovdqu glob_data + 384(%rip), %ymm9
vpmulhw %ymm9, %ymm3, %ymm10
vpsraw $10, %ymm10, %ymm10
vpmullw %ymm0, %ymm10, %ymm10
vpsubw %ymm10, %ymm3, %ymm3
vpmulhw %ymm9, %ymm4, %ymm10
vpsraw $10, %ymm10, %ymm10
vpmullw %ymm0, %ymm10, %ymm10
vpsubw %ymm10, %ymm4, %ymm4
vpmulhw %ymm9, %ymm8, %ymm10
vpsraw $10, %ymm10, %ymm10
vpmullw %ymm0, %ymm10, %ymm10
vpsubw %ymm10, %ymm8, %ymm8
vpmulhw %ymm9, %ymm5, %ymm10
vpsraw $10, %ymm10, %ymm10
vpmullw %ymm0, %ymm10, %ymm10
vpsubw %ymm10, %ymm5, %ymm5
vpmulhw %ymm9, %ymm2, %ymm10
vpsraw $10, %ymm10, %ymm10
vpmullw %ymm0, %ymm10, %ymm10
vpsubw %ymm10, %ymm2, %ymm2
vpmulhw %ymm9, %ymm6, %ymm10
vpsraw $10, %ymm10, %ymm10
vpmullw %ymm0, %ymm10, %ymm10
vpsubw %ymm10, %ymm6, %ymm6
vpmulhw %ymm9, %ymm7, %ymm10
vpsraw $10, %ymm10, %ymm10
vpmullw %ymm0, %ymm10, %ymm10
vpsubw %ymm10, %ymm7, %ymm7
vpmulhw %ymm9, %ymm1, %ymm9
vpsraw $10, %ymm9, %ymm9
vpmullw %ymm0, %ymm9, %ymm0
vpsubw %ymm0, %ymm1, %ymm0
vmovdqu %ymm3, 256(%rcx)
vmovdqu %ymm4, 288(%rcx)
vmovdqu %ymm2, 320(%rcx)
vmovdqu %ymm6, 352(%rcx)
vmovdqu %ymm8, 384(%rcx)
vmovdqu %ymm5, 416(%rcx)
vmovdqu %ymm7, 448(%rcx)
vmovdqu %ymm0, 480(%rcx)
jmp *%rdi
L_poly_invntt$1:
leaq glob_data + 480(%rip), %rsi
vmovdqu glob_data + 448(%rip), %ymm0
vmovdqu (%rsi), %ymm12
vmovdqu 64(%rsi), %ymm1
vmovdqu 32(%rsi), %ymm2
vmovdqu 96(%rsi), %ymm5
vmovdqu (%rcx), %ymm3
vmovdqu 32(%rcx), %ymm4
vmovdqu 64(%rcx), %ymm15
vmovdqu 96(%rcx), %ymm11
vmovdqu 128(%rcx), %ymm7
vmovdqu 160(%rcx), %ymm8
vmovdqu 192(%rcx), %ymm13
vmovdqu 224(%rcx), %ymm14
vpsubw %ymm15, %ymm3, %ymm6
vpsubw %ymm11, %ymm4, %ymm9
vpsubw %ymm13, %ymm7, %ymm10
vpaddw %ymm3, %ymm15, %ymm3
vpaddw %ymm4, %ymm11, %ymm4
vpmullw %ymm6, %ymm12, %ymm11
vpaddw %ymm7, %ymm13, %ymm7
vpmullw %ymm9, %ymm12, %ymm12
vpsubw %ymm14, %ymm8, %ymm13
vpaddw %ymm8, %ymm14, %ymm8
vpmullw %ymm10, %ymm1, %ymm14
vpmullw %ymm13, %ymm1, %ymm1
vpmulhw %ymm6, %ymm2, %ymm6
vpmulhw %ymm9, %ymm2, %ymm2
vpmulhw %ymm10, %ymm5, %ymm9
vpmulhw %ymm13, %ymm5, %ymm5
vpmulhw %ymm11, %ymm0, %ymm10
vpmulhw %ymm12, %ymm0, %ymm11
vpmulhw %ymm14, %ymm0, %ymm12
vpmulhw %ymm1, %ymm0, %ymm1
vpsubw %ymm10, %ymm6, %ymm6
vpsubw %ymm11, %ymm2, %ymm11
vpsubw %ymm12, %ymm9, %ymm9
vpsubw %ymm1, %ymm5, %ymm13
vmovdqu glob_data + 384(%rip), %ymm1
vmovdqu 128(%rsi), %ymm2
vmovdqu 160(%rsi), %ymm5
vpmulhw %ymm1, %ymm3, %ymm10
vpsraw $10, %ymm10, %ymm10
vpmullw %ymm0, %ymm10, %ymm10
vpsubw %ymm10, %ymm3, %ymm10
vpmulhw %ymm1, %ymm4, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm4, %ymm12
vpmulhw %ymm1, %ymm7, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm7, %ymm7
vpmulhw %ymm1, %ymm8, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm8, %ymm8
vpsubw %ymm7, %ymm10, %ymm15
vpsubw %ymm8, %ymm12, %ymm3
vpsubw %ymm9, %ymm6, %ymm4
vpaddw %ymm10, %ymm7, %ymm7
vpaddw %ymm12, %ymm8, %ymm8
vpmullw %ymm15, %ymm2, %ymm10
vpaddw %ymm6, %ymm9, %ymm9
vpmullw %ymm3, %ymm2, %ymm6
vpsubw %ymm13, %ymm11, %ymm12
vpaddw %ymm11, %ymm13, %ymm11
vpmullw %ymm4, %ymm2, %ymm13
vpmullw %ymm12, %ymm2, %ymm14
vpmulhw %ymm15, %ymm5, %ymm2
vpmulhw %ymm3, %ymm5, %ymm3
vpmulhw %ymm4, %ymm5, %ymm4
vpmulhw %ymm12, %ymm5, %ymm5
vpmulhw %ymm10, %ymm0, %ymm10
vpmulhw %ymm6, %ymm0, %ymm12
vpmulhw %ymm13, %ymm0, %ymm13
vpmulhw %ymm14, %ymm0, %ymm6
vpsubw %ymm10, %ymm2, %ymm2
vpsubw %ymm12, %ymm3, %ymm3
vpsubw %ymm13, %ymm4, %ymm4
vpsubw %ymm6, %ymm5, %ymm5
vpslld $16, %ymm8, %ymm6
vpblendw $-86, %ymm6, %ymm7, %ymm6
vpsrld $16, %ymm7, %ymm7
vpblendw $-86, %ymm8, %ymm7, %ymm7
vpslld $16, %ymm11, %ymm8
vpblendw $-86, %ymm8, %ymm9, %ymm10
vpsrld $16, %ymm9, %ymm8
vpblendw $-86, %ymm11, %ymm8, %ymm11
vpslld $16, %ymm3, %ymm8
vpblendw $-86, %ymm8, %ymm2, %ymm8
vpsrld $16, %ymm2, %ymm2
vpblendw $-86, %ymm3, %ymm2, %ymm9
vpslld $16, %ymm5, %ymm2
vpblendw $-86, %ymm2, %ymm4, %ymm12
vpsrld $16, %ymm4, %ymm2
vpblendw $-86, %ymm5, %ymm2, %ymm13
vmovdqu 192(%rsi), %ymm2
vmovdqu 224(%rsi), %ymm5
vpsubw %ymm7, %ymm6, %ymm15
vpsubw %ymm11, %ymm10, %ymm3
vpsubw %ymm9, %ymm8, %ymm4
vpaddw %ymm6, %ymm7, %ymm6
vpaddw %ymm10, %ymm11, %ymm7
vpmullw %ymm15, %ymm2, %ymm10
vpaddw %ymm8, %ymm9, %ymm8
vpmullw %ymm3, %ymm2, %ymm9
vpsubw %ymm13, %ymm12, %ymm11
vpaddw %ymm12, %ymm13, %ymm12
vpmullw %ymm4, %ymm2, %ymm13
vpmullw %ymm11, %ymm2, %ymm14
vpmulhw %ymm15, %ymm5, %ymm2
vpmulhw %ymm3, %ymm5, %ymm3
vpmulhw %ymm4, %ymm5, %ymm4
vpmulhw %ymm11, %ymm5, %ymm5
vpmulhw %ymm10, %ymm0, %ymm10
vpmulhw %ymm9, %ymm0, %ymm11
vpmulhw %ymm13, %ymm0, %ymm13
vpmulhw %ymm14, %ymm0, %ymm9
vpsubw %ymm10, %ymm2, %ymm2
vpsubw %ymm11, %ymm3, %ymm3
vpsubw %ymm13, %ymm4, %ymm4
vpsubw %ymm9, %ymm5, %ymm5
vpmulhw %ymm1, %ymm6, %ymm9
vpsraw $10, %ymm9, %ymm9
vpmullw %ymm0, %ymm9, %ymm9
vpsubw %ymm9, %ymm6, %ymm6
vmovsldup %ymm7, %ymm9
vpblendd $-86, %ymm9, %ymm6, %ymm9
vpsrlq $32, %ymm6, %ymm6
vpblendd $-86, %ymm7, %ymm6, %ymm10
vmovsldup %ymm12, %ymm6
vpblendd $-86, %ymm6, %ymm8, %ymm11
vpsrlq $32, %ymm8, %ymm6
vpblendd $-86, %ymm12, %ymm6, %ymm14
vmovsldup %ymm3, %ymm6
vpblendd $-86, %ymm6, %ymm2, %ymm12
vpsrlq $32, %ymm2, %ymm2
vpblendd $-86, %ymm3, %ymm2, %ymm13
vmovsldup %ymm5, %ymm2
vpblendd $-86, %ymm2, %ymm4, %ymm2
vpsrlq $32, %ymm4, %ymm3
vpblendd $-86, %ymm5, %ymm3, %ymm3
vmovdqu 256(%rsi), %ymm4
vmovdqu 288(%rsi), %ymm5
vpsubw %ymm10, %ymm9, %ymm6
vpsubw %ymm14, %ymm11, %ymm7
vpsubw %ymm13, %ymm12, %ymm8
vpaddw %ymm9, %ymm10, %ymm9
vpaddw %ymm11, %ymm14, %ymm10
vpmullw %ymm6, %ymm4, %ymm11
vpaddw %ymm12, %ymm13, %ymm12
vpmullw %ymm7, %ymm4, %ymm13
vpsubw %ymm3, %ymm2, %ymm14
vpaddw %ymm2, %ymm3, %ymm2
vpmullw %ymm8, %ymm4, %ymm3
vpmullw %ymm14, %ymm4, %ymm4
vpmulhw %ymm6, %ymm5, %ymm6
vpmulhw %ymm7, %ymm5, %ymm7
vpmulhw %ymm8, %ymm5, %ymm8
vpmulhw %ymm14, %ymm5, %ymm5
vpmulhw %ymm11, %ymm0, %ymm11
vpmulhw %ymm13, %ymm0, %ymm13
vpmulhw %ymm3, %ymm0, %ymm3
vpmulhw %ymm4, %ymm0, %ymm4
vpsubw %ymm11, %ymm6, %ymm6
vpsubw %ymm13, %ymm7, %ymm7
vpsubw %ymm3, %ymm8, %ymm3
vpsubw %ymm4, %ymm5, %ymm4
vpmulhw %ymm1, %ymm9, %ymm5
vpsraw $10, %ymm5, %ymm5
vpmullw %ymm0, %ymm5, %ymm5
vpsubw %ymm5, %ymm9, %ymm8
vpunpcklqdq %ymm10, %ymm8, %ymm5
vpunpckhqdq %ymm10, %ymm8, %ymm8
vpunpcklqdq %ymm2, %ymm12, %ymm9
vpunpckhqdq %ymm2, %ymm12, %ymm2
vpunpcklqdq %ymm7, %ymm6, %ymm10
vpunpckhqdq %ymm7, %ymm6, %ymm6
vpunpcklqdq %ymm4, %ymm3, %ymm7
vpunpckhqdq %ymm4, %ymm3, %ymm3
vmovdqu 320(%rsi), %ymm4
vmovdqu 352(%rsi), %ymm11
vpsubw %ymm8, %ymm5, %ymm12
vpsubw %ymm2, %ymm9, %ymm13
vpsubw %ymm6, %ymm10, %ymm14
vpaddw %ymm5, %ymm8, %ymm5
vpaddw %ymm9, %ymm2, %ymm2
vpmullw %ymm12, %ymm4, %ymm8
vpaddw %ymm10, %ymm6, %ymm6
vpmullw %ymm13, %ymm4, %ymm9
vpsubw %ymm3, %ymm7, %ymm10
vpaddw %ymm7, %ymm3, %ymm3
vpmullw %ymm14, %ymm4, %ymm7
vpmullw %ymm10, %ymm4, %ymm4
vpmulhw %ymm12, %ymm11, %ymm12
vpmulhw %ymm13, %ymm11, %ymm13
vpmulhw %ymm14, %ymm11, %ymm14
vpmulhw %ymm10, %ymm11, %ymm10
vpmulhw %ymm8, %ymm0, %ymm8
vpmulhw %ymm9, %ymm0, %ymm9
vpmulhw %ymm7, %ymm0, %ymm7
vpmulhw %ymm4, %ymm0, %ymm4
vpsubw %ymm8, %ymm12, %ymm8
vpsubw %ymm9, %ymm13, %ymm9
vpsubw %ymm7, %ymm14, %ymm7
vpsubw %ymm4, %ymm10, %ymm4
vpmulhw %ymm1, %ymm5, %ymm10
vpsraw $10, %ymm10, %ymm10
vpmullw %ymm0, %ymm10, %ymm10
vpsubw %ymm10, %ymm5, %ymm10
vperm2i128 $32, %ymm2, %ymm10, %ymm5
vperm2i128 $49, %ymm2, %ymm10, %ymm2
vperm2i128 $32, %ymm3, %ymm6, %ymm10
vperm2i128 $49, %ymm3, %ymm6, %ymm3
vperm2i128 $32, %ymm9, %ymm8, %ymm6
vperm2i128 $49, %ymm9, %ymm8, %ymm8
vperm2i128 $32, %ymm4, %ymm7, %ymm9
vperm2i128 $49, %ymm4, %ymm7, %ymm4
vpbroadcastd 384(%rsi), %ymm7
vpbroadcastd 388(%rsi), %ymm11
vpsubw %ymm2, %ymm5, %ymm12
vpsubw %ymm3, %ymm10, %ymm13
vpsubw %ymm8, %ymm6, %ymm14
vpaddw %ymm5, %ymm2, %ymm2
vpaddw %ymm10, %ymm3, %ymm3
vpmullw %ymm12, %ymm7, %ymm5
vpaddw %ymm6, %ymm8, %ymm6
vpmullw %ymm13, %ymm7, %ymm8
vpsubw %ymm4, %ymm9, %ymm10
vpaddw %ymm9, %ymm4, %ymm4
vpmullw %ymm14, %ymm7, %ymm9
vpmullw %ymm10, %ymm7, %ymm7
vpmulhw %ymm12, %ymm11, %ymm12
vpmulhw %ymm13, %ymm11, %ymm13
vpmulhw %ymm14, %ymm11, %ymm14
vpmulhw %ymm10, %ymm11, %ymm10
vpmulhw %ymm5, %ymm0, %ymm5
vpmulhw %ymm8, %ymm0, %ymm8
vpmulhw %ymm9, %ymm0, %ymm9
vpmulhw %ymm7, %ymm0, %ymm7
vpsubw %ymm5, %ymm12, %ymm5
vpsubw %ymm8, %ymm13, %ymm8
vpsubw %ymm9, %ymm14, %ymm9
vpsubw %ymm7, %ymm10, %ymm7
vpmulhw %ymm1, %ymm2, %ymm1
vpsraw $10, %ymm1, %ymm1
vpmullw %ymm0, %ymm1, %ymm1
vpsubw %ymm1, %ymm2, %ymm1
vmovdqu %ymm1, (%rcx)
vmovdqu %ymm3, 32(%rcx)
vmovdqu %ymm6, 64(%rcx)
vmovdqu %ymm4, 96(%rcx)
vmovdqu %ymm5, 128(%rcx)
vmovdqu %ymm8, 160(%rcx)
vmovdqu %ymm9, 192(%rcx)
vmovdqu %ymm7, 224(%rcx)
vmovdqu 392(%rsi), %ymm12
vmovdqu 456(%rsi), %ymm1
vmovdqu 424(%rsi), %ymm2
vmovdqu 488(%rsi), %ymm5
vmovdqu 256(%rcx), %ymm3
vmovdqu 288(%rcx), %ymm4
vmovdqu 320(%rcx), %ymm15
vmovdqu 352(%rcx), %ymm11
vmovdqu 384(%rcx), %ymm7
vmovdqu 416(%rcx), %ymm8
vmovdqu 448(%rcx), %ymm13
vmovdqu 480(%rcx), %ymm14
vpsubw %ymm15, %ymm3, %ymm6
vpsubw %ymm11, %ymm4, %ymm9
vpsubw %ymm13, %ymm7, %ymm10
vpaddw %ymm3, %ymm15, %ymm3
vpaddw %ymm4, %ymm11, %ymm4
vpmullw %ymm6, %ymm12, %ymm11
vpaddw %ymm7, %ymm13, %ymm7
vpmullw %ymm9, %ymm12, %ymm12
vpsubw %ymm14, %ymm8, %ymm13
vpaddw %ymm8, %ymm14, %ymm8
vpmullw %ymm10, %ymm1, %ymm14
vpmullw %ymm13, %ymm1, %ymm1
vpmulhw %ymm6, %ymm2, %ymm6
vpmulhw %ymm9, %ymm2, %ymm2
vpmulhw %ymm10, %ymm5, %ymm9
vpmulhw %ymm13, %ymm5, %ymm5
vpmulhw %ymm11, %ymm0, %ymm10
vpmulhw %ymm12, %ymm0, %ymm11
vpmulhw %ymm14, %ymm0, %ymm12
vpmulhw %ymm1, %ymm0, %ymm1
vpsubw %ymm10, %ymm6, %ymm6
vpsubw %ymm11, %ymm2, %ymm11
vpsubw %ymm12, %ymm9, %ymm9
vpsubw %ymm1, %ymm5, %ymm13
vmovdqu glob_data + 384(%rip), %ymm1
vmovdqu 520(%rsi), %ymm2
vmovdqu 552(%rsi), %ymm5
vpmulhw %ymm1, %ymm3, %ymm10
vpsraw $10, %ymm10, %ymm10
vpmullw %ymm0, %ymm10, %ymm10
vpsubw %ymm10, %ymm3, %ymm10
vpmulhw %ymm1, %ymm4, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm4, %ymm12
vpmulhw %ymm1, %ymm7, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm7, %ymm7
vpmulhw %ymm1, %ymm8, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm8, %ymm8
vpsubw %ymm7, %ymm10, %ymm15
vpsubw %ymm8, %ymm12, %ymm3
vpsubw %ymm9, %ymm6, %ymm4
vpaddw %ymm10, %ymm7, %ymm7
vpaddw %ymm12, %ymm8, %ymm8
vpmullw %ymm15, %ymm2, %ymm10
vpaddw %ymm6, %ymm9, %ymm9
vpmullw %ymm3, %ymm2, %ymm6
vpsubw %ymm13, %ymm11, %ymm12
vpaddw %ymm11, %ymm13, %ymm11
vpmullw %ymm4, %ymm2, %ymm13
vpmullw %ymm12, %ymm2, %ymm14
vpmulhw %ymm15, %ymm5, %ymm2
vpmulhw %ymm3, %ymm5, %ymm3
vpmulhw %ymm4, %ymm5, %ymm4
vpmulhw %ymm12, %ymm5, %ymm5
vpmulhw %ymm10, %ymm0, %ymm10
vpmulhw %ymm6, %ymm0, %ymm12
vpmulhw %ymm13, %ymm0, %ymm13
vpmulhw %ymm14, %ymm0, %ymm6
vpsubw %ymm10, %ymm2, %ymm2
vpsubw %ymm12, %ymm3, %ymm3
vpsubw %ymm13, %ymm4, %ymm4
vpsubw %ymm6, %ymm5, %ymm5
vpslld $16, %ymm8, %ymm6
vpblendw $-86, %ymm6, %ymm7, %ymm6
vpsrld $16, %ymm7, %ymm7
vpblendw $-86, %ymm8, %ymm7, %ymm7
vpslld $16, %ymm11, %ymm8
vpblendw $-86, %ymm8, %ymm9, %ymm10
vpsrld $16, %ymm9, %ymm8
vpblendw $-86, %ymm11, %ymm8, %ymm11
vpslld $16, %ymm3, %ymm8
vpblendw $-86, %ymm8, %ymm2, %ymm8
vpsrld $16, %ymm2, %ymm2
vpblendw $-86, %ymm3, %ymm2, %ymm9
vpslld $16, %ymm5, %ymm2
vpblendw $-86, %ymm2, %ymm4, %ymm12
vpsrld $16, %ymm4, %ymm2
vpblendw $-86, %ymm5, %ymm2, %ymm13
vmovdqu 584(%rsi), %ymm2
vmovdqu 616(%rsi), %ymm5
vpsubw %ymm7, %ymm6, %ymm15
vpsubw %ymm11, %ymm10, %ymm3
vpsubw %ymm9, %ymm8, %ymm4
vpaddw %ymm6, %ymm7, %ymm6
vpaddw %ymm10, %ymm11, %ymm7
vpmullw %ymm15, %ymm2, %ymm10
vpaddw %ymm8, %ymm9, %ymm8
vpmullw %ymm3, %ymm2, %ymm9
vpsubw %ymm13, %ymm12, %ymm11
vpaddw %ymm12, %ymm13, %ymm12
vpmullw %ymm4, %ymm2, %ymm13
vpmullw %ymm11, %ymm2, %ymm14
vpmulhw %ymm15, %ymm5, %ymm2
vpmulhw %ymm3, %ymm5, %ymm3
vpmulhw %ymm4, %ymm5, %ymm4
vpmulhw %ymm11, %ymm5, %ymm5
vpmulhw %ymm10, %ymm0, %ymm10
vpmulhw %ymm9, %ymm0, %ymm11
vpmulhw %ymm13, %ymm0, %ymm13
vpmulhw %ymm14, %ymm0, %ymm9
vpsubw %ymm10, %ymm2, %ymm2
vpsubw %ymm11, %ymm3, %ymm3
vpsubw %ymm13, %ymm4, %ymm4
vpsubw %ymm9, %ymm5, %ymm5
vpmulhw %ymm1, %ymm6, %ymm9
vpsraw $10, %ymm9, %ymm9
vpmullw %ymm0, %ymm9, %ymm9
vpsubw %ymm9, %ymm6, %ymm6
vmovsldup %ymm7, %ymm9
vpblendd $-86, %ymm9, %ymm6, %ymm9
vpsrlq $32, %ymm6, %ymm6
vpblendd $-86, %ymm7, %ymm6, %ymm10
vmovsldup %ymm12, %ymm6
vpblendd $-86, %ymm6, %ymm8, %ymm11
vpsrlq $32, %ymm8, %ymm6
vpblendd $-86, %ymm12, %ymm6, %ymm14
vmovsldup %ymm3, %ymm6
vpblendd $-86, %ymm6, %ymm2, %ymm12
vpsrlq $32, %ymm2, %ymm2
vpblendd $-86, %ymm3, %ymm2, %ymm13
vmovsldup %ymm5, %ymm2
vpblendd $-86, %ymm2, %ymm4, %ymm2
vpsrlq $32, %ymm4, %ymm3
vpblendd $-86, %ymm5, %ymm3, %ymm3
vmovdqu 648(%rsi), %ymm4
vmovdqu 680(%rsi), %ymm5
vpsubw %ymm10, %ymm9, %ymm6
vpsubw %ymm14, %ymm11, %ymm7
vpsubw %ymm13, %ymm12, %ymm8
vpaddw %ymm9, %ymm10, %ymm9
vpaddw %ymm11, %ymm14, %ymm10
vpmullw %ymm6, %ymm4, %ymm11
vpaddw %ymm12, %ymm13, %ymm12
vpmullw %ymm7, %ymm4, %ymm13
vpsubw %ymm3, %ymm2, %ymm14
vpaddw %ymm2, %ymm3, %ymm2
vpmullw %ymm8, %ymm4, %ymm3
vpmullw %ymm14, %ymm4, %ymm4
vpmulhw %ymm6, %ymm5, %ymm6
vpmulhw %ymm7, %ymm5, %ymm7
vpmulhw %ymm8, %ymm5, %ymm8
vpmulhw %ymm14, %ymm5, %ymm5
vpmulhw %ymm11, %ymm0, %ymm11
vpmulhw %ymm13, %ymm0, %ymm13
vpmulhw %ymm3, %ymm0, %ymm3
vpmulhw %ymm4, %ymm0, %ymm4
vpsubw %ymm11, %ymm6, %ymm6
vpsubw %ymm13, %ymm7, %ymm7
vpsubw %ymm3, %ymm8, %ymm3
vpsubw %ymm4, %ymm5, %ymm4
vpmulhw %ymm1, %ymm9, %ymm5
vpsraw $10, %ymm5, %ymm5
vpmullw %ymm0, %ymm5, %ymm5
vpsubw %ymm5, %ymm9, %ymm8
vpunpcklqdq %ymm10, %ymm8, %ymm5
vpunpckhqdq %ymm10, %ymm8, %ymm8
vpunpcklqdq %ymm2, %ymm12, %ymm9
vpunpckhqdq %ymm2, %ymm12, %ymm2
vpunpcklqdq %ymm7, %ymm6, %ymm10
vpunpckhqdq %ymm7, %ymm6, %ymm6
vpunpcklqdq %ymm4, %ymm3, %ymm7
vpunpckhqdq %ymm4, %ymm3, %ymm3
vmovdqu 712(%rsi), %ymm4
vmovdqu 744(%rsi), %ymm11
vpsubw %ymm8, %ymm5, %ymm12
vpsubw %ymm2, %ymm9, %ymm13
vpsubw %ymm6, %ymm10, %ymm14
vpaddw %ymm5, %ymm8, %ymm5
vpaddw %ymm9, %ymm2, %ymm2
vpmullw %ymm12, %ymm4, %ymm8
vpaddw %ymm10, %ymm6, %ymm6
vpmullw %ymm13, %ymm4, %ymm9
vpsubw %ymm3, %ymm7, %ymm10
vpaddw %ymm7, %ymm3, %ymm3
vpmullw %ymm14, %ymm4, %ymm7
vpmullw %ymm10, %ymm4, %ymm4
vpmulhw %ymm12, %ymm11, %ymm12
vpmulhw %ymm13, %ymm11, %ymm13
vpmulhw %ymm14, %ymm11, %ymm14
vpmulhw %ymm10, %ymm11, %ymm10
vpmulhw %ymm8, %ymm0, %ymm8
vpmulhw %ymm9, %ymm0, %ymm9
vpmulhw %ymm7, %ymm0, %ymm7
vpmulhw %ymm4, %ymm0, %ymm4
vpsubw %ymm8, %ymm12, %ymm8
vpsubw %ymm9, %ymm13, %ymm9
vpsubw %ymm7, %ymm14, %ymm7
vpsubw %ymm4, %ymm10, %ymm4
vpmulhw %ymm1, %ymm5, %ymm10
vpsraw $10, %ymm10, %ymm10
vpmullw %ymm0, %ymm10, %ymm10
vpsubw %ymm10, %ymm5, %ymm10
vperm2i128 $32, %ymm2, %ymm10, %ymm5
vperm2i128 $49, %ymm2, %ymm10, %ymm2
vperm2i128 $32, %ymm3, %ymm6, %ymm10
vperm2i128 $49, %ymm3, %ymm6, %ymm3
vperm2i128 $32, %ymm9, %ymm8, %ymm6
vperm2i128 $49, %ymm9, %ymm8, %ymm8
vperm2i128 $32, %ymm4, %ymm7, %ymm9
vperm2i128 $49, %ymm4, %ymm7, %ymm4
vpbroadcastd 776(%rsi), %ymm7
vpbroadcastd 780(%rsi), %ymm11
vpsubw %ymm2, %ymm5, %ymm12
vpsubw %ymm3, %ymm10, %ymm13
vpsubw %ymm8, %ymm6, %ymm14
vpaddw %ymm5, %ymm2, %ymm2
vpaddw %ymm10, %ymm3, %ymm3
vpmullw %ymm12, %ymm7, %ymm5
vpaddw %ymm6, %ymm8, %ymm6
vpmullw %ymm13, %ymm7, %ymm8
vpsubw %ymm4, %ymm9, %ymm10
vpaddw %ymm9, %ymm4, %ymm4
vpmullw %ymm14, %ymm7, %ymm9
vpmullw %ymm10, %ymm7, %ymm7
vpmulhw %ymm12, %ymm11, %ymm12
vpmulhw %ymm13, %ymm11, %ymm13
vpmulhw %ymm14, %ymm11, %ymm14
vpmulhw %ymm10, %ymm11, %ymm10
vpmulhw %ymm5, %ymm0, %ymm5
vpmulhw %ymm8, %ymm0, %ymm8
vpmulhw %ymm9, %ymm0, %ymm9
vpmulhw %ymm7, %ymm0, %ymm7
vpsubw %ymm5, %ymm12, %ymm5
vpsubw %ymm8, %ymm13, %ymm8
vpsubw %ymm9, %ymm14, %ymm9
vpsubw %ymm7, %ymm10, %ymm7
vpmulhw %ymm1, %ymm2, %ymm1
vpsraw $10, %ymm1, %ymm1
vpmullw %ymm0, %ymm1, %ymm1
vpsubw %ymm1, %ymm2, %ymm10
vmovdqu %ymm5, 384(%rcx)
vmovdqu %ymm8, 416(%rcx)
vmovdqu %ymm9, 448(%rcx)
vmovdqu %ymm7, 480(%rcx)
vpbroadcastd 784(%rsi), %ymm1
vpbroadcastd 788(%rsi), %ymm2
vmovdqu %ymm4, %ymm7
vmovdqu %ymm3, %ymm4
vmovdqu %ymm10, %ymm3
vmovdqu (%rcx), %ymm9
vmovdqu 32(%rcx), %ymm13
vmovdqu 64(%rcx), %ymm5
vmovdqu 96(%rcx), %ymm8
vpsubw %ymm3, %ymm9, %ymm10
vpsubw %ymm4, %ymm13, %ymm11
vpsubw %ymm6, %ymm5, %ymm12
vpaddw %ymm9, %ymm3, %ymm3
vpaddw %ymm13, %ymm4, %ymm4
vpmullw %ymm10, %ymm1, %ymm13
vpaddw %ymm5, %ymm6, %ymm5
vpmullw %ymm11, %ymm1, %ymm6
vpsubw %ymm7, %ymm8, %ymm14
vpaddw %ymm8, %ymm7, %ymm7
vpmullw %ymm12, %ymm1, %ymm8
vpmullw %ymm14, %ymm1, %ymm9
vpmulhw %ymm10, %ymm2, %ymm10
vpmulhw %ymm11, %ymm2, %ymm11
vpmulhw %ymm12, %ymm2, %ymm12
vpmulhw %ymm14, %ymm2, %ymm14
vpmulhw %ymm13, %ymm0, %ymm13
vpmulhw %ymm6, %ymm0, %ymm6
vpmulhw %ymm8, %ymm0, %ymm8
vpmulhw %ymm9, %ymm0, %ymm9
vpsubw %ymm13, %ymm10, %ymm10
vpsubw %ymm6, %ymm11, %ymm6
vpsubw %ymm8, %ymm12, %ymm11
vpsubw %ymm9, %ymm14, %ymm12
vmovdqu glob_data + 320(%rip), %ymm8
vmovdqu glob_data + 352(%rip), %ymm9
vmovdqu %ymm10, 256(%rcx)
vmovdqu %ymm6, 288(%rcx)
vmovdqu %ymm11, 320(%rcx)
vmovdqu %ymm12, 352(%rcx)
vpmullw %ymm3, %ymm8, %ymm6
vpmulhw %ymm3, %ymm9, %ymm3
vpmulhw %ymm0, %ymm6, %ymm6
vpsubw %ymm6, %ymm3, %ymm3
vpmullw %ymm4, %ymm8, %ymm6
vpmulhw %ymm4, %ymm9, %ymm4
vpmulhw %ymm0, %ymm6, %ymm6
vpsubw %ymm6, %ymm4, %ymm4
vpmullw %ymm5, %ymm8, %ymm6
vpmulhw %ymm5, %ymm9, %ymm5
vpmulhw %ymm0, %ymm6, %ymm6
vpsubw %ymm6, %ymm5, %ymm5
vpmullw %ymm7, %ymm8, %ymm6
vpmulhw %ymm7, %ymm9, %ymm7
vpmulhw %ymm0, %ymm6, %ymm6
vpsubw %ymm6, %ymm7, %ymm6
vmovdqu %ymm3, (%rcx)
vmovdqu %ymm4, 32(%rcx)
vmovdqu %ymm5, 64(%rcx)
vmovdqu %ymm6, 96(%rcx)
vmovdqu 384(%rcx), %ymm4
vmovdqu 416(%rcx), %ymm5
vmovdqu 448(%rcx), %ymm7
vmovdqu 480(%rcx), %ymm10
vmovdqu 128(%rcx), %ymm6
vmovdqu 160(%rcx), %ymm9
vmovdqu 192(%rcx), %ymm8
vmovdqu 224(%rcx), %ymm11
vpsubw %ymm4, %ymm6, %ymm12
vpsubw %ymm5, %ymm9, %ymm13
vpsubw %ymm7, %ymm8, %ymm3
vpaddw %ymm6, %ymm4, %ymm4
vpaddw %ymm9, %ymm5, %ymm5
vpmullw %ymm12, %ymm1, %ymm6
vpaddw %ymm8, %ymm7, %ymm7
vpmullw %ymm13, %ymm1, %ymm8
vpsubw %ymm10, %ymm11, %ymm9
vpaddw %ymm11, %ymm10, %ymm10
vpmullw %ymm3, %ymm1, %ymm11
vpmullw %ymm9, %ymm1, %ymm1
vpmulhw %ymm12, %ymm2, %ymm12
vpmulhw %ymm13, %ymm2, %ymm13
vpmulhw %ymm3, %ymm2, %ymm3
vpmulhw %ymm9, %ymm2, %ymm2
vpmulhw %ymm6, %ymm0, %ymm6
vpmulhw %ymm8, %ymm0, %ymm8
vpmulhw %ymm11, %ymm0, %ymm9
vpmulhw %ymm1, %ymm0, %ymm11
vpsubw %ymm6, %ymm12, %ymm1
vpsubw %ymm8, %ymm13, %ymm6
vpsubw %ymm9, %ymm3, %ymm8
vpsubw %ymm11, %ymm2, %ymm9
vmovdqu glob_data + 320(%rip), %ymm2
vmovdqu glob_data + 352(%rip), %ymm3
vmovdqu %ymm1, 384(%rcx)
vmovdqu %ymm6, 416(%rcx)
vmovdqu %ymm8, 448(%rcx)
vmovdqu %ymm9, 480(%rcx)
vpmullw %ymm4, %ymm2, %ymm1
vpmulhw %ymm4, %ymm3, %ymm4
vpmulhw %ymm0, %ymm1, %ymm1
vpsubw %ymm1, %ymm4, %ymm1
vpmullw %ymm5, %ymm2, %ymm4
vpmulhw %ymm5, %ymm3, %ymm5
vpmulhw %ymm0, %ymm4, %ymm4
vpsubw %ymm4, %ymm5, %ymm4
vpmullw %ymm7, %ymm2, %ymm5
vpmulhw %ymm7, %ymm3, %ymm6
vpmulhw %ymm0, %ymm5, %ymm5
vpsubw %ymm5, %ymm6, %ymm5
vpmullw %ymm10, %ymm2, %ymm2
vpmulhw %ymm10, %ymm3, %ymm3
vpmulhw %ymm0, %ymm2, %ymm0
vpsubw %ymm0, %ymm3, %ymm0
vmovdqu %ymm1, 128(%rcx)
vmovdqu %ymm4, 160(%rcx)
vmovdqu %ymm5, 192(%rcx)
vmovdqu %ymm0, 224(%rcx)
jmp *%rdi
L_poly_getnoise_eta1122_4x$1:
movq %rax, 1440(%rsp)
vmovdqu (%rcx), %ymm0
vmovdqu %ymm0, (%rsp)
vmovdqu %ymm0, 160(%rsp)
vmovdqu %ymm0, 320(%rsp)
vmovdqu %ymm0, 480(%rsp)
movb %dl, 32(%rsp)
incb %dl
movb %dl, 192(%rsp)
incb %dl
movb %dl, 352(%rsp)
incb %dl
movb %dl, 512(%rsp)
leaq 640(%rsp), %rax
movq %rsp, %rcx
leaq 160(%rsp), %rdx
leaq 320(%rsp), %rsi
leaq 480(%rsp), %r11
leaq -8(%rsp), %rsp
leaq L_poly_getnoise_eta1122_4x$3(%rip), %r10
movq %r10, (%rsp)
jmp L_shake256_absorb4x_33$1
L_poly_getnoise_eta1122_4x$3:
leaq 8(%rsp), %rsp
leaq 640(%rsp), %rax
movq %rsp, %rcx
leaq 160(%rsp), %rdx
leaq 320(%rsp), %rsi
leaq 480(%rsp), %r10
movq %rcx, %r11
movq %rdx, %rbx
movq %rsi, %rbp
leaq -832(%rsp), %rsp
leaq L_poly_getnoise_eta1122_4x$2(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
L_poly_getnoise_eta1122_4x$2:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r11)
vmovhpd %xmm1, (%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbp)
vmovhpd %xmm0, (%r10)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r11)
vmovhpd %xmm1, 8(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbp)
vmovhpd %xmm0, 8(%r10)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r11)
vmovhpd %xmm1, 16(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbp)
vmovhpd %xmm0, 16(%r10)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r11)
vmovhpd %xmm1, 24(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbp)
vmovhpd %xmm0, 24(%r10)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r11)
vmovhpd %xmm1, 32(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbp)
vmovhpd %xmm0, 32(%r10)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r11)
vmovhpd %xmm1, 40(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbp)
vmovhpd %xmm0, 40(%r10)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r11)
vmovhpd %xmm1, 48(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbp)
vmovhpd %xmm0, 48(%r10)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r11)
vmovhpd %xmm1, 56(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbp)
vmovhpd %xmm0, 56(%r10)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r11)
vmovhpd %xmm1, 64(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbp)
vmovhpd %xmm0, 64(%r10)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r11)
vmovhpd %xmm1, 72(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbp)
vmovhpd %xmm0, 72(%r10)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r11)
vmovhpd %xmm1, 80(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbp)
vmovhpd %xmm0, 80(%r10)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r11)
vmovhpd %xmm1, 88(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbp)
vmovhpd %xmm0, 88(%r10)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r11)
vmovhpd %xmm1, 96(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbp)
vmovhpd %xmm0, 96(%r10)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r11)
vmovhpd %xmm1, 104(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbp)
vmovhpd %xmm0, 104(%r10)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r11)
vmovhpd %xmm1, 112(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbp)
vmovhpd %xmm0, 112(%r10)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r11)
vmovhpd %xmm1, 120(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbp)
vmovhpd %xmm0, 120(%r10)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r11)
vmovhpd %xmm1, 128(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbp)
vmovhpd %xmm0, 128(%r10)
movq 1440(%rsp), %rax
movq %rsp, %rcx
movl $1431655765, 1448(%rsp)
movl $858993459, 1452(%rsp)
movl $50529027, 1456(%rsp)
movl $252645135, 1460(%rsp)
vpbroadcastd 1448(%rsp), %ymm0
vpbroadcastd 1452(%rsp), %ymm1
vpbroadcastd 1456(%rsp), %ymm2
vpbroadcastd 1460(%rsp), %ymm3
vmovdqu (%rcx), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, (%rax)
vmovdqu %ymm7, 32(%rax)
vmovdqu %ymm6, 64(%rax)
vmovdqu %ymm4, 96(%rax)
vmovdqu 32(%rcx), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, 128(%rax)
vmovdqu %ymm7, 160(%rax)
vmovdqu %ymm6, 192(%rax)
vmovdqu %ymm4, 224(%rax)
vmovdqu 64(%rcx), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, 256(%rax)
vmovdqu %ymm7, 288(%rax)
vmovdqu %ymm6, 320(%rax)
vmovdqu %ymm4, 352(%rax)
vmovdqu 96(%rcx), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm0
vpaddb %ymm0, %ymm4, %ymm0
vpsrlw $2, %ymm0, %ymm4
vpand %ymm0, %ymm1, %ymm0
vpand %ymm4, %ymm1, %ymm4
vpaddb %ymm1, %ymm0, %ymm0
vpsubb %ymm4, %ymm0, %ymm0
vpsrlw $4, %ymm0, %ymm1
vpand %ymm0, %ymm3, %ymm0
vpand %ymm1, %ymm3, %ymm1
vpsubb %ymm2, %ymm0, %ymm0
vpsubb %ymm2, %ymm1, %ymm1
vpunpcklbw %ymm1, %ymm0, %ymm2
vpunpckhbw %ymm1, %ymm0, %ymm0
vmovdqu %xmm2, %xmm1
vpmovsxbw %xmm1, %ymm1
vextracti128 $1, %ymm2, %xmm2
vpmovsxbw %xmm2, %ymm2
vmovdqu %xmm0, %xmm3
vpmovsxbw %xmm3, %ymm3
vextracti128 $1, %ymm0, %xmm0
vpmovsxbw %xmm0, %ymm0
vmovdqu %ymm1, 384(%rax)
vmovdqu %ymm3, 416(%rax)
vmovdqu %ymm2, 448(%rax)
vmovdqu %ymm0, 480(%rax)
leaq 160(%rsp), %rax
movl $1431655765, 1460(%rsp)
movl $858993459, 1456(%rsp)
movl $50529027, 1452(%rsp)
movl $252645135, 1448(%rsp)
vpbroadcastd 1460(%rsp), %ymm0
vpbroadcastd 1456(%rsp), %ymm1
vpbroadcastd 1452(%rsp), %ymm2
vpbroadcastd 1448(%rsp), %ymm3
vmovdqu (%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, (%rdi)
vmovdqu %ymm7, 32(%rdi)
vmovdqu %ymm6, 64(%rdi)
vmovdqu %ymm4, 96(%rdi)
vmovdqu 32(%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, 128(%rdi)
vmovdqu %ymm7, 160(%rdi)
vmovdqu %ymm6, 192(%rdi)
vmovdqu %ymm4, 224(%rdi)
vmovdqu 64(%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, 256(%rdi)
vmovdqu %ymm7, 288(%rdi)
vmovdqu %ymm6, 320(%rdi)
vmovdqu %ymm4, 352(%rdi)
vmovdqu 96(%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm0
vpaddb %ymm0, %ymm4, %ymm0
vpsrlw $2, %ymm0, %ymm4
vpand %ymm0, %ymm1, %ymm0
vpand %ymm4, %ymm1, %ymm4
vpaddb %ymm1, %ymm0, %ymm0
vpsubb %ymm4, %ymm0, %ymm0
vpsrlw $4, %ymm0, %ymm1
vpand %ymm0, %ymm3, %ymm0
vpand %ymm1, %ymm3, %ymm1
vpsubb %ymm2, %ymm0, %ymm0
vpsubb %ymm2, %ymm1, %ymm1
vpunpcklbw %ymm1, %ymm0, %ymm2
vpunpckhbw %ymm1, %ymm0, %ymm0
vmovdqu %xmm2, %xmm1
vpmovsxbw %xmm1, %ymm1
vextracti128 $1, %ymm2, %xmm2
vpmovsxbw %xmm2, %ymm2
vmovdqu %xmm0, %xmm3
vpmovsxbw %xmm3, %ymm3
vextracti128 $1, %ymm0, %xmm0
vpmovsxbw %xmm0, %ymm0
vmovdqu %ymm1, 384(%rdi)
vmovdqu %ymm3, 416(%rdi)
vmovdqu %ymm2, 448(%rdi)
vmovdqu %ymm0, 480(%rdi)
leaq 320(%rsp), %rax
movl $1431655765, 1448(%rsp)
movl $858993459, 1452(%rsp)
movl $50529027, 1456(%rsp)
movl $252645135, 1460(%rsp)
vpbroadcastd 1448(%rsp), %ymm0
vpbroadcastd 1452(%rsp), %ymm1
vpbroadcastd 1456(%rsp), %ymm2
vpbroadcastd 1460(%rsp), %ymm3
vmovdqu (%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, (%r8)
vmovdqu %ymm7, 32(%r8)
vmovdqu %ymm6, 64(%r8)
vmovdqu %ymm4, 96(%r8)
vmovdqu 32(%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, 128(%r8)
vmovdqu %ymm7, 160(%r8)
vmovdqu %ymm6, 192(%r8)
vmovdqu %ymm4, 224(%r8)
vmovdqu 64(%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, 256(%r8)
vmovdqu %ymm7, 288(%r8)
vmovdqu %ymm6, 320(%r8)
vmovdqu %ymm4, 352(%r8)
vmovdqu 96(%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm0
vpaddb %ymm0, %ymm4, %ymm0
vpsrlw $2, %ymm0, %ymm4
vpand %ymm0, %ymm1, %ymm0
vpand %ymm4, %ymm1, %ymm4
vpaddb %ymm1, %ymm0, %ymm0
vpsubb %ymm4, %ymm0, %ymm0
vpsrlw $4, %ymm0, %ymm1
vpand %ymm0, %ymm3, %ymm0
vpand %ymm1, %ymm3, %ymm1
vpsubb %ymm2, %ymm0, %ymm0
vpsubb %ymm2, %ymm1, %ymm1
vpunpcklbw %ymm1, %ymm0, %ymm2
vpunpckhbw %ymm1, %ymm0, %ymm0
vmovdqu %xmm2, %xmm1
vpmovsxbw %xmm1, %ymm1
vextracti128 $1, %ymm2, %xmm2
vpmovsxbw %xmm2, %ymm2
vmovdqu %xmm0, %xmm3
vpmovsxbw %xmm3, %ymm3
vextracti128 $1, %ymm0, %xmm0
vpmovsxbw %xmm0, %ymm0
vmovdqu %ymm1, 384(%r8)
vmovdqu %ymm3, 416(%r8)
vmovdqu %ymm2, 448(%r8)
vmovdqu %ymm0, 480(%r8)
leaq 480(%rsp), %rax
movl $1431655765, 1460(%rsp)
movl $858993459, 1456(%rsp)
movl $50529027, 1452(%rsp)
movl $252645135, 1448(%rsp)
vpbroadcastd 1460(%rsp), %ymm0
vpbroadcastd 1456(%rsp), %ymm1
vpbroadcastd 1452(%rsp), %ymm2
vpbroadcastd 1448(%rsp), %ymm3
vmovdqu (%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, (%r9)
vmovdqu %ymm7, 32(%r9)
vmovdqu %ymm6, 64(%r9)
vmovdqu %ymm4, 96(%r9)
vmovdqu 32(%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, 128(%r9)
vmovdqu %ymm7, 160(%r9)
vmovdqu %ymm6, 192(%r9)
vmovdqu %ymm4, 224(%r9)
vmovdqu 64(%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, 256(%r9)
vmovdqu %ymm7, 288(%r9)
vmovdqu %ymm6, 320(%r9)
vmovdqu %ymm4, 352(%r9)
vmovdqu 96(%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm0
vpaddb %ymm0, %ymm4, %ymm0
vpsrlw $2, %ymm0, %ymm4
vpand %ymm0, %ymm1, %ymm0
vpand %ymm4, %ymm1, %ymm4
vpaddb %ymm1, %ymm0, %ymm0
vpsubb %ymm4, %ymm0, %ymm0
vpsrlw $4, %ymm0, %ymm1
vpand %ymm0, %ymm3, %ymm0
vpand %ymm1, %ymm3, %ymm1
vpsubb %ymm2, %ymm0, %ymm0
vpsubb %ymm2, %ymm1, %ymm1
vpunpcklbw %ymm1, %ymm0, %ymm2
vpunpckhbw %ymm1, %ymm0, %ymm0
vmovdqu %xmm2, %xmm1
vpmovsxbw %xmm1, %ymm1
vextracti128 $1, %ymm2, %xmm2
vpmovsxbw %xmm2, %ymm2
vmovdqu %xmm0, %xmm3
vpmovsxbw %xmm3, %ymm3
vextracti128 $1, %ymm0, %xmm0
vpmovsxbw %xmm0, %ymm0
vmovdqu %ymm1, 384(%r9)
vmovdqu %ymm3, 416(%r9)
vmovdqu %ymm2, 448(%r9)
vmovdqu %ymm0, 480(%r9)
jmp *1464(%rsp)
L_poly_getnoise_eta1_4x$1:
movq %rax, 1440(%rsp)
vmovdqu (%r10), %ymm0
vmovdqu %ymm0, (%rsp)
vmovdqu %ymm0, 160(%rsp)
vmovdqu %ymm0, 320(%rsp)
vmovdqu %ymm0, 480(%rsp)
movb %cl, 32(%rsp)
incb %cl
movb %cl, 192(%rsp)
incb %cl
movb %cl, 352(%rsp)
incb %cl
movb %cl, 512(%rsp)
leaq 640(%rsp), %rax
movq %rsp, %rcx
leaq 160(%rsp), %rdx
leaq 320(%rsp), %rsi
leaq 480(%rsp), %r11
leaq -8(%rsp), %rsp
leaq L_poly_getnoise_eta1_4x$3(%rip), %rbx
movq %rbx, (%rsp)
jmp L_shake256_absorb4x_33$1
L_poly_getnoise_eta1_4x$3:
leaq 8(%rsp), %rsp
leaq 640(%rsp), %rax
movq %rsp, %r11
leaq 160(%rsp), %rcx
leaq 320(%rsp), %rdx
leaq 480(%rsp), %rsi
movq %rcx, %rbx
movq %rdx, %rbp
movq %rsi, %r12
leaq -832(%rsp), %rsp
leaq L_poly_getnoise_eta1_4x$2(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
L_poly_getnoise_eta1_4x$2:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r11)
vmovhpd %xmm1, (%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbp)
vmovhpd %xmm0, (%r12)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r11)
vmovhpd %xmm1, 8(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbp)
vmovhpd %xmm0, 8(%r12)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r11)
vmovhpd %xmm1, 16(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbp)
vmovhpd %xmm0, 16(%r12)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r11)
vmovhpd %xmm1, 24(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbp)
vmovhpd %xmm0, 24(%r12)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r11)
vmovhpd %xmm1, 32(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbp)
vmovhpd %xmm0, 32(%r12)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r11)
vmovhpd %xmm1, 40(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbp)
vmovhpd %xmm0, 40(%r12)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r11)
vmovhpd %xmm1, 48(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbp)
vmovhpd %xmm0, 48(%r12)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r11)
vmovhpd %xmm1, 56(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbp)
vmovhpd %xmm0, 56(%r12)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r11)
vmovhpd %xmm1, 64(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbp)
vmovhpd %xmm0, 64(%r12)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r11)
vmovhpd %xmm1, 72(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbp)
vmovhpd %xmm0, 72(%r12)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r11)
vmovhpd %xmm1, 80(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbp)
vmovhpd %xmm0, 80(%r12)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r11)
vmovhpd %xmm1, 88(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbp)
vmovhpd %xmm0, 88(%r12)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r11)
vmovhpd %xmm1, 96(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbp)
vmovhpd %xmm0, 96(%r12)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r11)
vmovhpd %xmm1, 104(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbp)
vmovhpd %xmm0, 104(%r12)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r11)
vmovhpd %xmm1, 112(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbp)
vmovhpd %xmm0, 112(%r12)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r11)
vmovhpd %xmm1, 120(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbp)
vmovhpd %xmm0, 120(%r12)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r11)
vmovhpd %xmm1, 128(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbp)
vmovhpd %xmm0, 128(%r12)
movq 1440(%rsp), %rax
movq %rsp, %rcx
movl $1431655765, 1448(%rsp)
movl $858993459, 1452(%rsp)
movl $50529027, 1456(%rsp)
movl $252645135, 1460(%rsp)
vpbroadcastd 1448(%rsp), %ymm0
vpbroadcastd 1452(%rsp), %ymm1
vpbroadcastd 1456(%rsp), %ymm2
vpbroadcastd 1460(%rsp), %ymm3
vmovdqu (%rcx), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, (%rax)
vmovdqu %ymm7, 32(%rax)
vmovdqu %ymm6, 64(%rax)
vmovdqu %ymm4, 96(%rax)
vmovdqu 32(%rcx), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, 128(%rax)
vmovdqu %ymm7, 160(%rax)
vmovdqu %ymm6, 192(%rax)
vmovdqu %ymm4, 224(%rax)
vmovdqu 64(%rcx), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, 256(%rax)
vmovdqu %ymm7, 288(%rax)
vmovdqu %ymm6, 320(%rax)
vmovdqu %ymm4, 352(%rax)
vmovdqu 96(%rcx), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm0
vpaddb %ymm0, %ymm4, %ymm0
vpsrlw $2, %ymm0, %ymm4
vpand %ymm0, %ymm1, %ymm0
vpand %ymm4, %ymm1, %ymm4
vpaddb %ymm1, %ymm0, %ymm0
vpsubb %ymm4, %ymm0, %ymm0
vpsrlw $4, %ymm0, %ymm1
vpand %ymm0, %ymm3, %ymm0
vpand %ymm1, %ymm3, %ymm1
vpsubb %ymm2, %ymm0, %ymm0
vpsubb %ymm2, %ymm1, %ymm1
vpunpcklbw %ymm1, %ymm0, %ymm2
vpunpckhbw %ymm1, %ymm0, %ymm0
vmovdqu %xmm2, %xmm1
vpmovsxbw %xmm1, %ymm1
vextracti128 $1, %ymm2, %xmm2
vpmovsxbw %xmm2, %ymm2
vmovdqu %xmm0, %xmm3
vpmovsxbw %xmm3, %ymm3
vextracti128 $1, %ymm0, %xmm0
vpmovsxbw %xmm0, %ymm0
vmovdqu %ymm1, 384(%rax)
vmovdqu %ymm3, 416(%rax)
vmovdqu %ymm2, 448(%rax)
vmovdqu %ymm0, 480(%rax)
leaq 160(%rsp), %rax
movl $1431655765, 1460(%rsp)
movl $858993459, 1456(%rsp)
movl $50529027, 1452(%rsp)
movl $252645135, 1448(%rsp)
vpbroadcastd 1460(%rsp), %ymm0
vpbroadcastd 1456(%rsp), %ymm1
vpbroadcastd 1452(%rsp), %ymm2
vpbroadcastd 1448(%rsp), %ymm3
vmovdqu (%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, (%rdi)
vmovdqu %ymm7, 32(%rdi)
vmovdqu %ymm6, 64(%rdi)
vmovdqu %ymm4, 96(%rdi)
vmovdqu 32(%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, 128(%rdi)
vmovdqu %ymm7, 160(%rdi)
vmovdqu %ymm6, 192(%rdi)
vmovdqu %ymm4, 224(%rdi)
vmovdqu 64(%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, 256(%rdi)
vmovdqu %ymm7, 288(%rdi)
vmovdqu %ymm6, 320(%rdi)
vmovdqu %ymm4, 352(%rdi)
vmovdqu 96(%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm0
vpaddb %ymm0, %ymm4, %ymm0
vpsrlw $2, %ymm0, %ymm4
vpand %ymm0, %ymm1, %ymm0
vpand %ymm4, %ymm1, %ymm4
vpaddb %ymm1, %ymm0, %ymm0
vpsubb %ymm4, %ymm0, %ymm0
vpsrlw $4, %ymm0, %ymm1
vpand %ymm0, %ymm3, %ymm0
vpand %ymm1, %ymm3, %ymm1
vpsubb %ymm2, %ymm0, %ymm0
vpsubb %ymm2, %ymm1, %ymm1
vpunpcklbw %ymm1, %ymm0, %ymm2
vpunpckhbw %ymm1, %ymm0, %ymm0
vmovdqu %xmm2, %xmm1
vpmovsxbw %xmm1, %ymm1
vextracti128 $1, %ymm2, %xmm2
vpmovsxbw %xmm2, %ymm2
vmovdqu %xmm0, %xmm3
vpmovsxbw %xmm3, %ymm3
vextracti128 $1, %ymm0, %xmm0
vpmovsxbw %xmm0, %ymm0
vmovdqu %ymm1, 384(%rdi)
vmovdqu %ymm3, 416(%rdi)
vmovdqu %ymm2, 448(%rdi)
vmovdqu %ymm0, 480(%rdi)
leaq 320(%rsp), %rax
movl $1431655765, 1448(%rsp)
movl $858993459, 1452(%rsp)
movl $50529027, 1456(%rsp)
movl $252645135, 1460(%rsp)
vpbroadcastd 1448(%rsp), %ymm0
vpbroadcastd 1452(%rsp), %ymm1
vpbroadcastd 1456(%rsp), %ymm2
vpbroadcastd 1460(%rsp), %ymm3
vmovdqu (%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, (%r8)
vmovdqu %ymm7, 32(%r8)
vmovdqu %ymm6, 64(%r8)
vmovdqu %ymm4, 96(%r8)
vmovdqu 32(%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, 128(%r8)
vmovdqu %ymm7, 160(%r8)
vmovdqu %ymm6, 192(%r8)
vmovdqu %ymm4, 224(%r8)
vmovdqu 64(%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, 256(%r8)
vmovdqu %ymm7, 288(%r8)
vmovdqu %ymm6, 320(%r8)
vmovdqu %ymm4, 352(%r8)
vmovdqu 96(%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm0
vpaddb %ymm0, %ymm4, %ymm0
vpsrlw $2, %ymm0, %ymm4
vpand %ymm0, %ymm1, %ymm0
vpand %ymm4, %ymm1, %ymm4
vpaddb %ymm1, %ymm0, %ymm0
vpsubb %ymm4, %ymm0, %ymm0
vpsrlw $4, %ymm0, %ymm1
vpand %ymm0, %ymm3, %ymm0
vpand %ymm1, %ymm3, %ymm1
vpsubb %ymm2, %ymm0, %ymm0
vpsubb %ymm2, %ymm1, %ymm1
vpunpcklbw %ymm1, %ymm0, %ymm2
vpunpckhbw %ymm1, %ymm0, %ymm0
vmovdqu %xmm2, %xmm1
vpmovsxbw %xmm1, %ymm1
vextracti128 $1, %ymm2, %xmm2
vpmovsxbw %xmm2, %ymm2
vmovdqu %xmm0, %xmm3
vpmovsxbw %xmm3, %ymm3
vextracti128 $1, %ymm0, %xmm0
vpmovsxbw %xmm0, %ymm0
vmovdqu %ymm1, 384(%r8)
vmovdqu %ymm3, 416(%r8)
vmovdqu %ymm2, 448(%r8)
vmovdqu %ymm0, 480(%r8)
leaq 480(%rsp), %rax
movl $1431655765, 1460(%rsp)
movl $858993459, 1456(%rsp)
movl $50529027, 1452(%rsp)
movl $252645135, 1448(%rsp)
vpbroadcastd 1460(%rsp), %ymm0
vpbroadcastd 1456(%rsp), %ymm1
vpbroadcastd 1452(%rsp), %ymm2
vpbroadcastd 1448(%rsp), %ymm3
vmovdqu (%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, (%r9)
vmovdqu %ymm7, 32(%r9)
vmovdqu %ymm6, 64(%r9)
vmovdqu %ymm4, 96(%r9)
vmovdqu 32(%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, 128(%r9)
vmovdqu %ymm7, 160(%r9)
vmovdqu %ymm6, 192(%r9)
vmovdqu %ymm4, 224(%r9)
vmovdqu 64(%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, 256(%r9)
vmovdqu %ymm7, 288(%r9)
vmovdqu %ymm6, 320(%r9)
vmovdqu %ymm4, 352(%r9)
vmovdqu 96(%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm0
vpaddb %ymm0, %ymm4, %ymm0
vpsrlw $2, %ymm0, %ymm4
vpand %ymm0, %ymm1, %ymm0
vpand %ymm4, %ymm1, %ymm4
vpaddb %ymm1, %ymm0, %ymm0
vpsubb %ymm4, %ymm0, %ymm0
vpsrlw $4, %ymm0, %ymm1
vpand %ymm0, %ymm3, %ymm0
vpand %ymm1, %ymm3, %ymm1
vpsubb %ymm2, %ymm0, %ymm0
vpsubb %ymm2, %ymm1, %ymm1
vpunpcklbw %ymm1, %ymm0, %ymm2
vpunpckhbw %ymm1, %ymm0, %ymm0
vmovdqu %xmm2, %xmm1
vpmovsxbw %xmm1, %ymm1
vextracti128 $1, %ymm2, %xmm2
vpmovsxbw %xmm2, %ymm2
vmovdqu %xmm0, %xmm3
vpmovsxbw %xmm3, %ymm3
vextracti128 $1, %ymm0, %xmm0
vpmovsxbw %xmm0, %ymm0
vmovdqu %ymm1, 384(%r9)
vmovdqu %ymm3, 416(%r9)
vmovdqu %ymm2, 448(%r9)
vmovdqu %ymm0, 480(%r9)
jmp *1464(%rsp)
L_poly_getnoise$1:
movl $1431655765, 172(%rsp)
movl $858993459, 176(%rsp)
movl $50529027, 180(%rsp)
movl $252645135, 184(%rsp)
movq %rax, 128(%rsp)
movq (%rcx), %rax
movq %rax, 136(%rsp)
movq 8(%rcx), %rax
movq %rax, 144(%rsp)
movq 16(%rcx), %rax
movq %rax, 152(%rsp)
movq 24(%rcx), %rax
movq %rax, 160(%rsp)
movb %dl, 168(%rsp)
movq %rsp, %rax
leaq 136(%rsp), %rcx
leaq -256(%rsp), %rsp
leaq L_poly_getnoise$2(%rip), %rdx
movq %rdx, 224(%rsp)
jmp L_shake256_128_33$1
L_poly_getnoise$2:
leaq 256(%rsp), %rsp
vpbroadcastd 172(%rsp), %ymm0
vpbroadcastd 176(%rsp), %ymm1
vpbroadcastd 180(%rsp), %ymm2
vpbroadcastd 184(%rsp), %ymm3
movq 128(%rsp), %rax
vmovdqu (%rsp), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, (%rax)
vmovdqu %ymm7, 32(%rax)
vmovdqu %ymm6, 64(%rax)
vmovdqu %ymm4, 96(%rax)
vmovdqu 32(%rsp), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, 128(%rax)
vmovdqu %ymm7, 160(%rax)
vmovdqu %ymm6, 192(%rax)
vmovdqu %ymm4, 224(%rax)
vmovdqu 64(%rsp), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, 256(%rax)
vmovdqu %ymm7, 288(%rax)
vmovdqu %ymm6, 320(%rax)
vmovdqu %ymm4, 352(%rax)
vmovdqu 96(%rsp), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm0
vpaddb %ymm0, %ymm4, %ymm0
vpsrlw $2, %ymm0, %ymm4
vpand %ymm0, %ymm1, %ymm0
vpand %ymm4, %ymm1, %ymm4
vpaddb %ymm1, %ymm0, %ymm0
vpsubb %ymm4, %ymm0, %ymm0
vpsrlw $4, %ymm0, %ymm1
vpand %ymm0, %ymm3, %ymm0
vpand %ymm1, %ymm3, %ymm1
vpsubb %ymm2, %ymm0, %ymm0
vpsubb %ymm2, %ymm1, %ymm1
vpunpcklbw %ymm1, %ymm0, %ymm2
vpunpckhbw %ymm1, %ymm0, %ymm0
vmovdqu %xmm2, %xmm1
vpmovsxbw %xmm1, %ymm1
vextracti128 $1, %ymm2, %xmm2
vpmovsxbw %xmm2, %ymm2
vmovdqu %xmm0, %xmm3
vpmovsxbw %xmm3, %ymm3
vextracti128 $1, %ymm0, %xmm0
vpmovsxbw %xmm0, %ymm0
vmovdqu %ymm1, 384(%rax)
vmovdqu %ymm3, 416(%rax)
vmovdqu %ymm2, 448(%rax)
vmovdqu %ymm0, 480(%rax)
jmp *192(%rsp)
L_poly_frommsg_1$1:
leaq glob_data + 256(%rip), %rdi
vmovdqu (%rdi), %ymm0
vbroadcasti128 glob_data + 4112(%rip), %ymm1
vbroadcasti128 glob_data + 4096(%rip), %ymm2
vmovdqu (%rax), %ymm3
vpshufd $0, %ymm3, %ymm4
vpsllvd %ymm1, %ymm4, %ymm4
vpshufb %ymm2, %ymm4, %ymm4
vpsllw $12, %ymm4, %ymm5
vpsllw $8, %ymm4, %ymm6
vpsllw $4, %ymm4, %ymm7
vpsraw $15, %ymm5, %ymm5
vpsraw $15, %ymm6, %ymm6
vpsraw $15, %ymm7, %ymm7
vpsraw $15, %ymm4, %ymm4
vpand %ymm0, %ymm5, %ymm5
vpand %ymm0, %ymm6, %ymm6
vpand %ymm0, %ymm7, %ymm7
vpand %ymm0, %ymm4, %ymm4
vpunpcklqdq %ymm6, %ymm5, %ymm8
vpunpckhqdq %ymm6, %ymm5, %ymm5
vpunpcklqdq %ymm4, %ymm7, %ymm6
vpunpckhqdq %ymm4, %ymm7, %ymm4
vperm2i128 $32, %ymm6, %ymm8, %ymm7
vperm2i128 $49, %ymm6, %ymm8, %ymm6
vperm2i128 $32, %ymm4, %ymm5, %ymm8
vperm2i128 $49, %ymm4, %ymm5, %ymm4
vmovdqu %ymm7, (%rcx)
vmovdqu %ymm8, 32(%rcx)
vmovdqu %ymm6, 256(%rcx)
vmovdqu %ymm4, 288(%rcx)
vpshufd $85, %ymm3, %ymm4
vpsllvd %ymm1, %ymm4, %ymm4
vpshufb %ymm2, %ymm4, %ymm4
vpsllw $12, %ymm4, %ymm5
vpsllw $8, %ymm4, %ymm6
vpsllw $4, %ymm4, %ymm7
vpsraw $15, %ymm5, %ymm5
vpsraw $15, %ymm6, %ymm6
vpsraw $15, %ymm7, %ymm7
vpsraw $15, %ymm4, %ymm4
vpand %ymm0, %ymm5, %ymm5
vpand %ymm0, %ymm6, %ymm6
vpand %ymm0, %ymm7, %ymm7
vpand %ymm0, %ymm4, %ymm4
vpunpcklqdq %ymm6, %ymm5, %ymm8
vpunpckhqdq %ymm6, %ymm5, %ymm5
vpunpcklqdq %ymm4, %ymm7, %ymm6
vpunpckhqdq %ymm4, %ymm7, %ymm4
vperm2i128 $32, %ymm6, %ymm8, %ymm7
vperm2i128 $49, %ymm6, %ymm8, %ymm6
vperm2i128 $32, %ymm4, %ymm5, %ymm8
vperm2i128 $49, %ymm4, %ymm5, %ymm4
vmovdqu %ymm7, 64(%rcx)
vmovdqu %ymm8, 96(%rcx)
vmovdqu %ymm6, 320(%rcx)
vmovdqu %ymm4, 352(%rcx)
vpshufd $-86, %ymm3, %ymm4
vpsllvd %ymm1, %ymm4, %ymm4
vpshufb %ymm2, %ymm4, %ymm4
vpsllw $12, %ymm4, %ymm5
vpsllw $8, %ymm4, %ymm6
vpsllw $4, %ymm4, %ymm7
vpsraw $15, %ymm5, %ymm5
vpsraw $15, %ymm6, %ymm6
vpsraw $15, %ymm7, %ymm7
vpsraw $15, %ymm4, %ymm4
vpand %ymm0, %ymm5, %ymm5
vpand %ymm0, %ymm6, %ymm6
vpand %ymm0, %ymm7, %ymm7
vpand %ymm0, %ymm4, %ymm4
vpunpcklqdq %ymm6, %ymm5, %ymm8
vpunpckhqdq %ymm6, %ymm5, %ymm5
vpunpcklqdq %ymm4, %ymm7, %ymm6
vpunpckhqdq %ymm4, %ymm7, %ymm4
vperm2i128 $32, %ymm6, %ymm8, %ymm7
vperm2i128 $49, %ymm6, %ymm8, %ymm6
vperm2i128 $32, %ymm4, %ymm5, %ymm8
vperm2i128 $49, %ymm4, %ymm5, %ymm4
vmovdqu %ymm7, 128(%rcx)
vmovdqu %ymm8, 160(%rcx)
vmovdqu %ymm6, 384(%rcx)
vmovdqu %ymm4, 416(%rcx)
vpshufd $-1, %ymm3, %ymm3
vpsllvd %ymm1, %ymm3, %ymm1
vpshufb %ymm2, %ymm1, %ymm1
vpsllw $12, %ymm1, %ymm2
vpsllw $8, %ymm1, %ymm3
vpsllw $4, %ymm1, %ymm4
vpsraw $15, %ymm2, %ymm2
vpsraw $15, %ymm3, %ymm3
vpsraw $15, %ymm4, %ymm4
vpsraw $15, %ymm1, %ymm1
vpand %ymm0, %ymm2, %ymm2
vpand %ymm0, %ymm3, %ymm3
vpand %ymm0, %ymm4, %ymm4
vpand %ymm0, %ymm1, %ymm0
vpunpcklqdq %ymm3, %ymm2, %ymm1
vpunpckhqdq %ymm3, %ymm2, %ymm2
vpunpcklqdq %ymm0, %ymm4, %ymm3
vpunpckhqdq %ymm0, %ymm4, %ymm0
vperm2i128 $32, %ymm3, %ymm1, %ymm4
vperm2i128 $49, %ymm3, %ymm1, %ymm1
vperm2i128 $32, %ymm0, %ymm2, %ymm3
vperm2i128 $49, %ymm0, %ymm2, %ymm0
vmovdqu %ymm4, 192(%rcx)
vmovdqu %ymm3, 224(%rcx)
vmovdqu %ymm1, 448(%rcx)
vmovdqu %ymm0, 480(%rcx)
jmp *%r8
L_poly_frommsg$1:
leaq glob_data + 256(%rip), %rax
vmovdqu (%rax), %ymm0
vbroadcasti128 glob_data + 4112(%rip), %ymm1
vbroadcasti128 glob_data + 4096(%rip), %ymm2
vmovdqu (%rcx), %ymm3
vpshufd $0, %ymm3, %ymm4
vpsllvd %ymm1, %ymm4, %ymm4
vpshufb %ymm2, %ymm4, %ymm4
vpsllw $12, %ymm4, %ymm5
vpsllw $8, %ymm4, %ymm6
vpsllw $4, %ymm4, %ymm7
vpsraw $15, %ymm5, %ymm5
vpsraw $15, %ymm6, %ymm6
vpsraw $15, %ymm7, %ymm7
vpsraw $15, %ymm4, %ymm4
vpand %ymm0, %ymm5, %ymm5
vpand %ymm0, %ymm6, %ymm6
vpand %ymm0, %ymm7, %ymm7
vpand %ymm0, %ymm4, %ymm4
vpunpcklqdq %ymm6, %ymm5, %ymm8
vpunpckhqdq %ymm6, %ymm5, %ymm5
vpunpcklqdq %ymm4, %ymm7, %ymm6
vpunpckhqdq %ymm4, %ymm7, %ymm4
vperm2i128 $32, %ymm6, %ymm8, %ymm7
vperm2i128 $49, %ymm6, %ymm8, %ymm6
vperm2i128 $32, %ymm4, %ymm5, %ymm8
vperm2i128 $49, %ymm4, %ymm5, %ymm4
vmovdqu %ymm7, (%rdx)
vmovdqu %ymm8, 32(%rdx)
vmovdqu %ymm6, 256(%rdx)
vmovdqu %ymm4, 288(%rdx)
vpshufd $85, %ymm3, %ymm4
vpsllvd %ymm1, %ymm4, %ymm4
vpshufb %ymm2, %ymm4, %ymm4
vpsllw $12, %ymm4, %ymm5
vpsllw $8, %ymm4, %ymm6
vpsllw $4, %ymm4, %ymm7
vpsraw $15, %ymm5, %ymm5
vpsraw $15, %ymm6, %ymm6
vpsraw $15, %ymm7, %ymm7
vpsraw $15, %ymm4, %ymm4
vpand %ymm0, %ymm5, %ymm5
vpand %ymm0, %ymm6, %ymm6
vpand %ymm0, %ymm7, %ymm7
vpand %ymm0, %ymm4, %ymm4
vpunpcklqdq %ymm6, %ymm5, %ymm8
vpunpckhqdq %ymm6, %ymm5, %ymm5
vpunpcklqdq %ymm4, %ymm7, %ymm6
vpunpckhqdq %ymm4, %ymm7, %ymm4
vperm2i128 $32, %ymm6, %ymm8, %ymm7
vperm2i128 $49, %ymm6, %ymm8, %ymm6
vperm2i128 $32, %ymm4, %ymm5, %ymm8
vperm2i128 $49, %ymm4, %ymm5, %ymm4
vmovdqu %ymm7, 64(%rdx)
vmovdqu %ymm8, 96(%rdx)
vmovdqu %ymm6, 320(%rdx)
vmovdqu %ymm4, 352(%rdx)
vpshufd $-86, %ymm3, %ymm4
vpsllvd %ymm1, %ymm4, %ymm4
vpshufb %ymm2, %ymm4, %ymm4
vpsllw $12, %ymm4, %ymm5
vpsllw $8, %ymm4, %ymm6
vpsllw $4, %ymm4, %ymm7
vpsraw $15, %ymm5, %ymm5
vpsraw $15, %ymm6, %ymm6
vpsraw $15, %ymm7, %ymm7
vpsraw $15, %ymm4, %ymm4
vpand %ymm0, %ymm5, %ymm5
vpand %ymm0, %ymm6, %ymm6
vpand %ymm0, %ymm7, %ymm7
vpand %ymm0, %ymm4, %ymm4
vpunpcklqdq %ymm6, %ymm5, %ymm8
vpunpckhqdq %ymm6, %ymm5, %ymm5
vpunpcklqdq %ymm4, %ymm7, %ymm6
vpunpckhqdq %ymm4, %ymm7, %ymm4
vperm2i128 $32, %ymm6, %ymm8, %ymm7
vperm2i128 $49, %ymm6, %ymm8, %ymm6
vperm2i128 $32, %ymm4, %ymm5, %ymm8
vperm2i128 $49, %ymm4, %ymm5, %ymm4
vmovdqu %ymm7, 128(%rdx)
vmovdqu %ymm8, 160(%rdx)
vmovdqu %ymm6, 384(%rdx)
vmovdqu %ymm4, 416(%rdx)
vpshufd $-1, %ymm3, %ymm3
vpsllvd %ymm1, %ymm3, %ymm1
vpshufb %ymm2, %ymm1, %ymm1
vpsllw $12, %ymm1, %ymm2
vpsllw $8, %ymm1, %ymm3
vpsllw $4, %ymm1, %ymm4
vpsraw $15, %ymm2, %ymm2
vpsraw $15, %ymm3, %ymm3
vpsraw $15, %ymm4, %ymm4
vpsraw $15, %ymm1, %ymm1
vpand %ymm0, %ymm2, %ymm2
vpand %ymm0, %ymm3, %ymm3
vpand %ymm0, %ymm4, %ymm4
vpand %ymm0, %ymm1, %ymm0
vpunpcklqdq %ymm3, %ymm2, %ymm1
vpunpckhqdq %ymm3, %ymm2, %ymm2
vpunpcklqdq %ymm0, %ymm4, %ymm3
vpunpckhqdq %ymm0, %ymm4, %ymm0
vperm2i128 $32, %ymm3, %ymm1, %ymm4
vperm2i128 $49, %ymm3, %ymm1, %ymm1
vperm2i128 $32, %ymm0, %ymm2, %ymm3
vperm2i128 $49, %ymm0, %ymm2, %ymm0
vmovdqu %ymm4, 192(%rdx)
vmovdqu %ymm3, 224(%rdx)
vmovdqu %ymm1, 448(%rdx)
vmovdqu %ymm0, 480(%rdx)
jmp *%rsi
L_poly_frommont$1:
leaq glob_data + 448(%rip), %rcx
vmovdqu (%rcx), %ymm0
leaq glob_data + 416(%rip), %rcx
vmovdqu (%rcx), %ymm1
leaq glob_data + 160(%rip), %rcx
vmovdqu (%rcx), %ymm2
vmovdqu (%rax), %ymm3
vpmulhw %ymm2, %ymm3, %ymm4
vpmullw %ymm2, %ymm3, %ymm3
vpmullw %ymm1, %ymm3, %ymm3
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm4, %ymm3
vmovdqu %ymm3, (%rax)
vmovdqu 32(%rax), %ymm3
vpmulhw %ymm2, %ymm3, %ymm4
vpmullw %ymm2, %ymm3, %ymm3
vpmullw %ymm1, %ymm3, %ymm3
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm4, %ymm3
vmovdqu %ymm3, 32(%rax)
vmovdqu 64(%rax), %ymm3
vpmulhw %ymm2, %ymm3, %ymm4
vpmullw %ymm2, %ymm3, %ymm3
vpmullw %ymm1, %ymm3, %ymm3
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm4, %ymm3
vmovdqu %ymm3, 64(%rax)
vmovdqu 96(%rax), %ymm3
vpmulhw %ymm2, %ymm3, %ymm4
vpmullw %ymm2, %ymm3, %ymm3
vpmullw %ymm1, %ymm3, %ymm3
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm4, %ymm3
vmovdqu %ymm3, 96(%rax)
vmovdqu 128(%rax), %ymm3
vpmulhw %ymm2, %ymm3, %ymm4
vpmullw %ymm2, %ymm3, %ymm3
vpmullw %ymm1, %ymm3, %ymm3
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm4, %ymm3
vmovdqu %ymm3, 128(%rax)
vmovdqu 160(%rax), %ymm3
vpmulhw %ymm2, %ymm3, %ymm4
vpmullw %ymm2, %ymm3, %ymm3
vpmullw %ymm1, %ymm3, %ymm3
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm4, %ymm3
vmovdqu %ymm3, 160(%rax)
vmovdqu 192(%rax), %ymm3
vpmulhw %ymm2, %ymm3, %ymm4
vpmullw %ymm2, %ymm3, %ymm3
vpmullw %ymm1, %ymm3, %ymm3
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm4, %ymm3
vmovdqu %ymm3, 192(%rax)
vmovdqu 224(%rax), %ymm3
vpmulhw %ymm2, %ymm3, %ymm4
vpmullw %ymm2, %ymm3, %ymm3
vpmullw %ymm1, %ymm3, %ymm3
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm4, %ymm3
vmovdqu %ymm3, 224(%rax)
vmovdqu 256(%rax), %ymm3
vpmulhw %ymm2, %ymm3, %ymm4
vpmullw %ymm2, %ymm3, %ymm3
vpmullw %ymm1, %ymm3, %ymm3
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm4, %ymm3
vmovdqu %ymm3, 256(%rax)
vmovdqu 288(%rax), %ymm3
vpmulhw %ymm2, %ymm3, %ymm4
vpmullw %ymm2, %ymm3, %ymm3
vpmullw %ymm1, %ymm3, %ymm3
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm4, %ymm3
vmovdqu %ymm3, 288(%rax)
vmovdqu 320(%rax), %ymm3
vpmulhw %ymm2, %ymm3, %ymm4
vpmullw %ymm2, %ymm3, %ymm3
vpmullw %ymm1, %ymm3, %ymm3
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm4, %ymm3
vmovdqu %ymm3, 320(%rax)
vmovdqu 352(%rax), %ymm3
vpmulhw %ymm2, %ymm3, %ymm4
vpmullw %ymm2, %ymm3, %ymm3
vpmullw %ymm1, %ymm3, %ymm3
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm4, %ymm3
vmovdqu %ymm3, 352(%rax)
vmovdqu 384(%rax), %ymm3
vpmulhw %ymm2, %ymm3, %ymm4
vpmullw %ymm2, %ymm3, %ymm3
vpmullw %ymm1, %ymm3, %ymm3
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm4, %ymm3
vmovdqu %ymm3, 384(%rax)
vmovdqu 416(%rax), %ymm3
vpmulhw %ymm2, %ymm3, %ymm4
vpmullw %ymm2, %ymm3, %ymm3
vpmullw %ymm1, %ymm3, %ymm3
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm4, %ymm3
vmovdqu %ymm3, 416(%rax)
vmovdqu 448(%rax), %ymm3
vpmulhw %ymm2, %ymm3, %ymm4
vpmullw %ymm2, %ymm3, %ymm3
vpmullw %ymm1, %ymm3, %ymm3
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm4, %ymm3
vmovdqu %ymm3, 448(%rax)
vmovdqu 480(%rax), %ymm3
vpmulhw %ymm2, %ymm3, %ymm4
vpmullw %ymm2, %ymm3, %ymm2
vpmullw %ymm1, %ymm2, %ymm1
vpmulhw %ymm0, %ymm1, %ymm0
vpsubw %ymm0, %ymm4, %ymm0
vmovdqu %ymm0, 480(%rax)
jmp *%rdx
L_poly_frombytes$1:
leaq glob_data + 288(%rip), %r9
vmovdqu (%r9), %ymm0
vmovdqu (%rdi), %ymm1
vmovdqu 32(%rdi), %ymm2
vmovdqu 64(%rdi), %ymm3
vmovdqu 96(%rdi), %ymm4
vmovdqu 128(%rdi), %ymm5
vmovdqu 160(%rdi), %ymm6
vperm2i128 $32, %ymm4, %ymm1, %ymm7
vperm2i128 $49, %ymm4, %ymm1, %ymm4
vperm2i128 $32, %ymm5, %ymm2, %ymm8
vperm2i128 $49, %ymm5, %ymm2, %ymm1
vperm2i128 $32, %ymm6, %ymm3, %ymm5
vperm2i128 $49, %ymm6, %ymm3, %ymm3
vpunpcklqdq %ymm1, %ymm7, %ymm6
vpunpckhqdq %ymm1, %ymm7, %ymm1
vpunpcklqdq %ymm5, %ymm4, %ymm2
vpunpckhqdq %ymm5, %ymm4, %ymm5
vpunpcklqdq %ymm3, %ymm8, %ymm7
vpunpckhqdq %ymm3, %ymm8, %ymm3
vmovsldup %ymm5, %ymm4
vpblendd $-86, %ymm4, %ymm6, %ymm4
vpsrlq $32, %ymm6, %ymm6
vpblendd $-86, %ymm5, %ymm6, %ymm5
vmovsldup %ymm7, %ymm6
vpblendd $-86, %ymm6, %ymm1, %ymm6
vpsrlq $32, %ymm1, %ymm1
vpblendd $-86, %ymm7, %ymm1, %ymm7
vmovsldup %ymm3, %ymm1
vpblendd $-86, %ymm1, %ymm2, %ymm1
vpsrlq $32, %ymm2, %ymm2
vpblendd $-86, %ymm3, %ymm2, %ymm2
vpslld $16, %ymm7, %ymm3
vpblendw $-86, %ymm3, %ymm4, %ymm3
vpsrld $16, %ymm4, %ymm4
vpblendw $-86, %ymm7, %ymm4, %ymm4
vpslld $16, %ymm1, %ymm7
vpblendw $-86, %ymm7, %ymm5, %ymm7
vpsrld $16, %ymm5, %ymm5
vpblendw $-86, %ymm1, %ymm5, %ymm1
vpslld $16, %ymm2, %ymm5
vpblendw $-86, %ymm5, %ymm6, %ymm5
vpsrld $16, %ymm6, %ymm6
vpblendw $-86, %ymm2, %ymm6, %ymm2
vpsrlw $12, %ymm3, %ymm6
vpsllw $4, %ymm4, %ymm8
vpor %ymm8, %ymm6, %ymm6
vpand %ymm3, %ymm0, %ymm3
vpand %ymm6, %ymm0, %ymm6
vpsrlw $8, %ymm4, %ymm4
vpsllw $8, %ymm7, %ymm8
vpor %ymm8, %ymm4, %ymm4
vpand %ymm4, %ymm0, %ymm4
vpsrlw $4, %ymm7, %ymm7
vpand %ymm7, %ymm0, %ymm7
vpsrlw $12, %ymm1, %ymm8
vpsllw $4, %ymm5, %ymm9
vpor %ymm9, %ymm8, %ymm8
vpand %ymm1, %ymm0, %ymm1
vpand %ymm8, %ymm0, %ymm8
vpsrlw $8, %ymm5, %ymm5
vpsllw $8, %ymm2, %ymm9
vpor %ymm9, %ymm5, %ymm5
vpand %ymm5, %ymm0, %ymm5
vpsrlw $4, %ymm2, %ymm2
vpand %ymm2, %ymm0, %ymm2
vmovdqu %ymm3, (%r8)
vmovdqu %ymm6, 32(%r8)
vmovdqu %ymm4, 64(%r8)
vmovdqu %ymm7, 96(%r8)
vmovdqu %ymm1, 128(%r8)
vmovdqu %ymm8, 160(%r8)
vmovdqu %ymm5, 192(%r8)
vmovdqu %ymm2, 224(%r8)
vmovdqu 192(%rdi), %ymm1
vmovdqu 224(%rdi), %ymm2
vmovdqu 256(%rdi), %ymm3
vmovdqu 288(%rdi), %ymm4
vmovdqu 320(%rdi), %ymm5
vmovdqu 352(%rdi), %ymm6
vperm2i128 $32, %ymm4, %ymm1, %ymm7
vperm2i128 $49, %ymm4, %ymm1, %ymm4
vperm2i128 $32, %ymm5, %ymm2, %ymm8
vperm2i128 $49, %ymm5, %ymm2, %ymm1
vperm2i128 $32, %ymm6, %ymm3, %ymm5
vperm2i128 $49, %ymm6, %ymm3, %ymm3
vpunpcklqdq %ymm1, %ymm7, %ymm6
vpunpckhqdq %ymm1, %ymm7, %ymm1
vpunpcklqdq %ymm5, %ymm4, %ymm2
vpunpckhqdq %ymm5, %ymm4, %ymm5
vpunpcklqdq %ymm3, %ymm8, %ymm7
vpunpckhqdq %ymm3, %ymm8, %ymm3
vmovsldup %ymm5, %ymm4
vpblendd $-86, %ymm4, %ymm6, %ymm4
vpsrlq $32, %ymm6, %ymm6
vpblendd $-86, %ymm5, %ymm6, %ymm5
vmovsldup %ymm7, %ymm6
vpblendd $-86, %ymm6, %ymm1, %ymm6
vpsrlq $32, %ymm1, %ymm1
vpblendd $-86, %ymm7, %ymm1, %ymm7
vmovsldup %ymm3, %ymm1
vpblendd $-86, %ymm1, %ymm2, %ymm1
vpsrlq $32, %ymm2, %ymm2
vpblendd $-86, %ymm3, %ymm2, %ymm2
vpslld $16, %ymm7, %ymm3
vpblendw $-86, %ymm3, %ymm4, %ymm3
vpsrld $16, %ymm4, %ymm4
vpblendw $-86, %ymm7, %ymm4, %ymm4
vpslld $16, %ymm1, %ymm7
vpblendw $-86, %ymm7, %ymm5, %ymm7
vpsrld $16, %ymm5, %ymm5
vpblendw $-86, %ymm1, %ymm5, %ymm1
vpslld $16, %ymm2, %ymm5
vpblendw $-86, %ymm5, %ymm6, %ymm5
vpsrld $16, %ymm6, %ymm6
vpblendw $-86, %ymm2, %ymm6, %ymm2
vpsrlw $12, %ymm3, %ymm6
vpsllw $4, %ymm4, %ymm8
vpor %ymm8, %ymm6, %ymm6
vpand %ymm3, %ymm0, %ymm3
vpand %ymm6, %ymm0, %ymm6
vpsrlw $8, %ymm4, %ymm4
vpsllw $8, %ymm7, %ymm8
vpor %ymm8, %ymm4, %ymm4
vpand %ymm4, %ymm0, %ymm4
vpsrlw $4, %ymm7, %ymm7
vpand %ymm7, %ymm0, %ymm7
vpsrlw $12, %ymm1, %ymm8
vpsllw $4, %ymm5, %ymm9
vpor %ymm9, %ymm8, %ymm8
vpand %ymm1, %ymm0, %ymm1
vpand %ymm8, %ymm0, %ymm8
vpsrlw $8, %ymm5, %ymm5
vpsllw $8, %ymm2, %ymm9
vpor %ymm9, %ymm5, %ymm5
vpand %ymm5, %ymm0, %ymm5
vpsrlw $4, %ymm2, %ymm2
vpand %ymm2, %ymm0, %ymm0
vmovdqu %ymm3, 256(%r8)
vmovdqu %ymm6, 288(%r8)
vmovdqu %ymm4, 320(%r8)
vmovdqu %ymm7, 352(%r8)
vmovdqu %ymm1, 384(%r8)
vmovdqu %ymm8, 416(%r8)
vmovdqu %ymm5, 448(%r8)
vmovdqu %ymm0, 480(%r8)
jmp *%r10
L_poly_decompress$1:
leaq glob_data + 448(%rip), %rdi
vmovdqu (%rdi), %ymm0
leaq glob_data + 96(%rip), %rdi
vmovdqu (%rdi), %ymm1
vpbroadcastd glob_data + 6412(%rip), %ymm2
vpbroadcastd glob_data + 6408(%rip), %ymm3
vpxor %ymm4, %ymm4, %ymm4
movq (%rsi), %xmm4
vmovdqu %xmm4, (%rsp)
vbroadcasti128 (%rsp), %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpand %ymm2, %ymm4, %ymm4
vpmullw %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, (%rcx)
movq 8(%rsi), %xmm4
vmovdqu %xmm4, (%rsp)
vbroadcasti128 (%rsp), %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpand %ymm2, %ymm4, %ymm4
vpmullw %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 32(%rcx)
movq 16(%rsi), %xmm4
vmovdqu %xmm4, (%rsp)
vbroadcasti128 (%rsp), %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpand %ymm2, %ymm4, %ymm4
vpmullw %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 64(%rcx)
movq 24(%rsi), %xmm4
vmovdqu %xmm4, (%rsp)
vbroadcasti128 (%rsp), %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpand %ymm2, %ymm4, %ymm4
vpmullw %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 96(%rcx)
movq 32(%rsi), %xmm4
vmovdqu %xmm4, (%rsp)
vbroadcasti128 (%rsp), %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpand %ymm2, %ymm4, %ymm4
vpmullw %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 128(%rcx)
movq 40(%rsi), %xmm4
vmovdqu %xmm4, (%rsp)
vbroadcasti128 (%rsp), %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpand %ymm2, %ymm4, %ymm4
vpmullw %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 160(%rcx)
movq 48(%rsi), %xmm4
vmovdqu %xmm4, (%rsp)
vbroadcasti128 (%rsp), %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpand %ymm2, %ymm4, %ymm4
vpmullw %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 192(%rcx)
movq 56(%rsi), %xmm4
vmovdqu %xmm4, (%rsp)
vbroadcasti128 (%rsp), %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpand %ymm2, %ymm4, %ymm4
vpmullw %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 224(%rcx)
movq 64(%rsi), %xmm4
vmovdqu %xmm4, (%rsp)
vbroadcasti128 (%rsp), %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpand %ymm2, %ymm4, %ymm4
vpmullw %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 256(%rcx)
movq 72(%rsi), %xmm4
vmovdqu %xmm4, (%rsp)
vbroadcasti128 (%rsp), %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpand %ymm2, %ymm4, %ymm4
vpmullw %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 288(%rcx)
movq 80(%rsi), %xmm4
vmovdqu %xmm4, (%rsp)
vbroadcasti128 (%rsp), %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpand %ymm2, %ymm4, %ymm4
vpmullw %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 320(%rcx)
movq 88(%rsi), %xmm4
vmovdqu %xmm4, (%rsp)
vbroadcasti128 (%rsp), %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpand %ymm2, %ymm4, %ymm4
vpmullw %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 352(%rcx)
movq 96(%rsi), %xmm4
vmovdqu %xmm4, (%rsp)
vbroadcasti128 (%rsp), %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpand %ymm2, %ymm4, %ymm4
vpmullw %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 384(%rcx)
movq 104(%rsi), %xmm4
vmovdqu %xmm4, (%rsp)
vbroadcasti128 (%rsp), %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpand %ymm2, %ymm4, %ymm4
vpmullw %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 416(%rcx)
movq 112(%rsi), %xmm4
vmovdqu %xmm4, (%rsp)
vbroadcasti128 (%rsp), %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpand %ymm2, %ymm4, %ymm4
vpmullw %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 448(%rcx)
movq 120(%rsi), %xmm4
vmovdqu %xmm4, (%rsp)
vbroadcasti128 (%rsp), %ymm4
vpshufb %ymm1, %ymm4, %ymm1
vpand %ymm2, %ymm1, %ymm1
vpmullw %ymm3, %ymm1, %ymm1
vpmulhrsw %ymm0, %ymm1, %ymm0
vmovdqu %ymm0, 480(%rcx)
jmp *%r8
L_poly_compress_1$1:
leaq L_poly_compress_1$2(%rip), %r8
jmp L_poly_csubq$1
L_poly_compress_1$2:
leaq glob_data + 384(%rip), %rdx
vmovdqu (%rdx), %ymm0
vpbroadcastw glob_data + 6428(%rip), %ymm1
vpbroadcastw glob_data + 6426(%rip), %ymm2
vpbroadcastw glob_data + 6424(%rip), %ymm3
vmovdqu glob_data + 128(%rip), %ymm4
vmovdqu (%rcx), %ymm5
vmovdqu 32(%rcx), %ymm6
vmovdqu 64(%rcx), %ymm7
vmovdqu 96(%rcx), %ymm8
vpmulhw %ymm0, %ymm5, %ymm5
vpmulhw %ymm0, %ymm6, %ymm6
vpmulhw %ymm0, %ymm7, %ymm7
vpmulhw %ymm0, %ymm8, %ymm8
vpmulhrsw %ymm1, %ymm5, %ymm5
vpmulhrsw %ymm1, %ymm6, %ymm6
vpmulhrsw %ymm1, %ymm7, %ymm7
vpmulhrsw %ymm1, %ymm8, %ymm8
vpand %ymm2, %ymm5, %ymm5
vpand %ymm2, %ymm6, %ymm6
vpand %ymm2, %ymm7, %ymm7
vpand %ymm2, %ymm8, %ymm8
vpackuswb %ymm6, %ymm5, %ymm5
vpackuswb %ymm8, %ymm7, %ymm6
vpmaddubsw %ymm3, %ymm5, %ymm5
vpmaddubsw %ymm3, %ymm6, %ymm6
vpackuswb %ymm6, %ymm5, %ymm5
vpermd %ymm5, %ymm4, %ymm5
vmovdqu %ymm5, (%rax)
vmovdqu 128(%rcx), %ymm5
vmovdqu 160(%rcx), %ymm6
vmovdqu 192(%rcx), %ymm7
vmovdqu 224(%rcx), %ymm8
vpmulhw %ymm0, %ymm5, %ymm5
vpmulhw %ymm0, %ymm6, %ymm6
vpmulhw %ymm0, %ymm7, %ymm7
vpmulhw %ymm0, %ymm8, %ymm8
vpmulhrsw %ymm1, %ymm5, %ymm5
vpmulhrsw %ymm1, %ymm6, %ymm6
vpmulhrsw %ymm1, %ymm7, %ymm7
vpmulhrsw %ymm1, %ymm8, %ymm8
vpand %ymm2, %ymm5, %ymm5
vpand %ymm2, %ymm6, %ymm6
vpand %ymm2, %ymm7, %ymm7
vpand %ymm2, %ymm8, %ymm8
vpackuswb %ymm6, %ymm5, %ymm5
vpackuswb %ymm8, %ymm7, %ymm6
vpmaddubsw %ymm3, %ymm5, %ymm5
vpmaddubsw %ymm3, %ymm6, %ymm6
vpackuswb %ymm6, %ymm5, %ymm5
vpermd %ymm5, %ymm4, %ymm5
vmovdqu %ymm5, 32(%rax)
vmovdqu 256(%rcx), %ymm5
vmovdqu 288(%rcx), %ymm6
vmovdqu 320(%rcx), %ymm7
vmovdqu 352(%rcx), %ymm8
vpmulhw %ymm0, %ymm5, %ymm5
vpmulhw %ymm0, %ymm6, %ymm6
vpmulhw %ymm0, %ymm7, %ymm7
vpmulhw %ymm0, %ymm8, %ymm8
vpmulhrsw %ymm1, %ymm5, %ymm5
vpmulhrsw %ymm1, %ymm6, %ymm6
vpmulhrsw %ymm1, %ymm7, %ymm7
vpmulhrsw %ymm1, %ymm8, %ymm8
vpand %ymm2, %ymm5, %ymm5
vpand %ymm2, %ymm6, %ymm6
vpand %ymm2, %ymm7, %ymm7
vpand %ymm2, %ymm8, %ymm8
vpackuswb %ymm6, %ymm5, %ymm5
vpackuswb %ymm8, %ymm7, %ymm6
vpmaddubsw %ymm3, %ymm5, %ymm5
vpmaddubsw %ymm3, %ymm6, %ymm6
vpackuswb %ymm6, %ymm5, %ymm5
vpermd %ymm5, %ymm4, %ymm5
vmovdqu %ymm5, 64(%rax)
vmovdqu 384(%rcx), %ymm5
vmovdqu 416(%rcx), %ymm6
vmovdqu 448(%rcx), %ymm7
vmovdqu 480(%rcx), %ymm8
vpmulhw %ymm0, %ymm5, %ymm5
vpmulhw %ymm0, %ymm6, %ymm6
vpmulhw %ymm0, %ymm7, %ymm7
vpmulhw %ymm0, %ymm8, %ymm0
vpmulhrsw %ymm1, %ymm5, %ymm5
vpmulhrsw %ymm1, %ymm6, %ymm6
vpmulhrsw %ymm1, %ymm7, %ymm7
vpmulhrsw %ymm1, %ymm0, %ymm0
vpand %ymm2, %ymm5, %ymm1
vpand %ymm2, %ymm6, %ymm5
vpand %ymm2, %ymm7, %ymm6
vpand %ymm2, %ymm0, %ymm0
vpackuswb %ymm5, %ymm1, %ymm1
vpackuswb %ymm0, %ymm6, %ymm0
vpmaddubsw %ymm3, %ymm1, %ymm1
vpmaddubsw %ymm3, %ymm0, %ymm0
vpackuswb %ymm0, %ymm1, %ymm0
vpermd %ymm0, %ymm4, %ymm0
vmovdqu %ymm0, 96(%rax)
jmp *%rsi
L_poly_compress$1:
leaq L_poly_compress$2(%rip), %r8
jmp L_poly_csubq$1
L_poly_compress$2:
leaq glob_data + 384(%rip), %rdx
vmovdqu (%rdx), %ymm0
vpbroadcastw glob_data + 6428(%rip), %ymm1
vpbroadcastw glob_data + 6426(%rip), %ymm2
vpbroadcastw glob_data + 6424(%rip), %ymm3
vmovdqu glob_data + 128(%rip), %ymm4
vmovdqu (%rcx), %ymm5
vmovdqu 32(%rcx), %ymm6
vmovdqu 64(%rcx), %ymm7
vmovdqu 96(%rcx), %ymm8
vpmulhw %ymm0, %ymm5, %ymm5
vpmulhw %ymm0, %ymm6, %ymm6
vpmulhw %ymm0, %ymm7, %ymm7
vpmulhw %ymm0, %ymm8, %ymm8
vpmulhrsw %ymm1, %ymm5, %ymm5
vpmulhrsw %ymm1, %ymm6, %ymm6
vpmulhrsw %ymm1, %ymm7, %ymm7
vpmulhrsw %ymm1, %ymm8, %ymm8
vpand %ymm2, %ymm5, %ymm5
vpand %ymm2, %ymm6, %ymm6
vpand %ymm2, %ymm7, %ymm7
vpand %ymm2, %ymm8, %ymm8
vpackuswb %ymm6, %ymm5, %ymm5
vpackuswb %ymm8, %ymm7, %ymm6
vpmaddubsw %ymm3, %ymm5, %ymm5
vpmaddubsw %ymm3, %ymm6, %ymm6
vpackuswb %ymm6, %ymm5, %ymm5
vpermd %ymm5, %ymm4, %ymm5
vmovdqu %ymm5, (%rax)
vmovdqu 128(%rcx), %ymm5
vmovdqu 160(%rcx), %ymm6
vmovdqu 192(%rcx), %ymm7
vmovdqu 224(%rcx), %ymm8
vpmulhw %ymm0, %ymm5, %ymm5
vpmulhw %ymm0, %ymm6, %ymm6
vpmulhw %ymm0, %ymm7, %ymm7
vpmulhw %ymm0, %ymm8, %ymm8
vpmulhrsw %ymm1, %ymm5, %ymm5
vpmulhrsw %ymm1, %ymm6, %ymm6
vpmulhrsw %ymm1, %ymm7, %ymm7
vpmulhrsw %ymm1, %ymm8, %ymm8
vpand %ymm2, %ymm5, %ymm5
vpand %ymm2, %ymm6, %ymm6
vpand %ymm2, %ymm7, %ymm7
vpand %ymm2, %ymm8, %ymm8
vpackuswb %ymm6, %ymm5, %ymm5
vpackuswb %ymm8, %ymm7, %ymm6
vpmaddubsw %ymm3, %ymm5, %ymm5
vpmaddubsw %ymm3, %ymm6, %ymm6
vpackuswb %ymm6, %ymm5, %ymm5
vpermd %ymm5, %ymm4, %ymm5
vmovdqu %ymm5, 32(%rax)
vmovdqu 256(%rcx), %ymm5
vmovdqu 288(%rcx), %ymm6
vmovdqu 320(%rcx), %ymm7
vmovdqu 352(%rcx), %ymm8
vpmulhw %ymm0, %ymm5, %ymm5
vpmulhw %ymm0, %ymm6, %ymm6
vpmulhw %ymm0, %ymm7, %ymm7
vpmulhw %ymm0, %ymm8, %ymm8
vpmulhrsw %ymm1, %ymm5, %ymm5
vpmulhrsw %ymm1, %ymm6, %ymm6
vpmulhrsw %ymm1, %ymm7, %ymm7
vpmulhrsw %ymm1, %ymm8, %ymm8
vpand %ymm2, %ymm5, %ymm5
vpand %ymm2, %ymm6, %ymm6
vpand %ymm2, %ymm7, %ymm7
vpand %ymm2, %ymm8, %ymm8
vpackuswb %ymm6, %ymm5, %ymm5
vpackuswb %ymm8, %ymm7, %ymm6
vpmaddubsw %ymm3, %ymm5, %ymm5
vpmaddubsw %ymm3, %ymm6, %ymm6
vpackuswb %ymm6, %ymm5, %ymm5
vpermd %ymm5, %ymm4, %ymm5
vmovdqu %ymm5, 64(%rax)
vmovdqu 384(%rcx), %ymm5
vmovdqu 416(%rcx), %ymm6
vmovdqu 448(%rcx), %ymm7
vmovdqu 480(%rcx), %ymm8
vpmulhw %ymm0, %ymm5, %ymm5
vpmulhw %ymm0, %ymm6, %ymm6
vpmulhw %ymm0, %ymm7, %ymm7
vpmulhw %ymm0, %ymm8, %ymm0
vpmulhrsw %ymm1, %ymm5, %ymm5
vpmulhrsw %ymm1, %ymm6, %ymm6
vpmulhrsw %ymm1, %ymm7, %ymm7
vpmulhrsw %ymm1, %ymm0, %ymm0
vpand %ymm2, %ymm5, %ymm1
vpand %ymm2, %ymm6, %ymm5
vpand %ymm2, %ymm7, %ymm6
vpand %ymm2, %ymm0, %ymm0
vpackuswb %ymm5, %ymm1, %ymm1
vpackuswb %ymm0, %ymm6, %ymm0
vpmaddubsw %ymm3, %ymm1, %ymm1
vpmaddubsw %ymm3, %ymm0, %ymm0
vpackuswb %ymm0, %ymm1, %ymm0
vpermd %ymm0, %ymm4, %ymm0
vmovdqu %ymm0, 96(%rax)
jmp *%rsi
L_poly_basemul$1:
vmovdqu glob_data + 448(%rip), %ymm0
vmovdqu glob_data + 416(%rip), %ymm1
vmovdqu glob_data + 1552(%rip), %ymm2
vmovdqu glob_data + 1584(%rip), %ymm3
vmovdqu (%rsi), %ymm4
vmovdqu 32(%rsi), %ymm5
vmovdqu (%rdi), %ymm6
vmovdqu 32(%rdi), %ymm7
vpmullw %ymm5, %ymm2, %ymm8
vpmulhw %ymm5, %ymm3, %ymm9
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm8, %ymm9, %ymm8
vpmullw %ymm6, %ymm4, %ymm10
vpmulhw %ymm6, %ymm4, %ymm11
vpunpcklwd %ymm11, %ymm10, %ymm9
vpunpckhwd %ymm11, %ymm10, %ymm10
vpmullw %ymm7, %ymm4, %ymm12
vpmulhw %ymm7, %ymm4, %ymm4
vpunpcklwd %ymm4, %ymm12, %ymm11
vpunpckhwd %ymm4, %ymm12, %ymm4
vpmullw %ymm6, %ymm5, %ymm12
vpmulhw %ymm6, %ymm5, %ymm6
vpunpcklwd %ymm6, %ymm12, %ymm5
vpunpckhwd %ymm6, %ymm12, %ymm6
vpmullw %ymm7, %ymm8, %ymm12
vpmulhw %ymm7, %ymm8, %ymm7
vpunpcklwd %ymm7, %ymm12, %ymm8
vpunpckhwd %ymm7, %ymm12, %ymm12
vpaddd %ymm8, %ymm9, %ymm7
vpaddd %ymm12, %ymm10, %ymm8
vpaddd %ymm11, %ymm5, %ymm5
vpaddd %ymm4, %ymm6, %ymm4
vpxor %ymm9, %ymm9, %ymm9
vpblendw $-86, %ymm9, %ymm7, %ymm6
vpblendw $-86, %ymm9, %ymm8, %ymm10
vpackusdw %ymm10, %ymm6, %ymm6
vpsrld $16, %ymm7, %ymm7
vpsrld $16, %ymm8, %ymm8
vpackusdw %ymm8, %ymm7, %ymm7
vpblendw $-86, %ymm9, %ymm5, %ymm8
vpblendw $-86, %ymm9, %ymm4, %ymm9
vpackusdw %ymm9, %ymm8, %ymm8
vpsrld $16, %ymm5, %ymm5
vpsrld $16, %ymm4, %ymm4
vpackusdw %ymm4, %ymm5, %ymm4
vpmullw %ymm1, %ymm6, %ymm5
vpmulhw %ymm0, %ymm5, %ymm5
vpsubw %ymm5, %ymm7, %ymm5
vpmullw %ymm1, %ymm8, %ymm6
vpmulhw %ymm0, %ymm6, %ymm6
vpsubw %ymm6, %ymm4, %ymm4
vmovdqu %ymm5, (%rcx)
vmovdqu %ymm4, 32(%rcx)
vmovdqu 64(%rsi), %ymm4
vmovdqu 96(%rsi), %ymm5
vmovdqu 64(%rdi), %ymm6
vmovdqu 96(%rdi), %ymm7
vpmullw %ymm5, %ymm2, %ymm2
vpmulhw %ymm5, %ymm3, %ymm3
vpmulhw %ymm0, %ymm2, %ymm2
vpsubw %ymm2, %ymm3, %ymm2
vpmullw %ymm6, %ymm4, %ymm8
vpmulhw %ymm6, %ymm4, %ymm9
vpunpcklwd %ymm9, %ymm8, %ymm3
vpunpckhwd %ymm9, %ymm8, %ymm8
vpmullw %ymm7, %ymm4, %ymm9
vpmulhw %ymm7, %ymm4, %ymm10
vpunpcklwd %ymm10, %ymm9, %ymm4
vpunpckhwd %ymm10, %ymm9, %ymm9
vpmullw %ymm6, %ymm5, %ymm10
vpmulhw %ymm6, %ymm5, %ymm6
vpunpcklwd %ymm6, %ymm10, %ymm5
vpunpckhwd %ymm6, %ymm10, %ymm6
vpmullw %ymm7, %ymm2, %ymm10
vpmulhw %ymm7, %ymm2, %ymm2
vpunpcklwd %ymm2, %ymm10, %ymm7
vpunpckhwd %ymm2, %ymm10, %ymm2
vpsubd %ymm7, %ymm3, %ymm7
vpsubd %ymm2, %ymm8, %ymm8
vpaddd %ymm4, %ymm5, %ymm2
vpaddd %ymm9, %ymm6, %ymm3
vpxor %ymm5, %ymm5, %ymm5
vpblendw $-86, %ymm5, %ymm7, %ymm4
vpblendw $-86, %ymm5, %ymm8, %ymm6
vpackusdw %ymm6, %ymm4, %ymm4
vpsrld $16, %ymm7, %ymm6
vpsrld $16, %ymm8, %ymm7
vpackusdw %ymm7, %ymm6, %ymm6
vpblendw $-86, %ymm5, %ymm2, %ymm7
vpblendw $-86, %ymm5, %ymm3, %ymm5
vpackusdw %ymm5, %ymm7, %ymm5
vpsrld $16, %ymm2, %ymm2
vpsrld $16, %ymm3, %ymm3
vpackusdw %ymm3, %ymm2, %ymm2
vpmullw %ymm1, %ymm4, %ymm3
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm6, %ymm3
vpmullw %ymm1, %ymm5, %ymm4
vpmulhw %ymm0, %ymm4, %ymm4
vpsubw %ymm4, %ymm2, %ymm2
vmovdqu %ymm3, 64(%rcx)
vmovdqu %ymm2, 96(%rcx)
vmovdqu glob_data + 1616(%rip), %ymm2
vmovdqu glob_data + 1648(%rip), %ymm3
vmovdqu 128(%rsi), %ymm4
vmovdqu 160(%rsi), %ymm5
vmovdqu 128(%rdi), %ymm6
vmovdqu 160(%rdi), %ymm7
vpmullw %ymm5, %ymm2, %ymm8
vpmulhw %ymm5, %ymm3, %ymm9
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm8, %ymm9, %ymm8
vpmullw %ymm6, %ymm4, %ymm10
vpmulhw %ymm6, %ymm4, %ymm11
vpunpcklwd %ymm11, %ymm10, %ymm9
vpunpckhwd %ymm11, %ymm10, %ymm10
vpmullw %ymm7, %ymm4, %ymm12
vpmulhw %ymm7, %ymm4, %ymm4
vpunpcklwd %ymm4, %ymm12, %ymm11
vpunpckhwd %ymm4, %ymm12, %ymm4
vpmullw %ymm6, %ymm5, %ymm12
vpmulhw %ymm6, %ymm5, %ymm6
vpunpcklwd %ymm6, %ymm12, %ymm5
vpunpckhwd %ymm6, %ymm12, %ymm6
vpmullw %ymm7, %ymm8, %ymm12
vpmulhw %ymm7, %ymm8, %ymm7
vpunpcklwd %ymm7, %ymm12, %ymm8
vpunpckhwd %ymm7, %ymm12, %ymm12
vpaddd %ymm8, %ymm9, %ymm7
vpaddd %ymm12, %ymm10, %ymm8
vpaddd %ymm11, %ymm5, %ymm5
vpaddd %ymm4, %ymm6, %ymm4
vpxor %ymm9, %ymm9, %ymm9
vpblendw $-86, %ymm9, %ymm7, %ymm6
vpblendw $-86, %ymm9, %ymm8, %ymm10
vpackusdw %ymm10, %ymm6, %ymm6
vpsrld $16, %ymm7, %ymm7
vpsrld $16, %ymm8, %ymm8
vpackusdw %ymm8, %ymm7, %ymm7
vpblendw $-86, %ymm9, %ymm5, %ymm8
vpblendw $-86, %ymm9, %ymm4, %ymm9
vpackusdw %ymm9, %ymm8, %ymm8
vpsrld $16, %ymm5, %ymm5
vpsrld $16, %ymm4, %ymm4
vpackusdw %ymm4, %ymm5, %ymm4
vpmullw %ymm1, %ymm6, %ymm5
vpmulhw %ymm0, %ymm5, %ymm5
vpsubw %ymm5, %ymm7, %ymm5
vpmullw %ymm1, %ymm8, %ymm6
vpmulhw %ymm0, %ymm6, %ymm6
vpsubw %ymm6, %ymm4, %ymm4
vmovdqu %ymm5, 128(%rcx)
vmovdqu %ymm4, 160(%rcx)
vmovdqu 192(%rsi), %ymm4
vmovdqu 224(%rsi), %ymm5
vmovdqu 192(%rdi), %ymm6
vmovdqu 224(%rdi), %ymm7
vpmullw %ymm5, %ymm2, %ymm2
vpmulhw %ymm5, %ymm3, %ymm3
vpmulhw %ymm0, %ymm2, %ymm2
vpsubw %ymm2, %ymm3, %ymm2
vpmullw %ymm6, %ymm4, %ymm8
vpmulhw %ymm6, %ymm4, %ymm9
vpunpcklwd %ymm9, %ymm8, %ymm3
vpunpckhwd %ymm9, %ymm8, %ymm8
vpmullw %ymm7, %ymm4, %ymm9
vpmulhw %ymm7, %ymm4, %ymm10
vpunpcklwd %ymm10, %ymm9, %ymm4
vpunpckhwd %ymm10, %ymm9, %ymm9
vpmullw %ymm6, %ymm5, %ymm10
vpmulhw %ymm6, %ymm5, %ymm6
vpunpcklwd %ymm6, %ymm10, %ymm5
vpunpckhwd %ymm6, %ymm10, %ymm6
vpmullw %ymm7, %ymm2, %ymm10
vpmulhw %ymm7, %ymm2, %ymm2
vpunpcklwd %ymm2, %ymm10, %ymm7
vpunpckhwd %ymm2, %ymm10, %ymm2
vpsubd %ymm7, %ymm3, %ymm7
vpsubd %ymm2, %ymm8, %ymm8
vpaddd %ymm4, %ymm5, %ymm2
vpaddd %ymm9, %ymm6, %ymm3
vpxor %ymm5, %ymm5, %ymm5
vpblendw $-86, %ymm5, %ymm7, %ymm4
vpblendw $-86, %ymm5, %ymm8, %ymm6
vpackusdw %ymm6, %ymm4, %ymm4
vpsrld $16, %ymm7, %ymm6
vpsrld $16, %ymm8, %ymm7
vpackusdw %ymm7, %ymm6, %ymm6
vpblendw $-86, %ymm5, %ymm2, %ymm7
vpblendw $-86, %ymm5, %ymm3, %ymm5
vpackusdw %ymm5, %ymm7, %ymm5
vpsrld $16, %ymm2, %ymm2
vpsrld $16, %ymm3, %ymm3
vpackusdw %ymm3, %ymm2, %ymm2
vpmullw %ymm1, %ymm4, %ymm3
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm6, %ymm3
vpmullw %ymm1, %ymm5, %ymm4
vpmulhw %ymm0, %ymm4, %ymm4
vpsubw %ymm4, %ymm2, %ymm2
vmovdqu %ymm3, 192(%rcx)
vmovdqu %ymm2, 224(%rcx)
vmovdqu glob_data + 1944(%rip), %ymm2
vmovdqu glob_data + 1976(%rip), %ymm3
vmovdqu 256(%rsi), %ymm4
vmovdqu 288(%rsi), %ymm5
vmovdqu 256(%rdi), %ymm6
vmovdqu 288(%rdi), %ymm7
vpmullw %ymm5, %ymm2, %ymm8
vpmulhw %ymm5, %ymm3, %ymm9
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm8, %ymm9, %ymm8
vpmullw %ymm6, %ymm4, %ymm10
vpmulhw %ymm6, %ymm4, %ymm11
vpunpcklwd %ymm11, %ymm10, %ymm9
vpunpckhwd %ymm11, %ymm10, %ymm10
vpmullw %ymm7, %ymm4, %ymm12
vpmulhw %ymm7, %ymm4, %ymm4
vpunpcklwd %ymm4, %ymm12, %ymm11
vpunpckhwd %ymm4, %ymm12, %ymm4
vpmullw %ymm6, %ymm5, %ymm12
vpmulhw %ymm6, %ymm5, %ymm6
vpunpcklwd %ymm6, %ymm12, %ymm5
vpunpckhwd %ymm6, %ymm12, %ymm6
vpmullw %ymm7, %ymm8, %ymm12
vpmulhw %ymm7, %ymm8, %ymm7
vpunpcklwd %ymm7, %ymm12, %ymm8
vpunpckhwd %ymm7, %ymm12, %ymm12
vpaddd %ymm8, %ymm9, %ymm7
vpaddd %ymm12, %ymm10, %ymm8
vpaddd %ymm11, %ymm5, %ymm5
vpaddd %ymm4, %ymm6, %ymm4
vpxor %ymm9, %ymm9, %ymm9
vpblendw $-86, %ymm9, %ymm7, %ymm6
vpblendw $-86, %ymm9, %ymm8, %ymm10
vpackusdw %ymm10, %ymm6, %ymm6
vpsrld $16, %ymm7, %ymm7
vpsrld $16, %ymm8, %ymm8
vpackusdw %ymm8, %ymm7, %ymm7
vpblendw $-86, %ymm9, %ymm5, %ymm8
vpblendw $-86, %ymm9, %ymm4, %ymm9
vpackusdw %ymm9, %ymm8, %ymm8
vpsrld $16, %ymm5, %ymm5
vpsrld $16, %ymm4, %ymm4
vpackusdw %ymm4, %ymm5, %ymm4
vpmullw %ymm1, %ymm6, %ymm5
vpmulhw %ymm0, %ymm5, %ymm5
vpsubw %ymm5, %ymm7, %ymm5
vpmullw %ymm1, %ymm8, %ymm6
vpmulhw %ymm0, %ymm6, %ymm6
vpsubw %ymm6, %ymm4, %ymm4
vmovdqu %ymm5, 256(%rcx)
vmovdqu %ymm4, 288(%rcx)
vmovdqu 320(%rsi), %ymm4
vmovdqu 352(%rsi), %ymm5
vmovdqu 320(%rdi), %ymm6
vmovdqu 352(%rdi), %ymm7
vpmullw %ymm5, %ymm2, %ymm2
vpmulhw %ymm5, %ymm3, %ymm3
vpmulhw %ymm0, %ymm2, %ymm2
vpsubw %ymm2, %ymm3, %ymm2
vpmullw %ymm6, %ymm4, %ymm8
vpmulhw %ymm6, %ymm4, %ymm9
vpunpcklwd %ymm9, %ymm8, %ymm3
vpunpckhwd %ymm9, %ymm8, %ymm8
vpmullw %ymm7, %ymm4, %ymm9
vpmulhw %ymm7, %ymm4, %ymm10
vpunpcklwd %ymm10, %ymm9, %ymm4
vpunpckhwd %ymm10, %ymm9, %ymm9
vpmullw %ymm6, %ymm5, %ymm10
vpmulhw %ymm6, %ymm5, %ymm6
vpunpcklwd %ymm6, %ymm10, %ymm5
vpunpckhwd %ymm6, %ymm10, %ymm6
vpmullw %ymm7, %ymm2, %ymm10
vpmulhw %ymm7, %ymm2, %ymm2
vpunpcklwd %ymm2, %ymm10, %ymm7
vpunpckhwd %ymm2, %ymm10, %ymm2
vpsubd %ymm7, %ymm3, %ymm7
vpsubd %ymm2, %ymm8, %ymm8
vpaddd %ymm4, %ymm5, %ymm2
vpaddd %ymm9, %ymm6, %ymm3
vpxor %ymm5, %ymm5, %ymm5
vpblendw $-86, %ymm5, %ymm7, %ymm4
vpblendw $-86, %ymm5, %ymm8, %ymm6
vpackusdw %ymm6, %ymm4, %ymm4
vpsrld $16, %ymm7, %ymm6
vpsrld $16, %ymm8, %ymm7
vpackusdw %ymm7, %ymm6, %ymm6
vpblendw $-86, %ymm5, %ymm2, %ymm7
vpblendw $-86, %ymm5, %ymm3, %ymm5
vpackusdw %ymm5, %ymm7, %ymm5
vpsrld $16, %ymm2, %ymm2
vpsrld $16, %ymm3, %ymm3
vpackusdw %ymm3, %ymm2, %ymm2
vpmullw %ymm1, %ymm4, %ymm3
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm6, %ymm3
vpmullw %ymm1, %ymm5, %ymm4
vpmulhw %ymm0, %ymm4, %ymm4
vpsubw %ymm4, %ymm2, %ymm2
vmovdqu %ymm3, 320(%rcx)
vmovdqu %ymm2, 352(%rcx)
vmovdqu glob_data + 2008(%rip), %ymm2
vmovdqu glob_data + 2040(%rip), %ymm3
vmovdqu 384(%rsi), %ymm4
vmovdqu 416(%rsi), %ymm5
vmovdqu 384(%rdi), %ymm6
vmovdqu 416(%rdi), %ymm7
vpmullw %ymm5, %ymm2, %ymm8
vpmulhw %ymm5, %ymm3, %ymm9
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm8, %ymm9, %ymm8
vpmullw %ymm6, %ymm4, %ymm10
vpmulhw %ymm6, %ymm4, %ymm11
vpunpcklwd %ymm11, %ymm10, %ymm9
vpunpckhwd %ymm11, %ymm10, %ymm10
vpmullw %ymm7, %ymm4, %ymm12
vpmulhw %ymm7, %ymm4, %ymm4
vpunpcklwd %ymm4, %ymm12, %ymm11
vpunpckhwd %ymm4, %ymm12, %ymm4
vpmullw %ymm6, %ymm5, %ymm12
vpmulhw %ymm6, %ymm5, %ymm6
vpunpcklwd %ymm6, %ymm12, %ymm5
vpunpckhwd %ymm6, %ymm12, %ymm6
vpmullw %ymm7, %ymm8, %ymm12
vpmulhw %ymm7, %ymm8, %ymm7
vpunpcklwd %ymm7, %ymm12, %ymm8
vpunpckhwd %ymm7, %ymm12, %ymm12
vpaddd %ymm8, %ymm9, %ymm7
vpaddd %ymm12, %ymm10, %ymm8
vpaddd %ymm11, %ymm5, %ymm5
vpaddd %ymm4, %ymm6, %ymm4
vpxor %ymm9, %ymm9, %ymm9
vpblendw $-86, %ymm9, %ymm7, %ymm6
vpblendw $-86, %ymm9, %ymm8, %ymm10
vpackusdw %ymm10, %ymm6, %ymm6
vpsrld $16, %ymm7, %ymm7
vpsrld $16, %ymm8, %ymm8
vpackusdw %ymm8, %ymm7, %ymm7
vpblendw $-86, %ymm9, %ymm5, %ymm8
vpblendw $-86, %ymm9, %ymm4, %ymm9
vpackusdw %ymm9, %ymm8, %ymm8
vpsrld $16, %ymm5, %ymm5
vpsrld $16, %ymm4, %ymm4
vpackusdw %ymm4, %ymm5, %ymm4
vpmullw %ymm1, %ymm6, %ymm5
vpmulhw %ymm0, %ymm5, %ymm5
vpsubw %ymm5, %ymm7, %ymm5
vpmullw %ymm1, %ymm8, %ymm6
vpmulhw %ymm0, %ymm6, %ymm6
vpsubw %ymm6, %ymm4, %ymm4
vmovdqu %ymm5, 384(%rcx)
vmovdqu %ymm4, 416(%rcx)
vmovdqu 448(%rsi), %ymm4
vmovdqu 480(%rsi), %ymm5
vmovdqu 448(%rdi), %ymm6
vmovdqu 480(%rdi), %ymm7
vpmullw %ymm5, %ymm2, %ymm2
vpmulhw %ymm5, %ymm3, %ymm3
vpmulhw %ymm0, %ymm2, %ymm2
vpsubw %ymm2, %ymm3, %ymm2
vpmullw %ymm6, %ymm4, %ymm8
vpmulhw %ymm6, %ymm4, %ymm9
vpunpcklwd %ymm9, %ymm8, %ymm3
vpunpckhwd %ymm9, %ymm8, %ymm8
vpmullw %ymm7, %ymm4, %ymm9
vpmulhw %ymm7, %ymm4, %ymm10
vpunpcklwd %ymm10, %ymm9, %ymm4
vpunpckhwd %ymm10, %ymm9, %ymm9
vpmullw %ymm6, %ymm5, %ymm10
vpmulhw %ymm6, %ymm5, %ymm6
vpunpcklwd %ymm6, %ymm10, %ymm5
vpunpckhwd %ymm6, %ymm10, %ymm6
vpmullw %ymm7, %ymm2, %ymm10
vpmulhw %ymm7, %ymm2, %ymm2
vpunpcklwd %ymm2, %ymm10, %ymm7
vpunpckhwd %ymm2, %ymm10, %ymm2
vpsubd %ymm7, %ymm3, %ymm7
vpsubd %ymm2, %ymm8, %ymm8
vpaddd %ymm4, %ymm5, %ymm2
vpaddd %ymm9, %ymm6, %ymm3
vpxor %ymm5, %ymm5, %ymm5
vpblendw $-86, %ymm5, %ymm7, %ymm4
vpblendw $-86, %ymm5, %ymm8, %ymm6
vpackusdw %ymm6, %ymm4, %ymm4
vpsrld $16, %ymm7, %ymm6
vpsrld $16, %ymm8, %ymm7
vpackusdw %ymm7, %ymm6, %ymm6
vpblendw $-86, %ymm5, %ymm2, %ymm7
vpblendw $-86, %ymm5, %ymm3, %ymm5
vpackusdw %ymm5, %ymm7, %ymm5
vpsrld $16, %ymm2, %ymm2
vpsrld $16, %ymm3, %ymm3
vpackusdw %ymm3, %ymm2, %ymm2
vpmullw %ymm1, %ymm4, %ymm3
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm6, %ymm3
vpmullw %ymm1, %ymm5, %ymm1
vpmulhw %ymm0, %ymm1, %ymm0
vpsubw %ymm0, %ymm2, %ymm0
vmovdqu %ymm3, 448(%rcx)
vmovdqu %ymm0, 480(%rcx)
jmp *%r8
L_poly_csubq$1:
vmovdqu glob_data + 448(%rip), %ymm0
vmovdqu (%rcx), %ymm1
vpsubw %ymm0, %ymm1, %ymm1
vpsraw $15, %ymm1, %ymm2
vpand %ymm0, %ymm2, %ymm2
vpaddw %ymm1, %ymm2, %ymm1
vmovdqu %ymm1, (%rcx)
vmovdqu 32(%rcx), %ymm1
vpsubw %ymm0, %ymm1, %ymm1
vpsraw $15, %ymm1, %ymm2
vpand %ymm0, %ymm2, %ymm2
vpaddw %ymm1, %ymm2, %ymm1
vmovdqu %ymm1, 32(%rcx)
vmovdqu 64(%rcx), %ymm1
vpsubw %ymm0, %ymm1, %ymm1
vpsraw $15, %ymm1, %ymm2
vpand %ymm0, %ymm2, %ymm2
vpaddw %ymm1, %ymm2, %ymm1
vmovdqu %ymm1, 64(%rcx)
vmovdqu 96(%rcx), %ymm1
vpsubw %ymm0, %ymm1, %ymm1
vpsraw $15, %ymm1, %ymm2
vpand %ymm0, %ymm2, %ymm2
vpaddw %ymm1, %ymm2, %ymm1
vmovdqu %ymm1, 96(%rcx)
vmovdqu 128(%rcx), %ymm1
vpsubw %ymm0, %ymm1, %ymm1
vpsraw $15, %ymm1, %ymm2
vpand %ymm0, %ymm2, %ymm2
vpaddw %ymm1, %ymm2, %ymm1
vmovdqu %ymm1, 128(%rcx)
vmovdqu 160(%rcx), %ymm1
vpsubw %ymm0, %ymm1, %ymm1
vpsraw $15, %ymm1, %ymm2
vpand %ymm0, %ymm2, %ymm2
vpaddw %ymm1, %ymm2, %ymm1
vmovdqu %ymm1, 160(%rcx)
vmovdqu 192(%rcx), %ymm1
vpsubw %ymm0, %ymm1, %ymm1
vpsraw $15, %ymm1, %ymm2
vpand %ymm0, %ymm2, %ymm2
vpaddw %ymm1, %ymm2, %ymm1
vmovdqu %ymm1, 192(%rcx)
vmovdqu 224(%rcx), %ymm1
vpsubw %ymm0, %ymm1, %ymm1
vpsraw $15, %ymm1, %ymm2
vpand %ymm0, %ymm2, %ymm2
vpaddw %ymm1, %ymm2, %ymm1
vmovdqu %ymm1, 224(%rcx)
vmovdqu 256(%rcx), %ymm1
vpsubw %ymm0, %ymm1, %ymm1
vpsraw $15, %ymm1, %ymm2
vpand %ymm0, %ymm2, %ymm2
vpaddw %ymm1, %ymm2, %ymm1
vmovdqu %ymm1, 256(%rcx)
vmovdqu 288(%rcx), %ymm1
vpsubw %ymm0, %ymm1, %ymm1
vpsraw $15, %ymm1, %ymm2
vpand %ymm0, %ymm2, %ymm2
vpaddw %ymm1, %ymm2, %ymm1
vmovdqu %ymm1, 288(%rcx)
vmovdqu 320(%rcx), %ymm1
vpsubw %ymm0, %ymm1, %ymm1
vpsraw $15, %ymm1, %ymm2
vpand %ymm0, %ymm2, %ymm2
vpaddw %ymm1, %ymm2, %ymm1
vmovdqu %ymm1, 320(%rcx)
vmovdqu 352(%rcx), %ymm1
vpsubw %ymm0, %ymm1, %ymm1
vpsraw $15, %ymm1, %ymm2
vpand %ymm0, %ymm2, %ymm2
vpaddw %ymm1, %ymm2, %ymm1
vmovdqu %ymm1, 352(%rcx)
vmovdqu 384(%rcx), %ymm1
vpsubw %ymm0, %ymm1, %ymm1
vpsraw $15, %ymm1, %ymm2
vpand %ymm0, %ymm2, %ymm2
vpaddw %ymm1, %ymm2, %ymm1
vmovdqu %ymm1, 384(%rcx)
vmovdqu 416(%rcx), %ymm1
vpsubw %ymm0, %ymm1, %ymm1
vpsraw $15, %ymm1, %ymm2
vpand %ymm0, %ymm2, %ymm2
vpaddw %ymm1, %ymm2, %ymm1
vmovdqu %ymm1, 416(%rcx)
vmovdqu 448(%rcx), %ymm1
vpsubw %ymm0, %ymm1, %ymm1
vpsraw $15, %ymm1, %ymm2
vpand %ymm0, %ymm2, %ymm2
vpaddw %ymm1, %ymm2, %ymm1
vmovdqu %ymm1, 448(%rcx)
vmovdqu 480(%rcx), %ymm1
vpsubw %ymm0, %ymm1, %ymm1
vpsraw $15, %ymm1, %ymm2
vpand %ymm0, %ymm2, %ymm0
vpaddw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 480(%rcx)
jmp *%r8
L_poly_add2$1:
vmovdqu (%rcx), %ymm0
vmovdqu (%rsi), %ymm1
vpaddw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, (%rcx)
vmovdqu 32(%rcx), %ymm0
vmovdqu 32(%rsi), %ymm1
vpaddw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 32(%rcx)
vmovdqu 64(%rcx), %ymm0
vmovdqu 64(%rsi), %ymm1
vpaddw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 64(%rcx)
vmovdqu 96(%rcx), %ymm0
vmovdqu 96(%rsi), %ymm1
vpaddw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 96(%rcx)
vmovdqu 128(%rcx), %ymm0
vmovdqu 128(%rsi), %ymm1
vpaddw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 128(%rcx)
vmovdqu 160(%rcx), %ymm0
vmovdqu 160(%rsi), %ymm1
vpaddw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 160(%rcx)
vmovdqu 192(%rcx), %ymm0
vmovdqu 192(%rsi), %ymm1
vpaddw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 192(%rcx)
vmovdqu 224(%rcx), %ymm0
vmovdqu 224(%rsi), %ymm1
vpaddw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 224(%rcx)
vmovdqu 256(%rcx), %ymm0
vmovdqu 256(%rsi), %ymm1
vpaddw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 256(%rcx)
vmovdqu 288(%rcx), %ymm0
vmovdqu 288(%rsi), %ymm1
vpaddw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 288(%rcx)
vmovdqu 320(%rcx), %ymm0
vmovdqu 320(%rsi), %ymm1
vpaddw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 320(%rcx)
vmovdqu 352(%rcx), %ymm0
vmovdqu 352(%rsi), %ymm1
vpaddw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 352(%rcx)
vmovdqu 384(%rcx), %ymm0
vmovdqu 384(%rsi), %ymm1
vpaddw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 384(%rcx)
vmovdqu 416(%rcx), %ymm0
vmovdqu 416(%rsi), %ymm1
vpaddw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 416(%rcx)
vmovdqu 448(%rcx), %ymm0
vmovdqu 448(%rsi), %ymm1
vpaddw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 448(%rcx)
vmovdqu 480(%rcx), %ymm0
vmovdqu 480(%rsi), %ymm1
vpaddw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 480(%rcx)
jmp *%rdi
L_nttunpack$1:
vmovdqu (%rax), %ymm1
vmovdqu 32(%rax), %ymm3
vmovdqu 64(%rax), %ymm4
vmovdqu 96(%rax), %ymm5
vmovdqu 128(%rax), %ymm2
vmovdqu 160(%rax), %ymm6
vmovdqu 192(%rax), %ymm7
vmovdqu 224(%rax), %ymm8
vperm2i128 $32, %ymm2, %ymm1, %ymm0
vperm2i128 $49, %ymm2, %ymm1, %ymm1
vperm2i128 $32, %ymm6, %ymm3, %ymm2
vperm2i128 $49, %ymm6, %ymm3, %ymm3
vperm2i128 $32, %ymm7, %ymm4, %ymm6
vperm2i128 $49, %ymm7, %ymm4, %ymm7
vperm2i128 $32, %ymm8, %ymm5, %ymm9
vperm2i128 $49, %ymm8, %ymm5, %ymm10
vpunpcklqdq %ymm6, %ymm0, %ymm4
vpunpckhqdq %ymm6, %ymm0, %ymm5
vpunpcklqdq %ymm7, %ymm1, %ymm6
vpunpckhqdq %ymm7, %ymm1, %ymm7
vpunpcklqdq %ymm9, %ymm2, %ymm0
vpunpckhqdq %ymm9, %ymm2, %ymm2
vpunpcklqdq %ymm10, %ymm3, %ymm8
vpunpckhqdq %ymm10, %ymm3, %ymm3
vmovsldup %ymm0, %ymm1
vpblendd $-86, %ymm1, %ymm4, %ymm9
vpsrlq $32, %ymm4, %ymm1
vpblendd $-86, %ymm0, %ymm1, %ymm0
vmovsldup %ymm2, %ymm1
vpblendd $-86, %ymm1, %ymm5, %ymm1
vpsrlq $32, %ymm5, %ymm4
vpblendd $-86, %ymm2, %ymm4, %ymm2
vmovsldup %ymm8, %ymm4
vpblendd $-86, %ymm4, %ymm6, %ymm4
vpsrlq $32, %ymm6, %ymm5
vpblendd $-86, %ymm8, %ymm5, %ymm5
vmovsldup %ymm3, %ymm6
vpblendd $-86, %ymm6, %ymm7, %ymm6
vpsrlq $32, %ymm7, %ymm7
vpblendd $-86, %ymm3, %ymm7, %ymm3
vpslld $16, %ymm4, %ymm7
vpblendw $-86, %ymm7, %ymm9, %ymm7
vpsrld $16, %ymm9, %ymm8
vpblendw $-86, %ymm4, %ymm8, %ymm4
vpslld $16, %ymm5, %ymm8
vpblendw $-86, %ymm8, %ymm0, %ymm8
vpsrld $16, %ymm0, %ymm0
vpblendw $-86, %ymm5, %ymm0, %ymm0
vpslld $16, %ymm6, %ymm5
vpblendw $-86, %ymm5, %ymm1, %ymm5
vpsrld $16, %ymm1, %ymm1
vpblendw $-86, %ymm6, %ymm1, %ymm1
vpslld $16, %ymm3, %ymm6
vpblendw $-86, %ymm6, %ymm2, %ymm6
vpsrld $16, %ymm2, %ymm2
vpblendw $-86, %ymm3, %ymm2, %ymm2
vmovdqu %ymm7, (%rax)
vmovdqu %ymm4, 32(%rax)
vmovdqu %ymm8, 64(%rax)
vmovdqu %ymm0, 96(%rax)
vmovdqu %ymm5, 128(%rax)
vmovdqu %ymm1, 160(%rax)
vmovdqu %ymm6, 192(%rax)
vmovdqu %ymm2, 224(%rax)
vmovdqu 256(%rax), %ymm1
vmovdqu 288(%rax), %ymm3
vmovdqu 320(%rax), %ymm4
vmovdqu 352(%rax), %ymm5
vmovdqu 384(%rax), %ymm2
vmovdqu 416(%rax), %ymm6
vmovdqu 448(%rax), %ymm7
vmovdqu 480(%rax), %ymm8
vperm2i128 $32, %ymm2, %ymm1, %ymm0
vperm2i128 $49, %ymm2, %ymm1, %ymm1
vperm2i128 $32, %ymm6, %ymm3, %ymm2
vperm2i128 $49, %ymm6, %ymm3, %ymm3
vperm2i128 $32, %ymm7, %ymm4, %ymm6
vperm2i128 $49, %ymm7, %ymm4, %ymm7
vperm2i128 $32, %ymm8, %ymm5, %ymm9
vperm2i128 $49, %ymm8, %ymm5, %ymm10
vpunpcklqdq %ymm6, %ymm0, %ymm4
vpunpckhqdq %ymm6, %ymm0, %ymm5
vpunpcklqdq %ymm7, %ymm1, %ymm6
vpunpckhqdq %ymm7, %ymm1, %ymm7
vpunpcklqdq %ymm9, %ymm2, %ymm0
vpunpckhqdq %ymm9, %ymm2, %ymm2
vpunpcklqdq %ymm10, %ymm3, %ymm8
vpunpckhqdq %ymm10, %ymm3, %ymm3
vmovsldup %ymm0, %ymm1
vpblendd $-86, %ymm1, %ymm4, %ymm9
vpsrlq $32, %ymm4, %ymm1
vpblendd $-86, %ymm0, %ymm1, %ymm0
vmovsldup %ymm2, %ymm1
vpblendd $-86, %ymm1, %ymm5, %ymm1
vpsrlq $32, %ymm5, %ymm4
vpblendd $-86, %ymm2, %ymm4, %ymm2
vmovsldup %ymm8, %ymm4
vpblendd $-86, %ymm4, %ymm6, %ymm4
vpsrlq $32, %ymm6, %ymm5
vpblendd $-86, %ymm8, %ymm5, %ymm5
vmovsldup %ymm3, %ymm6
vpblendd $-86, %ymm6, %ymm7, %ymm6
vpsrlq $32, %ymm7, %ymm7
vpblendd $-86, %ymm3, %ymm7, %ymm3
vpslld $16, %ymm4, %ymm7
vpblendw $-86, %ymm7, %ymm9, %ymm7
vpsrld $16, %ymm9, %ymm8
vpblendw $-86, %ymm4, %ymm8, %ymm4
vpslld $16, %ymm5, %ymm8
vpblendw $-86, %ymm8, %ymm0, %ymm8
vpsrld $16, %ymm0, %ymm0
vpblendw $-86, %ymm5, %ymm0, %ymm0
vpslld $16, %ymm6, %ymm5
vpblendw $-86, %ymm5, %ymm1, %ymm5
vpsrld $16, %ymm1, %ymm1
vpblendw $-86, %ymm6, %ymm1, %ymm1
vpslld $16, %ymm3, %ymm6
vpblendw $-86, %ymm6, %ymm2, %ymm6
vpsrld $16, %ymm2, %ymm2
vpblendw $-86, %ymm3, %ymm2, %ymm2
vmovdqu %ymm7, 256(%rax)
vmovdqu %ymm4, 288(%rax)
vmovdqu %ymm8, 320(%rax)
vmovdqu %ymm0, 352(%rax)
vmovdqu %ymm5, 384(%rax)
vmovdqu %ymm1, 416(%rax)
vmovdqu %ymm6, 448(%rax)
vmovdqu %ymm2, 480(%rax)
jmp *%rcx
L_nttpack$1:
vmovdqu (%rax), %ymm0
vmovdqu 32(%rax), %ymm1
vmovdqu 64(%rax), %ymm8
vmovdqu 96(%rax), %ymm9
vmovdqu 128(%rax), %ymm2
vmovdqu 160(%rax), %ymm3
vmovdqu 192(%rax), %ymm4
vmovdqu 224(%rax), %ymm5
vpslld $16, %ymm1, %ymm6
vpblendw $-86, %ymm6, %ymm0, %ymm6
vpsrld $16, %ymm0, %ymm0
vpblendw $-86, %ymm1, %ymm0, %ymm0
vpslld $16, %ymm9, %ymm1
vpblendw $-86, %ymm1, %ymm8, %ymm7
vpsrld $16, %ymm8, %ymm1
vpblendw $-86, %ymm9, %ymm1, %ymm1
vpslld $16, %ymm3, %ymm8
vpblendw $-86, %ymm8, %ymm2, %ymm8
vpsrld $16, %ymm2, %ymm2
vpblendw $-86, %ymm3, %ymm2, %ymm2
vpslld $16, %ymm5, %ymm3
vpblendw $-86, %ymm3, %ymm4, %ymm3
vpsrld $16, %ymm4, %ymm4
vpblendw $-86, %ymm5, %ymm4, %ymm4
vmovsldup %ymm7, %ymm5
vpblendd $-86, %ymm5, %ymm6, %ymm5
vpsrlq $32, %ymm6, %ymm6
vpblendd $-86, %ymm7, %ymm6, %ymm6
vmovsldup %ymm3, %ymm7
vpblendd $-86, %ymm7, %ymm8, %ymm7
vpsrlq $32, %ymm8, %ymm8
vpblendd $-86, %ymm3, %ymm8, %ymm3
vmovsldup %ymm1, %ymm8
vpblendd $-86, %ymm8, %ymm0, %ymm8
vpsrlq $32, %ymm0, %ymm0
vpblendd $-86, %ymm1, %ymm0, %ymm0
vmovsldup %ymm4, %ymm1
vpblendd $-86, %ymm1, %ymm2, %ymm9
vpsrlq $32, %ymm2, %ymm1
vpblendd $-86, %ymm4, %ymm1, %ymm10
vpunpcklqdq %ymm7, %ymm5, %ymm1
vpunpckhqdq %ymm7, %ymm5, %ymm2
vpunpcklqdq %ymm9, %ymm8, %ymm5
vpunpckhqdq %ymm9, %ymm8, %ymm4
vpunpcklqdq %ymm3, %ymm6, %ymm7
vpunpckhqdq %ymm3, %ymm6, %ymm3
vpunpcklqdq %ymm10, %ymm0, %ymm6
vpunpckhqdq %ymm10, %ymm0, %ymm0
vperm2i128 $32, %ymm5, %ymm1, %ymm8
vperm2i128 $49, %ymm5, %ymm1, %ymm1
vperm2i128 $32, %ymm6, %ymm7, %ymm5
vperm2i128 $49, %ymm6, %ymm7, %ymm6
vperm2i128 $32, %ymm4, %ymm2, %ymm7
vperm2i128 $49, %ymm4, %ymm2, %ymm2
vperm2i128 $32, %ymm0, %ymm3, %ymm4
vperm2i128 $49, %ymm0, %ymm3, %ymm0
vmovdqu %ymm8, (%rax)
vmovdqu %ymm5, 32(%rax)
vmovdqu %ymm7, 64(%rax)
vmovdqu %ymm4, 96(%rax)
vmovdqu %ymm1, 128(%rax)
vmovdqu %ymm6, 160(%rax)
vmovdqu %ymm2, 192(%rax)
vmovdqu %ymm0, 224(%rax)
vmovdqu 256(%rax), %ymm0
vmovdqu 288(%rax), %ymm1
vmovdqu 320(%rax), %ymm8
vmovdqu 352(%rax), %ymm9
vmovdqu 384(%rax), %ymm2
vmovdqu 416(%rax), %ymm3
vmovdqu 448(%rax), %ymm4
vmovdqu 480(%rax), %ymm5
vpslld $16, %ymm1, %ymm6
vpblendw $-86, %ymm6, %ymm0, %ymm6
vpsrld $16, %ymm0, %ymm0
vpblendw $-86, %ymm1, %ymm0, %ymm0
vpslld $16, %ymm9, %ymm1
vpblendw $-86, %ymm1, %ymm8, %ymm7
vpsrld $16, %ymm8, %ymm1
vpblendw $-86, %ymm9, %ymm1, %ymm1
vpslld $16, %ymm3, %ymm8
vpblendw $-86, %ymm8, %ymm2, %ymm8
vpsrld $16, %ymm2, %ymm2
vpblendw $-86, %ymm3, %ymm2, %ymm2
vpslld $16, %ymm5, %ymm3
vpblendw $-86, %ymm3, %ymm4, %ymm3
vpsrld $16, %ymm4, %ymm4
vpblendw $-86, %ymm5, %ymm4, %ymm4
vmovsldup %ymm7, %ymm5
vpblendd $-86, %ymm5, %ymm6, %ymm5
vpsrlq $32, %ymm6, %ymm6
vpblendd $-86, %ymm7, %ymm6, %ymm6
vmovsldup %ymm3, %ymm7
vpblendd $-86, %ymm7, %ymm8, %ymm7
vpsrlq $32, %ymm8, %ymm8
vpblendd $-86, %ymm3, %ymm8, %ymm3
vmovsldup %ymm1, %ymm8
vpblendd $-86, %ymm8, %ymm0, %ymm8
vpsrlq $32, %ymm0, %ymm0
vpblendd $-86, %ymm1, %ymm0, %ymm0
vmovsldup %ymm4, %ymm1
vpblendd $-86, %ymm1, %ymm2, %ymm9
vpsrlq $32, %ymm2, %ymm1
vpblendd $-86, %ymm4, %ymm1, %ymm10
vpunpcklqdq %ymm7, %ymm5, %ymm1
vpunpckhqdq %ymm7, %ymm5, %ymm2
vpunpcklqdq %ymm9, %ymm8, %ymm5
vpunpckhqdq %ymm9, %ymm8, %ymm4
vpunpcklqdq %ymm3, %ymm6, %ymm7
vpunpckhqdq %ymm3, %ymm6, %ymm3
vpunpcklqdq %ymm10, %ymm0, %ymm6
vpunpckhqdq %ymm10, %ymm0, %ymm0
vperm2i128 $32, %ymm5, %ymm1, %ymm8
vperm2i128 $49, %ymm5, %ymm1, %ymm1
vperm2i128 $32, %ymm6, %ymm7, %ymm5
vperm2i128 $49, %ymm6, %ymm7, %ymm6
vperm2i128 $32, %ymm4, %ymm2, %ymm7
vperm2i128 $49, %ymm4, %ymm2, %ymm2
vperm2i128 $32, %ymm0, %ymm3, %ymm4
vperm2i128 $49, %ymm0, %ymm3, %ymm0
vmovdqu %ymm8, 256(%rax)
vmovdqu %ymm5, 288(%rax)
vmovdqu %ymm7, 320(%rax)
vmovdqu %ymm4, 352(%rax)
vmovdqu %ymm1, 384(%rax)
vmovdqu %ymm6, 416(%rax)
vmovdqu %ymm2, 448(%rax)
vmovdqu %ymm0, 480(%rax)
jmp *%rcx
L_shake256_absorb4x_33$1:
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, (%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 32(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 64(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 96(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 128(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 160(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 192(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 224(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 256(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 288(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 320(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 352(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 384(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 416(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 448(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 480(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 512(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 544(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 576(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 608(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 640(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 672(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 704(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 736(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 768(%rax)
movq (%rcx), %rbx
xorq %rbx, (%rax)
movq (%rdx), %rbx
xorq %rbx, 8(%rax)
movq (%rsi), %rbx
xorq %rbx, 16(%rax)
movq (%r11), %rbx
xorq %rbx, 24(%rax)
movq 8(%rcx), %rbx
xorq %rbx, 32(%rax)
movq 8(%rdx), %rbx
xorq %rbx, 40(%rax)
movq 8(%rsi), %rbx
xorq %rbx, 48(%rax)
movq 8(%r11), %rbx
xorq %rbx, 56(%rax)
movq 16(%rcx), %rbx
xorq %rbx, 64(%rax)
movq 16(%rdx), %rbx
xorq %rbx, 72(%rax)
movq 16(%rsi), %rbx
xorq %rbx, 80(%rax)
movq 16(%r11), %rbx
xorq %rbx, 88(%rax)
movq 24(%rcx), %rbx
xorq %rbx, 96(%rax)
movq 24(%rdx), %rbx
xorq %rbx, 104(%rax)
movq 24(%rsi), %rbx
xorq %rbx, 112(%rax)
movq 24(%r11), %rbx
xorq %rbx, 120(%rax)
movb 32(%rcx), %cl
xorb %cl, 128(%rax)
xorb $31, 129(%rax)
movb 32(%rdx), %cl
xorb %cl, 136(%rax)
xorb $31, 137(%rax)
movb 32(%rsi), %cl
xorb %cl, 144(%rax)
xorb $31, 145(%rax)
movb 32(%r11), %cl
xorb %cl, 152(%rax)
xorb $31, 153(%rax)
vmovdqu glob_data + 2080(%rip), %ymm0
vmovdqu 512(%rax), %ymm1
vpxor %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 512(%rax)
jmp *(%rsp)
L_shake128_absorb4x_34$1:
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, (%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 32(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 64(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 96(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 128(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 160(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 192(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 224(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 256(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 288(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 320(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 352(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 384(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 416(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 448(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 480(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 512(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 544(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 576(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 608(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 640(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 672(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 704(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 736(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 768(%rax)
movq (%rcx), %r8
xorq %r8, (%rax)
movq (%rdx), %r8
xorq %r8, 8(%rax)
movq (%rsi), %r8
xorq %r8, 16(%rax)
movq (%rdi), %r8
xorq %r8, 24(%rax)
movq 8(%rcx), %r8
xorq %r8, 32(%rax)
movq 8(%rdx), %r8
xorq %r8, 40(%rax)
movq 8(%rsi), %r8
xorq %r8, 48(%rax)
movq 8(%rdi), %r8
xorq %r8, 56(%rax)
movq 16(%rcx), %r8
xorq %r8, 64(%rax)
movq 16(%rdx), %r8
xorq %r8, 72(%rax)
movq 16(%rsi), %r8
xorq %r8, 80(%rax)
movq 16(%rdi), %r8
xorq %r8, 88(%rax)
movq 24(%rcx), %r8
xorq %r8, 96(%rax)
movq 24(%rdx), %r8
xorq %r8, 104(%rax)
movq 24(%rsi), %r8
xorq %r8, 112(%rax)
movq 24(%rdi), %r8
xorq %r8, 120(%rax)
movw 32(%rcx), %cx
xorw %cx, 128(%rax)
xorb $31, 130(%rax)
movw 32(%rdx), %cx
xorw %cx, 136(%rax)
xorb $31, 138(%rax)
movw 32(%rsi), %cx
xorw %cx, 144(%rax)
xorb $31, 146(%rax)
movw 32(%rdi), %cx
xorw %cx, 152(%rax)
xorb $31, 154(%rax)
vmovdqu glob_data + 2080(%rip), %ymm0
vmovdqu 640(%rax), %ymm1
vpxor %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 640(%rax)
jmp *(%rsp)
L_keccakf1600_4x_avx2$1:
movq %rsp, %rcx
leaq glob_data + 2176(%rip), %rdx
vmovdqu glob_data + 2112(%rip), %ymm0
vmovdqu glob_data + 2144(%rip), %ymm1
movq $0, %rsi
L_keccakf1600_4x_avx2$2:
vmovdqu (%rdx,%rsi), %ymm2
vmovdqu (%rax), %ymm3
vmovdqu 32(%rax), %ymm4
vmovdqu 64(%rax), %ymm5
vmovdqu 96(%rax), %ymm6
vmovdqu 128(%rax), %ymm7
vpxor 160(%rax), %ymm3, %ymm3
vpxor 192(%rax), %ymm4, %ymm4
vpxor 224(%rax), %ymm5, %ymm5
vpxor 256(%rax), %ymm6, %ymm6
vpxor 288(%rax), %ymm7, %ymm7
vpxor 320(%rax), %ymm3, %ymm3
vpxor 352(%rax), %ymm4, %ymm4
vpxor 384(%rax), %ymm5, %ymm5
vpxor 416(%rax), %ymm6, %ymm6
vpxor 448(%rax), %ymm7, %ymm7
vpxor 480(%rax), %ymm3, %ymm3
vpxor 512(%rax), %ymm4, %ymm4
vpxor 544(%rax), %ymm5, %ymm8
vpxor 576(%rax), %ymm6, %ymm9
vpxor 608(%rax), %ymm7, %ymm10
vpxor 640(%rax), %ymm3, %ymm7
vpxor 672(%rax), %ymm4, %ymm5
vpxor 704(%rax), %ymm8, %ymm6
vpxor 736(%rax), %ymm9, %ymm8
vpxor 768(%rax), %ymm10, %ymm9
vmovdqu %ymm5, %ymm3
vpsllq $1, %ymm3, %ymm4
vpsrlq $63, %ymm3, %ymm3
vpor %ymm4, %ymm3, %ymm3
vpxor %ymm9, %ymm3, %ymm3
vmovdqu %ymm6, %ymm4
vpsllq $1, %ymm4, %ymm10
vpsrlq $63, %ymm4, %ymm4
vpor %ymm10, %ymm4, %ymm4
vpxor %ymm7, %ymm4, %ymm4
vmovdqu %ymm8, %ymm10
vpsllq $1, %ymm10, %ymm11
vpsrlq $63, %ymm10, %ymm10
vpor %ymm11, %ymm10, %ymm10
vpxor %ymm5, %ymm10, %ymm5
vpsllq $1, %ymm9, %ymm10
vpsrlq $63, %ymm9, %ymm9
vpor %ymm10, %ymm9, %ymm9
vpxor %ymm6, %ymm9, %ymm6
vpsllq $1, %ymm7, %ymm9
vpsrlq $63, %ymm7, %ymm7
vpor %ymm9, %ymm7, %ymm7
vpxor %ymm8, %ymm7, %ymm7
vmovdqu (%rax), %ymm8
vpxor %ymm3, %ymm8, %ymm8
vmovdqu 192(%rax), %ymm9
vpxor %ymm4, %ymm9, %ymm9
vpsllq $44, %ymm9, %ymm10
vpsrlq $20, %ymm9, %ymm9
vpor %ymm10, %ymm9, %ymm9
vmovdqu 384(%rax), %ymm10
vpxor %ymm5, %ymm10, %ymm10
vpsllq $43, %ymm10, %ymm11
vpsrlq $21, %ymm10, %ymm10
vpor %ymm11, %ymm10, %ymm10
vmovdqu 576(%rax), %ymm11
vpxor %ymm6, %ymm11, %ymm11
vpsllq $21, %ymm11, %ymm12
vpsrlq $43, %ymm11, %ymm11
vpor %ymm12, %ymm11, %ymm11
vmovdqu 768(%rax), %ymm12
vpxor %ymm7, %ymm12, %ymm12
vpsllq $14, %ymm12, %ymm13
vpsrlq $50, %ymm12, %ymm12
vpor %ymm13, %ymm12, %ymm12
vpandn %ymm10, %ymm9, %ymm13
vpxor %ymm8, %ymm13, %ymm13
vpxor %ymm2, %ymm13, %ymm2
vmovdqu %ymm2, (%rcx)
vpandn %ymm11, %ymm10, %ymm2
vpxor %ymm9, %ymm2, %ymm2
vmovdqu %ymm2, 32(%rcx)
vpandn %ymm12, %ymm11, %ymm2
vpxor %ymm10, %ymm2, %ymm2
vmovdqu %ymm2, 64(%rcx)
vpandn %ymm8, %ymm12, %ymm2
vpxor %ymm11, %ymm2, %ymm2
vmovdqu %ymm2, 96(%rcx)
vpandn %ymm9, %ymm8, %ymm2
vpxor %ymm12, %ymm2, %ymm2
vmovdqu %ymm2, 128(%rcx)
vmovdqu 96(%rax), %ymm2
vpxor %ymm6, %ymm2, %ymm2
vpsllq $28, %ymm2, %ymm8
vpsrlq $36, %ymm2, %ymm2
vpor %ymm8, %ymm2, %ymm2
vmovdqu 288(%rax), %ymm8
vpxor %ymm7, %ymm8, %ymm8
vpsllq $20, %ymm8, %ymm9
vpsrlq $44, %ymm8, %ymm8
vpor %ymm9, %ymm8, %ymm8
vmovdqu 320(%rax), %ymm9
vpxor %ymm3, %ymm9, %ymm9
vpsllq $3, %ymm9, %ymm10
vpsrlq $61, %ymm9, %ymm9
vpor %ymm10, %ymm9, %ymm9
vmovdqu 512(%rax), %ymm10
vpxor %ymm4, %ymm10, %ymm10
vpsllq $45, %ymm10, %ymm11
vpsrlq $19, %ymm10, %ymm10
vpor %ymm11, %ymm10, %ymm10
vmovdqu 704(%rax), %ymm11
vpxor %ymm5, %ymm11, %ymm11
vpsllq $61, %ymm11, %ymm12
vpsrlq $3, %ymm11, %ymm11
vpor %ymm12, %ymm11, %ymm11
vpandn %ymm9, %ymm8, %ymm12
vpxor %ymm2, %ymm12, %ymm12
vmovdqu %ymm12, 160(%rcx)
vpandn %ymm10, %ymm9, %ymm12
vpxor %ymm8, %ymm12, %ymm12
vmovdqu %ymm12, 192(%rcx)
vpandn %ymm11, %ymm10, %ymm12
vpxor %ymm9, %ymm12, %ymm9
vmovdqu %ymm9, 224(%rcx)
vpandn %ymm2, %ymm11, %ymm9
vpxor %ymm10, %ymm9, %ymm9
vmovdqu %ymm9, 256(%rcx)
vpandn %ymm8, %ymm2, %ymm2
vpxor %ymm11, %ymm2, %ymm2
vmovdqu %ymm2, 288(%rcx)
vmovdqu 32(%rax), %ymm2
vpxor %ymm4, %ymm2, %ymm2
vpsllq $1, %ymm2, %ymm8
vpsrlq $63, %ymm2, %ymm2
vpor %ymm8, %ymm2, %ymm2
vmovdqu 224(%rax), %ymm8
vpxor %ymm5, %ymm8, %ymm8
vpsllq $6, %ymm8, %ymm9
vpsrlq $58, %ymm8, %ymm8
vpor %ymm9, %ymm8, %ymm8
vmovdqu 416(%rax), %ymm9
vpxor %ymm6, %ymm9, %ymm9
vpsllq $25, %ymm9, %ymm10
vpsrlq $39, %ymm9, %ymm9
vpor %ymm10, %ymm9, %ymm9
vmovdqu 608(%rax), %ymm10
vpxor %ymm7, %ymm10, %ymm10
vpshufb %ymm0, %ymm10, %ymm10
vmovdqu 640(%rax), %ymm11
vpxor %ymm3, %ymm11, %ymm11
vpsllq $18, %ymm11, %ymm12
vpsrlq $46, %ymm11, %ymm11
vpor %ymm12, %ymm11, %ymm11
vpandn %ymm9, %ymm8, %ymm12
vpxor %ymm2, %ymm12, %ymm12
vmovdqu %ymm12, 320(%rcx)
vpandn %ymm10, %ymm9, %ymm12
vpxor %ymm8, %ymm12, %ymm12
vmovdqu %ymm12, 352(%rcx)
vpandn %ymm11, %ymm10, %ymm12
vpxor %ymm9, %ymm12, %ymm9
vmovdqu %ymm9, 384(%rcx)
vpandn %ymm2, %ymm11, %ymm9
vpxor %ymm10, %ymm9, %ymm9
vmovdqu %ymm9, 416(%rcx)
vpandn %ymm8, %ymm2, %ymm2
vpxor %ymm11, %ymm2, %ymm2
vmovdqu %ymm2, 448(%rcx)
vmovdqu 128(%rax), %ymm2
vpxor %ymm7, %ymm2, %ymm2
vpsllq $27, %ymm2, %ymm8
vpsrlq $37, %ymm2, %ymm2
vpor %ymm8, %ymm2, %ymm2
vmovdqu 160(%rax), %ymm8
vpxor %ymm3, %ymm8, %ymm8
vpsllq $36, %ymm8, %ymm9
vpsrlq $28, %ymm8, %ymm8
vpor %ymm9, %ymm8, %ymm8
vmovdqu 352(%rax), %ymm9
vpxor %ymm4, %ymm9, %ymm9
vpsllq $10, %ymm9, %ymm10
vpsrlq $54, %ymm9, %ymm9
vpor %ymm10, %ymm9, %ymm9
vmovdqu 544(%rax), %ymm10
vpxor %ymm5, %ymm10, %ymm10
vpsllq $15, %ymm10, %ymm11
vpsrlq $49, %ymm10, %ymm10
vpor %ymm11, %ymm10, %ymm10
vmovdqu 736(%rax), %ymm11
vpxor %ymm6, %ymm11, %ymm11
vpshufb %ymm1, %ymm11, %ymm11
vpandn %ymm9, %ymm8, %ymm12
vpxor %ymm2, %ymm12, %ymm12
vmovdqu %ymm12, 480(%rcx)
vpandn %ymm10, %ymm9, %ymm12
vpxor %ymm8, %ymm12, %ymm12
vmovdqu %ymm12, 512(%rcx)
vpandn %ymm11, %ymm10, %ymm12
vpxor %ymm9, %ymm12, %ymm9
vmovdqu %ymm9, 544(%rcx)
vpandn %ymm2, %ymm11, %ymm9
vpxor %ymm10, %ymm9, %ymm9
vmovdqu %ymm9, 576(%rcx)
vpandn %ymm8, %ymm2, %ymm2
vpxor %ymm11, %ymm2, %ymm2
vmovdqu %ymm2, 608(%rcx)
vmovdqu 64(%rax), %ymm2
vpxor %ymm5, %ymm2, %ymm2
vpsllq $62, %ymm2, %ymm5
vpsrlq $2, %ymm2, %ymm2
vpor %ymm5, %ymm2, %ymm2
vmovdqu 256(%rax), %ymm5
vpxor %ymm6, %ymm5, %ymm5
vpsllq $55, %ymm5, %ymm6
vpsrlq $9, %ymm5, %ymm5
vpor %ymm6, %ymm5, %ymm5
vmovdqu 448(%rax), %ymm6
vpxor %ymm7, %ymm6, %ymm6
vpsllq $39, %ymm6, %ymm7
vpsrlq $25, %ymm6, %ymm6
vpor %ymm7, %ymm6, %ymm6
vmovdqu 480(%rax), %ymm7
vpxor %ymm3, %ymm7, %ymm3
vpsllq $41, %ymm3, %ymm7
vpsrlq $23, %ymm3, %ymm3
vpor %ymm7, %ymm3, %ymm3
vmovdqu 672(%rax), %ymm7
vpxor %ymm4, %ymm7, %ymm4
vpsllq $2, %ymm4, %ymm7
vpsrlq $62, %ymm4, %ymm4
vpor %ymm7, %ymm4, %ymm4
vpandn %ymm6, %ymm5, %ymm7
vpxor %ymm2, %ymm7, %ymm7
vmovdqu %ymm7, 640(%rcx)
vpandn %ymm3, %ymm6, %ymm7
vpxor %ymm5, %ymm7, %ymm7
vmovdqu %ymm7, 672(%rcx)
vpandn %ymm4, %ymm3, %ymm7
vpxor %ymm6, %ymm7, %ymm6
vmovdqu %ymm6, 704(%rcx)
vpandn %ymm2, %ymm4, %ymm6
vpxor %ymm3, %ymm6, %ymm3
vmovdqu %ymm3, 736(%rcx)
vpandn %ymm5, %ymm2, %ymm2
vpxor %ymm4, %ymm2, %ymm2
vmovdqu %ymm2, 768(%rcx)
vmovdqu 32(%rdx,%rsi), %ymm2
vmovdqu (%rcx), %ymm3
vmovdqu 32(%rcx), %ymm4
vmovdqu 64(%rcx), %ymm5
vmovdqu 96(%rcx), %ymm6
vmovdqu 128(%rcx), %ymm7
vpxor 160(%rcx), %ymm3, %ymm3
vpxor 192(%rcx), %ymm4, %ymm4
vpxor 224(%rcx), %ymm5, %ymm5
vpxor 256(%rcx), %ymm6, %ymm6
vpxor 288(%rcx), %ymm7, %ymm7
vpxor 320(%rcx), %ymm3, %ymm3
vpxor 352(%rcx), %ymm4, %ymm4
vpxor 384(%rcx), %ymm5, %ymm5
vpxor 416(%rcx), %ymm6, %ymm6
vpxor 448(%rcx), %ymm7, %ymm7
vpxor 480(%rcx), %ymm3, %ymm3
vpxor 512(%rcx), %ymm4, %ymm4
vpxor 544(%rcx), %ymm5, %ymm8
vpxor 576(%rcx), %ymm6, %ymm9
vpxor 608(%rcx), %ymm7, %ymm10
vpxor 640(%rcx), %ymm3, %ymm7
vpxor 672(%rcx), %ymm4, %ymm5
vpxor 704(%rcx), %ymm8, %ymm6
vpxor 736(%rcx), %ymm9, %ymm8
vpxor 768(%rcx), %ymm10, %ymm9
vmovdqu %ymm5, %ymm3
vpsllq $1, %ymm3, %ymm4
vpsrlq $63, %ymm3, %ymm3
vpor %ymm4, %ymm3, %ymm3
vpxor %ymm9, %ymm3, %ymm3
vmovdqu %ymm6, %ymm4
vpsllq $1, %ymm4, %ymm10
vpsrlq $63, %ymm4, %ymm4
vpor %ymm10, %ymm4, %ymm4
vpxor %ymm7, %ymm4, %ymm4
vmovdqu %ymm8, %ymm10
vpsllq $1, %ymm10, %ymm11
vpsrlq $63, %ymm10, %ymm10
vpor %ymm11, %ymm10, %ymm10
vpxor %ymm5, %ymm10, %ymm5
vpsllq $1, %ymm9, %ymm10
vpsrlq $63, %ymm9, %ymm9
vpor %ymm10, %ymm9, %ymm9
vpxor %ymm6, %ymm9, %ymm6
vpsllq $1, %ymm7, %ymm9
vpsrlq $63, %ymm7, %ymm7
vpor %ymm9, %ymm7, %ymm7
vpxor %ymm8, %ymm7, %ymm7
vmovdqu (%rcx), %ymm8
vpxor %ymm3, %ymm8, %ymm8
vmovdqu 192(%rcx), %ymm9
vpxor %ymm4, %ymm9, %ymm9
vpsllq $44, %ymm9, %ymm10
vpsrlq $20, %ymm9, %ymm9
vpor %ymm10, %ymm9, %ymm9
vmovdqu 384(%rcx), %ymm10
vpxor %ymm5, %ymm10, %ymm10
vpsllq $43, %ymm10, %ymm11
vpsrlq $21, %ymm10, %ymm10
vpor %ymm11, %ymm10, %ymm10
vmovdqu 576(%rcx), %ymm11
vpxor %ymm6, %ymm11, %ymm11
vpsllq $21, %ymm11, %ymm12
vpsrlq $43, %ymm11, %ymm11
vpor %ymm12, %ymm11, %ymm11
vmovdqu 768(%rcx), %ymm12
vpxor %ymm7, %ymm12, %ymm12
vpsllq $14, %ymm12, %ymm13
vpsrlq $50, %ymm12, %ymm12
vpor %ymm13, %ymm12, %ymm12
vpandn %ymm10, %ymm9, %ymm13
vpxor %ymm8, %ymm13, %ymm13
vpxor %ymm2, %ymm13, %ymm2
vmovdqu %ymm2, (%rax)
vpandn %ymm11, %ymm10, %ymm2
vpxor %ymm9, %ymm2, %ymm2
vmovdqu %ymm2, 32(%rax)
vpandn %ymm12, %ymm11, %ymm2
vpxor %ymm10, %ymm2, %ymm2
vmovdqu %ymm2, 64(%rax)
vpandn %ymm8, %ymm12, %ymm2
vpxor %ymm11, %ymm2, %ymm2
vmovdqu %ymm2, 96(%rax)
vpandn %ymm9, %ymm8, %ymm2
vpxor %ymm12, %ymm2, %ymm2
vmovdqu %ymm2, 128(%rax)
vmovdqu 96(%rcx), %ymm2
vpxor %ymm6, %ymm2, %ymm2
vpsllq $28, %ymm2, %ymm8
vpsrlq $36, %ymm2, %ymm2
vpor %ymm8, %ymm2, %ymm2
vmovdqu 288(%rcx), %ymm8
vpxor %ymm7, %ymm8, %ymm8
vpsllq $20, %ymm8, %ymm9
vpsrlq $44, %ymm8, %ymm8
vpor %ymm9, %ymm8, %ymm8
vmovdqu 320(%rcx), %ymm9
vpxor %ymm3, %ymm9, %ymm9
vpsllq $3, %ymm9, %ymm10
vpsrlq $61, %ymm9, %ymm9
vpor %ymm10, %ymm9, %ymm9
vmovdqu 512(%rcx), %ymm10
vpxor %ymm4, %ymm10, %ymm10
vpsllq $45, %ymm10, %ymm11
vpsrlq $19, %ymm10, %ymm10
vpor %ymm11, %ymm10, %ymm10
vmovdqu 704(%rcx), %ymm11
vpxor %ymm5, %ymm11, %ymm11
vpsllq $61, %ymm11, %ymm12
vpsrlq $3, %ymm11, %ymm11
vpor %ymm12, %ymm11, %ymm11
vpandn %ymm9, %ymm8, %ymm12
vpxor %ymm2, %ymm12, %ymm12
vmovdqu %ymm12, 160(%rax)
vpandn %ymm10, %ymm9, %ymm12
vpxor %ymm8, %ymm12, %ymm12
vmovdqu %ymm12, 192(%rax)
vpandn %ymm11, %ymm10, %ymm12
vpxor %ymm9, %ymm12, %ymm9
vmovdqu %ymm9, 224(%rax)
vpandn %ymm2, %ymm11, %ymm9
vpxor %ymm10, %ymm9, %ymm9
vmovdqu %ymm9, 256(%rax)
vpandn %ymm8, %ymm2, %ymm2
vpxor %ymm11, %ymm2, %ymm2
vmovdqu %ymm2, 288(%rax)
vmovdqu 32(%rcx), %ymm2
vpxor %ymm4, %ymm2, %ymm2
vpsllq $1, %ymm2, %ymm8
vpsrlq $63, %ymm2, %ymm2
vpor %ymm8, %ymm2, %ymm2
vmovdqu 224(%rcx), %ymm8
vpxor %ymm5, %ymm8, %ymm8
vpsllq $6, %ymm8, %ymm9
vpsrlq $58, %ymm8, %ymm8
vpor %ymm9, %ymm8, %ymm8
vmovdqu 416(%rcx), %ymm9
vpxor %ymm6, %ymm9, %ymm9
vpsllq $25, %ymm9, %ymm10
vpsrlq $39, %ymm9, %ymm9
vpor %ymm10, %ymm9, %ymm9
vmovdqu 608(%rcx), %ymm10
vpxor %ymm7, %ymm10, %ymm10
vpshufb %ymm0, %ymm10, %ymm10
vmovdqu 640(%rcx), %ymm11
vpxor %ymm3, %ymm11, %ymm11
vpsllq $18, %ymm11, %ymm12
vpsrlq $46, %ymm11, %ymm11
vpor %ymm12, %ymm11, %ymm11
vpandn %ymm9, %ymm8, %ymm12
vpxor %ymm2, %ymm12, %ymm12
vmovdqu %ymm12, 320(%rax)
vpandn %ymm10, %ymm9, %ymm12
vpxor %ymm8, %ymm12, %ymm12
vmovdqu %ymm12, 352(%rax)
vpandn %ymm11, %ymm10, %ymm12
vpxor %ymm9, %ymm12, %ymm9
vmovdqu %ymm9, 384(%rax)
vpandn %ymm2, %ymm11, %ymm9
vpxor %ymm10, %ymm9, %ymm9
vmovdqu %ymm9, 416(%rax)
vpandn %ymm8, %ymm2, %ymm2
vpxor %ymm11, %ymm2, %ymm2
vmovdqu %ymm2, 448(%rax)
vmovdqu 128(%rcx), %ymm2
vpxor %ymm7, %ymm2, %ymm2
vpsllq $27, %ymm2, %ymm8
vpsrlq $37, %ymm2, %ymm2
vpor %ymm8, %ymm2, %ymm2
vmovdqu 160(%rcx), %ymm8
vpxor %ymm3, %ymm8, %ymm8
vpsllq $36, %ymm8, %ymm9
vpsrlq $28, %ymm8, %ymm8
vpor %ymm9, %ymm8, %ymm8
vmovdqu 352(%rcx), %ymm9
vpxor %ymm4, %ymm9, %ymm9
vpsllq $10, %ymm9, %ymm10
vpsrlq $54, %ymm9, %ymm9
vpor %ymm10, %ymm9, %ymm9
vmovdqu 544(%rcx), %ymm10
vpxor %ymm5, %ymm10, %ymm10
vpsllq $15, %ymm10, %ymm11
vpsrlq $49, %ymm10, %ymm10
vpor %ymm11, %ymm10, %ymm10
vmovdqu 736(%rcx), %ymm11
vpxor %ymm6, %ymm11, %ymm11
vpshufb %ymm1, %ymm11, %ymm11
vpandn %ymm9, %ymm8, %ymm12
vpxor %ymm2, %ymm12, %ymm12
vmovdqu %ymm12, 480(%rax)
vpandn %ymm10, %ymm9, %ymm12
vpxor %ymm8, %ymm12, %ymm12
vmovdqu %ymm12, 512(%rax)
vpandn %ymm11, %ymm10, %ymm12
vpxor %ymm9, %ymm12, %ymm9
vmovdqu %ymm9, 544(%rax)
vpandn %ymm2, %ymm11, %ymm9
vpxor %ymm10, %ymm9, %ymm9
vmovdqu %ymm9, 576(%rax)
vpandn %ymm8, %ymm2, %ymm2
vpxor %ymm11, %ymm2, %ymm2
vmovdqu %ymm2, 608(%rax)
vmovdqu 64(%rcx), %ymm2
vpxor %ymm5, %ymm2, %ymm2
vpsllq $62, %ymm2, %ymm5
vpsrlq $2, %ymm2, %ymm2
vpor %ymm5, %ymm2, %ymm2
vmovdqu 256(%rcx), %ymm5
vpxor %ymm6, %ymm5, %ymm5
vpsllq $55, %ymm5, %ymm6
vpsrlq $9, %ymm5, %ymm5
vpor %ymm6, %ymm5, %ymm5
vmovdqu 448(%rcx), %ymm6
vpxor %ymm7, %ymm6, %ymm6
vpsllq $39, %ymm6, %ymm7
vpsrlq $25, %ymm6, %ymm6
vpor %ymm7, %ymm6, %ymm6
vmovdqu 480(%rcx), %ymm7
vpxor %ymm3, %ymm7, %ymm3
vpsllq $41, %ymm3, %ymm7
vpsrlq $23, %ymm3, %ymm3
vpor %ymm7, %ymm3, %ymm3
vmovdqu 672(%rcx), %ymm7
vpxor %ymm4, %ymm7, %ymm4
vpsllq $2, %ymm4, %ymm7
vpsrlq $62, %ymm4, %ymm4
vpor %ymm7, %ymm4, %ymm4
vpandn %ymm6, %ymm5, %ymm7
vpxor %ymm2, %ymm7, %ymm7
vmovdqu %ymm7, 640(%rax)
vpandn %ymm3, %ymm6, %ymm7
vpxor %ymm5, %ymm7, %ymm7
vmovdqu %ymm7, 672(%rax)
vpandn %ymm4, %ymm3, %ymm7
vpxor %ymm6, %ymm7, %ymm6
vmovdqu %ymm6, 704(%rax)
vpandn %ymm2, %ymm4, %ymm6
vpxor %ymm3, %ymm6, %ymm3
vmovdqu %ymm3, 736(%rax)
vpandn %ymm5, %ymm2, %ymm2
vpxor %ymm4, %ymm2, %ymm2
vmovdqu %ymm2, 768(%rax)
addq $64, %rsi
cmpq $768, %rsi
jb L_keccakf1600_4x_avx2$2
jmp *800(%rsp)
L_sha3_512_32$1:
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, (%rsp)
vmovdqu %ymm0, 32(%rsp)
vmovdqu %ymm0, 64(%rsp)
vmovdqu %ymm0, 96(%rsp)
vmovdqu %ymm0, 128(%rsp)
vmovdqu %ymm0, 160(%rsp)
vmovdqu %ymm0, 192(%rsp)
vpbroadcastq (%rcx), %ymm6
movq 8(%rcx), %rdx
movq glob_data + 6208(%rip), %rsi
movq %rdx, (%rsp,%rsi,8)
movq 16(%rcx), %rdx
movq glob_data + 6216(%rip), %rsi
movq %rdx, (%rsp,%rsi,8)
movq 24(%rcx), %rcx
movq glob_data + 6224(%rip), %rdx
movq %rcx, (%rsp,%rdx,8)
movq glob_data + 6232(%rip), %rcx
shlq $3, %rcx
movb $6, (%rsp,%rcx)
movq glob_data + 6264(%rip), %rcx
shlq $3, %rcx
movq $71, %rdx
andq $7, %rdx
addq %rdx, %rcx
xorb $-128, (%rsp,%rcx)
vmovdqu 32(%rsp), %ymm0
vmovdqu 64(%rsp), %ymm1
vmovdqu 96(%rsp), %ymm2
vmovdqu 128(%rsp), %ymm3
vmovdqu 160(%rsp), %ymm4
vmovdqu 192(%rsp), %ymm5
leaq glob_data + 3328(%rip), %rcx
movq $0, %rdx
leaq glob_data + 3136(%rip), %rsi
leaq glob_data + 2944(%rip), %rdi
movq $24, %r8
L_sha3_512_32$2:
vpshufd $78, %ymm1, %ymm8
vpxor %ymm2, %ymm4, %ymm7
vpxor %ymm5, %ymm3, %ymm9
vpxor %ymm0, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm1, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm1, %ymm1
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm1, %ymm7
vpsrlvq (%rdi), %ymm1, %ymm1
vpor %ymm7, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpsllvq 64(%rsi), %ymm2, %ymm7
vpsrlvq 64(%rdi), %ymm2, %ymm2
vpor %ymm7, %ymm2, %ymm2
vpxor %ymm9, %ymm3, %ymm3
vpsllvq 96(%rsi), %ymm3, %ymm7
vpsrlvq 96(%rdi), %ymm3, %ymm3
vpor %ymm7, %ymm3, %ymm10
vpxor %ymm9, %ymm4, %ymm3
vpsllvq 128(%rsi), %ymm3, %ymm4
vpsrlvq 128(%rdi), %ymm3, %ymm3
vpor %ymm4, %ymm3, %ymm4
vpxor %ymm9, %ymm5, %ymm5
vpermq $-115, %ymm1, %ymm3
vpermq $-115, %ymm2, %ymm7
vpsllvq 160(%rsi), %ymm5, %ymm1
vpsrlvq 160(%rdi), %ymm5, %ymm2
vpor %ymm1, %ymm2, %ymm8
vpxor %ymm9, %ymm0, %ymm1
vpermq $27, %ymm10, %ymm0
vpermq $114, %ymm4, %ymm9
vpsllvq 32(%rsi), %ymm1, %ymm2
vpsrlvq 32(%rdi), %ymm1, %ymm1
vpor %ymm2, %ymm1, %ymm10
vpsrldq $8, %ymm8, %ymm1
vpandn %ymm1, %ymm8, %ymm2
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm3, %ymm5
vpblendd $12, %ymm3, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm0, %ymm4, %ymm4
vpblendd $48, %ymm10, %ymm5, %ymm5
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm0, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm9, %ymm5, %ymm5
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm4, %ymm1, %ymm1
vpandn %ymm11, %ymm5, %ymm5
vpblendd $12, %ymm10, %ymm0, %ymm11
vpblendd $12, %ymm0, %ymm3, %ymm12
vpxor %ymm3, %ymm1, %ymm4
vpblendd $48, %ymm3, %ymm11, %ymm1
vpblendd $48, %ymm7, %ymm12, %ymm11
vpxor %ymm0, %ymm5, %ymm5
vpblendd $-64, %ymm7, %ymm1, %ymm1
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm1, %ymm1
vpxor %ymm9, %ymm1, %ymm12
vpermq $30, %ymm8, %ymm1
vpblendd $48, %ymm6, %ymm1, %ymm1
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm1, %ymm11, %ymm11
vpblendd $12, %ymm0, %ymm7, %ymm1
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm13, %ymm13
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm0, %ymm13, %ymm13
vpandn %ymm13, %ymm1, %ymm1
vpxor %ymm10, %ymm1, %ymm1
vpermq $0, %ymm2, %ymm13
vpermq $27, %ymm4, %ymm2
vpermq $-115, %ymm5, %ymm4
vpermq $114, %ymm12, %ymm5
vpblendd $12, %ymm3, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm0, %ymm9
vpblendd $48, %ymm0, %ymm12, %ymm0
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm0, %ymm0
vpblendd $-64, %ymm3, %ymm9, %ymm3
vpandn %ymm3, %ymm0, %ymm3
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm0
vpxor %ymm7, %ymm3, %ymm3
vpxor (%rcx,%rdx), %ymm6, %ymm6
addq $32, %rdx
decq %r8
jne L_sha3_512_32$2
vmovdqu %ymm6, (%rsp)
vmovdqu %ymm0, 32(%rsp)
vmovdqu %ymm1, 64(%rsp)
vmovdqu %ymm2, 96(%rsp)
vmovdqu %ymm3, 128(%rsp)
vmovdqu %ymm4, 160(%rsp)
vmovdqu %ymm5, 192(%rsp)
movq glob_data + 6200(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, (%rax)
movq glob_data + 6208(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 8(%rax)
movq glob_data + 6216(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 16(%rax)
movq glob_data + 6224(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 24(%rax)
movq glob_data + 6232(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 32(%rax)
movq glob_data + 6240(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 40(%rax)
movq glob_data + 6248(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 48(%rax)
movq glob_data + 6256(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 56(%rax)
jmp *224(%rsp)
L_sha3_512_64$1:
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, (%rsp)
vmovdqu %ymm0, 32(%rsp)
vmovdqu %ymm0, 64(%rsp)
vmovdqu %ymm0, 96(%rsp)
vmovdqu %ymm0, 128(%rsp)
vmovdqu %ymm0, 160(%rsp)
vmovdqu %ymm0, 192(%rsp)
vpbroadcastq (%rcx), %ymm6
movq 8(%rcx), %rdx
movq glob_data + 6208(%rip), %rsi
movq %rdx, (%rsp,%rsi,8)
movq 16(%rcx), %rdx
movq glob_data + 6216(%rip), %rsi
movq %rdx, (%rsp,%rsi,8)
movq 24(%rcx), %rdx
movq glob_data + 6224(%rip), %rsi
movq %rdx, (%rsp,%rsi,8)
movq 32(%rcx), %rdx
movq glob_data + 6232(%rip), %rsi
movq %rdx, (%rsp,%rsi,8)
movq 40(%rcx), %rdx
movq glob_data + 6240(%rip), %rsi
movq %rdx, (%rsp,%rsi,8)
movq 48(%rcx), %rdx
movq glob_data + 6248(%rip), %rsi
movq %rdx, (%rsp,%rsi,8)
movq 56(%rcx), %rcx
movq glob_data + 6256(%rip), %rdx
movq %rcx, (%rsp,%rdx,8)
movq glob_data + 6264(%rip), %rcx
shlq $3, %rcx
movb $6, (%rsp,%rcx)
movq glob_data + 6264(%rip), %rcx
shlq $3, %rcx
movq $71, %rdx
andq $7, %rdx
addq %rdx, %rcx
xorb $-128, (%rsp,%rcx)
vmovdqu 32(%rsp), %ymm0
vmovdqu 64(%rsp), %ymm1
vmovdqu 96(%rsp), %ymm2
vmovdqu 128(%rsp), %ymm3
vmovdqu 160(%rsp), %ymm4
vmovdqu 192(%rsp), %ymm5
leaq glob_data + 3328(%rip), %rcx
movq $0, %rdx
leaq glob_data + 3136(%rip), %rsi
leaq glob_data + 2944(%rip), %rdi
movq $24, %r8
L_sha3_512_64$2:
vpshufd $78, %ymm1, %ymm8
vpxor %ymm2, %ymm4, %ymm7
vpxor %ymm5, %ymm3, %ymm9
vpxor %ymm0, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm1, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm1, %ymm1
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm1, %ymm7
vpsrlvq (%rdi), %ymm1, %ymm1
vpor %ymm7, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpsllvq 64(%rsi), %ymm2, %ymm7
vpsrlvq 64(%rdi), %ymm2, %ymm2
vpor %ymm7, %ymm2, %ymm2
vpxor %ymm9, %ymm3, %ymm3
vpsllvq 96(%rsi), %ymm3, %ymm7
vpsrlvq 96(%rdi), %ymm3, %ymm3
vpor %ymm7, %ymm3, %ymm10
vpxor %ymm9, %ymm4, %ymm3
vpsllvq 128(%rsi), %ymm3, %ymm4
vpsrlvq 128(%rdi), %ymm3, %ymm3
vpor %ymm4, %ymm3, %ymm4
vpxor %ymm9, %ymm5, %ymm5
vpermq $-115, %ymm1, %ymm3
vpermq $-115, %ymm2, %ymm7
vpsllvq 160(%rsi), %ymm5, %ymm1
vpsrlvq 160(%rdi), %ymm5, %ymm2
vpor %ymm1, %ymm2, %ymm8
vpxor %ymm9, %ymm0, %ymm1
vpermq $27, %ymm10, %ymm0
vpermq $114, %ymm4, %ymm9
vpsllvq 32(%rsi), %ymm1, %ymm2
vpsrlvq 32(%rdi), %ymm1, %ymm1
vpor %ymm2, %ymm1, %ymm10
vpsrldq $8, %ymm8, %ymm1
vpandn %ymm1, %ymm8, %ymm2
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm3, %ymm5
vpblendd $12, %ymm3, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm0, %ymm4, %ymm4
vpblendd $48, %ymm10, %ymm5, %ymm5
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm0, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm9, %ymm5, %ymm5
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm4, %ymm1, %ymm1
vpandn %ymm11, %ymm5, %ymm5
vpblendd $12, %ymm10, %ymm0, %ymm11
vpblendd $12, %ymm0, %ymm3, %ymm12
vpxor %ymm3, %ymm1, %ymm4
vpblendd $48, %ymm3, %ymm11, %ymm1
vpblendd $48, %ymm7, %ymm12, %ymm11
vpxor %ymm0, %ymm5, %ymm5
vpblendd $-64, %ymm7, %ymm1, %ymm1
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm1, %ymm1
vpxor %ymm9, %ymm1, %ymm12
vpermq $30, %ymm8, %ymm1
vpblendd $48, %ymm6, %ymm1, %ymm1
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm1, %ymm11, %ymm11
vpblendd $12, %ymm0, %ymm7, %ymm1
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm13, %ymm13
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm0, %ymm13, %ymm13
vpandn %ymm13, %ymm1, %ymm1
vpxor %ymm10, %ymm1, %ymm1
vpermq $0, %ymm2, %ymm13
vpermq $27, %ymm4, %ymm2
vpermq $-115, %ymm5, %ymm4
vpermq $114, %ymm12, %ymm5
vpblendd $12, %ymm3, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm0, %ymm9
vpblendd $48, %ymm0, %ymm12, %ymm0
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm0, %ymm0
vpblendd $-64, %ymm3, %ymm9, %ymm3
vpandn %ymm3, %ymm0, %ymm3
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm0
vpxor %ymm7, %ymm3, %ymm3
vpxor (%rcx,%rdx), %ymm6, %ymm6
addq $32, %rdx
decq %r8
jne L_sha3_512_64$2
vmovdqu %ymm6, (%rsp)
vmovdqu %ymm0, 32(%rsp)
vmovdqu %ymm1, 64(%rsp)
vmovdqu %ymm2, 96(%rsp)
vmovdqu %ymm3, 128(%rsp)
vmovdqu %ymm4, 160(%rsp)
vmovdqu %ymm5, 192(%rsp)
movq glob_data + 6200(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, (%rax)
movq glob_data + 6208(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 8(%rax)
movq glob_data + 6216(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 16(%rax)
movq glob_data + 6224(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 24(%rax)
movq glob_data + 6232(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 32(%rax)
movq glob_data + 6240(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 40(%rax)
movq glob_data + 6248(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 48(%rax)
movq glob_data + 6256(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 56(%rax)
jmp *224(%rsp)
L_shake256_128_33$1:
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, (%rsp)
vmovdqu %ymm0, 32(%rsp)
vmovdqu %ymm0, 64(%rsp)
vmovdqu %ymm0, 96(%rsp)
vmovdqu %ymm0, 128(%rsp)
vmovdqu %ymm0, 160(%rsp)
vmovdqu %ymm0, 192(%rsp)
vpbroadcastq (%rcx), %ymm6
movq 8(%rcx), %rdx
movq glob_data + 6208(%rip), %rsi
movq %rdx, (%rsp,%rsi,8)
movq 16(%rcx), %rdx
movq glob_data + 6216(%rip), %rsi
movq %rdx, (%rsp,%rsi,8)
movq 24(%rcx), %rdx
movq glob_data + 6224(%rip), %rsi
movq %rdx, (%rsp,%rsi,8)
movb 32(%rcx), %cl
movq glob_data + 6232(%rip), %rdx
shlq $3, %rdx
movb %cl, (%rsp,%rdx)
incq %rdx
movb $31, (%rsp,%rdx)
movq glob_data + 6328(%rip), %rcx
shlq $3, %rcx
movq $135, %rdx
andq $7, %rdx
addq %rdx, %rcx
xorb $-128, (%rsp,%rcx)
vmovdqu 32(%rsp), %ymm0
vmovdqu 64(%rsp), %ymm1
vmovdqu 96(%rsp), %ymm2
vmovdqu 128(%rsp), %ymm3
vmovdqu 160(%rsp), %ymm4
vmovdqu 192(%rsp), %ymm5
leaq glob_data + 3328(%rip), %rcx
movq $0, %rdx
leaq glob_data + 3136(%rip), %rsi
leaq glob_data + 2944(%rip), %rdi
movq $24, %r8
L_shake256_128_33$2:
vpshufd $78, %ymm1, %ymm8
vpxor %ymm2, %ymm4, %ymm7
vpxor %ymm5, %ymm3, %ymm9
vpxor %ymm0, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm1, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm1, %ymm1
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm1, %ymm7
vpsrlvq (%rdi), %ymm1, %ymm1
vpor %ymm7, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpsllvq 64(%rsi), %ymm2, %ymm7
vpsrlvq 64(%rdi), %ymm2, %ymm2
vpor %ymm7, %ymm2, %ymm2
vpxor %ymm9, %ymm3, %ymm3
vpsllvq 96(%rsi), %ymm3, %ymm7
vpsrlvq 96(%rdi), %ymm3, %ymm3
vpor %ymm7, %ymm3, %ymm10
vpxor %ymm9, %ymm4, %ymm3
vpsllvq 128(%rsi), %ymm3, %ymm4
vpsrlvq 128(%rdi), %ymm3, %ymm3
vpor %ymm4, %ymm3, %ymm4
vpxor %ymm9, %ymm5, %ymm5
vpermq $-115, %ymm1, %ymm3
vpermq $-115, %ymm2, %ymm7
vpsllvq 160(%rsi), %ymm5, %ymm1
vpsrlvq 160(%rdi), %ymm5, %ymm2
vpor %ymm1, %ymm2, %ymm8
vpxor %ymm9, %ymm0, %ymm1
vpermq $27, %ymm10, %ymm0
vpermq $114, %ymm4, %ymm9
vpsllvq 32(%rsi), %ymm1, %ymm2
vpsrlvq 32(%rdi), %ymm1, %ymm1
vpor %ymm2, %ymm1, %ymm10
vpsrldq $8, %ymm8, %ymm1
vpandn %ymm1, %ymm8, %ymm2
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm3, %ymm5
vpblendd $12, %ymm3, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm0, %ymm4, %ymm4
vpblendd $48, %ymm10, %ymm5, %ymm5
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm0, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm9, %ymm5, %ymm5
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm4, %ymm1, %ymm1
vpandn %ymm11, %ymm5, %ymm5
vpblendd $12, %ymm10, %ymm0, %ymm11
vpblendd $12, %ymm0, %ymm3, %ymm12
vpxor %ymm3, %ymm1, %ymm4
vpblendd $48, %ymm3, %ymm11, %ymm1
vpblendd $48, %ymm7, %ymm12, %ymm11
vpxor %ymm0, %ymm5, %ymm5
vpblendd $-64, %ymm7, %ymm1, %ymm1
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm1, %ymm1
vpxor %ymm9, %ymm1, %ymm12
vpermq $30, %ymm8, %ymm1
vpblendd $48, %ymm6, %ymm1, %ymm1
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm1, %ymm11, %ymm11
vpblendd $12, %ymm0, %ymm7, %ymm1
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm13, %ymm13
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm0, %ymm13, %ymm13
vpandn %ymm13, %ymm1, %ymm1
vpxor %ymm10, %ymm1, %ymm1
vpermq $0, %ymm2, %ymm13
vpermq $27, %ymm4, %ymm2
vpermq $-115, %ymm5, %ymm4
vpermq $114, %ymm12, %ymm5
vpblendd $12, %ymm3, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm0, %ymm9
vpblendd $48, %ymm0, %ymm12, %ymm0
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm0, %ymm0
vpblendd $-64, %ymm3, %ymm9, %ymm3
vpandn %ymm3, %ymm0, %ymm3
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm0
vpxor %ymm7, %ymm3, %ymm3
vpxor (%rcx,%rdx), %ymm6, %ymm6
addq $32, %rdx
decq %r8
jne L_shake256_128_33$2
vmovdqu %ymm6, (%rsp)
vmovdqu %ymm0, 32(%rsp)
vmovdqu %ymm1, 64(%rsp)
vmovdqu %ymm2, 96(%rsp)
vmovdqu %ymm3, 128(%rsp)
vmovdqu %ymm4, 160(%rsp)
vmovdqu %ymm5, 192(%rsp)
movq glob_data + 6200(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, (%rax)
movq glob_data + 6208(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 8(%rax)
movq glob_data + 6216(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 16(%rax)
movq glob_data + 6224(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 24(%rax)
movq glob_data + 6232(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 32(%rax)
movq glob_data + 6240(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 40(%rax)
movq glob_data + 6248(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 48(%rax)
movq glob_data + 6256(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 56(%rax)
movq glob_data + 6264(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 64(%rax)
movq glob_data + 6272(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 72(%rax)
movq glob_data + 6280(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 80(%rax)
movq glob_data + 6288(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 88(%rax)
movq glob_data + 6296(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 96(%rax)
movq glob_data + 6304(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 104(%rax)
movq glob_data + 6312(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 112(%rax)
movq glob_data + 6320(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 120(%rax)
jmp *224(%rsp)
L_shake256_64$1:
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, (%rsp)
vmovdqu %ymm0, 32(%rsp)
vmovdqu %ymm0, 64(%rsp)
vmovdqu %ymm0, 96(%rsp)
vmovdqu %ymm0, 128(%rsp)
vmovdqu %ymm0, 160(%rsp)
vmovdqu %ymm0, 192(%rsp)
vpbroadcastq (%rax), %ymm4
movq glob_data + 6208(%rip), %rsi
movq 8(%rax), %rdi
movq %rdi, (%rsp,%rsi,8)
movq glob_data + 6216(%rip), %rsi
movq 16(%rax), %rdi
movq %rdi, (%rsp,%rsi,8)
movq glob_data + 6224(%rip), %rsi
movq 24(%rax), %rdi
movq %rdi, (%rsp,%rsi,8)
movq glob_data + 6232(%rip), %rsi
movq 32(%rax), %rdi
movq %rdi, (%rsp,%rsi,8)
movq glob_data + 6240(%rip), %rsi
movq 40(%rax), %rdi
movq %rdi, (%rsp,%rsi,8)
movq glob_data + 6248(%rip), %rsi
movq 48(%rax), %rdi
movq %rdi, (%rsp,%rsi,8)
movq glob_data + 6256(%rip), %rsi
movq 56(%rax), %rax
movq %rax, (%rsp,%rsi,8)
movq glob_data + 6264(%rip), %rax
shlq $3, %rax
movb $31, (%rsp,%rax)
movq glob_data + 6328(%rip), %rax
shlq $3, %rax
movq $135, %rsi
andq $7, %rsi
addq %rsi, %rax
xorb $-128, (%rsp,%rax)
vmovdqu 32(%rsp), %ymm5
vmovdqu 64(%rsp), %ymm0
vmovdqu 96(%rsp), %ymm1
vmovdqu 128(%rsp), %ymm6
vmovdqu 160(%rsp), %ymm2
vmovdqu 192(%rsp), %ymm3
movq $136, %rsi
leaq glob_data + 6200(%rip), %rax
jmp L_shake256_64$7
L_shake256_64$8:
leaq glob_data + 3328(%rip), %rdi
movq $0, %r8
leaq glob_data + 3136(%rip), %r9
leaq glob_data + 2944(%rip), %r10
movq $24, %r11
L_shake256_64$11:
vpshufd $78, %ymm0, %ymm8
vpxor %ymm1, %ymm2, %ymm7
vpxor %ymm3, %ymm6, %ymm9
vpxor %ymm5, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm0, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm4, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm0, %ymm0
vpxor %ymm11, %ymm4, %ymm4
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%r9), %ymm0, %ymm7
vpsrlvq (%r10), %ymm0, %ymm0
vpor %ymm7, %ymm0, %ymm0
vpxor %ymm9, %ymm1, %ymm1
vpsllvq 64(%r9), %ymm1, %ymm7
vpsrlvq 64(%r10), %ymm1, %ymm1
vpor %ymm7, %ymm1, %ymm1
vpxor %ymm9, %ymm6, %ymm6
vpsllvq 96(%r9), %ymm6, %ymm7
vpsrlvq 96(%r10), %ymm6, %ymm6
vpor %ymm7, %ymm6, %ymm10
vpxor %ymm9, %ymm2, %ymm2
vpsllvq 128(%r9), %ymm2, %ymm6
vpsrlvq 128(%r10), %ymm2, %ymm2
vpor %ymm6, %ymm2, %ymm2
vpxor %ymm9, %ymm3, %ymm3
vpermq $-115, %ymm0, %ymm6
vpermq $-115, %ymm1, %ymm7
vpsllvq 160(%r9), %ymm3, %ymm0
vpsrlvq 160(%r10), %ymm3, %ymm1
vpor %ymm0, %ymm1, %ymm8
vpxor %ymm9, %ymm5, %ymm0
vpermq $27, %ymm10, %ymm5
vpermq $114, %ymm2, %ymm9
vpsllvq 32(%r9), %ymm0, %ymm1
vpsrlvq 32(%r10), %ymm0, %ymm0
vpor %ymm1, %ymm0, %ymm10
vpsrldq $8, %ymm8, %ymm0
vpandn %ymm0, %ymm8, %ymm1
vpblendd $12, %ymm9, %ymm10, %ymm0
vpblendd $12, %ymm10, %ymm7, %ymm2
vpblendd $12, %ymm7, %ymm6, %ymm3
vpblendd $12, %ymm6, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm0, %ymm0
vpblendd $48, %ymm5, %ymm2, %ymm2
vpblendd $48, %ymm10, %ymm3, %ymm3
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm5, %ymm0, %ymm0
vpblendd $-64, %ymm9, %ymm2, %ymm2
vpblendd $-64, %ymm9, %ymm3, %ymm3
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm2, %ymm0, %ymm0
vpandn %ymm11, %ymm3, %ymm3
vpblendd $12, %ymm10, %ymm5, %ymm11
vpblendd $12, %ymm5, %ymm6, %ymm12
vpxor %ymm6, %ymm0, %ymm2
vpblendd $48, %ymm6, %ymm11, %ymm0
vpblendd $48, %ymm7, %ymm12, %ymm11
vpxor %ymm5, %ymm3, %ymm3
vpblendd $-64, %ymm7, %ymm0, %ymm0
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm0, %ymm0
vpxor %ymm9, %ymm0, %ymm12
vpermq $30, %ymm8, %ymm0
vpblendd $48, %ymm4, %ymm0, %ymm0
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm4, %ymm11, %ymm11
vpandn %ymm0, %ymm11, %ymm11
vpblendd $12, %ymm5, %ymm7, %ymm0
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm0, %ymm0
vpblendd $48, %ymm6, %ymm13, %ymm13
vpblendd $-64, %ymm6, %ymm0, %ymm0
vpblendd $-64, %ymm5, %ymm13, %ymm13
vpandn %ymm13, %ymm0, %ymm0
vpxor %ymm10, %ymm0, %ymm0
vpermq $0, %ymm1, %ymm13
vpermq $27, %ymm2, %ymm1
vpermq $-115, %ymm3, %ymm2
vpermq $114, %ymm12, %ymm3
vpblendd $12, %ymm6, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm5, %ymm9
vpblendd $48, %ymm5, %ymm12, %ymm5
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm5, %ymm5
vpblendd $-64, %ymm6, %ymm9, %ymm6
vpandn %ymm6, %ymm5, %ymm6
vpxor %ymm13, %ymm4, %ymm4
vpxor %ymm8, %ymm11, %ymm5
vpxor %ymm7, %ymm6, %ymm6
vpxor (%rdi,%r8), %ymm4, %ymm4
addq $32, %r8
decq %r11
jne L_shake256_64$11
vmovdqu %ymm4, (%rsp)
vmovdqu %ymm5, 32(%rsp)
vmovdqu %ymm0, 64(%rsp)
vmovdqu %ymm1, 96(%rsp)
vmovdqu %ymm6, 128(%rsp)
vmovdqu %ymm2, 160(%rsp)
vmovdqu %ymm3, 192(%rsp)
movq %rsi, %rdi
shrq $3, %rdi
movq $0, %r8
jmp L_shake256_64$9
L_shake256_64$10:
movq (%rax,%r8,8), %r9
movq (%rsp,%r9,8), %r9
movq %r9, (%rdx,%r8,8)
incq %r8
L_shake256_64$9:
cmpq %rdi, %r8
jb L_shake256_64$10
addq %rsi, %rdx
subq %rsi, %rcx
L_shake256_64$7:
cmpq %rsi, %rcx
jnbe L_shake256_64$8
leaq glob_data + 3328(%rip), %rsi
movq $0, %rdi
leaq glob_data + 3136(%rip), %r8
leaq glob_data + 2944(%rip), %r9
movq $24, %r10
L_shake256_64$6:
vpshufd $78, %ymm0, %ymm8
vpxor %ymm1, %ymm2, %ymm7
vpxor %ymm3, %ymm6, %ymm9
vpxor %ymm5, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm0, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm4, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm0, %ymm0
vpxor %ymm11, %ymm4, %ymm4
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%r8), %ymm0, %ymm7
vpsrlvq (%r9), %ymm0, %ymm0
vpor %ymm7, %ymm0, %ymm0
vpxor %ymm9, %ymm1, %ymm1
vpsllvq 64(%r8), %ymm1, %ymm7
vpsrlvq 64(%r9), %ymm1, %ymm1
vpor %ymm7, %ymm1, %ymm1
vpxor %ymm9, %ymm6, %ymm6
vpsllvq 96(%r8), %ymm6, %ymm7
vpsrlvq 96(%r9), %ymm6, %ymm6
vpor %ymm7, %ymm6, %ymm10
vpxor %ymm9, %ymm2, %ymm2
vpsllvq 128(%r8), %ymm2, %ymm6
vpsrlvq 128(%r9), %ymm2, %ymm2
vpor %ymm6, %ymm2, %ymm2
vpxor %ymm9, %ymm3, %ymm3
vpermq $-115, %ymm0, %ymm6
vpermq $-115, %ymm1, %ymm7
vpsllvq 160(%r8), %ymm3, %ymm0
vpsrlvq 160(%r9), %ymm3, %ymm1
vpor %ymm0, %ymm1, %ymm8
vpxor %ymm9, %ymm5, %ymm0
vpermq $27, %ymm10, %ymm5
vpermq $114, %ymm2, %ymm9
vpsllvq 32(%r8), %ymm0, %ymm1
vpsrlvq 32(%r9), %ymm0, %ymm0
vpor %ymm1, %ymm0, %ymm10
vpsrldq $8, %ymm8, %ymm0
vpandn %ymm0, %ymm8, %ymm1
vpblendd $12, %ymm9, %ymm10, %ymm0
vpblendd $12, %ymm10, %ymm7, %ymm2
vpblendd $12, %ymm7, %ymm6, %ymm3
vpblendd $12, %ymm6, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm0, %ymm0
vpblendd $48, %ymm5, %ymm2, %ymm2
vpblendd $48, %ymm10, %ymm3, %ymm3
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm5, %ymm0, %ymm0
vpblendd $-64, %ymm9, %ymm2, %ymm2
vpblendd $-64, %ymm9, %ymm3, %ymm3
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm2, %ymm0, %ymm0
vpandn %ymm11, %ymm3, %ymm3
vpblendd $12, %ymm10, %ymm5, %ymm11
vpblendd $12, %ymm5, %ymm6, %ymm12
vpxor %ymm6, %ymm0, %ymm2
vpblendd $48, %ymm6, %ymm11, %ymm0
vpblendd $48, %ymm7, %ymm12, %ymm11
vpxor %ymm5, %ymm3, %ymm3
vpblendd $-64, %ymm7, %ymm0, %ymm0
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm0, %ymm0
vpxor %ymm9, %ymm0, %ymm12
vpermq $30, %ymm8, %ymm0
vpblendd $48, %ymm4, %ymm0, %ymm0
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm4, %ymm11, %ymm11
vpandn %ymm0, %ymm11, %ymm11
vpblendd $12, %ymm5, %ymm7, %ymm0
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm0, %ymm0
vpblendd $48, %ymm6, %ymm13, %ymm13
vpblendd $-64, %ymm6, %ymm0, %ymm0
vpblendd $-64, %ymm5, %ymm13, %ymm13
vpandn %ymm13, %ymm0, %ymm0
vpxor %ymm10, %ymm0, %ymm0
vpermq $0, %ymm1, %ymm13
vpermq $27, %ymm2, %ymm1
vpermq $-115, %ymm3, %ymm2
vpermq $114, %ymm12, %ymm3
vpblendd $12, %ymm6, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm5, %ymm9
vpblendd $48, %ymm5, %ymm12, %ymm5
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm5, %ymm5
vpblendd $-64, %ymm6, %ymm9, %ymm6
vpandn %ymm6, %ymm5, %ymm6
vpxor %ymm13, %ymm4, %ymm4
vpxor %ymm8, %ymm11, %ymm5
vpxor %ymm7, %ymm6, %ymm6
vpxor (%rsi,%rdi), %ymm4, %ymm4
addq $32, %rdi
decq %r10
jne L_shake256_64$6
vmovdqu %ymm4, (%rsp)
vmovdqu %ymm5, 32(%rsp)
vmovdqu %ymm0, 64(%rsp)
vmovdqu %ymm1, 96(%rsp)
vmovdqu %ymm6, 128(%rsp)
vmovdqu %ymm2, 160(%rsp)
vmovdqu %ymm3, 192(%rsp)
movq %rcx, %rsi
shrq $3, %rsi
movq $0, %rdi
jmp L_shake256_64$4
L_shake256_64$5:
movq (%rax,%rdi,8), %r8
movq (%rsp,%r8,8), %r8
movq %r8, (%rdx,%rdi,8)
incq %rdi
L_shake256_64$4:
cmpq %rsi, %rdi
jb L_shake256_64$5
movq (%rax,%rdi,8), %rax
shlq $3, %rdi
shlq $3, %rax
jmp L_shake256_64$2
L_shake256_64$3:
movb (%rsp,%rax), %sil
movb %sil, (%rdx,%rdi)
incq %rdi
incq %rax
L_shake256_64$2:
cmpq %rcx, %rdi
jb L_shake256_64$3
jmp *224(%rsp)
L_sha3_256_32$1:
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, (%rsp)
vmovdqu %ymm0, 32(%rsp)
vmovdqu %ymm0, 64(%rsp)
vmovdqu %ymm0, 96(%rsp)
vmovdqu %ymm0, 128(%rsp)
vmovdqu %ymm0, 160(%rsp)
vmovdqu %ymm0, 192(%rsp)
vpbroadcastq (%rcx), %ymm6
movq 8(%rcx), %rdx
movq glob_data + 6208(%rip), %rsi
movq %rdx, (%rsp,%rsi,8)
movq 16(%rcx), %rdx
movq glob_data + 6216(%rip), %rsi
movq %rdx, (%rsp,%rsi,8)
movq 24(%rcx), %rcx
movq glob_data + 6224(%rip), %rdx
movq %rcx, (%rsp,%rdx,8)
movq glob_data + 6232(%rip), %rcx
shlq $3, %rcx
movb $6, (%rsp,%rcx)
movq glob_data + 6328(%rip), %rcx
shlq $3, %rcx
movq $135, %rdx
andq $7, %rdx
addq %rdx, %rcx
xorb $-128, (%rsp,%rcx)
vmovdqu 32(%rsp), %ymm0
vmovdqu 64(%rsp), %ymm1
vmovdqu 96(%rsp), %ymm2
vmovdqu 128(%rsp), %ymm3
vmovdqu 160(%rsp), %ymm4
vmovdqu 192(%rsp), %ymm5
leaq glob_data + 3328(%rip), %rcx
movq $0, %rdx
leaq glob_data + 3136(%rip), %rsi
leaq glob_data + 2944(%rip), %rdi
movq $24, %r8
L_sha3_256_32$2:
vpshufd $78, %ymm1, %ymm8
vpxor %ymm2, %ymm4, %ymm7
vpxor %ymm5, %ymm3, %ymm9
vpxor %ymm0, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm1, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm1, %ymm1
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm1, %ymm7
vpsrlvq (%rdi), %ymm1, %ymm1
vpor %ymm7, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpsllvq 64(%rsi), %ymm2, %ymm7
vpsrlvq 64(%rdi), %ymm2, %ymm2
vpor %ymm7, %ymm2, %ymm2
vpxor %ymm9, %ymm3, %ymm3
vpsllvq 96(%rsi), %ymm3, %ymm7
vpsrlvq 96(%rdi), %ymm3, %ymm3
vpor %ymm7, %ymm3, %ymm10
vpxor %ymm9, %ymm4, %ymm3
vpsllvq 128(%rsi), %ymm3, %ymm4
vpsrlvq 128(%rdi), %ymm3, %ymm3
vpor %ymm4, %ymm3, %ymm4
vpxor %ymm9, %ymm5, %ymm5
vpermq $-115, %ymm1, %ymm3
vpermq $-115, %ymm2, %ymm7
vpsllvq 160(%rsi), %ymm5, %ymm1
vpsrlvq 160(%rdi), %ymm5, %ymm2
vpor %ymm1, %ymm2, %ymm8
vpxor %ymm9, %ymm0, %ymm1
vpermq $27, %ymm10, %ymm0
vpermq $114, %ymm4, %ymm9
vpsllvq 32(%rsi), %ymm1, %ymm2
vpsrlvq 32(%rdi), %ymm1, %ymm1
vpor %ymm2, %ymm1, %ymm10
vpsrldq $8, %ymm8, %ymm1
vpandn %ymm1, %ymm8, %ymm2
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm3, %ymm5
vpblendd $12, %ymm3, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm0, %ymm4, %ymm4
vpblendd $48, %ymm10, %ymm5, %ymm5
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm0, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm9, %ymm5, %ymm5
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm4, %ymm1, %ymm1
vpandn %ymm11, %ymm5, %ymm5
vpblendd $12, %ymm10, %ymm0, %ymm11
vpblendd $12, %ymm0, %ymm3, %ymm12
vpxor %ymm3, %ymm1, %ymm4
vpblendd $48, %ymm3, %ymm11, %ymm1
vpblendd $48, %ymm7, %ymm12, %ymm11
vpxor %ymm0, %ymm5, %ymm5
vpblendd $-64, %ymm7, %ymm1, %ymm1
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm1, %ymm1
vpxor %ymm9, %ymm1, %ymm12
vpermq $30, %ymm8, %ymm1
vpblendd $48, %ymm6, %ymm1, %ymm1
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm1, %ymm11, %ymm11
vpblendd $12, %ymm0, %ymm7, %ymm1
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm13, %ymm13
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm0, %ymm13, %ymm13
vpandn %ymm13, %ymm1, %ymm1
vpxor %ymm10, %ymm1, %ymm1
vpermq $0, %ymm2, %ymm13
vpermq $27, %ymm4, %ymm2
vpermq $-115, %ymm5, %ymm4
vpermq $114, %ymm12, %ymm5
vpblendd $12, %ymm3, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm0, %ymm9
vpblendd $48, %ymm0, %ymm12, %ymm0
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm0, %ymm0
vpblendd $-64, %ymm3, %ymm9, %ymm3
vpandn %ymm3, %ymm0, %ymm3
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm0
vpxor %ymm7, %ymm3, %ymm3
vpxor (%rcx,%rdx), %ymm6, %ymm6
addq $32, %rdx
decq %r8
jne L_sha3_256_32$2
vmovdqu %ymm6, (%rsp)
vmovdqu %ymm0, 32(%rsp)
vmovdqu %ymm1, 64(%rsp)
vmovdqu %ymm2, 96(%rsp)
vmovdqu %ymm3, 128(%rsp)
vmovdqu %ymm4, 160(%rsp)
vmovdqu %ymm5, 192(%rsp)
movq glob_data + 6200(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, (%rax)
movq glob_data + 6208(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 8(%rax)
movq glob_data + 6216(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 16(%rax)
movq glob_data + 6224(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 24(%rax)
jmp *224(%rsp)
L_sha3_256$1:
vpxor %ymm6, %ymm6, %ymm6
vpxor %ymm3, %ymm3, %ymm3
vpxor %ymm4, %ymm4, %ymm4
vpxor %ymm0, %ymm0, %ymm0
vpxor %ymm5, %ymm5, %ymm5
vpxor %ymm1, %ymm1, %ymm1
vpxor %ymm2, %ymm2, %ymm2
movb $6, %cl
movq $136, %rdx
leaq glob_data + 6200(%rip), %rsi
vpxor %ymm7, %ymm7, %ymm7
vmovdqu %ymm7, (%rsp)
vmovdqu %ymm7, 32(%rsp)
vmovdqu %ymm7, 64(%rsp)
vmovdqu %ymm7, 96(%rsp)
vmovdqu %ymm7, 128(%rsp)
vmovdqu %ymm7, 160(%rsp)
vmovdqu %ymm7, 192(%rsp)
jmp L_sha3_256$7
L_sha3_256$8:
movq %rdx, %r9
shrq $3, %r9
movq $0, %r10
jmp L_sha3_256$10
L_sha3_256$11:
movq (%r8,%r10,8), %r11
movq (%rsi,%r10,8), %rbx
movq %r11, (%rsp,%rbx,8)
incq %r10
L_sha3_256$10:
cmpq %r9, %r10
jb L_sha3_256$11
movq (%rsp), %r9
movq %r9, 8(%rsp)
movq %r9, 16(%rsp)
movq %r9, 24(%rsp)
vpxor (%rsp), %ymm6, %ymm6
vpxor 32(%rsp), %ymm3, %ymm3
vpxor 64(%rsp), %ymm4, %ymm4
vpxor 96(%rsp), %ymm0, %ymm0
vpxor 128(%rsp), %ymm5, %ymm5
vpxor 160(%rsp), %ymm1, %ymm1
vpxor 192(%rsp), %ymm2, %ymm2
addq %rdx, %r8
subq %rdx, %rdi
leaq glob_data + 3328(%rip), %r9
movq $0, %r10
leaq glob_data + 3136(%rip), %r11
leaq glob_data + 2944(%rip), %rbx
movq $24, %rbp
L_sha3_256$9:
vpshufd $78, %ymm4, %ymm8
vpxor %ymm0, %ymm1, %ymm7
vpxor %ymm2, %ymm5, %ymm9
vpxor %ymm3, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm4, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm4, %ymm4
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%r11), %ymm4, %ymm7
vpsrlvq (%rbx), %ymm4, %ymm4
vpor %ymm7, %ymm4, %ymm4
vpxor %ymm9, %ymm0, %ymm0
vpsllvq 64(%r11), %ymm0, %ymm7
vpsrlvq 64(%rbx), %ymm0, %ymm0
vpor %ymm7, %ymm0, %ymm0
vpxor %ymm9, %ymm5, %ymm5
vpsllvq 96(%r11), %ymm5, %ymm7
vpsrlvq 96(%rbx), %ymm5, %ymm5
vpor %ymm7, %ymm5, %ymm10
vpxor %ymm9, %ymm1, %ymm1
vpsllvq 128(%r11), %ymm1, %ymm5
vpsrlvq 128(%rbx), %ymm1, %ymm1
vpor %ymm5, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpermq $-115, %ymm4, %ymm5
vpermq $-115, %ymm0, %ymm7
vpsllvq 160(%r11), %ymm2, %ymm0
vpsrlvq 160(%rbx), %ymm2, %ymm2
vpor %ymm0, %ymm2, %ymm8
vpxor %ymm9, %ymm3, %ymm0
vpermq $27, %ymm10, %ymm3
vpermq $114, %ymm1, %ymm9
vpsllvq 32(%r11), %ymm0, %ymm1
vpsrlvq 32(%rbx), %ymm0, %ymm0
vpor %ymm1, %ymm0, %ymm10
vpsrldq $8, %ymm8, %ymm0
vpandn %ymm0, %ymm8, %ymm0
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm2
vpblendd $12, %ymm7, %ymm5, %ymm4
vpblendd $12, %ymm5, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm2, %ymm2
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm2, %ymm2
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm2, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm2
vpblendd $12, %ymm10, %ymm3, %ymm4
vpblendd $12, %ymm3, %ymm5, %ymm11
vpxor %ymm5, %ymm1, %ymm1
vpblendd $48, %ymm5, %ymm4, %ymm4
vpblendd $48, %ymm7, %ymm11, %ymm11
vpxor %ymm3, %ymm2, %ymm2
vpblendd $-64, %ymm7, %ymm4, %ymm4
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm4, %ymm4
vpxor %ymm9, %ymm4, %ymm12
vpermq $30, %ymm8, %ymm4
vpblendd $48, %ymm6, %ymm4, %ymm4
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm4, %ymm11, %ymm11
vpblendd $12, %ymm3, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm4, %ymm4
vpblendd $48, %ymm5, %ymm13, %ymm13
vpblendd $-64, %ymm5, %ymm4, %ymm4
vpblendd $-64, %ymm3, %ymm13, %ymm13
vpandn %ymm13, %ymm4, %ymm4
vpxor %ymm10, %ymm4, %ymm4
vpermq $0, %ymm0, %ymm13
vpermq $27, %ymm1, %ymm0
vpermq $-115, %ymm2, %ymm1
vpermq $114, %ymm12, %ymm2
vpblendd $12, %ymm5, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm3, %ymm9
vpblendd $48, %ymm3, %ymm12, %ymm3
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm3, %ymm3
vpblendd $-64, %ymm5, %ymm9, %ymm5
vpandn %ymm5, %ymm3, %ymm5
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm3
vpxor %ymm7, %ymm5, %ymm5
vpxor (%r9,%r10), %ymm6, %ymm6
addq $32, %r10
decq %rbp
jne L_sha3_256$9
L_sha3_256$7:
cmpq %rdx, %rdi
jnb L_sha3_256$8
vpxor %ymm7, %ymm7, %ymm7
vmovdqu %ymm7, (%rsp)
vmovdqu %ymm7, 32(%rsp)
vmovdqu %ymm7, 64(%rsp)
vmovdqu %ymm7, 96(%rsp)
vmovdqu %ymm7, 128(%rsp)
vmovdqu %ymm7, 160(%rsp)
vmovdqu %ymm7, 192(%rsp)
movq %rdi, %r9
shrq $3, %r9
movq $0, %r10
jmp L_sha3_256$5
L_sha3_256$6:
movq (%r8,%r10,8), %r11
movq (%rsi,%r10,8), %rbx
movq %r11, (%rsp,%rbx,8)
incq %r10
L_sha3_256$5:
cmpq %r9, %r10
jb L_sha3_256$6
movq (%rsi,%r10,8), %r9
shlq $3, %r9
shlq $3, %r10
jmp L_sha3_256$3
L_sha3_256$4:
movb (%r8,%r10), %r11b
movb %r11b, (%rsp,%r9)
incq %r10
incq %r9
L_sha3_256$3:
cmpq %rdi, %r10
jb L_sha3_256$4
movb %cl, (%rsp,%r9)
movq %rdx, %rcx
addq $-1, %rcx
shrq $3, %rcx
movq (%rsi,%rcx,8), %rcx
shlq $3, %rcx
addq $-1, %rdx
andq $7, %rdx
addq %rdx, %rcx
xorb $-128, (%rsp,%rcx)
movq (%rsp), %rcx
movq %rcx, 8(%rsp)
movq %rcx, 16(%rsp)
movq %rcx, 24(%rsp)
vpxor (%rsp), %ymm6, %ymm6
vpxor 32(%rsp), %ymm3, %ymm7
vpxor 64(%rsp), %ymm4, %ymm3
vpxor 96(%rsp), %ymm0, %ymm0
vpxor 128(%rsp), %ymm5, %ymm4
vpxor 160(%rsp), %ymm1, %ymm1
vpxor 192(%rsp), %ymm2, %ymm2
leaq glob_data + 3328(%rip), %rcx
movq $0, %rdx
leaq glob_data + 3136(%rip), %rsi
leaq glob_data + 2944(%rip), %rdi
movq $24, %r8
L_sha3_256$2:
vpshufd $78, %ymm3, %ymm5
vpxor %ymm0, %ymm1, %ymm8
vpxor %ymm2, %ymm4, %ymm9
vpxor %ymm7, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm10
vpermq $-109, %ymm10, %ymm8
vpxor %ymm3, %ymm5, %ymm5
vpermq $78, %ymm5, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm8, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm5, %ymm5
vpxor %ymm9, %ymm5, %ymm9
vpsrlq $63, %ymm9, %ymm5
vpaddq %ymm9, %ymm9, %ymm12
vpor %ymm5, %ymm12, %ymm12
vpxor %ymm11, %ymm3, %ymm3
vpxor %ymm11, %ymm6, %ymm5
vpblendd $-64, %ymm12, %ymm10, %ymm6
vpblendd $3, %ymm9, %ymm8, %ymm8
vpxor %ymm8, %ymm6, %ymm9
vpsllvq (%rsi), %ymm3, %ymm6
vpsrlvq (%rdi), %ymm3, %ymm3
vpor %ymm6, %ymm3, %ymm3
vpxor %ymm9, %ymm0, %ymm0
vpsllvq 64(%rsi), %ymm0, %ymm6
vpsrlvq 64(%rdi), %ymm0, %ymm0
vpor %ymm6, %ymm0, %ymm0
vpxor %ymm9, %ymm4, %ymm4
vpsllvq 96(%rsi), %ymm4, %ymm6
vpsrlvq 96(%rdi), %ymm4, %ymm4
vpor %ymm6, %ymm4, %ymm10
vpxor %ymm9, %ymm1, %ymm1
vpsllvq 128(%rsi), %ymm1, %ymm4
vpsrlvq 128(%rdi), %ymm1, %ymm1
vpor %ymm4, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpermq $-115, %ymm3, %ymm4
vpermq $-115, %ymm0, %ymm6
vpsllvq 160(%rsi), %ymm2, %ymm0
vpsrlvq 160(%rdi), %ymm2, %ymm2
vpor %ymm0, %ymm2, %ymm8
vpxor %ymm9, %ymm7, %ymm0
vpermq $27, %ymm10, %ymm7
vpermq $114, %ymm1, %ymm9
vpsllvq 32(%rsi), %ymm0, %ymm1
vpsrlvq 32(%rdi), %ymm0, %ymm0
vpor %ymm1, %ymm0, %ymm10
vpsrldq $8, %ymm8, %ymm0
vpandn %ymm0, %ymm8, %ymm0
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm6, %ymm2
vpblendd $12, %ymm6, %ymm4, %ymm3
vpblendd $12, %ymm4, %ymm10, %ymm11
vpblendd $48, %ymm6, %ymm1, %ymm1
vpblendd $48, %ymm7, %ymm2, %ymm2
vpblendd $48, %ymm10, %ymm3, %ymm3
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm7, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm2, %ymm2
vpblendd $-64, %ymm9, %ymm3, %ymm3
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm2, %ymm1, %ymm1
vpandn %ymm11, %ymm3, %ymm2
vpblendd $12, %ymm10, %ymm7, %ymm3
vpblendd $12, %ymm7, %ymm4, %ymm11
vpxor %ymm4, %ymm1, %ymm1
vpblendd $48, %ymm4, %ymm3, %ymm3
vpblendd $48, %ymm6, %ymm11, %ymm11
vpxor %ymm7, %ymm2, %ymm2
vpblendd $-64, %ymm6, %ymm3, %ymm3
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm3, %ymm3
vpxor %ymm9, %ymm3, %ymm12
vpermq $30, %ymm8, %ymm3
vpblendd $48, %ymm5, %ymm3, %ymm3
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm5, %ymm11, %ymm11
vpandn %ymm3, %ymm11, %ymm11
vpblendd $12, %ymm7, %ymm6, %ymm3
vpblendd $12, %ymm6, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm3, %ymm3
vpblendd $48, %ymm4, %ymm13, %ymm13
vpblendd $-64, %ymm4, %ymm3, %ymm3
vpblendd $-64, %ymm7, %ymm13, %ymm13
vpandn %ymm13, %ymm3, %ymm3
vpxor %ymm10, %ymm3, %ymm3
vpermq $0, %ymm0, %ymm13
vpermq $27, %ymm1, %ymm0
vpermq $-115, %ymm2, %ymm1
vpermq $114, %ymm12, %ymm2
vpblendd $12, %ymm4, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm7, %ymm9
vpblendd $48, %ymm7, %ymm12, %ymm7
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm7, %ymm7
vpblendd $-64, %ymm4, %ymm9, %ymm4
vpandn %ymm4, %ymm7, %ymm4
vpxor %ymm13, %ymm5, %ymm5
vpxor %ymm8, %ymm11, %ymm7
vpxor %ymm6, %ymm4, %ymm4
vpxor (%rcx,%rdx), %ymm5, %ymm6
addq $32, %rdx
decq %r8
jne L_sha3_256$2
vmovdqu %ymm6, (%rsp)
vmovdqu %ymm7, 32(%rsp)
vmovdqu %ymm3, 64(%rsp)
vmovdqu %ymm0, 96(%rsp)
vmovdqu %ymm4, 128(%rsp)
vmovdqu %ymm1, 160(%rsp)
vmovdqu %ymm2, 192(%rsp)
leaq glob_data + 6200(%rip), %rcx
movq (%rcx), %rdx
movq (%rsp,%rdx,8), %rdx
movq %rdx, (%rax)
movq 8(%rcx), %rdx
movq (%rsp,%rdx,8), %rdx
movq %rdx, 8(%rax)
movq 16(%rcx), %rdx
movq (%rsp,%rdx,8), %rdx
movq %rdx, 16(%rax)
movq 24(%rcx), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 24(%rax)
jmp *224(%rsp)
L_keccak1600_avx2$1:
vpxor %ymm6, %ymm6, %ymm6
vpxor %ymm3, %ymm3, %ymm3
vpxor %ymm4, %ymm4, %ymm4
vpxor %ymm0, %ymm0, %ymm0
vpxor %ymm5, %ymm5, %ymm5
vpxor %ymm1, %ymm1, %ymm1
vpxor %ymm2, %ymm2, %ymm2
leaq glob_data + 6200(%rip), %rax
vpxor %ymm7, %ymm7, %ymm7
vmovdqu %ymm7, (%rsp)
vmovdqu %ymm7, 32(%rsp)
vmovdqu %ymm7, 64(%rsp)
vmovdqu %ymm7, 96(%rsp)
vmovdqu %ymm7, 128(%rsp)
vmovdqu %ymm7, 160(%rsp)
vmovdqu %ymm7, 192(%rsp)
jmp L_keccak1600_avx2$16
L_keccak1600_avx2$17:
movq %rcx, %r11
shrq $3, %r11
movq $0, %rbx
jmp L_keccak1600_avx2$19
L_keccak1600_avx2$20:
movq (%rsi,%rbx,8), %rbp
movq (%rax,%rbx,8), %r12
movq %rbp, (%rsp,%r12,8)
incq %rbx
L_keccak1600_avx2$19:
cmpq %r11, %rbx
jb L_keccak1600_avx2$20
movq (%rsp), %r11
movq %r11, 8(%rsp)
movq %r11, 16(%rsp)
movq %r11, 24(%rsp)
vpxor (%rsp), %ymm6, %ymm6
vpxor 32(%rsp), %ymm3, %ymm3
vpxor 64(%rsp), %ymm4, %ymm4
vpxor 96(%rsp), %ymm0, %ymm0
vpxor 128(%rsp), %ymm5, %ymm5
vpxor 160(%rsp), %ymm1, %ymm1
vpxor 192(%rsp), %ymm2, %ymm2
addq %rcx, %rsi
subq %rcx, %rdx
leaq glob_data + 3328(%rip), %r11
movq $0, %rbx
leaq glob_data + 3136(%rip), %rbp
leaq glob_data + 2944(%rip), %r12
movq $24, %r13
L_keccak1600_avx2$18:
vpshufd $78, %ymm4, %ymm8
vpxor %ymm0, %ymm1, %ymm7
vpxor %ymm2, %ymm5, %ymm9
vpxor %ymm3, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm4, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm4, %ymm4
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rbp), %ymm4, %ymm7
vpsrlvq (%r12), %ymm4, %ymm4
vpor %ymm7, %ymm4, %ymm4
vpxor %ymm9, %ymm0, %ymm0
vpsllvq 64(%rbp), %ymm0, %ymm7
vpsrlvq 64(%r12), %ymm0, %ymm0
vpor %ymm7, %ymm0, %ymm0
vpxor %ymm9, %ymm5, %ymm5
vpsllvq 96(%rbp), %ymm5, %ymm7
vpsrlvq 96(%r12), %ymm5, %ymm5
vpor %ymm7, %ymm5, %ymm10
vpxor %ymm9, %ymm1, %ymm1
vpsllvq 128(%rbp), %ymm1, %ymm5
vpsrlvq 128(%r12), %ymm1, %ymm1
vpor %ymm5, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpermq $-115, %ymm4, %ymm5
vpermq $-115, %ymm0, %ymm7
vpsllvq 160(%rbp), %ymm2, %ymm0
vpsrlvq 160(%r12), %ymm2, %ymm2
vpor %ymm0, %ymm2, %ymm8
vpxor %ymm9, %ymm3, %ymm0
vpermq $27, %ymm10, %ymm3
vpermq $114, %ymm1, %ymm9
vpsllvq 32(%rbp), %ymm0, %ymm1
vpsrlvq 32(%r12), %ymm0, %ymm0
vpor %ymm1, %ymm0, %ymm10
vpsrldq $8, %ymm8, %ymm0
vpandn %ymm0, %ymm8, %ymm0
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm2
vpblendd $12, %ymm7, %ymm5, %ymm4
vpblendd $12, %ymm5, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm2, %ymm2
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm2, %ymm2
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm2, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm2
vpblendd $12, %ymm10, %ymm3, %ymm4
vpblendd $12, %ymm3, %ymm5, %ymm11
vpxor %ymm5, %ymm1, %ymm1
vpblendd $48, %ymm5, %ymm4, %ymm4
vpblendd $48, %ymm7, %ymm11, %ymm11
vpxor %ymm3, %ymm2, %ymm2
vpblendd $-64, %ymm7, %ymm4, %ymm4
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm4, %ymm4
vpxor %ymm9, %ymm4, %ymm12
vpermq $30, %ymm8, %ymm4
vpblendd $48, %ymm6, %ymm4, %ymm4
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm4, %ymm11, %ymm11
vpblendd $12, %ymm3, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm4, %ymm4
vpblendd $48, %ymm5, %ymm13, %ymm13
vpblendd $-64, %ymm5, %ymm4, %ymm4
vpblendd $-64, %ymm3, %ymm13, %ymm13
vpandn %ymm13, %ymm4, %ymm4
vpxor %ymm10, %ymm4, %ymm4
vpermq $0, %ymm0, %ymm13
vpermq $27, %ymm1, %ymm0
vpermq $-115, %ymm2, %ymm1
vpermq $114, %ymm12, %ymm2
vpblendd $12, %ymm5, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm3, %ymm9
vpblendd $48, %ymm3, %ymm12, %ymm3
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm3, %ymm3
vpblendd $-64, %ymm5, %ymm9, %ymm5
vpandn %ymm5, %ymm3, %ymm5
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm3
vpxor %ymm7, %ymm5, %ymm5
vpxor (%r11,%rbx), %ymm6, %ymm6
addq $32, %rbx
decq %r13
jne L_keccak1600_avx2$18
L_keccak1600_avx2$16:
cmpq %rcx, %rdx
jnb L_keccak1600_avx2$17
vpxor %ymm7, %ymm7, %ymm7
vmovdqu %ymm7, (%rsp)
vmovdqu %ymm7, 32(%rsp)
vmovdqu %ymm7, 64(%rsp)
vmovdqu %ymm7, 96(%rsp)
vmovdqu %ymm7, 128(%rsp)
vmovdqu %ymm7, 160(%rsp)
vmovdqu %ymm7, 192(%rsp)
movq %rdx, %r11
shrq $3, %r11
movq $0, %rbx
jmp L_keccak1600_avx2$14
L_keccak1600_avx2$15:
movq (%rsi,%rbx,8), %rbp
movq (%rax,%rbx,8), %r12
movq %rbp, (%rsp,%r12,8)
incq %rbx
L_keccak1600_avx2$14:
cmpq %r11, %rbx
jb L_keccak1600_avx2$15
movq (%rax,%rbx,8), %r11
shlq $3, %r11
shlq $3, %rbx
jmp L_keccak1600_avx2$12
L_keccak1600_avx2$13:
movb (%rsi,%rbx), %bpl
movb %bpl, (%rsp,%r11)
incq %rbx
incq %r11
L_keccak1600_avx2$12:
cmpq %rdx, %rbx
jb L_keccak1600_avx2$13
movb %dil, (%rsp,%r11)
movq %rcx, %rdx
addq $-1, %rdx
shrq $3, %rdx
movq (%rax,%rdx,8), %rax
shlq $3, %rax
movq %rcx, %rdx
addq $-1, %rdx
andq $7, %rdx
addq %rdx, %rax
xorb $-128, (%rsp,%rax)
movq (%rsp), %rax
movq %rax, 8(%rsp)
movq %rax, 16(%rsp)
movq %rax, 24(%rsp)
vpxor (%rsp), %ymm6, %ymm6
vpxor 32(%rsp), %ymm3, %ymm3
vpxor 64(%rsp), %ymm4, %ymm4
vpxor 96(%rsp), %ymm0, %ymm0
vpxor 128(%rsp), %ymm5, %ymm5
vpxor 160(%rsp), %ymm1, %ymm1
vpxor 192(%rsp), %ymm2, %ymm2
leaq glob_data + 6200(%rip), %rax
jmp L_keccak1600_avx2$7
L_keccak1600_avx2$8:
leaq glob_data + 3328(%rip), %rdx
movq $0, %rsi
leaq glob_data + 3136(%rip), %rdi
leaq glob_data + 2944(%rip), %r11
movq $24, %rbx
L_keccak1600_avx2$11:
vpshufd $78, %ymm4, %ymm8
vpxor %ymm0, %ymm1, %ymm7
vpxor %ymm2, %ymm5, %ymm9
vpxor %ymm3, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm4, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm4, %ymm4
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rdi), %ymm4, %ymm7
vpsrlvq (%r11), %ymm4, %ymm4
vpor %ymm7, %ymm4, %ymm4
vpxor %ymm9, %ymm0, %ymm0
vpsllvq 64(%rdi), %ymm0, %ymm7
vpsrlvq 64(%r11), %ymm0, %ymm0
vpor %ymm7, %ymm0, %ymm0
vpxor %ymm9, %ymm5, %ymm5
vpsllvq 96(%rdi), %ymm5, %ymm7
vpsrlvq 96(%r11), %ymm5, %ymm5
vpor %ymm7, %ymm5, %ymm10
vpxor %ymm9, %ymm1, %ymm1
vpsllvq 128(%rdi), %ymm1, %ymm5
vpsrlvq 128(%r11), %ymm1, %ymm1
vpor %ymm5, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpermq $-115, %ymm4, %ymm5
vpermq $-115, %ymm0, %ymm7
vpsllvq 160(%rdi), %ymm2, %ymm0
vpsrlvq 160(%r11), %ymm2, %ymm2
vpor %ymm0, %ymm2, %ymm8
vpxor %ymm9, %ymm3, %ymm0
vpermq $27, %ymm10, %ymm3
vpermq $114, %ymm1, %ymm9
vpsllvq 32(%rdi), %ymm0, %ymm1
vpsrlvq 32(%r11), %ymm0, %ymm0
vpor %ymm1, %ymm0, %ymm10
vpsrldq $8, %ymm8, %ymm0
vpandn %ymm0, %ymm8, %ymm0
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm2
vpblendd $12, %ymm7, %ymm5, %ymm4
vpblendd $12, %ymm5, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm2, %ymm2
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm2, %ymm2
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm2, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm2
vpblendd $12, %ymm10, %ymm3, %ymm4
vpblendd $12, %ymm3, %ymm5, %ymm11
vpxor %ymm5, %ymm1, %ymm1
vpblendd $48, %ymm5, %ymm4, %ymm4
vpblendd $48, %ymm7, %ymm11, %ymm11
vpxor %ymm3, %ymm2, %ymm2
vpblendd $-64, %ymm7, %ymm4, %ymm4
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm4, %ymm4
vpxor %ymm9, %ymm4, %ymm12
vpermq $30, %ymm8, %ymm4
vpblendd $48, %ymm6, %ymm4, %ymm4
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm4, %ymm11, %ymm11
vpblendd $12, %ymm3, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm4, %ymm4
vpblendd $48, %ymm5, %ymm13, %ymm13
vpblendd $-64, %ymm5, %ymm4, %ymm4
vpblendd $-64, %ymm3, %ymm13, %ymm13
vpandn %ymm13, %ymm4, %ymm4
vpxor %ymm10, %ymm4, %ymm4
vpermq $0, %ymm0, %ymm13
vpermq $27, %ymm1, %ymm0
vpermq $-115, %ymm2, %ymm1
vpermq $114, %ymm12, %ymm2
vpblendd $12, %ymm5, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm3, %ymm9
vpblendd $48, %ymm3, %ymm12, %ymm3
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm3, %ymm3
vpblendd $-64, %ymm5, %ymm9, %ymm5
vpandn %ymm5, %ymm3, %ymm5
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm3
vpxor %ymm7, %ymm5, %ymm5
vpxor (%rdx,%rsi), %ymm6, %ymm6
addq $32, %rsi
decq %rbx
jne L_keccak1600_avx2$11
vmovdqu %ymm6, (%rsp)
vmovdqu %ymm3, 32(%rsp)
vmovdqu %ymm4, 64(%rsp)
vmovdqu %ymm0, 96(%rsp)
vmovdqu %ymm5, 128(%rsp)
vmovdqu %ymm1, 160(%rsp)
vmovdqu %ymm2, 192(%rsp)
movq %rcx, %rdx
shrq $3, %rdx
movq $0, %rsi
jmp L_keccak1600_avx2$9
L_keccak1600_avx2$10:
movq (%rax,%rsi,8), %rdi
movq (%rsp,%rdi,8), %rdi
movq %rdi, (%r9,%rsi,8)
incq %rsi
L_keccak1600_avx2$9:
cmpq %rdx, %rsi
jb L_keccak1600_avx2$10
addq %rcx, %r9
subq %rcx, %r8
L_keccak1600_avx2$7:
cmpq %rcx, %r8
jnbe L_keccak1600_avx2$8
leaq glob_data + 3328(%rip), %rcx
movq $0, %rdx
leaq glob_data + 3136(%rip), %rsi
leaq glob_data + 2944(%rip), %rdi
movq $24, %r11
L_keccak1600_avx2$6:
vpshufd $78, %ymm4, %ymm8
vpxor %ymm0, %ymm1, %ymm7
vpxor %ymm2, %ymm5, %ymm9
vpxor %ymm3, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm4, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm4, %ymm4
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm4, %ymm7
vpsrlvq (%rdi), %ymm4, %ymm4
vpor %ymm7, %ymm4, %ymm4
vpxor %ymm9, %ymm0, %ymm0
vpsllvq 64(%rsi), %ymm0, %ymm7
vpsrlvq 64(%rdi), %ymm0, %ymm0
vpor %ymm7, %ymm0, %ymm0
vpxor %ymm9, %ymm5, %ymm5
vpsllvq 96(%rsi), %ymm5, %ymm7
vpsrlvq 96(%rdi), %ymm5, %ymm5
vpor %ymm7, %ymm5, %ymm10
vpxor %ymm9, %ymm1, %ymm1
vpsllvq 128(%rsi), %ymm1, %ymm5
vpsrlvq 128(%rdi), %ymm1, %ymm1
vpor %ymm5, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpermq $-115, %ymm4, %ymm5
vpermq $-115, %ymm0, %ymm7
vpsllvq 160(%rsi), %ymm2, %ymm0
vpsrlvq 160(%rdi), %ymm2, %ymm2
vpor %ymm0, %ymm2, %ymm8
vpxor %ymm9, %ymm3, %ymm0
vpermq $27, %ymm10, %ymm3
vpermq $114, %ymm1, %ymm9
vpsllvq 32(%rsi), %ymm0, %ymm1
vpsrlvq 32(%rdi), %ymm0, %ymm0
vpor %ymm1, %ymm0, %ymm10
vpsrldq $8, %ymm8, %ymm0
vpandn %ymm0, %ymm8, %ymm0
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm2
vpblendd $12, %ymm7, %ymm5, %ymm4
vpblendd $12, %ymm5, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm2, %ymm2
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm2, %ymm2
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm2, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm2
vpblendd $12, %ymm10, %ymm3, %ymm4
vpblendd $12, %ymm3, %ymm5, %ymm11
vpxor %ymm5, %ymm1, %ymm1
vpblendd $48, %ymm5, %ymm4, %ymm4
vpblendd $48, %ymm7, %ymm11, %ymm11
vpxor %ymm3, %ymm2, %ymm2
vpblendd $-64, %ymm7, %ymm4, %ymm4
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm4, %ymm4
vpxor %ymm9, %ymm4, %ymm12
vpermq $30, %ymm8, %ymm4
vpblendd $48, %ymm6, %ymm4, %ymm4
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm4, %ymm11, %ymm11
vpblendd $12, %ymm3, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm4, %ymm4
vpblendd $48, %ymm5, %ymm13, %ymm13
vpblendd $-64, %ymm5, %ymm4, %ymm4
vpblendd $-64, %ymm3, %ymm13, %ymm13
vpandn %ymm13, %ymm4, %ymm4
vpxor %ymm10, %ymm4, %ymm4
vpermq $0, %ymm0, %ymm13
vpermq $27, %ymm1, %ymm0
vpermq $-115, %ymm2, %ymm1
vpermq $114, %ymm12, %ymm2
vpblendd $12, %ymm5, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm3, %ymm9
vpblendd $48, %ymm3, %ymm12, %ymm3
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm3, %ymm3
vpblendd $-64, %ymm5, %ymm9, %ymm5
vpandn %ymm5, %ymm3, %ymm5
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm3
vpxor %ymm7, %ymm5, %ymm5
vpxor (%rcx,%rdx), %ymm6, %ymm6
addq $32, %rdx
decq %r11
jne L_keccak1600_avx2$6
vmovdqu %ymm6, (%rsp)
vmovdqu %ymm3, 32(%rsp)
vmovdqu %ymm4, 64(%rsp)
vmovdqu %ymm0, 96(%rsp)
vmovdqu %ymm5, 128(%rsp)
vmovdqu %ymm1, 160(%rsp)
vmovdqu %ymm2, 192(%rsp)
movq %r8, %rcx
shrq $3, %rcx
movq $0, %rdx
jmp L_keccak1600_avx2$4
L_keccak1600_avx2$5:
movq (%rax,%rdx,8), %rsi
movq (%rsp,%rsi,8), %rsi
movq %rsi, (%r9,%rdx,8)
incq %rdx
L_keccak1600_avx2$4:
cmpq %rcx, %rdx
jb L_keccak1600_avx2$5
movq (%rax,%rdx,8), %rax
shlq $3, %rdx
shlq $3, %rax
jmp L_keccak1600_avx2$2
L_keccak1600_avx2$3:
movb (%rsp,%rax), %cl
movb %cl, (%r9,%rdx)
incq %rdx
incq %rax
L_keccak1600_avx2$2:
cmpq %r8, %rdx
jb L_keccak1600_avx2$3
jmp *%r10
.data
.p2align 5
_glob_data:
glob_data:
.byte 0
.byte 1
.byte 1
.byte 2
.byte 3
.byte 4
.byte 4
.byte 5
.byte 6
.byte 7
.byte 7
.byte 8
.byte 9
.byte 10
.byte 10
.byte 11
.byte 4
.byte 5
.byte 5
.byte 6
.byte 7
.byte 8
.byte 8
.byte 9
.byte 10
.byte 11
.byte 11
.byte 12
.byte 13
.byte 14
.byte 14
.byte 15
.byte 0
.byte 1
.byte 2
.byte 3
.byte 4
.byte 8
.byte 9
.byte 10
.byte 11
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 9
.byte 10
.byte 11
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 1
.byte 2
.byte 3
.byte 4
.byte 8
.byte 0
.byte 1
.byte 1
.byte 2
.byte 2
.byte 3
.byte 3
.byte 4
.byte 5
.byte 6
.byte 6
.byte 7
.byte 7
.byte 8
.byte 8
.byte 9
.byte 2
.byte 3
.byte 3
.byte 4
.byte 4
.byte 5
.byte 5
.byte 6
.byte 7
.byte 8
.byte 8
.byte 9
.byte 9
.byte 10
.byte 10
.byte 11
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 1
.byte 1
.byte 1
.byte 2
.byte 2
.byte 2
.byte 2
.byte 3
.byte 3
.byte 3
.byte 3
.byte 4
.byte 4
.byte 4
.byte 4
.byte 5
.byte 5
.byte 5
.byte 5
.byte 6
.byte 6
.byte 6
.byte 6
.byte 7
.byte 7
.byte 7
.byte 7
.byte 0
.byte 0
.byte 0
.byte 0
.byte 4
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 5
.byte 0
.byte 0
.byte 0
.byte 2
.byte 0
.byte 0
.byte 0
.byte 6
.byte 0
.byte 0
.byte 0
.byte 3
.byte 0
.byte 0
.byte 0
.byte 7
.byte 0
.byte 0
.byte 0
.byte 73
.byte 5
.byte 73
.byte 5
.byte 73
.byte 5
.byte 73
.byte 5
.byte 73
.byte 5
.byte 73
.byte 5
.byte 73
.byte 5
.byte 73
.byte 5
.byte 73
.byte 5
.byte 73
.byte 5
.byte 73
.byte 5
.byte 73
.byte 5
.byte 73
.byte 5
.byte 73
.byte 5
.byte 73
.byte 5
.byte 73
.byte 5
.byte 64
.byte 3
.byte 64
.byte 3
.byte 64
.byte 3
.byte 64
.byte 3
.byte 64
.byte 3
.byte 64
.byte 3
.byte 64
.byte 3
.byte 64
.byte 3
.byte 64
.byte 3
.byte 64
.byte 3
.byte 64
.byte 3
.byte 64
.byte 3
.byte 64
.byte 3
.byte 64
.byte 3
.byte 64
.byte 3
.byte 64
.byte 3
.byte -128
.byte 6
.byte -128
.byte 6
.byte -128
.byte 6
.byte -128
.byte 6
.byte -128
.byte 6
.byte -128
.byte 6
.byte -128
.byte 6
.byte -128
.byte 6
.byte -128
.byte 6
.byte -128
.byte 6
.byte -128
.byte 6
.byte -128
.byte 6
.byte -128
.byte 6
.byte -128
.byte 6
.byte -128
.byte 6
.byte -128
.byte 6
.byte -127
.byte 6
.byte -127
.byte 6
.byte -127
.byte 6
.byte -127
.byte 6
.byte -127
.byte 6
.byte -127
.byte 6
.byte -127
.byte 6
.byte -127
.byte 6
.byte -127
.byte 6
.byte -127
.byte 6
.byte -127
.byte 6
.byte -127
.byte 6
.byte -127
.byte 6
.byte -127
.byte 6
.byte -127
.byte 6
.byte -127
.byte 6
.byte -1
.byte 15
.byte -1
.byte 15
.byte -1
.byte 15
.byte -1
.byte 15
.byte -1
.byte 15
.byte -1
.byte 15
.byte -1
.byte 15
.byte -1
.byte 15
.byte -1
.byte 15
.byte -1
.byte 15
.byte -1
.byte 15
.byte -1
.byte 15
.byte -1
.byte 15
.byte -1
.byte 15
.byte -1
.byte 15
.byte -1
.byte 15
.byte -95
.byte -40
.byte -95
.byte -40
.byte -95
.byte -40
.byte -95
.byte -40
.byte -95
.byte -40
.byte -95
.byte -40
.byte -95
.byte -40
.byte -95
.byte -40
.byte -95
.byte -40
.byte -95
.byte -40
.byte -95
.byte -40
.byte -95
.byte -40
.byte -95
.byte -40
.byte -95
.byte -40
.byte -95
.byte -40
.byte -95
.byte -40
.byte -95
.byte 5
.byte -95
.byte 5
.byte -95
.byte 5
.byte -95
.byte 5
.byte -95
.byte 5
.byte -95
.byte 5
.byte -95
.byte 5
.byte -95
.byte 5
.byte -95
.byte 5
.byte -95
.byte 5
.byte -95
.byte 5
.byte -95
.byte 5
.byte -95
.byte 5
.byte -95
.byte 5
.byte -95
.byte 5
.byte -95
.byte 5
.byte -65
.byte 78
.byte -65
.byte 78
.byte -65
.byte 78
.byte -65
.byte 78
.byte -65
.byte 78
.byte -65
.byte 78
.byte -65
.byte 78
.byte -65
.byte 78
.byte -65
.byte 78
.byte -65
.byte 78
.byte -65
.byte 78
.byte -65
.byte 78
.byte -65
.byte 78
.byte -65
.byte 78
.byte -65
.byte 78
.byte -65
.byte 78
.byte 1
.byte -13
.byte 1
.byte -13
.byte 1
.byte -13
.byte 1
.byte -13
.byte 1
.byte -13
.byte 1
.byte -13
.byte 1
.byte -13
.byte 1
.byte -13
.byte 1
.byte -13
.byte 1
.byte -13
.byte 1
.byte -13
.byte 1
.byte -13
.byte 1
.byte -13
.byte 1
.byte -13
.byte 1
.byte -13
.byte 1
.byte -13
.byte 1
.byte 13
.byte 1
.byte 13
.byte 1
.byte 13
.byte 1
.byte 13
.byte 1
.byte 13
.byte 1
.byte 13
.byte 1
.byte 13
.byte 1
.byte 13
.byte 1
.byte 13
.byte 1
.byte 13
.byte 1
.byte 13
.byte 1
.byte 13
.byte 1
.byte 13
.byte 1
.byte 13
.byte 1
.byte 13
.byte 1
.byte 13
.byte -91
.byte -91
.byte -76
.byte -31
.byte 34
.byte 79
.byte 52
.byte 93
.byte 35
.byte 68
.byte 86
.byte -91
.byte -25
.byte 78
.byte -6
.byte 83
.byte 123
.byte -57
.byte 37
.byte 43
.byte 55
.byte 58
.byte -120
.byte 24
.byte -127
.byte 126
.byte 5
.byte -60
.byte -97
.byte -9
.byte -72
.byte -80
.byte -91
.byte 6
.byte -76
.byte 5
.byte 34
.byte 9
.byte 52
.byte 1
.byte 35
.byte 11
.byte 86
.byte 3
.byte -25
.byte 9
.byte -6
.byte 5
.byte 123
.byte 6
.byte 37
.byte 12
.byte 55
.byte 5
.byte -120
.byte 0
.byte -127
.byte 11
.byte 5
.byte 5
.byte -97
.byte 10
.byte -72
.byte 8
.byte 15
.byte 68
.byte 67
.byte -94
.byte 29
.byte -112
.byte 108
.byte -124
.byte 102
.byte -43
.byte -26
.byte 87
.byte -2
.byte 30
.byte -95
.byte -41
.byte -93
.byte -67
.byte 106
.byte -95
.byte 63
.byte -43
.byte -65
.byte 81
.byte -71
.byte -96
.byte -41
.byte 28
.byte -90
.byte -100
.byte -48
.byte 121
.byte 15
.byte 7
.byte 67
.byte 9
.byte 29
.byte 9
.byte 108
.byte 0
.byte 102
.byte 3
.byte -26
.byte 5
.byte -2
.byte 4
.byte -95
.byte 4
.byte -93
.byte 4
.byte 106
.byte 3
.byte 63
.byte 8
.byte -65
.byte 4
.byte -71
.byte 5
.byte -41
.byte 7
.byte -90
.byte 10
.byte -48
.byte 9
.byte -5
.byte 69
.byte 92
.byte 94
.byte 41
.byte -17
.byte 65
.byte -66
.byte -43
.byte 49
.byte -28
.byte 113
.byte 64
.byte -55
.byte -114
.byte -53
.byte -73
.byte -72
.byte -9
.byte 117
.byte -115
.byte -36
.byte -106
.byte 110
.byte -61
.byte 34
.byte 15
.byte 62
.byte 90
.byte 110
.byte 85
.byte -78
.byte -5
.byte 4
.byte 92
.byte 10
.byte 41
.byte 4
.byte 65
.byte 11
.byte -43
.byte 2
.byte -28
.byte 5
.byte 64
.byte 9
.byte -114
.byte 1
.byte -73
.byte 3
.byte -9
.byte 0
.byte -115
.byte 5
.byte -106
.byte 12
.byte -61
.byte 9
.byte 15
.byte 1
.byte 90
.byte 0
.byte 85
.byte 3
.byte 35
.byte 63
.byte 35
.byte 63
.byte -51
.byte -105
.byte -51
.byte -105
.byte 102
.byte -35
.byte 102
.byte -35
.byte 6
.byte -72
.byte 6
.byte -72
.byte -95
.byte -35
.byte -95
.byte -35
.byte 37
.byte 41
.byte 37
.byte 41
.byte 8
.byte -95
.byte 8
.byte -95
.byte -87
.byte 109
.byte -87
.byte 109
.byte 35
.byte 6
.byte 35
.byte 6
.byte -51
.byte 0
.byte -51
.byte 0
.byte 102
.byte 11
.byte 102
.byte 11
.byte 6
.byte 6
.byte 6
.byte 6
.byte -95
.byte 10
.byte -95
.byte 10
.byte 37
.byte 10
.byte 37
.byte 10
.byte 8
.byte 9
.byte 8
.byte 9
.byte -87
.byte 2
.byte -87
.byte 2
.byte 69
.byte -122
.byte 69
.byte -122
.byte 69
.byte -122
.byte 69
.byte -122
.byte -62
.byte 43
.byte -62
.byte 43
.byte -62
.byte 43
.byte -62
.byte 43
.byte -78
.byte -6
.byte -78
.byte -6
.byte -78
.byte -6
.byte -78
.byte -6
.byte 63
.byte -42
.byte 63
.byte -42
.byte 63
.byte -42
.byte 63
.byte -42
.byte 69
.byte 7
.byte 69
.byte 7
.byte 69
.byte 7
.byte 69
.byte 7
.byte -62
.byte 5
.byte -62
.byte 5
.byte -62
.byte 5
.byte -62
.byte 5
.byte -78
.byte 4
.byte -78
.byte 4
.byte -78
.byte 4
.byte -78
.byte 4
.byte 63
.byte 9
.byte 63
.byte 9
.byte 63
.byte 9
.byte 63
.byte 9
.byte 55
.byte 65
.byte 55
.byte 65
.byte 55
.byte 65
.byte 55
.byte 65
.byte 55
.byte 65
.byte 55
.byte 65
.byte 55
.byte 65
.byte 55
.byte 65
.byte -30
.byte -111
.byte -30
.byte -111
.byte -30
.byte -111
.byte -30
.byte -111
.byte -30
.byte -111
.byte -30
.byte -111
.byte -30
.byte -111
.byte -30
.byte -111
.byte 55
.byte 12
.byte 55
.byte 12
.byte 55
.byte 12
.byte 55
.byte 12
.byte 55
.byte 12
.byte 55
.byte 12
.byte 55
.byte 12
.byte 55
.byte 12
.byte -30
.byte 11
.byte -30
.byte 11
.byte -30
.byte 11
.byte -30
.byte 11
.byte -30
.byte 11
.byte -30
.byte 11
.byte -30
.byte 11
.byte -30
.byte 11
.byte -19
.byte -4
.byte -19
.byte -4
.byte -19
.byte 5
.byte -19
.byte 5
.byte 75
.byte 49
.byte -72
.byte -77
.byte -92
.byte -73
.byte 125
.byte -79
.byte -94
.byte -50
.byte 54
.byte 73
.byte -109
.byte -119
.byte -9
.byte 126
.byte -116
.byte -22
.byte -52
.byte -91
.byte -21
.byte 17
.byte -74
.byte -52
.byte -104
.byte 84
.byte -102
.byte 55
.byte -74
.byte -53
.byte 83
.byte -44
.byte 75
.byte 0
.byte -72
.byte 11
.byte -92
.byte 11
.byte 125
.byte 10
.byte -94
.byte 8
.byte 54
.byte 7
.byte -109
.byte 0
.byte -9
.byte 9
.byte -116
.byte 6
.byte -52
.byte 1
.byte -21
.byte 0
.byte -74
.byte 10
.byte -104
.byte 12
.byte -102
.byte 9
.byte -74
.byte 9
.byte 83
.byte 11
.byte -100
.byte 20
.byte 95
.byte 56
.byte 104
.byte -69
.byte 54
.byte 72
.byte 90
.byte 112
.byte 9
.byte -114
.byte 122
.byte -42
.byte -10
.byte -126
.byte -37
.byte -25
.byte 35
.byte 58
.byte 80
.byte -4
.byte 91
.byte 108
.byte -13
.byte -81
.byte -29
.byte 125
.byte -42
.byte 44
.byte 79
.byte 1
.byte -100
.byte 0
.byte 95
.byte 11
.byte 104
.byte 3
.byte 54
.byte 6
.byte 90
.byte 2
.byte 9
.byte 3
.byte 122
.byte 8
.byte -10
.byte 0
.byte -37
.byte 6
.byte 35
.byte 1
.byte 80
.byte 12
.byte 91
.byte 11
.byte -13
.byte 6
.byte -29
.byte 4
.byte -42
.byte 10
.byte 79
.byte 4
.byte 68
.byte -109
.byte -125
.byte 101
.byte -118
.byte 2
.byte 82
.byte -36
.byte -102
.byte 48
.byte 64
.byte -63
.byte 8
.byte -104
.byte -3
.byte 49
.byte 8
.byte -98
.byte 26
.byte -81
.byte 46
.byte -79
.byte 13
.byte 92
.byte 10
.byte -121
.byte 40
.byte -6
.byte 117
.byte 25
.byte 58
.byte 22
.byte 68
.byte 7
.byte -125
.byte 12
.byte -118
.byte 4
.byte 82
.byte 6
.byte -102
.byte 2
.byte 64
.byte 1
.byte 8
.byte 0
.byte -3
.byte 10
.byte 8
.byte 6
.byte 26
.byte 1
.byte 46
.byte 7
.byte 13
.byte 5
.byte 10
.byte 9
.byte 40
.byte 2
.byte 117
.byte 10
.byte 58
.byte 8
.byte -126
.byte 102
.byte -126
.byte 102
.byte 66
.byte -84
.byte 66
.byte -84
.byte 79
.byte 4
.byte 79
.byte 4
.byte 61
.byte -22
.byte 61
.byte -22
.byte -126
.byte 113
.byte -126
.byte 113
.byte -7
.byte 102
.byte -7
.byte 102
.byte 45
.byte -68
.byte 45
.byte -68
.byte -60
.byte 22
.byte -60
.byte 22
.byte -126
.byte 0
.byte -126
.byte 0
.byte 66
.byte 6
.byte 66
.byte 6
.byte 79
.byte 7
.byte 79
.byte 7
.byte 61
.byte 3
.byte 61
.byte 3
.byte -126
.byte 11
.byte -126
.byte 11
.byte -7
.byte 11
.byte -7
.byte 11
.byte 45
.byte 5
.byte 45
.byte 5
.byte -60
.byte 10
.byte -60
.byte 10
.byte 75
.byte 61
.byte 75
.byte 61
.byte 75
.byte 61
.byte 75
.byte 61
.byte -40
.byte 14
.byte -40
.byte 14
.byte -40
.byte 14
.byte -40
.byte 14
.byte -109
.byte -109
.byte -109
.byte -109
.byte -109
.byte -109
.byte -109
.byte -109
.byte -85
.byte 81
.byte -85
.byte 81
.byte -85
.byte 81
.byte -85
.byte 81
.byte 75
.byte 12
.byte 75
.byte 12
.byte 75
.byte 12
.byte 75
.byte 12
.byte -40
.byte 6
.byte -40
.byte 6
.byte -40
.byte 6
.byte -40
.byte 6
.byte -109
.byte 10
.byte -109
.byte 10
.byte -109
.byte 10
.byte -109
.byte 10
.byte -85
.byte 0
.byte -85
.byte 0
.byte -85
.byte 0
.byte -85
.byte 0
.byte 115
.byte 48
.byte 115
.byte 48
.byte 115
.byte 48
.byte 115
.byte 48
.byte 115
.byte 48
.byte 115
.byte 48
.byte 115
.byte 48
.byte 115
.byte 48
.byte 44
.byte -53
.byte 44
.byte -53
.byte 44
.byte -53
.byte 44
.byte -53
.byte 44
.byte -53
.byte 44
.byte -53
.byte 44
.byte -53
.byte 44
.byte -53
.byte 115
.byte 7
.byte 115
.byte 7
.byte 115
.byte 7
.byte 115
.byte 7
.byte 115
.byte 7
.byte 115
.byte 7
.byte 115
.byte 7
.byte 115
.byte 7
.byte 44
.byte 7
.byte 44
.byte 7
.byte 44
.byte 7
.byte 44
.byte 7
.byte 44
.byte 7
.byte 44
.byte 7
.byte 44
.byte 7
.byte 44
.byte 7
.byte 103
.byte -58
.byte 103
.byte -58
.byte 103
.byte 1
.byte 103
.byte 1
.byte -116
.byte -21
.byte -116
.byte -21
.byte -116
.byte 7
.byte -116
.byte 7
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 11
.byte 123
.byte 11
.byte 123
.byte 11
.byte 10
.byte 11
.byte 10
.byte -102
.byte 57
.byte -102
.byte 57
.byte -102
.byte 11
.byte -102
.byte 11
.byte -43
.byte 52
.byte -43
.byte 52
.byte -43
.byte 52
.byte -43
.byte 52
.byte -43
.byte 52
.byte -43
.byte 52
.byte -43
.byte 52
.byte -43
.byte 52
.byte -114
.byte -49
.byte -114
.byte -49
.byte -114
.byte -49
.byte -114
.byte -49
.byte -114
.byte -49
.byte -114
.byte -49
.byte -114
.byte -49
.byte -114
.byte -49
.byte -43
.byte 5
.byte -43
.byte 5
.byte -43
.byte 5
.byte -43
.byte 5
.byte -43
.byte 5
.byte -43
.byte 5
.byte -43
.byte 5
.byte -43
.byte 5
.byte -114
.byte 5
.byte -114
.byte 5
.byte -114
.byte 5
.byte -114
.byte 5
.byte -114
.byte 5
.byte -114
.byte 5
.byte -114
.byte 5
.byte -114
.byte 5
.byte 86
.byte -82
.byte 86
.byte -82
.byte 86
.byte -82
.byte 86
.byte -82
.byte 110
.byte 108
.byte 110
.byte 108
.byte 110
.byte 108
.byte 110
.byte 108
.byte 41
.byte -15
.byte 41
.byte -15
.byte 41
.byte -15
.byte 41
.byte -15
.byte -74
.byte -62
.byte -74
.byte -62
.byte -74
.byte -62
.byte -74
.byte -62
.byte 86
.byte 12
.byte 86
.byte 12
.byte 86
.byte 12
.byte 86
.byte 12
.byte 110
.byte 2
.byte 110
.byte 2
.byte 110
.byte 2
.byte 110
.byte 2
.byte 41
.byte 6
.byte 41
.byte 6
.byte 41
.byte 6
.byte 41
.byte 6
.byte -74
.byte 0
.byte -74
.byte 0
.byte -74
.byte 0
.byte -74
.byte 0
.byte 61
.byte -23
.byte 61
.byte -23
.byte -44
.byte 67
.byte -44
.byte 67
.byte 8
.byte -103
.byte 8
.byte -103
.byte 127
.byte -114
.byte 127
.byte -114
.byte -60
.byte 21
.byte -60
.byte 21
.byte -78
.byte -5
.byte -78
.byte -5
.byte -65
.byte 83
.byte -65
.byte 83
.byte 127
.byte -103
.byte 127
.byte -103
.byte 61
.byte 2
.byte 61
.byte 2
.byte -44
.byte 7
.byte -44
.byte 7
.byte 8
.byte 1
.byte 8
.byte 1
.byte 127
.byte 1
.byte 127
.byte 1
.byte -60
.byte 9
.byte -60
.byte 9
.byte -78
.byte 5
.byte -78
.byte 5
.byte -65
.byte 6
.byte -65
.byte 6
.byte 127
.byte 12
.byte 127
.byte 12
.byte -57
.byte -23
.byte -116
.byte -26
.byte -39
.byte 5
.byte -9
.byte 120
.byte -12
.byte -93
.byte -45
.byte 78
.byte -25
.byte 80
.byte -7
.byte 97
.byte 4
.byte -50
.byte -7
.byte 103
.byte -63
.byte 62
.byte 103
.byte -49
.byte -81
.byte 35
.byte 119
.byte -3
.byte 126
.byte -102
.byte -67
.byte 108
.byte -57
.byte 4
.byte -116
.byte 2
.byte -39
.byte 10
.byte -9
.byte 3
.byte -12
.byte 7
.byte -45
.byte 5
.byte -25
.byte 11
.byte -7
.byte 6
.byte 4
.byte 2
.byte -7
.byte 12
.byte -63
.byte 11
.byte 103
.byte 10
.byte -81
.byte 6
.byte 119
.byte 8
.byte 126
.byte 0
.byte -67
.byte 5
.byte -78
.byte -2
.byte 43
.byte -45
.byte 30
.byte -126
.byte 14
.byte 80
.byte -90
.byte -109
.byte -79
.byte 3
.byte -34
.byte -59
.byte 38
.byte 24
.byte 11
.byte 125
.byte -121
.byte 41
.byte -8
.byte 113
.byte -89
.byte -113
.byte -53
.byte -73
.byte -103
.byte 68
.byte -94
.byte -57
.byte 101
.byte -21
.byte -78
.byte 8
.byte 43
.byte 2
.byte 30
.byte 8
.byte 14
.byte 6
.byte -90
.byte 1
.byte -79
.byte 0
.byte -34
.byte 11
.byte 38
.byte 6
.byte 11
.byte 12
.byte -121
.byte 4
.byte -8
.byte 9
.byte -89
.byte 10
.byte -53
.byte 6
.byte -103
.byte 9
.byte -94
.byte 1
.byte 101
.byte 12
.byte -82
.byte 43
.byte 75
.byte 52
.byte 103
.byte -56
.byte 105
.byte -85
.byte 75
.byte 51
.byte 22
.byte -18
.byte 53
.byte 90
.byte 117
.byte 21
.byte 10
.byte -127
.byte 110
.byte 118
.byte -53
.byte -74
.byte 95
.byte 49
.byte -124
.byte 78
.byte 93
.byte 72
.byte 73
.byte 76
.byte -74
.byte -50
.byte -82
.byte 1
.byte 75
.byte 3
.byte 103
.byte 3
.byte 105
.byte 0
.byte 75
.byte 2
.byte 22
.byte 12
.byte 53
.byte 11
.byte 117
.byte 6
.byte 10
.byte 3
.byte 110
.byte 12
.byte -53
.byte 5
.byte 95
.byte 4
.byte -124
.byte 2
.byte 93
.byte 1
.byte 73
.byte 1
.byte -74
.byte 12
.byte 20
.byte 3
.byte 20
.byte 3
.byte 20
.byte 7
.byte 20
.byte 7
.byte 31
.byte 110
.byte 31
.byte 110
.byte 31
.byte 110
.byte 31
.byte 110
.byte 31
.byte 110
.byte 31
.byte 110
.byte 31
.byte 110
.byte 31
.byte 110
.byte -54
.byte -66
.byte -54
.byte -66
.byte -54
.byte -66
.byte -54
.byte -66
.byte -54
.byte -66
.byte -54
.byte -66
.byte -54
.byte -66
.byte -54
.byte -66
.byte 31
.byte 1
.byte 31
.byte 1
.byte 31
.byte 1
.byte 31
.byte 1
.byte 31
.byte 1
.byte 31
.byte 1
.byte 31
.byte 1
.byte 31
.byte 1
.byte -54
.byte 0
.byte -54
.byte 0
.byte -54
.byte 0
.byte -54
.byte 0
.byte -54
.byte 0
.byte -54
.byte 0
.byte -54
.byte 0
.byte -54
.byte 0
.byte -62
.byte 41
.byte -62
.byte 41
.byte -62
.byte 41
.byte -62
.byte 41
.byte 79
.byte 5
.byte 79
.byte 5
.byte 79
.byte 5
.byte 79
.byte 5
.byte 63
.byte -44
.byte 63
.byte -44
.byte 63
.byte -44
.byte 63
.byte -44
.byte -68
.byte 121
.byte -68
.byte 121
.byte -68
.byte 121
.byte -68
.byte 121
.byte -62
.byte 3
.byte -62
.byte 3
.byte -62
.byte 3
.byte -62
.byte 3
.byte 79
.byte 8
.byte 79
.byte 8
.byte 79
.byte 8
.byte 79
.byte 8
.byte 63
.byte 7
.byte 63
.byte 7
.byte 63
.byte 7
.byte 63
.byte 7
.byte -68
.byte 5
.byte -68
.byte 5
.byte -68
.byte 5
.byte -68
.byte 5
.byte 88
.byte -110
.byte 88
.byte -110
.byte -7
.byte 94
.byte -7
.byte 94
.byte -36
.byte -42
.byte -36
.byte -42
.byte 96
.byte 34
.byte 96
.byte 34
.byte -5
.byte 71
.byte -5
.byte 71
.byte -101
.byte 34
.byte -101
.byte 34
.byte 52
.byte 104
.byte 52
.byte 104
.byte -34
.byte -64
.byte -34
.byte -64
.byte 88
.byte 10
.byte 88
.byte 10
.byte -7
.byte 3
.byte -7
.byte 3
.byte -36
.byte 2
.byte -36
.byte 2
.byte 96
.byte 2
.byte 96
.byte 2
.byte -5
.byte 6
.byte -5
.byte 6
.byte -101
.byte 1
.byte -101
.byte 1
.byte 52
.byte 12
.byte 52
.byte 12
.byte -34
.byte 6
.byte -34
.byte 6
.byte -84
.byte 77
.byte -89
.byte -111
.byte -14
.byte -63
.byte 62
.byte -35
.byte 107
.byte -111
.byte 116
.byte 35
.byte 10
.byte -118
.byte 74
.byte 71
.byte 115
.byte 52
.byte -63
.byte 54
.byte 29
.byte -114
.byte 44
.byte -50
.byte -64
.byte 65
.byte -40
.byte 16
.byte -91
.byte -95
.byte 6
.byte -70
.byte -84
.byte 9
.byte -89
.byte 12
.byte -14
.byte 11
.byte 62
.byte 3
.byte 107
.byte 0
.byte 116
.byte 7
.byte 10
.byte 12
.byte 74
.byte 9
.byte 115
.byte 11
.byte -63
.byte 3
.byte 29
.byte 7
.byte 44
.byte 10
.byte -64
.byte 1
.byte -40
.byte 8
.byte -91
.byte 2
.byte 6
.byte 8
.byte 49
.byte -122
.byte 91
.byte 99
.byte 42
.byte -29
.byte 72
.byte 95
.byte 66
.byte -82
.byte -62
.byte 42
.byte -105
.byte 94
.byte 94
.byte 66
.byte 96
.byte 40
.byte 3
.byte -31
.byte 27
.byte -88
.byte -101
.byte 42
.byte -107
.byte 123
.byte -28
.byte 111
.byte -66
.byte 93
.byte -14
.byte -69
.byte 49
.byte 3
.byte 91
.byte 2
.byte 42
.byte 5
.byte 72
.byte 7
.byte 66
.byte 8
.byte -62
.byte 4
.byte -105
.byte 9
.byte 94
.byte 8
.byte 96
.byte 8
.byte 3
.byte 8
.byte 27
.byte 7
.byte -101
.byte 9
.byte -107
.byte 12
.byte -28
.byte 3
.byte -66
.byte 3
.byte -14
.byte 5
.byte 73
.byte 79
.byte 98
.byte 8
.byte -4
.byte 59
.byte -128
.byte -127
.byte 121
.byte -25
.byte -54
.byte -59
.byte -36
.byte -44
.byte -122
.byte 56
.byte 7
.byte -84
.byte 26
.byte -79
.byte -85
.byte 90
.byte -34
.byte -69
.byte -51
.byte -94
.byte -33
.byte -80
.byte 77
.byte 30
.byte 92
.byte 90
.byte 73
.byte 4
.byte 98
.byte 2
.byte -4
.byte 7
.byte -128
.byte 1
.byte 121
.byte 12
.byte -54
.byte 7
.byte -36
.byte 0
.byte -122
.byte 6
.byte 7
.byte 7
.byte 26
.byte 3
.byte -85
.byte 9
.byte -34
.byte 1
.byte -51
.byte 11
.byte -33
.byte 3
.byte 77
.byte 7
.byte 92
.byte 6
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 7
.byte 0
.byte 1
.byte 2
.byte 3
.byte 4
.byte 5
.byte 6
.byte 15
.byte 8
.byte 9
.byte 10
.byte 11
.byte 12
.byte 13
.byte 14
.byte 23
.byte 16
.byte 17
.byte 18
.byte 19
.byte 20
.byte 21
.byte 22
.byte 31
.byte 24
.byte 25
.byte 26
.byte 27
.byte 28
.byte 29
.byte 30
.byte 1
.byte 2
.byte 3
.byte 4
.byte 5
.byte 6
.byte 7
.byte 0
.byte 9
.byte 10
.byte 11
.byte 12
.byte 13
.byte 14
.byte 15
.byte 8
.byte 17
.byte 18
.byte 19
.byte 20
.byte 21
.byte 22
.byte 23
.byte 16
.byte 25
.byte 26
.byte 27
.byte 28
.byte 29
.byte 30
.byte 31
.byte 24
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 61
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 46
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 28
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 23
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 63
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 2
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 36
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 37
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 19
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 58
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 25
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 54
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 3
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 56
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 62
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 49
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 39
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 44
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 20
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 21
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 43
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 50
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 3
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 18
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 36
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 41
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 62
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 28
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 27
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 45
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 6
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 56
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 39
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 61
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 55
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 2
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 15
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 25
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 20
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 44
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 43
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 21
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 14
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte 1
.byte 4
.byte 5
.byte 8
.byte 9
.byte 12
.byte 13
.byte 2
.byte 3
.byte 6
.byte 7
.byte 10
.byte 11
.byte 14
.byte 15
.byte 3
.byte 0
.byte 0
.byte 0
.byte 2
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 4
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 6
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 6
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 6
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 6
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 4
.byte 6
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 6
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 6
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 6
.byte -1
.byte -1
.byte -1
.byte -1
.byte 8
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 8
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 8
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 8
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 4
.byte 8
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 8
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 8
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 8
.byte -1
.byte -1
.byte -1
.byte -1
.byte 6
.byte 8
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 6
.byte 8
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 6
.byte 8
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 6
.byte 8
.byte -1
.byte -1
.byte -1
.byte -1
.byte 4
.byte 6
.byte 8
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 6
.byte 8
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 6
.byte 8
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 6
.byte 8
.byte -1
.byte -1
.byte -1
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 4
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte 6
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 6
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 6
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 6
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte 4
.byte 6
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 6
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 6
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 6
.byte 10
.byte -1
.byte -1
.byte -1
.byte 8
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 8
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 8
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 8
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte 4
.byte 8
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 8
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 8
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 8
.byte 10
.byte -1
.byte -1
.byte -1
.byte 6
.byte 8
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 6
.byte 8
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 6
.byte 8
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 6
.byte 8
.byte 10
.byte -1
.byte -1
.byte -1
.byte 4
.byte 6
.byte 8
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 6
.byte 8
.byte 10
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 6
.byte 8
.byte 10
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 6
.byte 8
.byte 10
.byte -1
.byte -1
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 4
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 6
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 6
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 6
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 6
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 4
.byte 6
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 6
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 6
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 6
.byte 12
.byte -1
.byte -1
.byte -1
.byte 8
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 8
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 8
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 8
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 4
.byte 8
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 8
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 8
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 8
.byte 12
.byte -1
.byte -1
.byte -1
.byte 6
.byte 8
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 6
.byte 8
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 6
.byte 8
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 6
.byte 8
.byte 12
.byte -1
.byte -1
.byte -1
.byte 4
.byte 6
.byte 8
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 6
.byte 8
.byte 12
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 6
.byte 8
.byte 12
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 6
.byte 8
.byte 12
.byte -1
.byte -1
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 4
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte 6
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 6
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 6
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 6
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte 4
.byte 6
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 6
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 6
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 6
.byte 10
.byte 12
.byte -1
.byte -1
.byte 8
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 8
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 8
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 8
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte 4
.byte 8
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 8
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 8
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 8
.byte 10
.byte 12
.byte -1
.byte -1
.byte 6
.byte 8
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 6
.byte 8
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte 2
.byte 6
.byte 8
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 6
.byte 8
.byte 10
.byte 12
.byte -1
.byte -1
.byte 4
.byte 6
.byte 8
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 6
.byte 8
.byte 10
.byte 12
.byte -1
.byte -1
.byte 2
.byte 4
.byte 6
.byte 8
.byte 10
.byte 12
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 6
.byte 8
.byte 10
.byte 12
.byte -1
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 4
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 6
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 6
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 6
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 6
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 4
.byte 6
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 6
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 6
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 6
.byte 14
.byte -1
.byte -1
.byte -1
.byte 8
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 8
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 8
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 8
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 4
.byte 8
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 8
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 8
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 8
.byte 14
.byte -1
.byte -1
.byte -1
.byte 6
.byte 8
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 6
.byte 8
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 6
.byte 8
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 6
.byte 8
.byte 14
.byte -1
.byte -1
.byte -1
.byte 4
.byte 6
.byte 8
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 6
.byte 8
.byte 14
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 6
.byte 8
.byte 14
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 6
.byte 8
.byte 14
.byte -1
.byte -1
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 4
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte 6
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 6
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 6
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 6
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte 4
.byte 6
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 6
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 6
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 6
.byte 10
.byte 14
.byte -1
.byte -1
.byte 8
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 8
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 8
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 8
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte 4
.byte 8
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 8
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 8
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 8
.byte 10
.byte 14
.byte -1
.byte -1
.byte 6
.byte 8
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 6
.byte 8
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte 2
.byte 6
.byte 8
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 6
.byte 8
.byte 10
.byte 14
.byte -1
.byte -1
.byte 4
.byte 6
.byte 8
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 6
.byte 8
.byte 10
.byte 14
.byte -1
.byte -1
.byte 2
.byte 4
.byte 6
.byte 8
.byte 10
.byte 14
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 6
.byte 8
.byte 10
.byte 14
.byte -1
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 4
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 6
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 6
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 6
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 6
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 4
.byte 6
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 6
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 6
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 6
.byte 12
.byte 14
.byte -1
.byte -1
.byte 8
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 8
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 8
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 8
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 4
.byte 8
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 8
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 8
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 8
.byte 12
.byte 14
.byte -1
.byte -1
.byte 6
.byte 8
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 6
.byte 8
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 2
.byte 6
.byte 8
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 6
.byte 8
.byte 12
.byte 14
.byte -1
.byte -1
.byte 4
.byte 6
.byte 8
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 6
.byte 8
.byte 12
.byte 14
.byte -1
.byte -1
.byte 2
.byte 4
.byte 6
.byte 8
.byte 12
.byte 14
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 6
.byte 8
.byte 12
.byte 14
.byte -1
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 4
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte 6
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 6
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 2
.byte 6
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 6
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte 4
.byte 6
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 6
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte 2
.byte 4
.byte 6
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 6
.byte 10
.byte 12
.byte 14
.byte -1
.byte 8
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 8
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 2
.byte 8
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 8
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte 4
.byte 8
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 8
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte 2
.byte 4
.byte 8
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 8
.byte 10
.byte 12
.byte 14
.byte -1
.byte 6
.byte 8
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 0
.byte 6
.byte 8
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte 2
.byte 6
.byte 8
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte 0
.byte 2
.byte 6
.byte 8
.byte 10
.byte 12
.byte 14
.byte -1
.byte 4
.byte 6
.byte 8
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte 0
.byte 4
.byte 6
.byte 8
.byte 10
.byte 12
.byte 14
.byte -1
.byte 2
.byte 4
.byte 6
.byte 8
.byte 10
.byte 12
.byte 14
.byte -1
.byte 0
.byte 2
.byte 4
.byte 6
.byte 8
.byte 10
.byte 12
.byte 14
.byte 12
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 4
.byte 1
.byte 0
.byte 0
.byte 4
.byte 4
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 4
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 5
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 6
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 7
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 24
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 13
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 18
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 23
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 16
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 25
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 22
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 15
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 11
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 12
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 21
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 26
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 19
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 20
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 17
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 14
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 27
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -8
.byte 31
.byte -32
.byte 127
.byte 4
.byte 52
.byte 1
.byte 13
.byte 0
.byte 8
.byte -128
.byte 0
.byte 15
.byte 0
.byte -16
.byte 0
.byte -1
.byte 15
.byte -1
.byte 3
.byte 0
.byte 16
.byte 15
.byte 0
.byte 1
.byte 16
.byte 15
.byte 0
.byte 0
.byte 2
.byte 1
.byte 0
.byte 1
.byte 2
.byte -1
.byte 3
.byte 4
.byte 5
.byte -1
.byte 6
.byte 7
.byte 8
.byte -1
.byte 9
.byte 10
.byte 11
.byte -1
.byte 4
.byte 5
.byte 6
.byte -1
.byte 7
.byte 8
.byte 9
.byte -1
.byte 10
.byte 11
.byte 12
.byte -1
.byte 13
.byte 14
.byte 15
.byte -1
.byte -5
.byte 58
.byte -5
.byte 58
.byte -5
.byte 58
.byte -5
.byte 58
.byte -5
.byte 58
.byte -5
.byte 58
.byte -5
.byte 58
.byte -5
.byte 58
.byte -5
.byte 58
.byte -5
.byte 58
.byte -5
.byte 58
.byte -5
.byte 58
.byte -5
.byte 58
.byte -5
.byte 58
.byte -5
.byte 58
.byte -5
.byte 58
.byte -91
.byte 6
.byte 15
.byte 7
.byte -76
.byte 5
.byte 67
.byte 9
.byte 34
.byte 9
.byte 29
.byte 9
.byte 52
.byte 1
.byte 108
.byte 0
.byte 35
.byte 11
.byte 102
.byte 3
.byte 86
.byte 3
.byte -26
.byte 5
.byte -25
.byte 9
.byte -2
.byte 4
.byte -6
.byte 5
.byte -95
.byte 4
.byte 123
.byte 6
.byte -93
.byte 4
.byte 37
.byte 12
.byte 106
.byte 3
.byte 55
.byte 5
.byte 63
.byte 8
.byte -120
.byte 0
.byte -65
.byte 4
.byte -127
.byte 11
.byte -71
.byte 5
.byte 5
.byte 5
.byte -41
.byte 7
.byte -97
.byte 10
.byte -90
.byte 10
.byte -72
.byte 8
.byte -48
.byte 9
.byte 75
.byte 0
.byte -100
.byte 0
.byte -72
.byte 11
.byte 95
.byte 11
.byte -92
.byte 11
.byte 104
.byte 3
.byte 125
.byte 10
.byte 54
.byte 6
.byte -94
.byte 8
.byte 90
.byte 2
.byte 54
.byte 7
.byte 9
.byte 3
.byte -109
.byte 0
.byte 122
.byte 8
.byte -9
.byte 9
.byte -10
.byte 0
.byte -116
.byte 6
.byte -37
.byte 6
.byte -52
.byte 1
.byte 35
.byte 1
.byte -21
.byte 0
.byte 80
.byte 12
.byte -74
.byte 10
.byte 91
.byte 11
.byte -104
.byte 12
.byte -13
.byte 6
.byte -102
.byte 9
.byte -29
.byte 4
.byte -74
.byte 9
.byte -42
.byte 10
.byte 83
.byte 11
.byte 79
.byte 4
.byte -5
.byte 4
.byte 92
.byte 10
.byte 41
.byte 4
.byte 65
.byte 11
.byte -43
.byte 2
.byte -28
.byte 5
.byte 64
.byte 9
.byte -114
.byte 1
.byte -73
.byte 3
.byte -9
.byte 0
.byte -115
.byte 5
.byte -106
.byte 12
.byte -61
.byte 9
.byte 15
.byte 1
.byte 90
.byte 0
.byte 85
.byte 3
.byte 68
.byte 7
.byte -125
.byte 12
.byte -118
.byte 4
.byte 82
.byte 6
.byte -102
.byte 2
.byte 64
.byte 1
.byte 8
.byte 0
.byte -3
.byte 10
.byte 8
.byte 6
.byte 26
.byte 1
.byte 46
.byte 7
.byte 13
.byte 5
.byte 10
.byte 9
.byte 40
.byte 2
.byte 117
.byte 10
.byte 58
.byte 8
.byte 35
.byte 6
.byte -51
.byte 0
.byte 102
.byte 11
.byte 6
.byte 6
.byte -95
.byte 10
.byte 37
.byte 10
.byte 8
.byte 9
.byte -87
.byte 2
.byte -126
.byte 0
.byte 66
.byte 6
.byte 79
.byte 7
.byte 61
.byte 3
.byte -126
.byte 11
.byte -7
.byte 11
.byte 45
.byte 5
.byte -60
.byte 10
.byte 69
.byte 7
.byte -62
.byte 5
.byte -78
.byte 4
.byte 63
.byte 9
.byte 75
.byte 12
.byte -40
.byte 6
.byte -109
.byte 10
.byte -85
.byte 0
.byte 55
.byte 12
.byte -30
.byte 11
.byte 115
.byte 7
.byte 44
.byte 7
.byte -19
.byte 5
.byte 103
.byte 1
.byte -10
.byte 2
.byte -95
.byte 5
.byte -19
.byte 8
.byte 11
.byte 10
.byte -102
.byte 11
.byte 20
.byte 7
.byte -43
.byte 5
.byte -114
.byte 5
.byte 31
.byte 1
.byte -54
.byte 0
.byte 86
.byte 12
.byte 110
.byte 2
.byte 41
.byte 6
.byte -74
.byte 0
.byte -62
.byte 3
.byte 79
.byte 8
.byte 63
.byte 7
.byte -68
.byte 5
.byte 61
.byte 2
.byte -44
.byte 7
.byte 8
.byte 1
.byte 127
.byte 1
.byte -60
.byte 9
.byte -78
.byte 5
.byte -65
.byte 6
.byte 127
.byte 12
.byte 88
.byte 10
.byte -7
.byte 3
.byte -36
.byte 2
.byte 96
.byte 2
.byte -5
.byte 6
.byte -101
.byte 1
.byte 52
.byte 12
.byte -34
.byte 6
.byte -57
.byte 4
.byte -116
.byte 2
.byte -39
.byte 10
.byte -9
.byte 3
.byte -12
.byte 7
.byte -45
.byte 5
.byte -25
.byte 11
.byte -7
.byte 6
.byte 4
.byte 2
.byte -7
.byte 12
.byte -63
.byte 11
.byte 103
.byte 10
.byte -81
.byte 6
.byte 119
.byte 8
.byte 126
.byte 0
.byte -67
.byte 5
.byte -84
.byte 9
.byte -89
.byte 12
.byte -14
.byte 11
.byte 62
.byte 3
.byte 107
.byte 0
.byte 116
.byte 7
.byte 10
.byte 12
.byte 74
.byte 9
.byte 115
.byte 11
.byte -63
.byte 3
.byte 29
.byte 7
.byte 44
.byte 10
.byte -64
.byte 1
.byte -40
.byte 8
.byte -91
.byte 2
.byte 6
.byte 8
.byte -78
.byte 8
.byte -82
.byte 1
.byte 43
.byte 2
.byte 75
.byte 3
.byte 30
.byte 8
.byte 103
.byte 3
.byte 14
.byte 6
.byte 105
.byte 0
.byte -90
.byte 1
.byte 75
.byte 2
.byte -79
.byte 0
.byte 22
.byte 12
.byte -34
.byte 11
.byte 53
.byte 11
.byte 38
.byte 6
.byte 117
.byte 6
.byte 11
.byte 12
.byte 10
.byte 3
.byte -121
.byte 4
.byte 110
.byte 12
.byte -8
.byte 9
.byte -53
.byte 5
.byte -89
.byte 10
.byte 95
.byte 4
.byte -53
.byte 6
.byte -124
.byte 2
.byte -103
.byte 9
.byte 93
.byte 1
.byte -94
.byte 1
.byte 73
.byte 1
.byte 101
.byte 12
.byte -74
.byte 12
.byte 49
.byte 3
.byte 73
.byte 4
.byte 91
.byte 2
.byte 98
.byte 2
.byte 42
.byte 5
.byte -4
.byte 7
.byte 72
.byte 7
.byte -128
.byte 1
.byte 66
.byte 8
.byte 121
.byte 12
.byte -62
.byte 4
.byte -54
.byte 7
.byte -105
.byte 9
.byte -36
.byte 0
.byte 94
.byte 8
.byte -122
.byte 6
.byte 96
.byte 8
.byte 7
.byte 7
.byte 3
.byte 8
.byte 26
.byte 3
.byte 27
.byte 7
.byte -85
.byte 9
.byte -101
.byte 9
.byte -34
.byte 1
.byte -107
.byte 12
.byte -51
.byte 11
.byte -28
.byte 3
.byte -33
.byte 3
.byte -66
.byte 3
.byte 77
.byte 7
.byte -14
.byte 5
.byte 92
.byte 6
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
|
usenix-security-verdict/verdict
| 377,805
|
deps/libcrux/sys/libjade/jazz/kyber_kyber768_ref.s
|
.att_syntax
.text
.p2align 5
.globl _jade_kem_kyber_kyber768_amd64_ref_dec
.globl jade_kem_kyber_kyber768_amd64_ref_dec
.globl _jade_kem_kyber_kyber768_amd64_ref_enc_derand
.globl jade_kem_kyber_kyber768_amd64_ref_enc_derand
.globl _jade_kem_kyber_kyber768_amd64_ref_keypair_derand
.globl jade_kem_kyber_kyber768_amd64_ref_keypair_derand
_jade_kem_kyber_kyber768_amd64_ref_dec:
jade_kem_kyber_kyber768_amd64_ref_dec:
movq %rsp, %rax
leaq -14560(%rsp), %rsp
andq $-8, %rsp
movq %rax, 14552(%rsp)
movq %r15, 14504(%rsp)
movq %r14, 14512(%rsp)
movq %r13, 14520(%rsp)
movq %r12, 14528(%rsp)
movq %rbp, 14536(%rsp)
movq %rbx, 14544(%rsp)
movq %rdi, (%rsp)
movq %rsi, 8(%rsp)
leaq 80(%rsp), %rax
movq $0, %rcx
movq $0, %rdi
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$225
Ljade_kem_kyber_kyber768_amd64_ref_dec$226:
movzbl (%rsi,%rdi), %r10d
incq %rdi
movzbl (%rsi,%rdi), %r11d
incq %rdi
movzbl (%rsi,%rdi), %r8d
incq %rdi
movzbl (%rsi,%rdi), %r9d
incq %rdi
movzbl (%rsi,%rdi), %ebx
incq %rdi
movl %r11d, %ebp
shrl $2, %r11d
andl $3, %ebp
shll $8, %ebp
orl %ebp, %r10d
movl %r8d, %ebp
shrl $4, %r8d
andl $15, %ebp
shll $6, %ebp
orl %ebp, %r11d
movl %r9d, %ebp
shrl $6, %r9d
andl $63, %ebp
shll $4, %ebp
orl %ebp, %r8d
shll $2, %ebx
orl %ebx, %r9d
imull $3329, %r10d, %r10d
addl $512, %r10d
shrl $10, %r10d
movw %r10w, 2456(%rsp,%rcx,2)
incq %rcx
imull $3329, %r11d, %r10d
addl $512, %r10d
shrl $10, %r10d
movw %r10w, 2456(%rsp,%rcx,2)
incq %rcx
imull $3329, %r8d, %r8d
addl $512, %r8d
shrl $10, %r8d
movw %r8w, 2456(%rsp,%rcx,2)
incq %rcx
imull $3329, %r9d, %r8d
addl $512, %r8d
shrl $10, %r8d
movw %r8w, 2456(%rsp,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$225:
cmpq $768, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$226
addq $960, %rsi
leaq 920(%rsp), %rcx
call L_poly_decompress$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$224:
movq %rdx, %rsi
leaq 3992(%rsp), %rdi
call L_poly_frombytes$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$223:
addq $384, %rsi
leaq 4504(%rsp), %rdi
call L_poly_frombytes$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$222:
addq $384, %rsi
leaq 5016(%rsp), %rdi
call L_poly_frombytes$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$221:
leaq 2456(%rsp), %rcx
call L_poly_ntt$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$220:
leaq 2968(%rsp), %rcx
call L_poly_ntt$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$219:
leaq 3480(%rsp), %rcx
call L_poly_ntt$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$218:
leaq 408(%rsp), %rdi
leaq 3992(%rsp), %rcx
leaq 2456(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$217:
leaq 16(%rsp), %rsp
leaq 1432(%rsp), %rdi
leaq 4504(%rsp), %rcx
leaq 2968(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$216:
leaq 16(%rsp), %rsp
leaq 408(%rsp), %rcx
leaq 1432(%rsp), %rsi
call L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$215:
leaq 1432(%rsp), %rdi
leaq 5016(%rsp), %rcx
leaq 3480(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$214:
leaq 16(%rsp), %rsp
leaq 408(%rsp), %rcx
leaq 1432(%rsp), %rsi
call L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$213:
leaq 408(%rsp), %rcx
movq $0, %rsi
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$211
Ljade_kem_kyber_kyber768_amd64_ref_dec$212:
movw (%rcx,%rsi,2), %di
movswl %di, %r8d
imull $20159, %r8d, %r8d
sarl $26, %r8d
imull $3329, %r8d, %r8d
subw %r8w, %di
movw %di, (%rcx,%rsi,2)
incq %rsi
Ljade_kem_kyber_kyber768_amd64_ref_dec$211:
cmpq $256, %rsi
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$212
leaq 408(%rsp), %rcx
call L_poly_invntt$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$210:
leaq 1432(%rsp), %rcx
leaq 920(%rsp), %rsi
leaq 408(%rsp), %rdi
call L_poly_sub$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$209:
leaq 1432(%rsp), %rcx
movq $0, %rsi
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$207
Ljade_kem_kyber_kyber768_amd64_ref_dec$208:
movw (%rcx,%rsi,2), %di
movswl %di, %r8d
imull $20159, %r8d, %r8d
sarl $26, %r8d
imull $3329, %r8d, %r8d
subw %r8w, %di
movw %di, (%rcx,%rsi,2)
incq %rsi
Ljade_kem_kyber_kyber768_amd64_ref_dec$207:
cmpq $256, %rsi
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$208
leaq 1432(%rsp), %rcx
call L_i_poly_tomsg$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$206:
leaq 32(%rdx), %rax
addq $2304, %rax
movq (%rax), %rcx
movq %rcx, 112(%rsp)
movq 8(%rax), %rcx
movq %rcx, 120(%rsp)
movq 16(%rax), %rcx
movq %rcx, 128(%rsp)
movq 24(%rax), %rax
movq %rax, 136(%rsp)
movq %rdx, 16(%rsp)
leaq 144(%rsp), %rax
leaq 80(%rsp), %rdx
leaq -208(%rsp), %rsp
call L_sha3_512_64$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$205:
leaq 208(%rsp), %rsp
movq 16(%rsp), %rdx
addq $1152, %rdx
leaq 13410(%rsp), %rsi
leaq 80(%rsp), %rcx
leaq 176(%rsp), %rax
movq %rsi, 24(%rsp)
movq %rdx, %rsi
leaq 2456(%rsp), %rdi
call L_poly_frombytes$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$204:
addq $384, %rsi
leaq 2968(%rsp), %rdi
call L_poly_frombytes$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$203:
addq $384, %rsi
leaq 3480(%rsp), %rdi
call L_poly_frombytes$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$202:
movq $0, %rsi
addq $1152, %rdx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$200
Ljade_kem_kyber_kyber768_amd64_ref_dec$201:
movq (%rdx), %rdi
movq %rdi, 48(%rsp,%rsi,8)
addq $8, %rdx
incq %rsi
Ljade_kem_kyber_kyber768_amd64_ref_dec$200:
cmpq $4, %rsi
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$201
leaq 1432(%rsp), %rdx
call L_i_poly_frommsg$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$199:
movq $1, %rcx
movq %rcx, 32(%rsp)
movb 48(%rsp), %cl
movb %cl, 13208(%rsp)
movb 49(%rsp), %cl
movb %cl, 13209(%rsp)
movb 50(%rsp), %cl
movb %cl, 13210(%rsp)
movb 51(%rsp), %cl
movb %cl, 13211(%rsp)
movb 52(%rsp), %cl
movb %cl, 13212(%rsp)
movb 53(%rsp), %cl
movb %cl, 13213(%rsp)
movb 54(%rsp), %cl
movb %cl, 13214(%rsp)
movb 55(%rsp), %cl
movb %cl, 13215(%rsp)
movb 56(%rsp), %cl
movb %cl, 13216(%rsp)
movb 57(%rsp), %cl
movb %cl, 13217(%rsp)
movb 58(%rsp), %cl
movb %cl, 13218(%rsp)
movb 59(%rsp), %cl
movb %cl, 13219(%rsp)
movb 60(%rsp), %cl
movb %cl, 13220(%rsp)
movb 61(%rsp), %cl
movb %cl, 13221(%rsp)
movb 62(%rsp), %cl
movb %cl, 13222(%rsp)
movb 63(%rsp), %cl
movb %cl, 13223(%rsp)
movb 64(%rsp), %cl
movb %cl, 13224(%rsp)
movb 65(%rsp), %cl
movb %cl, 13225(%rsp)
movb 66(%rsp), %cl
movb %cl, 13226(%rsp)
movb 67(%rsp), %cl
movb %cl, 13227(%rsp)
movb 68(%rsp), %cl
movb %cl, 13228(%rsp)
movb 69(%rsp), %cl
movb %cl, 13229(%rsp)
movb 70(%rsp), %cl
movb %cl, 13230(%rsp)
movb 71(%rsp), %cl
movb %cl, 13231(%rsp)
movb 72(%rsp), %cl
movb %cl, 13232(%rsp)
movb 73(%rsp), %cl
movb %cl, 13233(%rsp)
movb 74(%rsp), %cl
movb %cl, 13234(%rsp)
movb 75(%rsp), %cl
movb %cl, 13235(%rsp)
movb 76(%rsp), %cl
movb %cl, 13236(%rsp)
movb 77(%rsp), %cl
movb %cl, 13237(%rsp)
movb 78(%rsp), %cl
movb %cl, 13238(%rsp)
movb 79(%rsp), %cl
movb %cl, 13239(%rsp)
movq 32(%rsp), %rcx
cmpq $0, %rcx
je Ljade_kem_kyber_kyber768_amd64_ref_dec$197
movb $0, 13240(%rsp)
movb $0, 13241(%rsp)
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$198
Ljade_kem_kyber_kyber768_amd64_ref_dec$197:
movb $0, 13240(%rsp)
movb $0, 13241(%rsp)
Ljade_kem_kyber_kyber768_amd64_ref_dec$198:
leaq 208(%rsp), %rcx
leaq 13208(%rsp), %rdx
call L_shake128_absorb34$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$196:
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$194
Ljade_kem_kyber_kyber768_amd64_ref_dec$195:
movq %rcx, 408(%rsp,%rcx,8)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$194:
cmpq $64, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$195
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$186
Ljade_kem_kyber_kyber768_amd64_ref_dec$187:
movq %rcx, 40(%rsp)
leaq 208(%rsp), %rcx
leaq 13242(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$193:
leaq 8(%rsp), %rsp
movq 40(%rsp), %rcx
movq $0, %rdx
Ljade_kem_kyber_kyber768_amd64_ref_dec$188:
movzbw 13242(%rsp,%rdx), %si
incq %rdx
movzbw 13242(%rsp,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw 13242(%rsp,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$191
cmpq $256, %rcx
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$191
movw %si, 408(%rsp,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$192:
Ljade_kem_kyber_kyber768_amd64_ref_dec$191:
cmpw $3329, %r8w
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$189
cmpq $256, %rcx
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$189
movw %r8w, 408(%rsp,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$190:
Ljade_kem_kyber_kyber768_amd64_ref_dec$189:
cmpq $166, %rdx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$188
Ljade_kem_kyber_kyber768_amd64_ref_dec$186:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$187
movq $0, %rcx
movq $0, %rdx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$184
Ljade_kem_kyber_kyber768_amd64_ref_dec$185:
movw 408(%rsp,%rcx,2), %si
movw %si, 8600(%rsp,%rdx,2)
incq %rcx
incq %rdx
Ljade_kem_kyber_kyber768_amd64_ref_dec$184:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$185
movq 32(%rsp), %rcx
cmpq $0, %rcx
je Ljade_kem_kyber_kyber768_amd64_ref_dec$182
movb $0, 13240(%rsp)
movb $1, 13241(%rsp)
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$183
Ljade_kem_kyber_kyber768_amd64_ref_dec$182:
movb $1, 13240(%rsp)
movb $0, 13241(%rsp)
Ljade_kem_kyber_kyber768_amd64_ref_dec$183:
leaq 208(%rsp), %rcx
leaq 13208(%rsp), %rdx
call L_shake128_absorb34$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$181:
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$179
Ljade_kem_kyber_kyber768_amd64_ref_dec$180:
movq %rcx, 408(%rsp,%rcx,8)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$179:
cmpq $64, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$180
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$171
Ljade_kem_kyber_kyber768_amd64_ref_dec$172:
movq %rcx, 40(%rsp)
leaq 208(%rsp), %rcx
leaq 13242(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$178:
leaq 8(%rsp), %rsp
movq 40(%rsp), %rcx
movq $0, %rdx
Ljade_kem_kyber_kyber768_amd64_ref_dec$173:
movzbw 13242(%rsp,%rdx), %si
incq %rdx
movzbw 13242(%rsp,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw 13242(%rsp,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$176
cmpq $256, %rcx
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$176
movw %si, 408(%rsp,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$177:
Ljade_kem_kyber_kyber768_amd64_ref_dec$176:
cmpw $3329, %r8w
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$174
cmpq $256, %rcx
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$174
movw %r8w, 408(%rsp,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$175:
Ljade_kem_kyber_kyber768_amd64_ref_dec$174:
cmpq $166, %rdx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$173
Ljade_kem_kyber_kyber768_amd64_ref_dec$171:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$172
movq $0, %rcx
movq $256, %rdx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$169
Ljade_kem_kyber_kyber768_amd64_ref_dec$170:
movw 408(%rsp,%rcx,2), %si
movw %si, 8600(%rsp,%rdx,2)
incq %rcx
incq %rdx
Ljade_kem_kyber_kyber768_amd64_ref_dec$169:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$170
movq 32(%rsp), %rcx
cmpq $0, %rcx
je Ljade_kem_kyber_kyber768_amd64_ref_dec$167
movb $0, 13240(%rsp)
movb $2, 13241(%rsp)
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$168
Ljade_kem_kyber_kyber768_amd64_ref_dec$167:
movb $2, 13240(%rsp)
movb $0, 13241(%rsp)
Ljade_kem_kyber_kyber768_amd64_ref_dec$168:
leaq 208(%rsp), %rcx
leaq 13208(%rsp), %rdx
call L_shake128_absorb34$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$166:
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$164
Ljade_kem_kyber_kyber768_amd64_ref_dec$165:
movq %rcx, 408(%rsp,%rcx,8)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$164:
cmpq $64, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$165
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$156
Ljade_kem_kyber_kyber768_amd64_ref_dec$157:
movq %rcx, 40(%rsp)
leaq 208(%rsp), %rcx
leaq 13242(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$163:
leaq 8(%rsp), %rsp
movq 40(%rsp), %rcx
movq $0, %rdx
Ljade_kem_kyber_kyber768_amd64_ref_dec$158:
movzbw 13242(%rsp,%rdx), %si
incq %rdx
movzbw 13242(%rsp,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw 13242(%rsp,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$161
cmpq $256, %rcx
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$161
movw %si, 408(%rsp,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$162:
Ljade_kem_kyber_kyber768_amd64_ref_dec$161:
cmpw $3329, %r8w
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$159
cmpq $256, %rcx
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$159
movw %r8w, 408(%rsp,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$160:
Ljade_kem_kyber_kyber768_amd64_ref_dec$159:
cmpq $166, %rdx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$158
Ljade_kem_kyber_kyber768_amd64_ref_dec$156:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$157
movq $0, %rcx
movq $512, %rdx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$154
Ljade_kem_kyber_kyber768_amd64_ref_dec$155:
movw 408(%rsp,%rcx,2), %si
movw %si, 8600(%rsp,%rdx,2)
incq %rcx
incq %rdx
Ljade_kem_kyber_kyber768_amd64_ref_dec$154:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$155
movq 32(%rsp), %rcx
cmpq $0, %rcx
je Ljade_kem_kyber_kyber768_amd64_ref_dec$152
movb $1, 13240(%rsp)
movb $0, 13241(%rsp)
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$153
Ljade_kem_kyber_kyber768_amd64_ref_dec$152:
movb $0, 13240(%rsp)
movb $1, 13241(%rsp)
Ljade_kem_kyber_kyber768_amd64_ref_dec$153:
leaq 208(%rsp), %rcx
leaq 13208(%rsp), %rdx
call L_shake128_absorb34$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$151:
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$149
Ljade_kem_kyber_kyber768_amd64_ref_dec$150:
movq %rcx, 408(%rsp,%rcx,8)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$149:
cmpq $64, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$150
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$141
Ljade_kem_kyber_kyber768_amd64_ref_dec$142:
movq %rcx, 40(%rsp)
leaq 208(%rsp), %rcx
leaq 13242(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$148:
leaq 8(%rsp), %rsp
movq 40(%rsp), %rcx
movq $0, %rdx
Ljade_kem_kyber_kyber768_amd64_ref_dec$143:
movzbw 13242(%rsp,%rdx), %si
incq %rdx
movzbw 13242(%rsp,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw 13242(%rsp,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$146
cmpq $256, %rcx
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$146
movw %si, 408(%rsp,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$147:
Ljade_kem_kyber_kyber768_amd64_ref_dec$146:
cmpw $3329, %r8w
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$144
cmpq $256, %rcx
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$144
movw %r8w, 408(%rsp,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$145:
Ljade_kem_kyber_kyber768_amd64_ref_dec$144:
cmpq $166, %rdx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$143
Ljade_kem_kyber_kyber768_amd64_ref_dec$141:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$142
movq $0, %rcx
movq $768, %rdx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$139
Ljade_kem_kyber_kyber768_amd64_ref_dec$140:
movw 408(%rsp,%rcx,2), %si
movw %si, 8600(%rsp,%rdx,2)
incq %rcx
incq %rdx
Ljade_kem_kyber_kyber768_amd64_ref_dec$139:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$140
movq 32(%rsp), %rcx
cmpq $0, %rcx
je Ljade_kem_kyber_kyber768_amd64_ref_dec$137
movb $1, 13240(%rsp)
movb $1, 13241(%rsp)
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$138
Ljade_kem_kyber_kyber768_amd64_ref_dec$137:
movb $1, 13240(%rsp)
movb $1, 13241(%rsp)
Ljade_kem_kyber_kyber768_amd64_ref_dec$138:
leaq 208(%rsp), %rcx
leaq 13208(%rsp), %rdx
call L_shake128_absorb34$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$136:
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$134
Ljade_kem_kyber_kyber768_amd64_ref_dec$135:
movq %rcx, 408(%rsp,%rcx,8)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$134:
cmpq $64, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$135
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$126
Ljade_kem_kyber_kyber768_amd64_ref_dec$127:
movq %rcx, 40(%rsp)
leaq 208(%rsp), %rcx
leaq 13242(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$133:
leaq 8(%rsp), %rsp
movq 40(%rsp), %rcx
movq $0, %rdx
Ljade_kem_kyber_kyber768_amd64_ref_dec$128:
movzbw 13242(%rsp,%rdx), %si
incq %rdx
movzbw 13242(%rsp,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw 13242(%rsp,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$131
cmpq $256, %rcx
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$131
movw %si, 408(%rsp,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$132:
Ljade_kem_kyber_kyber768_amd64_ref_dec$131:
cmpw $3329, %r8w
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$129
cmpq $256, %rcx
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$129
movw %r8w, 408(%rsp,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$130:
Ljade_kem_kyber_kyber768_amd64_ref_dec$129:
cmpq $166, %rdx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$128
Ljade_kem_kyber_kyber768_amd64_ref_dec$126:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$127
movq $0, %rcx
movq $1024, %rdx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$124
Ljade_kem_kyber_kyber768_amd64_ref_dec$125:
movw 408(%rsp,%rcx,2), %si
movw %si, 8600(%rsp,%rdx,2)
incq %rcx
incq %rdx
Ljade_kem_kyber_kyber768_amd64_ref_dec$124:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$125
movq 32(%rsp), %rcx
cmpq $0, %rcx
je Ljade_kem_kyber_kyber768_amd64_ref_dec$122
movb $1, 13240(%rsp)
movb $2, 13241(%rsp)
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$123
Ljade_kem_kyber_kyber768_amd64_ref_dec$122:
movb $2, 13240(%rsp)
movb $1, 13241(%rsp)
Ljade_kem_kyber_kyber768_amd64_ref_dec$123:
leaq 208(%rsp), %rcx
leaq 13208(%rsp), %rdx
call L_shake128_absorb34$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$121:
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$119
Ljade_kem_kyber_kyber768_amd64_ref_dec$120:
movq %rcx, 408(%rsp,%rcx,8)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$119:
cmpq $64, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$120
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$111
Ljade_kem_kyber_kyber768_amd64_ref_dec$112:
movq %rcx, 40(%rsp)
leaq 208(%rsp), %rcx
leaq 13242(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$118:
leaq 8(%rsp), %rsp
movq 40(%rsp), %rcx
movq $0, %rdx
Ljade_kem_kyber_kyber768_amd64_ref_dec$113:
movzbw 13242(%rsp,%rdx), %si
incq %rdx
movzbw 13242(%rsp,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw 13242(%rsp,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$116
cmpq $256, %rcx
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$116
movw %si, 408(%rsp,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$117:
Ljade_kem_kyber_kyber768_amd64_ref_dec$116:
cmpw $3329, %r8w
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$114
cmpq $256, %rcx
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$114
movw %r8w, 408(%rsp,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$115:
Ljade_kem_kyber_kyber768_amd64_ref_dec$114:
cmpq $166, %rdx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$113
Ljade_kem_kyber_kyber768_amd64_ref_dec$111:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$112
movq $0, %rcx
movq $1280, %rdx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$109
Ljade_kem_kyber_kyber768_amd64_ref_dec$110:
movw 408(%rsp,%rcx,2), %si
movw %si, 8600(%rsp,%rdx,2)
incq %rcx
incq %rdx
Ljade_kem_kyber_kyber768_amd64_ref_dec$109:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$110
movq 32(%rsp), %rcx
cmpq $0, %rcx
je Ljade_kem_kyber_kyber768_amd64_ref_dec$107
movb $2, 13240(%rsp)
movb $0, 13241(%rsp)
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$108
Ljade_kem_kyber_kyber768_amd64_ref_dec$107:
movb $0, 13240(%rsp)
movb $2, 13241(%rsp)
Ljade_kem_kyber_kyber768_amd64_ref_dec$108:
leaq 208(%rsp), %rcx
leaq 13208(%rsp), %rdx
call L_shake128_absorb34$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$106:
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$104
Ljade_kem_kyber_kyber768_amd64_ref_dec$105:
movq %rcx, 408(%rsp,%rcx,8)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$104:
cmpq $64, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$105
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$96
Ljade_kem_kyber_kyber768_amd64_ref_dec$97:
movq %rcx, 40(%rsp)
leaq 208(%rsp), %rcx
leaq 13242(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$103:
leaq 8(%rsp), %rsp
movq 40(%rsp), %rcx
movq $0, %rdx
Ljade_kem_kyber_kyber768_amd64_ref_dec$98:
movzbw 13242(%rsp,%rdx), %si
incq %rdx
movzbw 13242(%rsp,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw 13242(%rsp,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$101
cmpq $256, %rcx
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$101
movw %si, 408(%rsp,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$102:
Ljade_kem_kyber_kyber768_amd64_ref_dec$101:
cmpw $3329, %r8w
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$99
cmpq $256, %rcx
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$99
movw %r8w, 408(%rsp,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$100:
Ljade_kem_kyber_kyber768_amd64_ref_dec$99:
cmpq $166, %rdx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$98
Ljade_kem_kyber_kyber768_amd64_ref_dec$96:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$97
movq $0, %rcx
movq $1536, %rdx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$94
Ljade_kem_kyber_kyber768_amd64_ref_dec$95:
movw 408(%rsp,%rcx,2), %si
movw %si, 8600(%rsp,%rdx,2)
incq %rcx
incq %rdx
Ljade_kem_kyber_kyber768_amd64_ref_dec$94:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$95
movq 32(%rsp), %rcx
cmpq $0, %rcx
je Ljade_kem_kyber_kyber768_amd64_ref_dec$92
movb $2, 13240(%rsp)
movb $1, 13241(%rsp)
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$93
Ljade_kem_kyber_kyber768_amd64_ref_dec$92:
movb $1, 13240(%rsp)
movb $2, 13241(%rsp)
Ljade_kem_kyber_kyber768_amd64_ref_dec$93:
leaq 208(%rsp), %rcx
leaq 13208(%rsp), %rdx
call L_shake128_absorb34$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$91:
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$89
Ljade_kem_kyber_kyber768_amd64_ref_dec$90:
movq %rcx, 408(%rsp,%rcx,8)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$89:
cmpq $64, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$90
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$81
Ljade_kem_kyber_kyber768_amd64_ref_dec$82:
movq %rcx, 40(%rsp)
leaq 208(%rsp), %rcx
leaq 13242(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$88:
leaq 8(%rsp), %rsp
movq 40(%rsp), %rcx
movq $0, %rdx
Ljade_kem_kyber_kyber768_amd64_ref_dec$83:
movzbw 13242(%rsp,%rdx), %si
incq %rdx
movzbw 13242(%rsp,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw 13242(%rsp,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$86
cmpq $256, %rcx
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$86
movw %si, 408(%rsp,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$87:
Ljade_kem_kyber_kyber768_amd64_ref_dec$86:
cmpw $3329, %r8w
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$84
cmpq $256, %rcx
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$84
movw %r8w, 408(%rsp,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$85:
Ljade_kem_kyber_kyber768_amd64_ref_dec$84:
cmpq $166, %rdx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$83
Ljade_kem_kyber_kyber768_amd64_ref_dec$81:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$82
movq $0, %rcx
movq $1792, %rdx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$79
Ljade_kem_kyber_kyber768_amd64_ref_dec$80:
movw 408(%rsp,%rcx,2), %si
movw %si, 8600(%rsp,%rdx,2)
incq %rcx
incq %rdx
Ljade_kem_kyber_kyber768_amd64_ref_dec$79:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$80
movq 32(%rsp), %rcx
cmpq $0, %rcx
je Ljade_kem_kyber_kyber768_amd64_ref_dec$77
movb $2, 13240(%rsp)
movb $2, 13241(%rsp)
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$78
Ljade_kem_kyber_kyber768_amd64_ref_dec$77:
movb $2, 13240(%rsp)
movb $2, 13241(%rsp)
Ljade_kem_kyber_kyber768_amd64_ref_dec$78:
leaq 208(%rsp), %rcx
leaq 13208(%rsp), %rdx
call L_shake128_absorb34$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$76:
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$74
Ljade_kem_kyber_kyber768_amd64_ref_dec$75:
movq %rcx, 408(%rsp,%rcx,8)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$74:
cmpq $64, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$75
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$66
Ljade_kem_kyber_kyber768_amd64_ref_dec$67:
movq %rcx, 32(%rsp)
leaq 208(%rsp), %rcx
leaq 13242(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$73:
leaq 8(%rsp), %rsp
movq 32(%rsp), %rcx
movq $0, %rdx
Ljade_kem_kyber_kyber768_amd64_ref_dec$68:
movzbw 13242(%rsp,%rdx), %si
incq %rdx
movzbw 13242(%rsp,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw 13242(%rsp,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$71
cmpq $256, %rcx
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$71
movw %si, 408(%rsp,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$72:
Ljade_kem_kyber_kyber768_amd64_ref_dec$71:
cmpw $3329, %r8w
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$69
cmpq $256, %rcx
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$69
movw %r8w, 408(%rsp,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$70:
Ljade_kem_kyber_kyber768_amd64_ref_dec$69:
cmpq $166, %rdx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$68
Ljade_kem_kyber_kyber768_amd64_ref_dec$66:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$67
movq $0, %rcx
movq $2048, %rdx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$64
Ljade_kem_kyber_kyber768_amd64_ref_dec$65:
movw 408(%rsp,%rcx,2), %si
movw %si, 8600(%rsp,%rdx,2)
incq %rcx
incq %rdx
Ljade_kem_kyber_kyber768_amd64_ref_dec$64:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$65
movb $0, %cl
leaq 3992(%rsp), %rdx
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$63:
leaq 176(%rsp), %rsp
movb $1, %cl
leaq 4504(%rsp), %rdx
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$62:
leaq 176(%rsp), %rsp
movb $2, %cl
leaq 5016(%rsp), %rdx
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$61:
leaq 176(%rsp), %rsp
movb $3, %cl
leaq 5528(%rsp), %rdx
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$60:
leaq 176(%rsp), %rsp
movb $4, %cl
leaq 6040(%rsp), %rdx
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$59:
leaq 176(%rsp), %rsp
movb $5, %cl
leaq 6552(%rsp), %rdx
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$58:
leaq 176(%rsp), %rsp
movb $6, %cl
leaq 408(%rsp), %rdx
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$57:
leaq 176(%rsp), %rsp
leaq 3992(%rsp), %rcx
call L_poly_ntt$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$56:
leaq 4504(%rsp), %rcx
call L_poly_ntt$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$55:
leaq 5016(%rsp), %rcx
call L_poly_ntt$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$54:
leaq 7064(%rsp), %rdi
leaq 8600(%rsp), %rcx
leaq 3992(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$53:
leaq 16(%rsp), %rsp
leaq 920(%rsp), %rdi
leaq 9112(%rsp), %rcx
leaq 4504(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$52:
leaq 16(%rsp), %rsp
leaq 7064(%rsp), %rcx
leaq 920(%rsp), %rsi
call L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$51:
leaq 920(%rsp), %rdi
leaq 9624(%rsp), %rcx
leaq 5016(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$50:
leaq 16(%rsp), %rsp
leaq 7064(%rsp), %rcx
leaq 920(%rsp), %rsi
call L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$49:
leaq 7064(%rsp), %rax
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$47
Ljade_kem_kyber_kyber768_amd64_ref_dec$48:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$47:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$48
leaq 7576(%rsp), %rdi
leaq 10136(%rsp), %rcx
leaq 3992(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$46:
leaq 16(%rsp), %rsp
leaq 920(%rsp), %rdi
leaq 10648(%rsp), %rcx
leaq 4504(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$45:
leaq 16(%rsp), %rsp
leaq 7576(%rsp), %rcx
leaq 920(%rsp), %rsi
call L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$44:
leaq 920(%rsp), %rdi
leaq 11160(%rsp), %rcx
leaq 5016(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$43:
leaq 16(%rsp), %rsp
leaq 7576(%rsp), %rcx
leaq 920(%rsp), %rsi
call L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$42:
leaq 7576(%rsp), %rax
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$40
Ljade_kem_kyber_kyber768_amd64_ref_dec$41:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$40:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$41
leaq 8088(%rsp), %rdi
leaq 11672(%rsp), %rcx
leaq 3992(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$39:
leaq 16(%rsp), %rsp
leaq 920(%rsp), %rdi
leaq 12184(%rsp), %rcx
leaq 4504(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$38:
leaq 16(%rsp), %rsp
leaq 8088(%rsp), %rcx
leaq 920(%rsp), %rsi
call L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$37:
leaq 920(%rsp), %rdi
leaq 12696(%rsp), %rcx
leaq 5016(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$36:
leaq 16(%rsp), %rsp
leaq 8088(%rsp), %rcx
leaq 920(%rsp), %rsi
call L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$35:
leaq 8088(%rsp), %rax
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$33
Ljade_kem_kyber_kyber768_amd64_ref_dec$34:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$33:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$34
leaq 920(%rsp), %rdi
leaq 2456(%rsp), %rcx
leaq 3992(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$32:
leaq 16(%rsp), %rsp
leaq 1944(%rsp), %rdi
leaq 2968(%rsp), %rcx
leaq 4504(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$31:
leaq 16(%rsp), %rsp
leaq 920(%rsp), %rcx
leaq 1944(%rsp), %rsi
call L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$30:
leaq 1944(%rsp), %rdi
leaq 3480(%rsp), %rcx
leaq 5016(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$29:
leaq 16(%rsp), %rsp
leaq 920(%rsp), %rcx
leaq 1944(%rsp), %rsi
call L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$28:
leaq 920(%rsp), %rax
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$26
Ljade_kem_kyber_kyber768_amd64_ref_dec$27:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$26:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$27
leaq 7064(%rsp), %rcx
call L_poly_invntt$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$25:
leaq 7576(%rsp), %rcx
call L_poly_invntt$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$24:
leaq 8088(%rsp), %rcx
call L_poly_invntt$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$23:
leaq 920(%rsp), %rcx
call L_poly_invntt$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$22:
leaq 7064(%rsp), %rcx
leaq 5528(%rsp), %rsi
call L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$21:
leaq 7576(%rsp), %rcx
leaq 6040(%rsp), %rsi
call L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$20:
leaq 8088(%rsp), %rcx
leaq 6552(%rsp), %rsi
call L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$19:
leaq 920(%rsp), %rcx
leaq 408(%rsp), %rsi
call L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$18:
leaq 920(%rsp), %rcx
leaq 1432(%rsp), %rsi
call L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$17:
leaq 7064(%rsp), %rax
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$15
Ljade_kem_kyber_kyber768_amd64_ref_dec$16:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$15:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$16
leaq 7576(%rsp), %rax
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$13
Ljade_kem_kyber_kyber768_amd64_ref_dec$14:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$13:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$14
leaq 8088(%rsp), %rax
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$11
Ljade_kem_kyber_kyber768_amd64_ref_dec$12:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$11:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$12
leaq 920(%rsp), %rax
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$9
Ljade_kem_kyber_kyber768_amd64_ref_dec$10:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$9:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$10
movq 24(%rsp), %rax
movq %rax, %rdx
movq $0, %rsi
movq $0, %rdi
leaq 7064(%rsp), %rcx
call L_poly_csubq$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$8:
leaq 7576(%rsp), %rcx
call L_poly_csubq$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$7:
leaq 8088(%rsp), %rcx
call L_poly_csubq$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$6:
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$4
Ljade_kem_kyber_kyber768_amd64_ref_dec$5:
movzwq 7064(%rsp,%rsi,2), %rcx
incq %rsi
shlq $10, %rcx
addq $1665, %rcx
imulq $1290167, %rcx, %rcx
shrq $32, %rcx
andq $1023, %rcx
movzwq 7064(%rsp,%rsi,2), %r8
incq %rsi
shlq $10, %r8
addq $1665, %r8
imulq $1290167, %r8, %r8
shrq $32, %r8
andq $1023, %r8
movzwq 7064(%rsp,%rsi,2), %r9
incq %rsi
shlq $10, %r9
addq $1665, %r9
imulq $1290167, %r9, %r9
shrq $32, %r9
andq $1023, %r9
movzwq 7064(%rsp,%rsi,2), %r10
incq %rsi
shlq $10, %r10
addq $1665, %r10
imulq $1290167, %r10, %r10
shrq $32, %r10
andq $1023, %r10
movw %cx, %r11w
andw $255, %r11w
movb %r11b, (%rdx,%rdi)
incq %rdi
shrw $8, %cx
movw %r8w, %r11w
shlw $2, %r11w
orw %cx, %r11w
movb %r11b, (%rdx,%rdi)
incq %rdi
shrw $6, %r8w
movw %r9w, %cx
shlw $4, %cx
orw %r8w, %cx
movb %cl, (%rdx,%rdi)
incq %rdi
shrw $4, %r9w
movw %r10w, %cx
shlw $6, %cx
orw %r9w, %cx
movb %cl, (%rdx,%rdi)
incq %rdi
shrq $2, %r10
movb %r10b, (%rdx,%rdi)
incq %rdi
Ljade_kem_kyber_kyber768_amd64_ref_dec$4:
cmpq $768, %rsi
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$5
leaq 960(%rax), %rax
leaq 920(%rsp), %rcx
call L_i_poly_compress$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$3:
movq 8(%rsp), %rsi
leaq 13410(%rsp), %rax
movq $0, %rcx
movb (%rax), %dl
movb (%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1(%rax), %dl
movb 1(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 2(%rax), %dl
movb 2(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 3(%rax), %dl
movb 3(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 4(%rax), %dl
movb 4(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 5(%rax), %dl
movb 5(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 6(%rax), %dl
movb 6(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 7(%rax), %dl
movb 7(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 8(%rax), %dl
movb 8(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 9(%rax), %dl
movb 9(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 10(%rax), %dl
movb 10(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 11(%rax), %dl
movb 11(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 12(%rax), %dl
movb 12(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 13(%rax), %dl
movb 13(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 14(%rax), %dl
movb 14(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 15(%rax), %dl
movb 15(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 16(%rax), %dl
movb 16(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 17(%rax), %dl
movb 17(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 18(%rax), %dl
movb 18(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 19(%rax), %dl
movb 19(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 20(%rax), %dl
movb 20(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 21(%rax), %dl
movb 21(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 22(%rax), %dl
movb 22(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 23(%rax), %dl
movb 23(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 24(%rax), %dl
movb 24(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 25(%rax), %dl
movb 25(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 26(%rax), %dl
movb 26(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 27(%rax), %dl
movb 27(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 28(%rax), %dl
movb 28(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 29(%rax), %dl
movb 29(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 30(%rax), %dl
movb 30(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 31(%rax), %dl
movb 31(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 32(%rax), %dl
movb 32(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 33(%rax), %dl
movb 33(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 34(%rax), %dl
movb 34(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 35(%rax), %dl
movb 35(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 36(%rax), %dl
movb 36(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 37(%rax), %dl
movb 37(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 38(%rax), %dl
movb 38(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 39(%rax), %dl
movb 39(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 40(%rax), %dl
movb 40(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 41(%rax), %dl
movb 41(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 42(%rax), %dl
movb 42(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 43(%rax), %dl
movb 43(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 44(%rax), %dl
movb 44(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 45(%rax), %dl
movb 45(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 46(%rax), %dl
movb 46(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 47(%rax), %dl
movb 47(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 48(%rax), %dl
movb 48(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 49(%rax), %dl
movb 49(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 50(%rax), %dl
movb 50(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 51(%rax), %dl
movb 51(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 52(%rax), %dl
movb 52(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 53(%rax), %dl
movb 53(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 54(%rax), %dl
movb 54(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 55(%rax), %dl
movb 55(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 56(%rax), %dl
movb 56(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 57(%rax), %dl
movb 57(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 58(%rax), %dl
movb 58(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 59(%rax), %dl
movb 59(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 60(%rax), %dl
movb 60(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 61(%rax), %dl
movb 61(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 62(%rax), %dl
movb 62(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 63(%rax), %dl
movb 63(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 64(%rax), %dl
movb 64(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 65(%rax), %dl
movb 65(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 66(%rax), %dl
movb 66(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 67(%rax), %dl
movb 67(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 68(%rax), %dl
movb 68(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 69(%rax), %dl
movb 69(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 70(%rax), %dl
movb 70(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 71(%rax), %dl
movb 71(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 72(%rax), %dl
movb 72(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 73(%rax), %dl
movb 73(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 74(%rax), %dl
movb 74(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 75(%rax), %dl
movb 75(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 76(%rax), %dl
movb 76(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 77(%rax), %dl
movb 77(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 78(%rax), %dl
movb 78(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 79(%rax), %dl
movb 79(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 80(%rax), %dl
movb 80(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 81(%rax), %dl
movb 81(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 82(%rax), %dl
movb 82(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 83(%rax), %dl
movb 83(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 84(%rax), %dl
movb 84(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 85(%rax), %dl
movb 85(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 86(%rax), %dl
movb 86(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 87(%rax), %dl
movb 87(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 88(%rax), %dl
movb 88(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 89(%rax), %dl
movb 89(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 90(%rax), %dl
movb 90(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 91(%rax), %dl
movb 91(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 92(%rax), %dl
movb 92(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 93(%rax), %dl
movb 93(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 94(%rax), %dl
movb 94(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 95(%rax), %dl
movb 95(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 96(%rax), %dl
movb 96(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 97(%rax), %dl
movb 97(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 98(%rax), %dl
movb 98(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 99(%rax), %dl
movb 99(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 100(%rax), %dl
movb 100(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 101(%rax), %dl
movb 101(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 102(%rax), %dl
movb 102(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 103(%rax), %dl
movb 103(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 104(%rax), %dl
movb 104(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 105(%rax), %dl
movb 105(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 106(%rax), %dl
movb 106(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 107(%rax), %dl
movb 107(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 108(%rax), %dl
movb 108(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 109(%rax), %dl
movb 109(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 110(%rax), %dl
movb 110(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 111(%rax), %dl
movb 111(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 112(%rax), %dl
movb 112(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 113(%rax), %dl
movb 113(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 114(%rax), %dl
movb 114(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 115(%rax), %dl
movb 115(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 116(%rax), %dl
movb 116(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 117(%rax), %dl
movb 117(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 118(%rax), %dl
movb 118(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 119(%rax), %dl
movb 119(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 120(%rax), %dl
movb 120(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 121(%rax), %dl
movb 121(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 122(%rax), %dl
movb 122(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 123(%rax), %dl
movb 123(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 124(%rax), %dl
movb 124(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 125(%rax), %dl
movb 125(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 126(%rax), %dl
movb 126(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 127(%rax), %dl
movb 127(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 128(%rax), %dl
movb 128(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 129(%rax), %dl
movb 129(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 130(%rax), %dl
movb 130(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 131(%rax), %dl
movb 131(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 132(%rax), %dl
movb 132(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 133(%rax), %dl
movb 133(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 134(%rax), %dl
movb 134(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 135(%rax), %dl
movb 135(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 136(%rax), %dl
movb 136(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 137(%rax), %dl
movb 137(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 138(%rax), %dl
movb 138(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 139(%rax), %dl
movb 139(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 140(%rax), %dl
movb 140(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 141(%rax), %dl
movb 141(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 142(%rax), %dl
movb 142(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 143(%rax), %dl
movb 143(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 144(%rax), %dl
movb 144(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 145(%rax), %dl
movb 145(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 146(%rax), %dl
movb 146(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 147(%rax), %dl
movb 147(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 148(%rax), %dl
movb 148(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 149(%rax), %dl
movb 149(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 150(%rax), %dl
movb 150(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 151(%rax), %dl
movb 151(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 152(%rax), %dl
movb 152(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 153(%rax), %dl
movb 153(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 154(%rax), %dl
movb 154(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 155(%rax), %dl
movb 155(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 156(%rax), %dl
movb 156(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 157(%rax), %dl
movb 157(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 158(%rax), %dl
movb 158(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 159(%rax), %dl
movb 159(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 160(%rax), %dl
movb 160(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 161(%rax), %dl
movb 161(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 162(%rax), %dl
movb 162(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 163(%rax), %dl
movb 163(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 164(%rax), %dl
movb 164(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 165(%rax), %dl
movb 165(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 166(%rax), %dl
movb 166(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 167(%rax), %dl
movb 167(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 168(%rax), %dl
movb 168(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 169(%rax), %dl
movb 169(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 170(%rax), %dl
movb 170(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 171(%rax), %dl
movb 171(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 172(%rax), %dl
movb 172(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 173(%rax), %dl
movb 173(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 174(%rax), %dl
movb 174(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 175(%rax), %dl
movb 175(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 176(%rax), %dl
movb 176(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 177(%rax), %dl
movb 177(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 178(%rax), %dl
movb 178(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 179(%rax), %dl
movb 179(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 180(%rax), %dl
movb 180(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 181(%rax), %dl
movb 181(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 182(%rax), %dl
movb 182(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 183(%rax), %dl
movb 183(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 184(%rax), %dl
movb 184(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 185(%rax), %dl
movb 185(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 186(%rax), %dl
movb 186(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 187(%rax), %dl
movb 187(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 188(%rax), %dl
movb 188(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 189(%rax), %dl
movb 189(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 190(%rax), %dl
movb 190(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 191(%rax), %dl
movb 191(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 192(%rax), %dl
movb 192(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 193(%rax), %dl
movb 193(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 194(%rax), %dl
movb 194(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 195(%rax), %dl
movb 195(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 196(%rax), %dl
movb 196(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 197(%rax), %dl
movb 197(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 198(%rax), %dl
movb 198(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 199(%rax), %dl
movb 199(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 200(%rax), %dl
movb 200(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 201(%rax), %dl
movb 201(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 202(%rax), %dl
movb 202(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 203(%rax), %dl
movb 203(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 204(%rax), %dl
movb 204(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 205(%rax), %dl
movb 205(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 206(%rax), %dl
movb 206(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 207(%rax), %dl
movb 207(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 208(%rax), %dl
movb 208(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 209(%rax), %dl
movb 209(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 210(%rax), %dl
movb 210(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 211(%rax), %dl
movb 211(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 212(%rax), %dl
movb 212(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 213(%rax), %dl
movb 213(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 214(%rax), %dl
movb 214(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 215(%rax), %dl
movb 215(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 216(%rax), %dl
movb 216(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 217(%rax), %dl
movb 217(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 218(%rax), %dl
movb 218(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 219(%rax), %dl
movb 219(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 220(%rax), %dl
movb 220(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 221(%rax), %dl
movb 221(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 222(%rax), %dl
movb 222(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 223(%rax), %dl
movb 223(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 224(%rax), %dl
movb 224(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 225(%rax), %dl
movb 225(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 226(%rax), %dl
movb 226(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 227(%rax), %dl
movb 227(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 228(%rax), %dl
movb 228(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 229(%rax), %dl
movb 229(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 230(%rax), %dl
movb 230(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 231(%rax), %dl
movb 231(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 232(%rax), %dl
movb 232(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 233(%rax), %dl
movb 233(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 234(%rax), %dl
movb 234(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 235(%rax), %dl
movb 235(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 236(%rax), %dl
movb 236(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 237(%rax), %dl
movb 237(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 238(%rax), %dl
movb 238(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 239(%rax), %dl
movb 239(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 240(%rax), %dl
movb 240(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 241(%rax), %dl
movb 241(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 242(%rax), %dl
movb 242(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 243(%rax), %dl
movb 243(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 244(%rax), %dl
movb 244(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 245(%rax), %dl
movb 245(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 246(%rax), %dl
movb 246(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 247(%rax), %dl
movb 247(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 248(%rax), %dl
movb 248(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 249(%rax), %dl
movb 249(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 250(%rax), %dl
movb 250(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 251(%rax), %dl
movb 251(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 252(%rax), %dl
movb 252(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 253(%rax), %dl
movb 253(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 254(%rax), %dl
movb 254(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 255(%rax), %dl
movb 255(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 256(%rax), %dl
movb 256(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 257(%rax), %dl
movb 257(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 258(%rax), %dl
movb 258(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 259(%rax), %dl
movb 259(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 260(%rax), %dl
movb 260(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 261(%rax), %dl
movb 261(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 262(%rax), %dl
movb 262(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 263(%rax), %dl
movb 263(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 264(%rax), %dl
movb 264(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 265(%rax), %dl
movb 265(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 266(%rax), %dl
movb 266(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 267(%rax), %dl
movb 267(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 268(%rax), %dl
movb 268(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 269(%rax), %dl
movb 269(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 270(%rax), %dl
movb 270(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 271(%rax), %dl
movb 271(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 272(%rax), %dl
movb 272(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 273(%rax), %dl
movb 273(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 274(%rax), %dl
movb 274(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 275(%rax), %dl
movb 275(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 276(%rax), %dl
movb 276(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 277(%rax), %dl
movb 277(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 278(%rax), %dl
movb 278(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 279(%rax), %dl
movb 279(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 280(%rax), %dl
movb 280(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 281(%rax), %dl
movb 281(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 282(%rax), %dl
movb 282(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 283(%rax), %dl
movb 283(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 284(%rax), %dl
movb 284(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 285(%rax), %dl
movb 285(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 286(%rax), %dl
movb 286(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 287(%rax), %dl
movb 287(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 288(%rax), %dl
movb 288(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 289(%rax), %dl
movb 289(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 290(%rax), %dl
movb 290(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 291(%rax), %dl
movb 291(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 292(%rax), %dl
movb 292(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 293(%rax), %dl
movb 293(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 294(%rax), %dl
movb 294(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 295(%rax), %dl
movb 295(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 296(%rax), %dl
movb 296(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 297(%rax), %dl
movb 297(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 298(%rax), %dl
movb 298(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 299(%rax), %dl
movb 299(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 300(%rax), %dl
movb 300(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 301(%rax), %dl
movb 301(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 302(%rax), %dl
movb 302(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 303(%rax), %dl
movb 303(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 304(%rax), %dl
movb 304(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 305(%rax), %dl
movb 305(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 306(%rax), %dl
movb 306(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 307(%rax), %dl
movb 307(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 308(%rax), %dl
movb 308(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 309(%rax), %dl
movb 309(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 310(%rax), %dl
movb 310(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 311(%rax), %dl
movb 311(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 312(%rax), %dl
movb 312(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 313(%rax), %dl
movb 313(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 314(%rax), %dl
movb 314(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 315(%rax), %dl
movb 315(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 316(%rax), %dl
movb 316(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 317(%rax), %dl
movb 317(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 318(%rax), %dl
movb 318(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 319(%rax), %dl
movb 319(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 320(%rax), %dl
movb 320(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 321(%rax), %dl
movb 321(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 322(%rax), %dl
movb 322(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 323(%rax), %dl
movb 323(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 324(%rax), %dl
movb 324(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 325(%rax), %dl
movb 325(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 326(%rax), %dl
movb 326(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 327(%rax), %dl
movb 327(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 328(%rax), %dl
movb 328(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 329(%rax), %dl
movb 329(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 330(%rax), %dl
movb 330(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 331(%rax), %dl
movb 331(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 332(%rax), %dl
movb 332(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 333(%rax), %dl
movb 333(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 334(%rax), %dl
movb 334(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 335(%rax), %dl
movb 335(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 336(%rax), %dl
movb 336(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 337(%rax), %dl
movb 337(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 338(%rax), %dl
movb 338(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 339(%rax), %dl
movb 339(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 340(%rax), %dl
movb 340(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 341(%rax), %dl
movb 341(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 342(%rax), %dl
movb 342(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 343(%rax), %dl
movb 343(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 344(%rax), %dl
movb 344(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 345(%rax), %dl
movb 345(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 346(%rax), %dl
movb 346(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 347(%rax), %dl
movb 347(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 348(%rax), %dl
movb 348(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 349(%rax), %dl
movb 349(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 350(%rax), %dl
movb 350(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 351(%rax), %dl
movb 351(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 352(%rax), %dl
movb 352(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 353(%rax), %dl
movb 353(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 354(%rax), %dl
movb 354(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 355(%rax), %dl
movb 355(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 356(%rax), %dl
movb 356(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 357(%rax), %dl
movb 357(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 358(%rax), %dl
movb 358(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 359(%rax), %dl
movb 359(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 360(%rax), %dl
movb 360(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 361(%rax), %dl
movb 361(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 362(%rax), %dl
movb 362(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 363(%rax), %dl
movb 363(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 364(%rax), %dl
movb 364(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 365(%rax), %dl
movb 365(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 366(%rax), %dl
movb 366(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 367(%rax), %dl
movb 367(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 368(%rax), %dl
movb 368(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 369(%rax), %dl
movb 369(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 370(%rax), %dl
movb 370(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 371(%rax), %dl
movb 371(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 372(%rax), %dl
movb 372(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 373(%rax), %dl
movb 373(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 374(%rax), %dl
movb 374(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 375(%rax), %dl
movb 375(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 376(%rax), %dl
movb 376(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 377(%rax), %dl
movb 377(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 378(%rax), %dl
movb 378(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 379(%rax), %dl
movb 379(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 380(%rax), %dl
movb 380(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 381(%rax), %dl
movb 381(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 382(%rax), %dl
movb 382(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 383(%rax), %dl
movb 383(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 384(%rax), %dl
movb 384(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 385(%rax), %dl
movb 385(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 386(%rax), %dl
movb 386(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 387(%rax), %dl
movb 387(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 388(%rax), %dl
movb 388(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 389(%rax), %dl
movb 389(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 390(%rax), %dl
movb 390(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 391(%rax), %dl
movb 391(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 392(%rax), %dl
movb 392(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 393(%rax), %dl
movb 393(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 394(%rax), %dl
movb 394(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 395(%rax), %dl
movb 395(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 396(%rax), %dl
movb 396(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 397(%rax), %dl
movb 397(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 398(%rax), %dl
movb 398(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 399(%rax), %dl
movb 399(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 400(%rax), %dl
movb 400(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 401(%rax), %dl
movb 401(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 402(%rax), %dl
movb 402(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 403(%rax), %dl
movb 403(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 404(%rax), %dl
movb 404(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 405(%rax), %dl
movb 405(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 406(%rax), %dl
movb 406(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 407(%rax), %dl
movb 407(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 408(%rax), %dl
movb 408(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 409(%rax), %dl
movb 409(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 410(%rax), %dl
movb 410(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 411(%rax), %dl
movb 411(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 412(%rax), %dl
movb 412(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 413(%rax), %dl
movb 413(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 414(%rax), %dl
movb 414(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 415(%rax), %dl
movb 415(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 416(%rax), %dl
movb 416(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 417(%rax), %dl
movb 417(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 418(%rax), %dl
movb 418(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 419(%rax), %dl
movb 419(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 420(%rax), %dl
movb 420(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 421(%rax), %dl
movb 421(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 422(%rax), %dl
movb 422(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 423(%rax), %dl
movb 423(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 424(%rax), %dl
movb 424(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 425(%rax), %dl
movb 425(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 426(%rax), %dl
movb 426(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 427(%rax), %dl
movb 427(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 428(%rax), %dl
movb 428(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 429(%rax), %dl
movb 429(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 430(%rax), %dl
movb 430(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 431(%rax), %dl
movb 431(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 432(%rax), %dl
movb 432(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 433(%rax), %dl
movb 433(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 434(%rax), %dl
movb 434(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 435(%rax), %dl
movb 435(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 436(%rax), %dl
movb 436(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 437(%rax), %dl
movb 437(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 438(%rax), %dl
movb 438(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 439(%rax), %dl
movb 439(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 440(%rax), %dl
movb 440(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 441(%rax), %dl
movb 441(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 442(%rax), %dl
movb 442(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 443(%rax), %dl
movb 443(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 444(%rax), %dl
movb 444(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 445(%rax), %dl
movb 445(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 446(%rax), %dl
movb 446(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 447(%rax), %dl
movb 447(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 448(%rax), %dl
movb 448(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 449(%rax), %dl
movb 449(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 450(%rax), %dl
movb 450(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 451(%rax), %dl
movb 451(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 452(%rax), %dl
movb 452(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 453(%rax), %dl
movb 453(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 454(%rax), %dl
movb 454(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 455(%rax), %dl
movb 455(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 456(%rax), %dl
movb 456(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 457(%rax), %dl
movb 457(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 458(%rax), %dl
movb 458(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 459(%rax), %dl
movb 459(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 460(%rax), %dl
movb 460(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 461(%rax), %dl
movb 461(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 462(%rax), %dl
movb 462(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 463(%rax), %dl
movb 463(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 464(%rax), %dl
movb 464(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 465(%rax), %dl
movb 465(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 466(%rax), %dl
movb 466(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 467(%rax), %dl
movb 467(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 468(%rax), %dl
movb 468(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 469(%rax), %dl
movb 469(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 470(%rax), %dl
movb 470(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 471(%rax), %dl
movb 471(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 472(%rax), %dl
movb 472(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 473(%rax), %dl
movb 473(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 474(%rax), %dl
movb 474(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 475(%rax), %dl
movb 475(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 476(%rax), %dl
movb 476(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 477(%rax), %dl
movb 477(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 478(%rax), %dl
movb 478(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 479(%rax), %dl
movb 479(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 480(%rax), %dl
movb 480(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 481(%rax), %dl
movb 481(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 482(%rax), %dl
movb 482(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 483(%rax), %dl
movb 483(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 484(%rax), %dl
movb 484(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 485(%rax), %dl
movb 485(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 486(%rax), %dl
movb 486(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 487(%rax), %dl
movb 487(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 488(%rax), %dl
movb 488(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 489(%rax), %dl
movb 489(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 490(%rax), %dl
movb 490(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 491(%rax), %dl
movb 491(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 492(%rax), %dl
movb 492(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 493(%rax), %dl
movb 493(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 494(%rax), %dl
movb 494(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 495(%rax), %dl
movb 495(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 496(%rax), %dl
movb 496(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 497(%rax), %dl
movb 497(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 498(%rax), %dl
movb 498(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 499(%rax), %dl
movb 499(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 500(%rax), %dl
movb 500(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 501(%rax), %dl
movb 501(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 502(%rax), %dl
movb 502(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 503(%rax), %dl
movb 503(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 504(%rax), %dl
movb 504(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 505(%rax), %dl
movb 505(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 506(%rax), %dl
movb 506(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 507(%rax), %dl
movb 507(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 508(%rax), %dl
movb 508(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 509(%rax), %dl
movb 509(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 510(%rax), %dl
movb 510(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 511(%rax), %dl
movb 511(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 512(%rax), %dl
movb 512(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 513(%rax), %dl
movb 513(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 514(%rax), %dl
movb 514(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 515(%rax), %dl
movb 515(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 516(%rax), %dl
movb 516(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 517(%rax), %dl
movb 517(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 518(%rax), %dl
movb 518(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 519(%rax), %dl
movb 519(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 520(%rax), %dl
movb 520(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 521(%rax), %dl
movb 521(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 522(%rax), %dl
movb 522(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 523(%rax), %dl
movb 523(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 524(%rax), %dl
movb 524(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 525(%rax), %dl
movb 525(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 526(%rax), %dl
movb 526(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 527(%rax), %dl
movb 527(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 528(%rax), %dl
movb 528(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 529(%rax), %dl
movb 529(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 530(%rax), %dl
movb 530(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 531(%rax), %dl
movb 531(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 532(%rax), %dl
movb 532(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 533(%rax), %dl
movb 533(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 534(%rax), %dl
movb 534(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 535(%rax), %dl
movb 535(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 536(%rax), %dl
movb 536(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 537(%rax), %dl
movb 537(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 538(%rax), %dl
movb 538(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 539(%rax), %dl
movb 539(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 540(%rax), %dl
movb 540(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 541(%rax), %dl
movb 541(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 542(%rax), %dl
movb 542(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 543(%rax), %dl
movb 543(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 544(%rax), %dl
movb 544(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 545(%rax), %dl
movb 545(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 546(%rax), %dl
movb 546(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 547(%rax), %dl
movb 547(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 548(%rax), %dl
movb 548(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 549(%rax), %dl
movb 549(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 550(%rax), %dl
movb 550(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 551(%rax), %dl
movb 551(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 552(%rax), %dl
movb 552(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 553(%rax), %dl
movb 553(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 554(%rax), %dl
movb 554(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 555(%rax), %dl
movb 555(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 556(%rax), %dl
movb 556(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 557(%rax), %dl
movb 557(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 558(%rax), %dl
movb 558(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 559(%rax), %dl
movb 559(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 560(%rax), %dl
movb 560(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 561(%rax), %dl
movb 561(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 562(%rax), %dl
movb 562(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 563(%rax), %dl
movb 563(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 564(%rax), %dl
movb 564(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 565(%rax), %dl
movb 565(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 566(%rax), %dl
movb 566(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 567(%rax), %dl
movb 567(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 568(%rax), %dl
movb 568(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 569(%rax), %dl
movb 569(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 570(%rax), %dl
movb 570(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 571(%rax), %dl
movb 571(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 572(%rax), %dl
movb 572(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 573(%rax), %dl
movb 573(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 574(%rax), %dl
movb 574(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 575(%rax), %dl
movb 575(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 576(%rax), %dl
movb 576(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 577(%rax), %dl
movb 577(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 578(%rax), %dl
movb 578(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 579(%rax), %dl
movb 579(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 580(%rax), %dl
movb 580(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 581(%rax), %dl
movb 581(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 582(%rax), %dl
movb 582(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 583(%rax), %dl
movb 583(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 584(%rax), %dl
movb 584(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 585(%rax), %dl
movb 585(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 586(%rax), %dl
movb 586(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 587(%rax), %dl
movb 587(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 588(%rax), %dl
movb 588(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 589(%rax), %dl
movb 589(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 590(%rax), %dl
movb 590(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 591(%rax), %dl
movb 591(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 592(%rax), %dl
movb 592(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 593(%rax), %dl
movb 593(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 594(%rax), %dl
movb 594(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 595(%rax), %dl
movb 595(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 596(%rax), %dl
movb 596(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 597(%rax), %dl
movb 597(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 598(%rax), %dl
movb 598(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 599(%rax), %dl
movb 599(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 600(%rax), %dl
movb 600(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 601(%rax), %dl
movb 601(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 602(%rax), %dl
movb 602(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 603(%rax), %dl
movb 603(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 604(%rax), %dl
movb 604(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 605(%rax), %dl
movb 605(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 606(%rax), %dl
movb 606(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 607(%rax), %dl
movb 607(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 608(%rax), %dl
movb 608(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 609(%rax), %dl
movb 609(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 610(%rax), %dl
movb 610(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 611(%rax), %dl
movb 611(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 612(%rax), %dl
movb 612(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 613(%rax), %dl
movb 613(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 614(%rax), %dl
movb 614(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 615(%rax), %dl
movb 615(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 616(%rax), %dl
movb 616(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 617(%rax), %dl
movb 617(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 618(%rax), %dl
movb 618(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 619(%rax), %dl
movb 619(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 620(%rax), %dl
movb 620(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 621(%rax), %dl
movb 621(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 622(%rax), %dl
movb 622(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 623(%rax), %dl
movb 623(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 624(%rax), %dl
movb 624(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 625(%rax), %dl
movb 625(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 626(%rax), %dl
movb 626(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 627(%rax), %dl
movb 627(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 628(%rax), %dl
movb 628(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 629(%rax), %dl
movb 629(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 630(%rax), %dl
movb 630(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 631(%rax), %dl
movb 631(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 632(%rax), %dl
movb 632(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 633(%rax), %dl
movb 633(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 634(%rax), %dl
movb 634(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 635(%rax), %dl
movb 635(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 636(%rax), %dl
movb 636(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 637(%rax), %dl
movb 637(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 638(%rax), %dl
movb 638(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 639(%rax), %dl
movb 639(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 640(%rax), %dl
movb 640(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 641(%rax), %dl
movb 641(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 642(%rax), %dl
movb 642(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 643(%rax), %dl
movb 643(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 644(%rax), %dl
movb 644(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 645(%rax), %dl
movb 645(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 646(%rax), %dl
movb 646(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 647(%rax), %dl
movb 647(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 648(%rax), %dl
movb 648(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 649(%rax), %dl
movb 649(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 650(%rax), %dl
movb 650(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 651(%rax), %dl
movb 651(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 652(%rax), %dl
movb 652(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 653(%rax), %dl
movb 653(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 654(%rax), %dl
movb 654(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 655(%rax), %dl
movb 655(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 656(%rax), %dl
movb 656(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 657(%rax), %dl
movb 657(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 658(%rax), %dl
movb 658(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 659(%rax), %dl
movb 659(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 660(%rax), %dl
movb 660(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 661(%rax), %dl
movb 661(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 662(%rax), %dl
movb 662(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 663(%rax), %dl
movb 663(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 664(%rax), %dl
movb 664(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 665(%rax), %dl
movb 665(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 666(%rax), %dl
movb 666(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 667(%rax), %dl
movb 667(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 668(%rax), %dl
movb 668(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 669(%rax), %dl
movb 669(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 670(%rax), %dl
movb 670(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 671(%rax), %dl
movb 671(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 672(%rax), %dl
movb 672(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 673(%rax), %dl
movb 673(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 674(%rax), %dl
movb 674(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 675(%rax), %dl
movb 675(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 676(%rax), %dl
movb 676(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 677(%rax), %dl
movb 677(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 678(%rax), %dl
movb 678(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 679(%rax), %dl
movb 679(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 680(%rax), %dl
movb 680(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 681(%rax), %dl
movb 681(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 682(%rax), %dl
movb 682(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 683(%rax), %dl
movb 683(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 684(%rax), %dl
movb 684(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 685(%rax), %dl
movb 685(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 686(%rax), %dl
movb 686(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 687(%rax), %dl
movb 687(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 688(%rax), %dl
movb 688(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 689(%rax), %dl
movb 689(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 690(%rax), %dl
movb 690(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 691(%rax), %dl
movb 691(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 692(%rax), %dl
movb 692(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 693(%rax), %dl
movb 693(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 694(%rax), %dl
movb 694(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 695(%rax), %dl
movb 695(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 696(%rax), %dl
movb 696(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 697(%rax), %dl
movb 697(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 698(%rax), %dl
movb 698(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 699(%rax), %dl
movb 699(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 700(%rax), %dl
movb 700(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 701(%rax), %dl
movb 701(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 702(%rax), %dl
movb 702(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 703(%rax), %dl
movb 703(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 704(%rax), %dl
movb 704(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 705(%rax), %dl
movb 705(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 706(%rax), %dl
movb 706(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 707(%rax), %dl
movb 707(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 708(%rax), %dl
movb 708(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 709(%rax), %dl
movb 709(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 710(%rax), %dl
movb 710(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 711(%rax), %dl
movb 711(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 712(%rax), %dl
movb 712(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 713(%rax), %dl
movb 713(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 714(%rax), %dl
movb 714(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 715(%rax), %dl
movb 715(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 716(%rax), %dl
movb 716(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 717(%rax), %dl
movb 717(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 718(%rax), %dl
movb 718(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 719(%rax), %dl
movb 719(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 720(%rax), %dl
movb 720(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 721(%rax), %dl
movb 721(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 722(%rax), %dl
movb 722(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 723(%rax), %dl
movb 723(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 724(%rax), %dl
movb 724(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 725(%rax), %dl
movb 725(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 726(%rax), %dl
movb 726(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 727(%rax), %dl
movb 727(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 728(%rax), %dl
movb 728(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 729(%rax), %dl
movb 729(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 730(%rax), %dl
movb 730(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 731(%rax), %dl
movb 731(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 732(%rax), %dl
movb 732(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 733(%rax), %dl
movb 733(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 734(%rax), %dl
movb 734(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 735(%rax), %dl
movb 735(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 736(%rax), %dl
movb 736(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 737(%rax), %dl
movb 737(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 738(%rax), %dl
movb 738(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 739(%rax), %dl
movb 739(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 740(%rax), %dl
movb 740(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 741(%rax), %dl
movb 741(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 742(%rax), %dl
movb 742(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 743(%rax), %dl
movb 743(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 744(%rax), %dl
movb 744(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 745(%rax), %dl
movb 745(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 746(%rax), %dl
movb 746(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 747(%rax), %dl
movb 747(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 748(%rax), %dl
movb 748(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 749(%rax), %dl
movb 749(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 750(%rax), %dl
movb 750(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 751(%rax), %dl
movb 751(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 752(%rax), %dl
movb 752(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 753(%rax), %dl
movb 753(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 754(%rax), %dl
movb 754(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 755(%rax), %dl
movb 755(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 756(%rax), %dl
movb 756(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 757(%rax), %dl
movb 757(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 758(%rax), %dl
movb 758(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 759(%rax), %dl
movb 759(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 760(%rax), %dl
movb 760(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 761(%rax), %dl
movb 761(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 762(%rax), %dl
movb 762(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 763(%rax), %dl
movb 763(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 764(%rax), %dl
movb 764(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 765(%rax), %dl
movb 765(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 766(%rax), %dl
movb 766(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 767(%rax), %dl
movb 767(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 768(%rax), %dl
movb 768(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 769(%rax), %dl
movb 769(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 770(%rax), %dl
movb 770(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 771(%rax), %dl
movb 771(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 772(%rax), %dl
movb 772(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 773(%rax), %dl
movb 773(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 774(%rax), %dl
movb 774(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 775(%rax), %dl
movb 775(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 776(%rax), %dl
movb 776(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 777(%rax), %dl
movb 777(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 778(%rax), %dl
movb 778(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 779(%rax), %dl
movb 779(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 780(%rax), %dl
movb 780(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 781(%rax), %dl
movb 781(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 782(%rax), %dl
movb 782(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 783(%rax), %dl
movb 783(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 784(%rax), %dl
movb 784(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 785(%rax), %dl
movb 785(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 786(%rax), %dl
movb 786(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 787(%rax), %dl
movb 787(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 788(%rax), %dl
movb 788(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 789(%rax), %dl
movb 789(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 790(%rax), %dl
movb 790(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 791(%rax), %dl
movb 791(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 792(%rax), %dl
movb 792(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 793(%rax), %dl
movb 793(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 794(%rax), %dl
movb 794(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 795(%rax), %dl
movb 795(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 796(%rax), %dl
movb 796(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 797(%rax), %dl
movb 797(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 798(%rax), %dl
movb 798(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 799(%rax), %dl
movb 799(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 800(%rax), %dl
movb 800(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 801(%rax), %dl
movb 801(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 802(%rax), %dl
movb 802(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 803(%rax), %dl
movb 803(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 804(%rax), %dl
movb 804(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 805(%rax), %dl
movb 805(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 806(%rax), %dl
movb 806(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 807(%rax), %dl
movb 807(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 808(%rax), %dl
movb 808(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 809(%rax), %dl
movb 809(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 810(%rax), %dl
movb 810(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 811(%rax), %dl
movb 811(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 812(%rax), %dl
movb 812(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 813(%rax), %dl
movb 813(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 814(%rax), %dl
movb 814(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 815(%rax), %dl
movb 815(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 816(%rax), %dl
movb 816(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 817(%rax), %dl
movb 817(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 818(%rax), %dl
movb 818(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 819(%rax), %dl
movb 819(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 820(%rax), %dl
movb 820(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 821(%rax), %dl
movb 821(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 822(%rax), %dl
movb 822(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 823(%rax), %dl
movb 823(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 824(%rax), %dl
movb 824(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 825(%rax), %dl
movb 825(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 826(%rax), %dl
movb 826(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 827(%rax), %dl
movb 827(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 828(%rax), %dl
movb 828(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 829(%rax), %dl
movb 829(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 830(%rax), %dl
movb 830(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 831(%rax), %dl
movb 831(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 832(%rax), %dl
movb 832(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 833(%rax), %dl
movb 833(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 834(%rax), %dl
movb 834(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 835(%rax), %dl
movb 835(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 836(%rax), %dl
movb 836(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 837(%rax), %dl
movb 837(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 838(%rax), %dl
movb 838(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 839(%rax), %dl
movb 839(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 840(%rax), %dl
movb 840(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 841(%rax), %dl
movb 841(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 842(%rax), %dl
movb 842(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 843(%rax), %dl
movb 843(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 844(%rax), %dl
movb 844(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 845(%rax), %dl
movb 845(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 846(%rax), %dl
movb 846(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 847(%rax), %dl
movb 847(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 848(%rax), %dl
movb 848(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 849(%rax), %dl
movb 849(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 850(%rax), %dl
movb 850(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 851(%rax), %dl
movb 851(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 852(%rax), %dl
movb 852(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 853(%rax), %dl
movb 853(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 854(%rax), %dl
movb 854(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 855(%rax), %dl
movb 855(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 856(%rax), %dl
movb 856(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 857(%rax), %dl
movb 857(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 858(%rax), %dl
movb 858(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 859(%rax), %dl
movb 859(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 860(%rax), %dl
movb 860(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 861(%rax), %dl
movb 861(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 862(%rax), %dl
movb 862(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 863(%rax), %dl
movb 863(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 864(%rax), %dl
movb 864(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 865(%rax), %dl
movb 865(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 866(%rax), %dl
movb 866(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 867(%rax), %dl
movb 867(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 868(%rax), %dl
movb 868(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 869(%rax), %dl
movb 869(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 870(%rax), %dl
movb 870(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 871(%rax), %dl
movb 871(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 872(%rax), %dl
movb 872(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 873(%rax), %dl
movb 873(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 874(%rax), %dl
movb 874(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 875(%rax), %dl
movb 875(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 876(%rax), %dl
movb 876(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 877(%rax), %dl
movb 877(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 878(%rax), %dl
movb 878(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 879(%rax), %dl
movb 879(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 880(%rax), %dl
movb 880(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 881(%rax), %dl
movb 881(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 882(%rax), %dl
movb 882(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 883(%rax), %dl
movb 883(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 884(%rax), %dl
movb 884(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 885(%rax), %dl
movb 885(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 886(%rax), %dl
movb 886(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 887(%rax), %dl
movb 887(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 888(%rax), %dl
movb 888(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 889(%rax), %dl
movb 889(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 890(%rax), %dl
movb 890(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 891(%rax), %dl
movb 891(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 892(%rax), %dl
movb 892(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 893(%rax), %dl
movb 893(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 894(%rax), %dl
movb 894(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 895(%rax), %dl
movb 895(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 896(%rax), %dl
movb 896(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 897(%rax), %dl
movb 897(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 898(%rax), %dl
movb 898(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 899(%rax), %dl
movb 899(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 900(%rax), %dl
movb 900(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 901(%rax), %dl
movb 901(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 902(%rax), %dl
movb 902(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 903(%rax), %dl
movb 903(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 904(%rax), %dl
movb 904(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 905(%rax), %dl
movb 905(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 906(%rax), %dl
movb 906(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 907(%rax), %dl
movb 907(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 908(%rax), %dl
movb 908(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 909(%rax), %dl
movb 909(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 910(%rax), %dl
movb 910(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 911(%rax), %dl
movb 911(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 912(%rax), %dl
movb 912(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 913(%rax), %dl
movb 913(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 914(%rax), %dl
movb 914(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 915(%rax), %dl
movb 915(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 916(%rax), %dl
movb 916(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 917(%rax), %dl
movb 917(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 918(%rax), %dl
movb 918(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 919(%rax), %dl
movb 919(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 920(%rax), %dl
movb 920(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 921(%rax), %dl
movb 921(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 922(%rax), %dl
movb 922(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 923(%rax), %dl
movb 923(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 924(%rax), %dl
movb 924(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 925(%rax), %dl
movb 925(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 926(%rax), %dl
movb 926(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 927(%rax), %dl
movb 927(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 928(%rax), %dl
movb 928(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 929(%rax), %dl
movb 929(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 930(%rax), %dl
movb 930(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 931(%rax), %dl
movb 931(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 932(%rax), %dl
movb 932(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 933(%rax), %dl
movb 933(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 934(%rax), %dl
movb 934(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 935(%rax), %dl
movb 935(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 936(%rax), %dl
movb 936(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 937(%rax), %dl
movb 937(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 938(%rax), %dl
movb 938(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 939(%rax), %dl
movb 939(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 940(%rax), %dl
movb 940(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 941(%rax), %dl
movb 941(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 942(%rax), %dl
movb 942(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 943(%rax), %dl
movb 943(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 944(%rax), %dl
movb 944(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 945(%rax), %dl
movb 945(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 946(%rax), %dl
movb 946(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 947(%rax), %dl
movb 947(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 948(%rax), %dl
movb 948(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 949(%rax), %dl
movb 949(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 950(%rax), %dl
movb 950(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 951(%rax), %dl
movb 951(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 952(%rax), %dl
movb 952(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 953(%rax), %dl
movb 953(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 954(%rax), %dl
movb 954(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 955(%rax), %dl
movb 955(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 956(%rax), %dl
movb 956(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 957(%rax), %dl
movb 957(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 958(%rax), %dl
movb 958(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 959(%rax), %dl
movb 959(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 960(%rax), %dl
movb 960(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 961(%rax), %dl
movb 961(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 962(%rax), %dl
movb 962(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 963(%rax), %dl
movb 963(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 964(%rax), %dl
movb 964(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 965(%rax), %dl
movb 965(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 966(%rax), %dl
movb 966(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 967(%rax), %dl
movb 967(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 968(%rax), %dl
movb 968(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 969(%rax), %dl
movb 969(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 970(%rax), %dl
movb 970(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 971(%rax), %dl
movb 971(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 972(%rax), %dl
movb 972(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 973(%rax), %dl
movb 973(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 974(%rax), %dl
movb 974(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 975(%rax), %dl
movb 975(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 976(%rax), %dl
movb 976(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 977(%rax), %dl
movb 977(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 978(%rax), %dl
movb 978(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 979(%rax), %dl
movb 979(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 980(%rax), %dl
movb 980(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 981(%rax), %dl
movb 981(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 982(%rax), %dl
movb 982(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 983(%rax), %dl
movb 983(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 984(%rax), %dl
movb 984(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 985(%rax), %dl
movb 985(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 986(%rax), %dl
movb 986(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 987(%rax), %dl
movb 987(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 988(%rax), %dl
movb 988(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 989(%rax), %dl
movb 989(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 990(%rax), %dl
movb 990(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 991(%rax), %dl
movb 991(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 992(%rax), %dl
movb 992(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 993(%rax), %dl
movb 993(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 994(%rax), %dl
movb 994(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 995(%rax), %dl
movb 995(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 996(%rax), %dl
movb 996(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 997(%rax), %dl
movb 997(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 998(%rax), %dl
movb 998(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 999(%rax), %dl
movb 999(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1000(%rax), %dl
movb 1000(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1001(%rax), %dl
movb 1001(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1002(%rax), %dl
movb 1002(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1003(%rax), %dl
movb 1003(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1004(%rax), %dl
movb 1004(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1005(%rax), %dl
movb 1005(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1006(%rax), %dl
movb 1006(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1007(%rax), %dl
movb 1007(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1008(%rax), %dl
movb 1008(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1009(%rax), %dl
movb 1009(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1010(%rax), %dl
movb 1010(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1011(%rax), %dl
movb 1011(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1012(%rax), %dl
movb 1012(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1013(%rax), %dl
movb 1013(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1014(%rax), %dl
movb 1014(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1015(%rax), %dl
movb 1015(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1016(%rax), %dl
movb 1016(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1017(%rax), %dl
movb 1017(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1018(%rax), %dl
movb 1018(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1019(%rax), %dl
movb 1019(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1020(%rax), %dl
movb 1020(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1021(%rax), %dl
movb 1021(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1022(%rax), %dl
movb 1022(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1023(%rax), %dl
movb 1023(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1024(%rax), %dl
movb 1024(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1025(%rax), %dl
movb 1025(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1026(%rax), %dl
movb 1026(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1027(%rax), %dl
movb 1027(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1028(%rax), %dl
movb 1028(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1029(%rax), %dl
movb 1029(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1030(%rax), %dl
movb 1030(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1031(%rax), %dl
movb 1031(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1032(%rax), %dl
movb 1032(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1033(%rax), %dl
movb 1033(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1034(%rax), %dl
movb 1034(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1035(%rax), %dl
movb 1035(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1036(%rax), %dl
movb 1036(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1037(%rax), %dl
movb 1037(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1038(%rax), %dl
movb 1038(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1039(%rax), %dl
movb 1039(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1040(%rax), %dl
movb 1040(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1041(%rax), %dl
movb 1041(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1042(%rax), %dl
movb 1042(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1043(%rax), %dl
movb 1043(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1044(%rax), %dl
movb 1044(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1045(%rax), %dl
movb 1045(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1046(%rax), %dl
movb 1046(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1047(%rax), %dl
movb 1047(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1048(%rax), %dl
movb 1048(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1049(%rax), %dl
movb 1049(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1050(%rax), %dl
movb 1050(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1051(%rax), %dl
movb 1051(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1052(%rax), %dl
movb 1052(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1053(%rax), %dl
movb 1053(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1054(%rax), %dl
movb 1054(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1055(%rax), %dl
movb 1055(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1056(%rax), %dl
movb 1056(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1057(%rax), %dl
movb 1057(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1058(%rax), %dl
movb 1058(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1059(%rax), %dl
movb 1059(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1060(%rax), %dl
movb 1060(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1061(%rax), %dl
movb 1061(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1062(%rax), %dl
movb 1062(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1063(%rax), %dl
movb 1063(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1064(%rax), %dl
movb 1064(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1065(%rax), %dl
movb 1065(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1066(%rax), %dl
movb 1066(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1067(%rax), %dl
movb 1067(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1068(%rax), %dl
movb 1068(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1069(%rax), %dl
movb 1069(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1070(%rax), %dl
movb 1070(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1071(%rax), %dl
movb 1071(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1072(%rax), %dl
movb 1072(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1073(%rax), %dl
movb 1073(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1074(%rax), %dl
movb 1074(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1075(%rax), %dl
movb 1075(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1076(%rax), %dl
movb 1076(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1077(%rax), %dl
movb 1077(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1078(%rax), %dl
movb 1078(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1079(%rax), %dl
movb 1079(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1080(%rax), %dl
movb 1080(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1081(%rax), %dl
movb 1081(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1082(%rax), %dl
movb 1082(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1083(%rax), %dl
movb 1083(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1084(%rax), %dl
movb 1084(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1085(%rax), %dl
movb 1085(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1086(%rax), %dl
movb 1086(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1087(%rax), %al
movb 1087(%rsi), %dl
xorb %dl, %al
movzbq %al, %rax
orq %rax, %rcx
negq %rcx
shrq $63, %rcx
movq 16(%rsp), %rax
addq $64, %rax
addq $2304, %rax
leaq 144(%rsp), %rdx
negq %rcx
movb (%rdx), %dil
movb (%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, (%rdx)
movb 1(%rdx), %dil
movb 1(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 1(%rdx)
movb 2(%rdx), %dil
movb 2(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 2(%rdx)
movb 3(%rdx), %dil
movb 3(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 3(%rdx)
movb 4(%rdx), %dil
movb 4(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 4(%rdx)
movb 5(%rdx), %dil
movb 5(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 5(%rdx)
movb 6(%rdx), %dil
movb 6(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 6(%rdx)
movb 7(%rdx), %dil
movb 7(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 7(%rdx)
movb 8(%rdx), %dil
movb 8(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 8(%rdx)
movb 9(%rdx), %dil
movb 9(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 9(%rdx)
movb 10(%rdx), %dil
movb 10(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 10(%rdx)
movb 11(%rdx), %dil
movb 11(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 11(%rdx)
movb 12(%rdx), %dil
movb 12(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 12(%rdx)
movb 13(%rdx), %dil
movb 13(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 13(%rdx)
movb 14(%rdx), %dil
movb 14(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 14(%rdx)
movb 15(%rdx), %dil
movb 15(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 15(%rdx)
movb 16(%rdx), %dil
movb 16(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 16(%rdx)
movb 17(%rdx), %dil
movb 17(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 17(%rdx)
movb 18(%rdx), %dil
movb 18(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 18(%rdx)
movb 19(%rdx), %dil
movb 19(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 19(%rdx)
movb 20(%rdx), %dil
movb 20(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 20(%rdx)
movb 21(%rdx), %dil
movb 21(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 21(%rdx)
movb 22(%rdx), %dil
movb 22(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 22(%rdx)
movb 23(%rdx), %dil
movb 23(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 23(%rdx)
movb 24(%rdx), %dil
movb 24(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 24(%rdx)
movb 25(%rdx), %dil
movb 25(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 25(%rdx)
movb 26(%rdx), %dil
movb 26(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 26(%rdx)
movb 27(%rdx), %dil
movb 27(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 27(%rdx)
movb 28(%rdx), %dil
movb 28(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 28(%rdx)
movb 29(%rdx), %dil
movb 29(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 29(%rdx)
movb 30(%rdx), %dil
movb 30(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 30(%rdx)
movb 31(%rdx), %dil
movb 31(%rax), %al
xorb %dil, %al
andb %cl, %al
xorb %al, %dil
movb %dil, 31(%rdx)
movq $1088, %rax
leaq 176(%rsp), %rcx
leaq -232(%rsp), %rsp
call L_sha3_256$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$2:
leaq 232(%rsp), %rsp
movq (%rsp), %rax
movq $32, %rcx
leaq 144(%rsp), %rdx
leaq -216(%rsp), %rsp
call L_shake256_64$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$1:
leaq 216(%rsp), %rsp
xorq %rax, %rax
movq 14504(%rsp), %r15
movq 14512(%rsp), %r14
movq 14520(%rsp), %r13
movq 14528(%rsp), %r12
movq 14536(%rsp), %rbp
movq 14544(%rsp), %rbx
movq 14552(%rsp), %rsp
ret
_jade_kem_kyber_kyber768_amd64_ref_enc_derand:
jade_kem_kyber_kyber768_amd64_ref_enc_derand:
movq %rsp, %rax
leaq -88(%rsp), %rsp
andq $-8, %rsp
movq %rax, 80(%rsp)
movq %r15, 32(%rsp)
movq %r14, 40(%rsp)
movq %r13, 48(%rsp)
movq %r12, 56(%rsp)
movq %rbp, 64(%rsp)
movq %rbx, 72(%rsp)
movq %rsp, %rax
movb (%rcx), %r8b
movb %r8b, (%rax)
movb 1(%rcx), %r8b
movb %r8b, 1(%rax)
movb 2(%rcx), %r8b
movb %r8b, 2(%rax)
movb 3(%rcx), %r8b
movb %r8b, 3(%rax)
movb 4(%rcx), %r8b
movb %r8b, 4(%rax)
movb 5(%rcx), %r8b
movb %r8b, 5(%rax)
movb 6(%rcx), %r8b
movb %r8b, 6(%rax)
movb 7(%rcx), %r8b
movb %r8b, 7(%rax)
movb 8(%rcx), %r8b
movb %r8b, 8(%rax)
movb 9(%rcx), %r8b
movb %r8b, 9(%rax)
movb 10(%rcx), %r8b
movb %r8b, 10(%rax)
movb 11(%rcx), %r8b
movb %r8b, 11(%rax)
movb 12(%rcx), %r8b
movb %r8b, 12(%rax)
movb 13(%rcx), %r8b
movb %r8b, 13(%rax)
movb 14(%rcx), %r8b
movb %r8b, 14(%rax)
movb 15(%rcx), %r8b
movb %r8b, 15(%rax)
movb 16(%rcx), %r8b
movb %r8b, 16(%rax)
movb 17(%rcx), %r8b
movb %r8b, 17(%rax)
movb 18(%rcx), %r8b
movb %r8b, 18(%rax)
movb 19(%rcx), %r8b
movb %r8b, 19(%rax)
movb 20(%rcx), %r8b
movb %r8b, 20(%rax)
movb 21(%rcx), %r8b
movb %r8b, 21(%rax)
movb 22(%rcx), %r8b
movb %r8b, 22(%rax)
movb 23(%rcx), %r8b
movb %r8b, 23(%rax)
movb 24(%rcx), %r8b
movb %r8b, 24(%rax)
movb 25(%rcx), %r8b
movb %r8b, 25(%rax)
movb 26(%rcx), %r8b
movb %r8b, 26(%rax)
movb 27(%rcx), %r8b
movb %r8b, 27(%rax)
movb 28(%rcx), %r8b
movb %r8b, 28(%rax)
movb 29(%rcx), %r8b
movb %r8b, 29(%rax)
movb 30(%rcx), %r8b
movb %r8b, 30(%rax)
movb 31(%rcx), %cl
movb %cl, 31(%rax)
movq %rsp, %rax
leaq -13400(%rsp), %rsp
call L_crypto_kem_enc_derand_jazz$1
Ljade_kem_kyber_kyber768_amd64_ref_enc_derand$1:
leaq 13400(%rsp), %rsp
xorq %rax, %rax
movq 32(%rsp), %r15
movq 40(%rsp), %r14
movq 48(%rsp), %r13
movq 56(%rsp), %r12
movq 64(%rsp), %rbp
movq 72(%rsp), %rbx
movq 80(%rsp), %rsp
ret
_jade_kem_kyber_kyber768_amd64_ref_keypair_derand:
jade_kem_kyber_kyber768_amd64_ref_keypair_derand:
movq %rsp, %rax
leaq -120(%rsp), %rsp
andq $-8, %rsp
movq %rax, 112(%rsp)
movq %r15, 64(%rsp)
movq %r14, 72(%rsp)
movq %r13, 80(%rsp)
movq %r12, 88(%rsp)
movq %rbp, 96(%rsp)
movq %rbx, 104(%rsp)
movq %rsp, %rax
movb (%rdx), %cl
movb %cl, (%rax)
movb 1(%rdx), %cl
movb %cl, 1(%rax)
movb 2(%rdx), %cl
movb %cl, 2(%rax)
movb 3(%rdx), %cl
movb %cl, 3(%rax)
movb 4(%rdx), %cl
movb %cl, 4(%rax)
movb 5(%rdx), %cl
movb %cl, 5(%rax)
movb 6(%rdx), %cl
movb %cl, 6(%rax)
movb 7(%rdx), %cl
movb %cl, 7(%rax)
movb 8(%rdx), %cl
movb %cl, 8(%rax)
movb 9(%rdx), %cl
movb %cl, 9(%rax)
movb 10(%rdx), %cl
movb %cl, 10(%rax)
movb 11(%rdx), %cl
movb %cl, 11(%rax)
movb 12(%rdx), %cl
movb %cl, 12(%rax)
movb 13(%rdx), %cl
movb %cl, 13(%rax)
movb 14(%rdx), %cl
movb %cl, 14(%rax)
movb 15(%rdx), %cl
movb %cl, 15(%rax)
movb 16(%rdx), %cl
movb %cl, 16(%rax)
movb 17(%rdx), %cl
movb %cl, 17(%rax)
movb 18(%rdx), %cl
movb %cl, 18(%rax)
movb 19(%rdx), %cl
movb %cl, 19(%rax)
movb 20(%rdx), %cl
movb %cl, 20(%rax)
movb 21(%rdx), %cl
movb %cl, 21(%rax)
movb 22(%rdx), %cl
movb %cl, 22(%rax)
movb 23(%rdx), %cl
movb %cl, 23(%rax)
movb 24(%rdx), %cl
movb %cl, 24(%rax)
movb 25(%rdx), %cl
movb %cl, 25(%rax)
movb 26(%rdx), %cl
movb %cl, 26(%rax)
movb 27(%rdx), %cl
movb %cl, 27(%rax)
movb 28(%rdx), %cl
movb %cl, 28(%rax)
movb 29(%rdx), %cl
movb %cl, 29(%rax)
movb 30(%rdx), %cl
movb %cl, 30(%rax)
movb 31(%rdx), %cl
movb %cl, 31(%rax)
movb 32(%rdx), %cl
movb %cl, 32(%rax)
movb 33(%rdx), %cl
movb %cl, 33(%rax)
movb 34(%rdx), %cl
movb %cl, 34(%rax)
movb 35(%rdx), %cl
movb %cl, 35(%rax)
movb 36(%rdx), %cl
movb %cl, 36(%rax)
movb 37(%rdx), %cl
movb %cl, 37(%rax)
movb 38(%rdx), %cl
movb %cl, 38(%rax)
movb 39(%rdx), %cl
movb %cl, 39(%rax)
movb 40(%rdx), %cl
movb %cl, 40(%rax)
movb 41(%rdx), %cl
movb %cl, 41(%rax)
movb 42(%rdx), %cl
movb %cl, 42(%rax)
movb 43(%rdx), %cl
movb %cl, 43(%rax)
movb 44(%rdx), %cl
movb %cl, 44(%rax)
movb 45(%rdx), %cl
movb %cl, 45(%rax)
movb 46(%rdx), %cl
movb %cl, 46(%rax)
movb 47(%rdx), %cl
movb %cl, 47(%rax)
movb 48(%rdx), %cl
movb %cl, 48(%rax)
movb 49(%rdx), %cl
movb %cl, 49(%rax)
movb 50(%rdx), %cl
movb %cl, 50(%rax)
movb 51(%rdx), %cl
movb %cl, 51(%rax)
movb 52(%rdx), %cl
movb %cl, 52(%rax)
movb 53(%rdx), %cl
movb %cl, 53(%rax)
movb 54(%rdx), %cl
movb %cl, 54(%rax)
movb 55(%rdx), %cl
movb %cl, 55(%rax)
movb 56(%rdx), %cl
movb %cl, 56(%rax)
movb 57(%rdx), %cl
movb %cl, 57(%rax)
movb 58(%rdx), %cl
movb %cl, 58(%rax)
movb 59(%rdx), %cl
movb %cl, 59(%rax)
movb 60(%rdx), %cl
movb %cl, 60(%rax)
movb 61(%rdx), %cl
movb %cl, 61(%rax)
movb 62(%rdx), %cl
movb %cl, 62(%rax)
movb 63(%rdx), %cl
movb %cl, 63(%rax)
movq %rsp, %rax
leaq -10320(%rsp), %rsp
call L_crypto_kem_keypair_derand_jazz$1
Ljade_kem_kyber_kyber768_amd64_ref_keypair_derand$1:
leaq 10320(%rsp), %rsp
xorq %rax, %rax
movq 64(%rsp), %r15
movq 72(%rsp), %r14
movq 80(%rsp), %r13
movq 88(%rsp), %r12
movq 96(%rsp), %rbp
movq 104(%rsp), %rbx
movq 112(%rsp), %rsp
ret
L_crypto_kem_enc_derand_jazz$1:
movq %rdx, 8(%rsp)
movq %rdi, 16(%rsp)
movq %rsi, 24(%rsp)
movq (%rax), %rcx
movq %rcx, 72(%rsp)
movq 8(%rax), %rcx
movq %rcx, 80(%rsp)
movq 16(%rax), %rcx
movq %rcx, 88(%rsp)
movq 24(%rax), %rax
movq %rax, 96(%rsp)
leaq 136(%rsp), %rax
leaq 72(%rsp), %rdx
leaq -208(%rsp), %rsp
call L_sha3_256_32$1
L_crypto_kem_enc_derand_jazz$208:
leaq 208(%rsp), %rsp
movq 8(%rsp), %rsi
movq $1184, %rax
leaq 168(%rsp), %rcx
leaq -232(%rsp), %rsp
call L_sha3_256$1
L_crypto_kem_enc_derand_jazz$207:
leaq 232(%rsp), %rsp
leaq 72(%rsp), %rax
leaq 136(%rsp), %rdx
leaq -208(%rsp), %rsp
call L_sha3_512_64$1
L_crypto_kem_enc_derand_jazz$206:
leaq 208(%rsp), %rsp
movq 8(%rsp), %rdx
leaq 136(%rsp), %rcx
leaq 104(%rsp), %rax
movq %rdx, %rsi
leaq 2448(%rsp), %rdi
call L_poly_frombytes$1
L_crypto_kem_enc_derand_jazz$205:
addq $384, %rsi
leaq 2960(%rsp), %rdi
call L_poly_frombytes$1
L_crypto_kem_enc_derand_jazz$204:
addq $384, %rsi
leaq 3472(%rsp), %rdi
call L_poly_frombytes$1
L_crypto_kem_enc_derand_jazz$203:
movq $0, %rsi
addq $1152, %rdx
jmp L_crypto_kem_enc_derand_jazz$201
L_crypto_kem_enc_derand_jazz$202:
movq (%rdx), %rdi
movq %rdi, 40(%rsp,%rsi,8)
addq $8, %rdx
incq %rsi
L_crypto_kem_enc_derand_jazz$201:
cmpq $4, %rsi
jb L_crypto_kem_enc_derand_jazz$202
leaq 912(%rsp), %rdx
call L_i_poly_frommsg$1
L_crypto_kem_enc_derand_jazz$200:
movq $1, %rcx
movq %rcx, 8(%rsp)
movb 40(%rsp), %cl
movb %cl, 13200(%rsp)
movb 41(%rsp), %cl
movb %cl, 13201(%rsp)
movb 42(%rsp), %cl
movb %cl, 13202(%rsp)
movb 43(%rsp), %cl
movb %cl, 13203(%rsp)
movb 44(%rsp), %cl
movb %cl, 13204(%rsp)
movb 45(%rsp), %cl
movb %cl, 13205(%rsp)
movb 46(%rsp), %cl
movb %cl, 13206(%rsp)
movb 47(%rsp), %cl
movb %cl, 13207(%rsp)
movb 48(%rsp), %cl
movb %cl, 13208(%rsp)
movb 49(%rsp), %cl
movb %cl, 13209(%rsp)
movb 50(%rsp), %cl
movb %cl, 13210(%rsp)
movb 51(%rsp), %cl
movb %cl, 13211(%rsp)
movb 52(%rsp), %cl
movb %cl, 13212(%rsp)
movb 53(%rsp), %cl
movb %cl, 13213(%rsp)
movb 54(%rsp), %cl
movb %cl, 13214(%rsp)
movb 55(%rsp), %cl
movb %cl, 13215(%rsp)
movb 56(%rsp), %cl
movb %cl, 13216(%rsp)
movb 57(%rsp), %cl
movb %cl, 13217(%rsp)
movb 58(%rsp), %cl
movb %cl, 13218(%rsp)
movb 59(%rsp), %cl
movb %cl, 13219(%rsp)
movb 60(%rsp), %cl
movb %cl, 13220(%rsp)
movb 61(%rsp), %cl
movb %cl, 13221(%rsp)
movb 62(%rsp), %cl
movb %cl, 13222(%rsp)
movb 63(%rsp), %cl
movb %cl, 13223(%rsp)
movb 64(%rsp), %cl
movb %cl, 13224(%rsp)
movb 65(%rsp), %cl
movb %cl, 13225(%rsp)
movb 66(%rsp), %cl
movb %cl, 13226(%rsp)
movb 67(%rsp), %cl
movb %cl, 13227(%rsp)
movb 68(%rsp), %cl
movb %cl, 13228(%rsp)
movb 69(%rsp), %cl
movb %cl, 13229(%rsp)
movb 70(%rsp), %cl
movb %cl, 13230(%rsp)
movb 71(%rsp), %cl
movb %cl, 13231(%rsp)
movq 8(%rsp), %rcx
cmpq $0, %rcx
je L_crypto_kem_enc_derand_jazz$198
movb $0, 13232(%rsp)
movb $0, 13233(%rsp)
jmp L_crypto_kem_enc_derand_jazz$199
L_crypto_kem_enc_derand_jazz$198:
movb $0, 13232(%rsp)
movb $0, 13233(%rsp)
L_crypto_kem_enc_derand_jazz$199:
leaq 200(%rsp), %rcx
leaq 13200(%rsp), %rdx
call L_shake128_absorb34$1
L_crypto_kem_enc_derand_jazz$197:
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$195
L_crypto_kem_enc_derand_jazz$196:
movq %rcx, 400(%rsp,%rcx,8)
incq %rcx
L_crypto_kem_enc_derand_jazz$195:
cmpq $64, %rcx
jb L_crypto_kem_enc_derand_jazz$196
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$187
L_crypto_kem_enc_derand_jazz$188:
movq %rcx, 32(%rsp)
leaq 200(%rsp), %rcx
leaq 13234(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
L_crypto_kem_enc_derand_jazz$194:
leaq 8(%rsp), %rsp
movq 32(%rsp), %rcx
movq $0, %rdx
L_crypto_kem_enc_derand_jazz$189:
movzbw 13234(%rsp,%rdx), %si
incq %rdx
movzbw 13234(%rsp,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw 13234(%rsp,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb L_crypto_kem_enc_derand_jazz$192
cmpq $256, %rcx
jnb L_crypto_kem_enc_derand_jazz$192
movw %si, 400(%rsp,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$193:
L_crypto_kem_enc_derand_jazz$192:
cmpw $3329, %r8w
jnb L_crypto_kem_enc_derand_jazz$190
cmpq $256, %rcx
jnb L_crypto_kem_enc_derand_jazz$190
movw %r8w, 400(%rsp,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$191:
L_crypto_kem_enc_derand_jazz$190:
cmpq $166, %rdx
jb L_crypto_kem_enc_derand_jazz$189
L_crypto_kem_enc_derand_jazz$187:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$188
movq $0, %rcx
movq $0, %rdx
jmp L_crypto_kem_enc_derand_jazz$185
L_crypto_kem_enc_derand_jazz$186:
movw 400(%rsp,%rcx,2), %si
movw %si, 8592(%rsp,%rdx,2)
incq %rcx
incq %rdx
L_crypto_kem_enc_derand_jazz$185:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$186
movq 8(%rsp), %rcx
cmpq $0, %rcx
je L_crypto_kem_enc_derand_jazz$183
movb $0, 13232(%rsp)
movb $1, 13233(%rsp)
jmp L_crypto_kem_enc_derand_jazz$184
L_crypto_kem_enc_derand_jazz$183:
movb $1, 13232(%rsp)
movb $0, 13233(%rsp)
L_crypto_kem_enc_derand_jazz$184:
leaq 200(%rsp), %rcx
leaq 13200(%rsp), %rdx
call L_shake128_absorb34$1
L_crypto_kem_enc_derand_jazz$182:
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$180
L_crypto_kem_enc_derand_jazz$181:
movq %rcx, 400(%rsp,%rcx,8)
incq %rcx
L_crypto_kem_enc_derand_jazz$180:
cmpq $64, %rcx
jb L_crypto_kem_enc_derand_jazz$181
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$172
L_crypto_kem_enc_derand_jazz$173:
movq %rcx, 32(%rsp)
leaq 200(%rsp), %rcx
leaq 13234(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
L_crypto_kem_enc_derand_jazz$179:
leaq 8(%rsp), %rsp
movq 32(%rsp), %rcx
movq $0, %rdx
L_crypto_kem_enc_derand_jazz$174:
movzbw 13234(%rsp,%rdx), %si
incq %rdx
movzbw 13234(%rsp,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw 13234(%rsp,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb L_crypto_kem_enc_derand_jazz$177
cmpq $256, %rcx
jnb L_crypto_kem_enc_derand_jazz$177
movw %si, 400(%rsp,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$178:
L_crypto_kem_enc_derand_jazz$177:
cmpw $3329, %r8w
jnb L_crypto_kem_enc_derand_jazz$175
cmpq $256, %rcx
jnb L_crypto_kem_enc_derand_jazz$175
movw %r8w, 400(%rsp,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$176:
L_crypto_kem_enc_derand_jazz$175:
cmpq $166, %rdx
jb L_crypto_kem_enc_derand_jazz$174
L_crypto_kem_enc_derand_jazz$172:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$173
movq $0, %rcx
movq $256, %rdx
jmp L_crypto_kem_enc_derand_jazz$170
L_crypto_kem_enc_derand_jazz$171:
movw 400(%rsp,%rcx,2), %si
movw %si, 8592(%rsp,%rdx,2)
incq %rcx
incq %rdx
L_crypto_kem_enc_derand_jazz$170:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$171
movq 8(%rsp), %rcx
cmpq $0, %rcx
je L_crypto_kem_enc_derand_jazz$168
movb $0, 13232(%rsp)
movb $2, 13233(%rsp)
jmp L_crypto_kem_enc_derand_jazz$169
L_crypto_kem_enc_derand_jazz$168:
movb $2, 13232(%rsp)
movb $0, 13233(%rsp)
L_crypto_kem_enc_derand_jazz$169:
leaq 200(%rsp), %rcx
leaq 13200(%rsp), %rdx
call L_shake128_absorb34$1
L_crypto_kem_enc_derand_jazz$167:
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$165
L_crypto_kem_enc_derand_jazz$166:
movq %rcx, 400(%rsp,%rcx,8)
incq %rcx
L_crypto_kem_enc_derand_jazz$165:
cmpq $64, %rcx
jb L_crypto_kem_enc_derand_jazz$166
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$157
L_crypto_kem_enc_derand_jazz$158:
movq %rcx, 32(%rsp)
leaq 200(%rsp), %rcx
leaq 13234(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
L_crypto_kem_enc_derand_jazz$164:
leaq 8(%rsp), %rsp
movq 32(%rsp), %rcx
movq $0, %rdx
L_crypto_kem_enc_derand_jazz$159:
movzbw 13234(%rsp,%rdx), %si
incq %rdx
movzbw 13234(%rsp,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw 13234(%rsp,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb L_crypto_kem_enc_derand_jazz$162
cmpq $256, %rcx
jnb L_crypto_kem_enc_derand_jazz$162
movw %si, 400(%rsp,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$163:
L_crypto_kem_enc_derand_jazz$162:
cmpw $3329, %r8w
jnb L_crypto_kem_enc_derand_jazz$160
cmpq $256, %rcx
jnb L_crypto_kem_enc_derand_jazz$160
movw %r8w, 400(%rsp,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$161:
L_crypto_kem_enc_derand_jazz$160:
cmpq $166, %rdx
jb L_crypto_kem_enc_derand_jazz$159
L_crypto_kem_enc_derand_jazz$157:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$158
movq $0, %rcx
movq $512, %rdx
jmp L_crypto_kem_enc_derand_jazz$155
L_crypto_kem_enc_derand_jazz$156:
movw 400(%rsp,%rcx,2), %si
movw %si, 8592(%rsp,%rdx,2)
incq %rcx
incq %rdx
L_crypto_kem_enc_derand_jazz$155:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$156
movq 8(%rsp), %rcx
cmpq $0, %rcx
je L_crypto_kem_enc_derand_jazz$153
movb $1, 13232(%rsp)
movb $0, 13233(%rsp)
jmp L_crypto_kem_enc_derand_jazz$154
L_crypto_kem_enc_derand_jazz$153:
movb $0, 13232(%rsp)
movb $1, 13233(%rsp)
L_crypto_kem_enc_derand_jazz$154:
leaq 200(%rsp), %rcx
leaq 13200(%rsp), %rdx
call L_shake128_absorb34$1
L_crypto_kem_enc_derand_jazz$152:
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$150
L_crypto_kem_enc_derand_jazz$151:
movq %rcx, 400(%rsp,%rcx,8)
incq %rcx
L_crypto_kem_enc_derand_jazz$150:
cmpq $64, %rcx
jb L_crypto_kem_enc_derand_jazz$151
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$142
L_crypto_kem_enc_derand_jazz$143:
movq %rcx, 32(%rsp)
leaq 200(%rsp), %rcx
leaq 13234(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
L_crypto_kem_enc_derand_jazz$149:
leaq 8(%rsp), %rsp
movq 32(%rsp), %rcx
movq $0, %rdx
L_crypto_kem_enc_derand_jazz$144:
movzbw 13234(%rsp,%rdx), %si
incq %rdx
movzbw 13234(%rsp,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw 13234(%rsp,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb L_crypto_kem_enc_derand_jazz$147
cmpq $256, %rcx
jnb L_crypto_kem_enc_derand_jazz$147
movw %si, 400(%rsp,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$148:
L_crypto_kem_enc_derand_jazz$147:
cmpw $3329, %r8w
jnb L_crypto_kem_enc_derand_jazz$145
cmpq $256, %rcx
jnb L_crypto_kem_enc_derand_jazz$145
movw %r8w, 400(%rsp,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$146:
L_crypto_kem_enc_derand_jazz$145:
cmpq $166, %rdx
jb L_crypto_kem_enc_derand_jazz$144
L_crypto_kem_enc_derand_jazz$142:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$143
movq $0, %rcx
movq $768, %rdx
jmp L_crypto_kem_enc_derand_jazz$140
L_crypto_kem_enc_derand_jazz$141:
movw 400(%rsp,%rcx,2), %si
movw %si, 8592(%rsp,%rdx,2)
incq %rcx
incq %rdx
L_crypto_kem_enc_derand_jazz$140:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$141
movq 8(%rsp), %rcx
cmpq $0, %rcx
je L_crypto_kem_enc_derand_jazz$138
movb $1, 13232(%rsp)
movb $1, 13233(%rsp)
jmp L_crypto_kem_enc_derand_jazz$139
L_crypto_kem_enc_derand_jazz$138:
movb $1, 13232(%rsp)
movb $1, 13233(%rsp)
L_crypto_kem_enc_derand_jazz$139:
leaq 200(%rsp), %rcx
leaq 13200(%rsp), %rdx
call L_shake128_absorb34$1
L_crypto_kem_enc_derand_jazz$137:
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$135
L_crypto_kem_enc_derand_jazz$136:
movq %rcx, 400(%rsp,%rcx,8)
incq %rcx
L_crypto_kem_enc_derand_jazz$135:
cmpq $64, %rcx
jb L_crypto_kem_enc_derand_jazz$136
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$127
L_crypto_kem_enc_derand_jazz$128:
movq %rcx, 32(%rsp)
leaq 200(%rsp), %rcx
leaq 13234(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
L_crypto_kem_enc_derand_jazz$134:
leaq 8(%rsp), %rsp
movq 32(%rsp), %rcx
movq $0, %rdx
L_crypto_kem_enc_derand_jazz$129:
movzbw 13234(%rsp,%rdx), %si
incq %rdx
movzbw 13234(%rsp,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw 13234(%rsp,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb L_crypto_kem_enc_derand_jazz$132
cmpq $256, %rcx
jnb L_crypto_kem_enc_derand_jazz$132
movw %si, 400(%rsp,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$133:
L_crypto_kem_enc_derand_jazz$132:
cmpw $3329, %r8w
jnb L_crypto_kem_enc_derand_jazz$130
cmpq $256, %rcx
jnb L_crypto_kem_enc_derand_jazz$130
movw %r8w, 400(%rsp,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$131:
L_crypto_kem_enc_derand_jazz$130:
cmpq $166, %rdx
jb L_crypto_kem_enc_derand_jazz$129
L_crypto_kem_enc_derand_jazz$127:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$128
movq $0, %rcx
movq $1024, %rdx
jmp L_crypto_kem_enc_derand_jazz$125
L_crypto_kem_enc_derand_jazz$126:
movw 400(%rsp,%rcx,2), %si
movw %si, 8592(%rsp,%rdx,2)
incq %rcx
incq %rdx
L_crypto_kem_enc_derand_jazz$125:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$126
movq 8(%rsp), %rcx
cmpq $0, %rcx
je L_crypto_kem_enc_derand_jazz$123
movb $1, 13232(%rsp)
movb $2, 13233(%rsp)
jmp L_crypto_kem_enc_derand_jazz$124
L_crypto_kem_enc_derand_jazz$123:
movb $2, 13232(%rsp)
movb $1, 13233(%rsp)
L_crypto_kem_enc_derand_jazz$124:
leaq 200(%rsp), %rcx
leaq 13200(%rsp), %rdx
call L_shake128_absorb34$1
L_crypto_kem_enc_derand_jazz$122:
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$120
L_crypto_kem_enc_derand_jazz$121:
movq %rcx, 400(%rsp,%rcx,8)
incq %rcx
L_crypto_kem_enc_derand_jazz$120:
cmpq $64, %rcx
jb L_crypto_kem_enc_derand_jazz$121
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$112
L_crypto_kem_enc_derand_jazz$113:
movq %rcx, 32(%rsp)
leaq 200(%rsp), %rcx
leaq 13234(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
L_crypto_kem_enc_derand_jazz$119:
leaq 8(%rsp), %rsp
movq 32(%rsp), %rcx
movq $0, %rdx
L_crypto_kem_enc_derand_jazz$114:
movzbw 13234(%rsp,%rdx), %si
incq %rdx
movzbw 13234(%rsp,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw 13234(%rsp,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb L_crypto_kem_enc_derand_jazz$117
cmpq $256, %rcx
jnb L_crypto_kem_enc_derand_jazz$117
movw %si, 400(%rsp,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$118:
L_crypto_kem_enc_derand_jazz$117:
cmpw $3329, %r8w
jnb L_crypto_kem_enc_derand_jazz$115
cmpq $256, %rcx
jnb L_crypto_kem_enc_derand_jazz$115
movw %r8w, 400(%rsp,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$116:
L_crypto_kem_enc_derand_jazz$115:
cmpq $166, %rdx
jb L_crypto_kem_enc_derand_jazz$114
L_crypto_kem_enc_derand_jazz$112:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$113
movq $0, %rcx
movq $1280, %rdx
jmp L_crypto_kem_enc_derand_jazz$110
L_crypto_kem_enc_derand_jazz$111:
movw 400(%rsp,%rcx,2), %si
movw %si, 8592(%rsp,%rdx,2)
incq %rcx
incq %rdx
L_crypto_kem_enc_derand_jazz$110:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$111
movq 8(%rsp), %rcx
cmpq $0, %rcx
je L_crypto_kem_enc_derand_jazz$108
movb $2, 13232(%rsp)
movb $0, 13233(%rsp)
jmp L_crypto_kem_enc_derand_jazz$109
L_crypto_kem_enc_derand_jazz$108:
movb $0, 13232(%rsp)
movb $2, 13233(%rsp)
L_crypto_kem_enc_derand_jazz$109:
leaq 200(%rsp), %rcx
leaq 13200(%rsp), %rdx
call L_shake128_absorb34$1
L_crypto_kem_enc_derand_jazz$107:
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$105
L_crypto_kem_enc_derand_jazz$106:
movq %rcx, 400(%rsp,%rcx,8)
incq %rcx
L_crypto_kem_enc_derand_jazz$105:
cmpq $64, %rcx
jb L_crypto_kem_enc_derand_jazz$106
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$97
L_crypto_kem_enc_derand_jazz$98:
movq %rcx, 32(%rsp)
leaq 200(%rsp), %rcx
leaq 13234(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
L_crypto_kem_enc_derand_jazz$104:
leaq 8(%rsp), %rsp
movq 32(%rsp), %rcx
movq $0, %rdx
L_crypto_kem_enc_derand_jazz$99:
movzbw 13234(%rsp,%rdx), %si
incq %rdx
movzbw 13234(%rsp,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw 13234(%rsp,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb L_crypto_kem_enc_derand_jazz$102
cmpq $256, %rcx
jnb L_crypto_kem_enc_derand_jazz$102
movw %si, 400(%rsp,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$103:
L_crypto_kem_enc_derand_jazz$102:
cmpw $3329, %r8w
jnb L_crypto_kem_enc_derand_jazz$100
cmpq $256, %rcx
jnb L_crypto_kem_enc_derand_jazz$100
movw %r8w, 400(%rsp,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$101:
L_crypto_kem_enc_derand_jazz$100:
cmpq $166, %rdx
jb L_crypto_kem_enc_derand_jazz$99
L_crypto_kem_enc_derand_jazz$97:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$98
movq $0, %rcx
movq $1536, %rdx
jmp L_crypto_kem_enc_derand_jazz$95
L_crypto_kem_enc_derand_jazz$96:
movw 400(%rsp,%rcx,2), %si
movw %si, 8592(%rsp,%rdx,2)
incq %rcx
incq %rdx
L_crypto_kem_enc_derand_jazz$95:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$96
movq 8(%rsp), %rcx
cmpq $0, %rcx
je L_crypto_kem_enc_derand_jazz$93
movb $2, 13232(%rsp)
movb $1, 13233(%rsp)
jmp L_crypto_kem_enc_derand_jazz$94
L_crypto_kem_enc_derand_jazz$93:
movb $1, 13232(%rsp)
movb $2, 13233(%rsp)
L_crypto_kem_enc_derand_jazz$94:
leaq 200(%rsp), %rcx
leaq 13200(%rsp), %rdx
call L_shake128_absorb34$1
L_crypto_kem_enc_derand_jazz$92:
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$90
L_crypto_kem_enc_derand_jazz$91:
movq %rcx, 400(%rsp,%rcx,8)
incq %rcx
L_crypto_kem_enc_derand_jazz$90:
cmpq $64, %rcx
jb L_crypto_kem_enc_derand_jazz$91
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$82
L_crypto_kem_enc_derand_jazz$83:
movq %rcx, 32(%rsp)
leaq 200(%rsp), %rcx
leaq 13234(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
L_crypto_kem_enc_derand_jazz$89:
leaq 8(%rsp), %rsp
movq 32(%rsp), %rcx
movq $0, %rdx
L_crypto_kem_enc_derand_jazz$84:
movzbw 13234(%rsp,%rdx), %si
incq %rdx
movzbw 13234(%rsp,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw 13234(%rsp,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb L_crypto_kem_enc_derand_jazz$87
cmpq $256, %rcx
jnb L_crypto_kem_enc_derand_jazz$87
movw %si, 400(%rsp,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$88:
L_crypto_kem_enc_derand_jazz$87:
cmpw $3329, %r8w
jnb L_crypto_kem_enc_derand_jazz$85
cmpq $256, %rcx
jnb L_crypto_kem_enc_derand_jazz$85
movw %r8w, 400(%rsp,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$86:
L_crypto_kem_enc_derand_jazz$85:
cmpq $166, %rdx
jb L_crypto_kem_enc_derand_jazz$84
L_crypto_kem_enc_derand_jazz$82:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$83
movq $0, %rcx
movq $1792, %rdx
jmp L_crypto_kem_enc_derand_jazz$80
L_crypto_kem_enc_derand_jazz$81:
movw 400(%rsp,%rcx,2), %si
movw %si, 8592(%rsp,%rdx,2)
incq %rcx
incq %rdx
L_crypto_kem_enc_derand_jazz$80:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$81
movq 8(%rsp), %rcx
cmpq $0, %rcx
je L_crypto_kem_enc_derand_jazz$78
movb $2, 13232(%rsp)
movb $2, 13233(%rsp)
jmp L_crypto_kem_enc_derand_jazz$79
L_crypto_kem_enc_derand_jazz$78:
movb $2, 13232(%rsp)
movb $2, 13233(%rsp)
L_crypto_kem_enc_derand_jazz$79:
leaq 200(%rsp), %rcx
leaq 13200(%rsp), %rdx
call L_shake128_absorb34$1
L_crypto_kem_enc_derand_jazz$77:
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$75
L_crypto_kem_enc_derand_jazz$76:
movq %rcx, 400(%rsp,%rcx,8)
incq %rcx
L_crypto_kem_enc_derand_jazz$75:
cmpq $64, %rcx
jb L_crypto_kem_enc_derand_jazz$76
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$67
L_crypto_kem_enc_derand_jazz$68:
movq %rcx, 8(%rsp)
leaq 200(%rsp), %rcx
leaq 13234(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
L_crypto_kem_enc_derand_jazz$74:
leaq 8(%rsp), %rsp
movq 8(%rsp), %rcx
movq $0, %rdx
L_crypto_kem_enc_derand_jazz$69:
movzbw 13234(%rsp,%rdx), %si
incq %rdx
movzbw 13234(%rsp,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw 13234(%rsp,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb L_crypto_kem_enc_derand_jazz$72
cmpq $256, %rcx
jnb L_crypto_kem_enc_derand_jazz$72
movw %si, 400(%rsp,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$73:
L_crypto_kem_enc_derand_jazz$72:
cmpw $3329, %r8w
jnb L_crypto_kem_enc_derand_jazz$70
cmpq $256, %rcx
jnb L_crypto_kem_enc_derand_jazz$70
movw %r8w, 400(%rsp,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$71:
L_crypto_kem_enc_derand_jazz$70:
cmpq $166, %rdx
jb L_crypto_kem_enc_derand_jazz$69
L_crypto_kem_enc_derand_jazz$67:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$68
movq $0, %rcx
movq $2048, %rdx
jmp L_crypto_kem_enc_derand_jazz$65
L_crypto_kem_enc_derand_jazz$66:
movw 400(%rsp,%rcx,2), %si
movw %si, 8592(%rsp,%rdx,2)
incq %rcx
incq %rdx
L_crypto_kem_enc_derand_jazz$65:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$66
movb $0, %cl
leaq 3984(%rsp), %rdx
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
L_crypto_kem_enc_derand_jazz$64:
leaq 176(%rsp), %rsp
movb $1, %cl
leaq 4496(%rsp), %rdx
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
L_crypto_kem_enc_derand_jazz$63:
leaq 176(%rsp), %rsp
movb $2, %cl
leaq 5008(%rsp), %rdx
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
L_crypto_kem_enc_derand_jazz$62:
leaq 176(%rsp), %rsp
movb $3, %cl
leaq 5520(%rsp), %rdx
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
L_crypto_kem_enc_derand_jazz$61:
leaq 176(%rsp), %rsp
movb $4, %cl
leaq 6032(%rsp), %rdx
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
L_crypto_kem_enc_derand_jazz$60:
leaq 176(%rsp), %rsp
movb $5, %cl
leaq 6544(%rsp), %rdx
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
L_crypto_kem_enc_derand_jazz$59:
leaq 176(%rsp), %rsp
movb $6, %cl
leaq 400(%rsp), %rdx
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
L_crypto_kem_enc_derand_jazz$58:
leaq 176(%rsp), %rsp
leaq 3984(%rsp), %rcx
call L_poly_ntt$1
L_crypto_kem_enc_derand_jazz$57:
leaq 4496(%rsp), %rcx
call L_poly_ntt$1
L_crypto_kem_enc_derand_jazz$56:
leaq 5008(%rsp), %rcx
call L_poly_ntt$1
L_crypto_kem_enc_derand_jazz$55:
leaq 7056(%rsp), %rdi
leaq 8592(%rsp), %rcx
leaq 3984(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_enc_derand_jazz$54:
leaq 16(%rsp), %rsp
leaq 1424(%rsp), %rdi
leaq 9104(%rsp), %rcx
leaq 4496(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_enc_derand_jazz$53:
leaq 16(%rsp), %rsp
leaq 7056(%rsp), %rcx
leaq 1424(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_enc_derand_jazz$52:
leaq 1424(%rsp), %rdi
leaq 9616(%rsp), %rcx
leaq 5008(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_enc_derand_jazz$51:
leaq 16(%rsp), %rsp
leaq 7056(%rsp), %rcx
leaq 1424(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_enc_derand_jazz$50:
leaq 7056(%rsp), %rax
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$48
L_crypto_kem_enc_derand_jazz$49:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$48:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$49
leaq 7568(%rsp), %rdi
leaq 10128(%rsp), %rcx
leaq 3984(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_enc_derand_jazz$47:
leaq 16(%rsp), %rsp
leaq 1424(%rsp), %rdi
leaq 10640(%rsp), %rcx
leaq 4496(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_enc_derand_jazz$46:
leaq 16(%rsp), %rsp
leaq 7568(%rsp), %rcx
leaq 1424(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_enc_derand_jazz$45:
leaq 1424(%rsp), %rdi
leaq 11152(%rsp), %rcx
leaq 5008(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_enc_derand_jazz$44:
leaq 16(%rsp), %rsp
leaq 7568(%rsp), %rcx
leaq 1424(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_enc_derand_jazz$43:
leaq 7568(%rsp), %rax
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$41
L_crypto_kem_enc_derand_jazz$42:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$41:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$42
leaq 8080(%rsp), %rdi
leaq 11664(%rsp), %rcx
leaq 3984(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_enc_derand_jazz$40:
leaq 16(%rsp), %rsp
leaq 1424(%rsp), %rdi
leaq 12176(%rsp), %rcx
leaq 4496(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_enc_derand_jazz$39:
leaq 16(%rsp), %rsp
leaq 8080(%rsp), %rcx
leaq 1424(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_enc_derand_jazz$38:
leaq 1424(%rsp), %rdi
leaq 12688(%rsp), %rcx
leaq 5008(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_enc_derand_jazz$37:
leaq 16(%rsp), %rsp
leaq 8080(%rsp), %rcx
leaq 1424(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_enc_derand_jazz$36:
leaq 8080(%rsp), %rax
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$34
L_crypto_kem_enc_derand_jazz$35:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$34:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$35
leaq 1424(%rsp), %rdi
leaq 2448(%rsp), %rcx
leaq 3984(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_enc_derand_jazz$33:
leaq 16(%rsp), %rsp
leaq 1936(%rsp), %rdi
leaq 2960(%rsp), %rcx
leaq 4496(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_enc_derand_jazz$32:
leaq 16(%rsp), %rsp
leaq 1424(%rsp), %rcx
leaq 1936(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_enc_derand_jazz$31:
leaq 1936(%rsp), %rdi
leaq 3472(%rsp), %rcx
leaq 5008(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_enc_derand_jazz$30:
leaq 16(%rsp), %rsp
leaq 1424(%rsp), %rcx
leaq 1936(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_enc_derand_jazz$29:
leaq 1424(%rsp), %rax
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$27
L_crypto_kem_enc_derand_jazz$28:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$27:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$28
leaq 7056(%rsp), %rcx
call L_poly_invntt$1
L_crypto_kem_enc_derand_jazz$26:
leaq 7568(%rsp), %rcx
call L_poly_invntt$1
L_crypto_kem_enc_derand_jazz$25:
leaq 8080(%rsp), %rcx
call L_poly_invntt$1
L_crypto_kem_enc_derand_jazz$24:
leaq 1424(%rsp), %rcx
call L_poly_invntt$1
L_crypto_kem_enc_derand_jazz$23:
leaq 7056(%rsp), %rcx
leaq 5520(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_enc_derand_jazz$22:
leaq 7568(%rsp), %rcx
leaq 6032(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_enc_derand_jazz$21:
leaq 8080(%rsp), %rcx
leaq 6544(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_enc_derand_jazz$20:
leaq 1424(%rsp), %rcx
leaq 400(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_enc_derand_jazz$19:
leaq 1424(%rsp), %rcx
leaq 912(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_enc_derand_jazz$18:
leaq 7056(%rsp), %rax
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$16
L_crypto_kem_enc_derand_jazz$17:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$16:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$17
leaq 7568(%rsp), %rax
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$14
L_crypto_kem_enc_derand_jazz$15:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$14:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$15
leaq 8080(%rsp), %rax
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$12
L_crypto_kem_enc_derand_jazz$13:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$12:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$13
leaq 1424(%rsp), %rax
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$10
L_crypto_kem_enc_derand_jazz$11:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$10:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$11
movq 16(%rsp), %rax
movq $0, %rdx
movq $0, %rsi
leaq 7056(%rsp), %rcx
call L_poly_csubq$1
L_crypto_kem_enc_derand_jazz$9:
leaq 7568(%rsp), %rcx
call L_poly_csubq$1
L_crypto_kem_enc_derand_jazz$8:
leaq 8080(%rsp), %rcx
call L_poly_csubq$1
L_crypto_kem_enc_derand_jazz$7:
jmp L_crypto_kem_enc_derand_jazz$5
L_crypto_kem_enc_derand_jazz$6:
movzwq 7056(%rsp,%rdx,2), %rcx
incq %rdx
shlq $10, %rcx
addq $1665, %rcx
imulq $1290167, %rcx, %rcx
shrq $32, %rcx
andq $1023, %rcx
movzwq 7056(%rsp,%rdx,2), %rdi
incq %rdx
shlq $10, %rdi
addq $1665, %rdi
imulq $1290167, %rdi, %rdi
shrq $32, %rdi
andq $1023, %rdi
movzwq 7056(%rsp,%rdx,2), %r8
incq %rdx
shlq $10, %r8
addq $1665, %r8
imulq $1290167, %r8, %r8
shrq $32, %r8
andq $1023, %r8
movzwq 7056(%rsp,%rdx,2), %r9
incq %rdx
shlq $10, %r9
addq $1665, %r9
imulq $1290167, %r9, %r9
shrq $32, %r9
andq $1023, %r9
movw %cx, %r10w
andw $255, %r10w
movb %r10b, (%rax,%rsi)
incq %rsi
shrw $8, %cx
movw %di, %r10w
shlw $2, %r10w
orw %cx, %r10w
movb %r10b, (%rax,%rsi)
incq %rsi
shrw $6, %di
movw %r8w, %cx
shlw $4, %cx
orw %di, %cx
movb %cl, (%rax,%rsi)
incq %rsi
shrw $4, %r8w
movw %r9w, %cx
shlw $6, %cx
orw %r8w, %cx
movb %cl, (%rax,%rsi)
incq %rsi
shrq $2, %r9
movb %r9b, (%rax,%rsi)
incq %rsi
L_crypto_kem_enc_derand_jazz$5:
cmpq $768, %rdx
jb L_crypto_kem_enc_derand_jazz$6
addq $960, %rax
leaq 1424(%rsp), %rcx
call L_poly_compress$1
L_crypto_kem_enc_derand_jazz$4:
movq 16(%rsp), %rsi
movq $1088, %rax
leaq 104(%rsp), %rcx
leaq -232(%rsp), %rsp
call L_sha3_256$1
L_crypto_kem_enc_derand_jazz$3:
leaq 232(%rsp), %rsp
movq 24(%rsp), %rax
movq $32, %rcx
leaq 72(%rsp), %rdx
leaq -216(%rsp), %rsp
call L_shake256_64$1
L_crypto_kem_enc_derand_jazz$2:
leaq 216(%rsp), %rsp
ret
L_crypto_kem_keypair_derand_jazz$1:
movq %rax, 8(%rsp)
movq %rdi, 16(%rsp)
movq %rsi, 24(%rsp)
movq %rdi, 32(%rsp)
movq %rsi, 40(%rsp)
movq (%rax), %rcx
movq %rcx, 64(%rsp)
movq 8(%rax), %rcx
movq %rcx, 72(%rsp)
movq 16(%rax), %rcx
movq %rcx, 80(%rsp)
movq 24(%rax), %rax
movq %rax, 88(%rsp)
leaq 128(%rsp), %rcx
leaq 64(%rsp), %rax
leaq -208(%rsp), %rsp
call L_sha3_512_32$1
L_crypto_kem_keypair_derand_jazz$189:
leaq 208(%rsp), %rsp
movq 128(%rsp), %rax
movq %rax, 96(%rsp)
movq 160(%rsp), %rax
movq %rax, 64(%rsp)
movq 136(%rsp), %rax
movq %rax, 104(%rsp)
movq 168(%rsp), %rax
movq %rax, 72(%rsp)
movq 144(%rsp), %rax
movq %rax, 112(%rsp)
movq 176(%rsp), %rax
movq %rax, 80(%rsp)
movq 152(%rsp), %rax
movq %rax, 120(%rsp)
movq 184(%rsp), %rax
movq %rax, 88(%rsp)
movq $0, %rax
movq %rax, 48(%rsp)
movb 96(%rsp), %al
movb %al, 10120(%rsp)
movb 97(%rsp), %al
movb %al, 10121(%rsp)
movb 98(%rsp), %al
movb %al, 10122(%rsp)
movb 99(%rsp), %al
movb %al, 10123(%rsp)
movb 100(%rsp), %al
movb %al, 10124(%rsp)
movb 101(%rsp), %al
movb %al, 10125(%rsp)
movb 102(%rsp), %al
movb %al, 10126(%rsp)
movb 103(%rsp), %al
movb %al, 10127(%rsp)
movb 104(%rsp), %al
movb %al, 10128(%rsp)
movb 105(%rsp), %al
movb %al, 10129(%rsp)
movb 106(%rsp), %al
movb %al, 10130(%rsp)
movb 107(%rsp), %al
movb %al, 10131(%rsp)
movb 108(%rsp), %al
movb %al, 10132(%rsp)
movb 109(%rsp), %al
movb %al, 10133(%rsp)
movb 110(%rsp), %al
movb %al, 10134(%rsp)
movb 111(%rsp), %al
movb %al, 10135(%rsp)
movb 112(%rsp), %al
movb %al, 10136(%rsp)
movb 113(%rsp), %al
movb %al, 10137(%rsp)
movb 114(%rsp), %al
movb %al, 10138(%rsp)
movb 115(%rsp), %al
movb %al, 10139(%rsp)
movb 116(%rsp), %al
movb %al, 10140(%rsp)
movb 117(%rsp), %al
movb %al, 10141(%rsp)
movb 118(%rsp), %al
movb %al, 10142(%rsp)
movb 119(%rsp), %al
movb %al, 10143(%rsp)
movb 120(%rsp), %al
movb %al, 10144(%rsp)
movb 121(%rsp), %al
movb %al, 10145(%rsp)
movb 122(%rsp), %al
movb %al, 10146(%rsp)
movb 123(%rsp), %al
movb %al, 10147(%rsp)
movb 124(%rsp), %al
movb %al, 10148(%rsp)
movb 125(%rsp), %al
movb %al, 10149(%rsp)
movb 126(%rsp), %al
movb %al, 10150(%rsp)
movb 127(%rsp), %al
movb %al, 10151(%rsp)
movq 48(%rsp), %rax
cmpq $0, %rax
je L_crypto_kem_keypair_derand_jazz$187
movb $0, 10152(%rsp)
movb $0, 10153(%rsp)
jmp L_crypto_kem_keypair_derand_jazz$188
L_crypto_kem_keypair_derand_jazz$187:
movb $0, 10152(%rsp)
movb $0, 10153(%rsp)
L_crypto_kem_keypair_derand_jazz$188:
leaq 192(%rsp), %rcx
leaq 10120(%rsp), %rdx
call L_shake128_absorb34$1
L_crypto_kem_keypair_derand_jazz$186:
movq $0, %rax
jmp L_crypto_kem_keypair_derand_jazz$184
L_crypto_kem_keypair_derand_jazz$185:
movq %rax, 392(%rsp,%rax,8)
incq %rax
L_crypto_kem_keypair_derand_jazz$184:
cmpq $64, %rax
jb L_crypto_kem_keypair_derand_jazz$185
movq $0, %rax
jmp L_crypto_kem_keypair_derand_jazz$176
L_crypto_kem_keypair_derand_jazz$177:
movq %rax, 56(%rsp)
leaq 192(%rsp), %rcx
leaq 10154(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
L_crypto_kem_keypair_derand_jazz$183:
leaq 8(%rsp), %rsp
movq 56(%rsp), %rax
movq $0, %rcx
L_crypto_kem_keypair_derand_jazz$178:
movzbw 10154(%rsp,%rcx), %dx
incq %rcx
movzbw 10154(%rsp,%rcx), %si
movw %si, %di
shrw $4, %di
andw $15, %si
shlw $8, %si
orw %si, %dx
incq %rcx
movzbw 10154(%rsp,%rcx), %si
shlw $4, %si
orw %si, %di
incq %rcx
cmpw $3329, %dx
jnb L_crypto_kem_keypair_derand_jazz$181
cmpq $256, %rax
jnb L_crypto_kem_keypair_derand_jazz$181
movw %dx, 392(%rsp,%rax,2)
incq %rax
L_crypto_kem_keypair_derand_jazz$182:
L_crypto_kem_keypair_derand_jazz$181:
cmpw $3329, %di
jnb L_crypto_kem_keypair_derand_jazz$179
cmpq $256, %rax
jnb L_crypto_kem_keypair_derand_jazz$179
movw %di, 392(%rsp,%rax,2)
incq %rax
L_crypto_kem_keypair_derand_jazz$180:
L_crypto_kem_keypair_derand_jazz$179:
cmpq $166, %rcx
jb L_crypto_kem_keypair_derand_jazz$178
L_crypto_kem_keypair_derand_jazz$176:
cmpq $256, %rax
jb L_crypto_kem_keypair_derand_jazz$177
movq $0, %rax
movq $0, %rcx
jmp L_crypto_kem_keypair_derand_jazz$174
L_crypto_kem_keypair_derand_jazz$175:
movw 392(%rsp,%rax,2), %dx
movw %dx, 5512(%rsp,%rcx,2)
incq %rax
incq %rcx
L_crypto_kem_keypair_derand_jazz$174:
cmpq $256, %rax
jb L_crypto_kem_keypair_derand_jazz$175
movq 48(%rsp), %rax
cmpq $0, %rax
je L_crypto_kem_keypair_derand_jazz$172
movb $0, 10152(%rsp)
movb $1, 10153(%rsp)
jmp L_crypto_kem_keypair_derand_jazz$173
L_crypto_kem_keypair_derand_jazz$172:
movb $1, 10152(%rsp)
movb $0, 10153(%rsp)
L_crypto_kem_keypair_derand_jazz$173:
leaq 192(%rsp), %rcx
leaq 10120(%rsp), %rdx
call L_shake128_absorb34$1
L_crypto_kem_keypair_derand_jazz$171:
movq $0, %rax
jmp L_crypto_kem_keypair_derand_jazz$169
L_crypto_kem_keypair_derand_jazz$170:
movq %rax, 392(%rsp,%rax,8)
incq %rax
L_crypto_kem_keypair_derand_jazz$169:
cmpq $64, %rax
jb L_crypto_kem_keypair_derand_jazz$170
movq $0, %rax
jmp L_crypto_kem_keypair_derand_jazz$161
L_crypto_kem_keypair_derand_jazz$162:
movq %rax, 56(%rsp)
leaq 192(%rsp), %rcx
leaq 10154(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
L_crypto_kem_keypair_derand_jazz$168:
leaq 8(%rsp), %rsp
movq 56(%rsp), %rax
movq $0, %rcx
L_crypto_kem_keypair_derand_jazz$163:
movzbw 10154(%rsp,%rcx), %dx
incq %rcx
movzbw 10154(%rsp,%rcx), %si
movw %si, %di
shrw $4, %di
andw $15, %si
shlw $8, %si
orw %si, %dx
incq %rcx
movzbw 10154(%rsp,%rcx), %si
shlw $4, %si
orw %si, %di
incq %rcx
cmpw $3329, %dx
jnb L_crypto_kem_keypair_derand_jazz$166
cmpq $256, %rax
jnb L_crypto_kem_keypair_derand_jazz$166
movw %dx, 392(%rsp,%rax,2)
incq %rax
L_crypto_kem_keypair_derand_jazz$167:
L_crypto_kem_keypair_derand_jazz$166:
cmpw $3329, %di
jnb L_crypto_kem_keypair_derand_jazz$164
cmpq $256, %rax
jnb L_crypto_kem_keypair_derand_jazz$164
movw %di, 392(%rsp,%rax,2)
incq %rax
L_crypto_kem_keypair_derand_jazz$165:
L_crypto_kem_keypair_derand_jazz$164:
cmpq $166, %rcx
jb L_crypto_kem_keypair_derand_jazz$163
L_crypto_kem_keypair_derand_jazz$161:
cmpq $256, %rax
jb L_crypto_kem_keypair_derand_jazz$162
movq $0, %rax
movq $256, %rcx
jmp L_crypto_kem_keypair_derand_jazz$159
L_crypto_kem_keypair_derand_jazz$160:
movw 392(%rsp,%rax,2), %dx
movw %dx, 5512(%rsp,%rcx,2)
incq %rax
incq %rcx
L_crypto_kem_keypair_derand_jazz$159:
cmpq $256, %rax
jb L_crypto_kem_keypair_derand_jazz$160
movq 48(%rsp), %rax
cmpq $0, %rax
je L_crypto_kem_keypair_derand_jazz$157
movb $0, 10152(%rsp)
movb $2, 10153(%rsp)
jmp L_crypto_kem_keypair_derand_jazz$158
L_crypto_kem_keypair_derand_jazz$157:
movb $2, 10152(%rsp)
movb $0, 10153(%rsp)
L_crypto_kem_keypair_derand_jazz$158:
leaq 192(%rsp), %rcx
leaq 10120(%rsp), %rdx
call L_shake128_absorb34$1
L_crypto_kem_keypair_derand_jazz$156:
movq $0, %rax
jmp L_crypto_kem_keypair_derand_jazz$154
L_crypto_kem_keypair_derand_jazz$155:
movq %rax, 392(%rsp,%rax,8)
incq %rax
L_crypto_kem_keypair_derand_jazz$154:
cmpq $64, %rax
jb L_crypto_kem_keypair_derand_jazz$155
movq $0, %rax
jmp L_crypto_kem_keypair_derand_jazz$146
L_crypto_kem_keypair_derand_jazz$147:
movq %rax, 56(%rsp)
leaq 192(%rsp), %rcx
leaq 10154(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
L_crypto_kem_keypair_derand_jazz$153:
leaq 8(%rsp), %rsp
movq 56(%rsp), %rax
movq $0, %rcx
L_crypto_kem_keypair_derand_jazz$148:
movzbw 10154(%rsp,%rcx), %dx
incq %rcx
movzbw 10154(%rsp,%rcx), %si
movw %si, %di
shrw $4, %di
andw $15, %si
shlw $8, %si
orw %si, %dx
incq %rcx
movzbw 10154(%rsp,%rcx), %si
shlw $4, %si
orw %si, %di
incq %rcx
cmpw $3329, %dx
jnb L_crypto_kem_keypair_derand_jazz$151
cmpq $256, %rax
jnb L_crypto_kem_keypair_derand_jazz$151
movw %dx, 392(%rsp,%rax,2)
incq %rax
L_crypto_kem_keypair_derand_jazz$152:
L_crypto_kem_keypair_derand_jazz$151:
cmpw $3329, %di
jnb L_crypto_kem_keypair_derand_jazz$149
cmpq $256, %rax
jnb L_crypto_kem_keypair_derand_jazz$149
movw %di, 392(%rsp,%rax,2)
incq %rax
L_crypto_kem_keypair_derand_jazz$150:
L_crypto_kem_keypair_derand_jazz$149:
cmpq $166, %rcx
jb L_crypto_kem_keypair_derand_jazz$148
L_crypto_kem_keypair_derand_jazz$146:
cmpq $256, %rax
jb L_crypto_kem_keypair_derand_jazz$147
movq $0, %rax
movq $512, %rcx
jmp L_crypto_kem_keypair_derand_jazz$144
L_crypto_kem_keypair_derand_jazz$145:
movw 392(%rsp,%rax,2), %dx
movw %dx, 5512(%rsp,%rcx,2)
incq %rax
incq %rcx
L_crypto_kem_keypair_derand_jazz$144:
cmpq $256, %rax
jb L_crypto_kem_keypair_derand_jazz$145
movq 48(%rsp), %rax
cmpq $0, %rax
je L_crypto_kem_keypair_derand_jazz$142
movb $1, 10152(%rsp)
movb $0, 10153(%rsp)
jmp L_crypto_kem_keypair_derand_jazz$143
L_crypto_kem_keypair_derand_jazz$142:
movb $0, 10152(%rsp)
movb $1, 10153(%rsp)
L_crypto_kem_keypair_derand_jazz$143:
leaq 192(%rsp), %rcx
leaq 10120(%rsp), %rdx
call L_shake128_absorb34$1
L_crypto_kem_keypair_derand_jazz$141:
movq $0, %rax
jmp L_crypto_kem_keypair_derand_jazz$139
L_crypto_kem_keypair_derand_jazz$140:
movq %rax, 392(%rsp,%rax,8)
incq %rax
L_crypto_kem_keypair_derand_jazz$139:
cmpq $64, %rax
jb L_crypto_kem_keypair_derand_jazz$140
movq $0, %rax
jmp L_crypto_kem_keypair_derand_jazz$131
L_crypto_kem_keypair_derand_jazz$132:
movq %rax, 56(%rsp)
leaq 192(%rsp), %rcx
leaq 10154(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
L_crypto_kem_keypair_derand_jazz$138:
leaq 8(%rsp), %rsp
movq 56(%rsp), %rax
movq $0, %rcx
L_crypto_kem_keypair_derand_jazz$133:
movzbw 10154(%rsp,%rcx), %dx
incq %rcx
movzbw 10154(%rsp,%rcx), %si
movw %si, %di
shrw $4, %di
andw $15, %si
shlw $8, %si
orw %si, %dx
incq %rcx
movzbw 10154(%rsp,%rcx), %si
shlw $4, %si
orw %si, %di
incq %rcx
cmpw $3329, %dx
jnb L_crypto_kem_keypair_derand_jazz$136
cmpq $256, %rax
jnb L_crypto_kem_keypair_derand_jazz$136
movw %dx, 392(%rsp,%rax,2)
incq %rax
L_crypto_kem_keypair_derand_jazz$137:
L_crypto_kem_keypair_derand_jazz$136:
cmpw $3329, %di
jnb L_crypto_kem_keypair_derand_jazz$134
cmpq $256, %rax
jnb L_crypto_kem_keypair_derand_jazz$134
movw %di, 392(%rsp,%rax,2)
incq %rax
L_crypto_kem_keypair_derand_jazz$135:
L_crypto_kem_keypair_derand_jazz$134:
cmpq $166, %rcx
jb L_crypto_kem_keypair_derand_jazz$133
L_crypto_kem_keypair_derand_jazz$131:
cmpq $256, %rax
jb L_crypto_kem_keypair_derand_jazz$132
movq $0, %rax
movq $768, %rcx
jmp L_crypto_kem_keypair_derand_jazz$129
L_crypto_kem_keypair_derand_jazz$130:
movw 392(%rsp,%rax,2), %dx
movw %dx, 5512(%rsp,%rcx,2)
incq %rax
incq %rcx
L_crypto_kem_keypair_derand_jazz$129:
cmpq $256, %rax
jb L_crypto_kem_keypair_derand_jazz$130
movq 48(%rsp), %rax
cmpq $0, %rax
je L_crypto_kem_keypair_derand_jazz$127
movb $1, 10152(%rsp)
movb $1, 10153(%rsp)
jmp L_crypto_kem_keypair_derand_jazz$128
L_crypto_kem_keypair_derand_jazz$127:
movb $1, 10152(%rsp)
movb $1, 10153(%rsp)
L_crypto_kem_keypair_derand_jazz$128:
leaq 192(%rsp), %rcx
leaq 10120(%rsp), %rdx
call L_shake128_absorb34$1
L_crypto_kem_keypair_derand_jazz$126:
movq $0, %rax
jmp L_crypto_kem_keypair_derand_jazz$124
L_crypto_kem_keypair_derand_jazz$125:
movq %rax, 392(%rsp,%rax,8)
incq %rax
L_crypto_kem_keypair_derand_jazz$124:
cmpq $64, %rax
jb L_crypto_kem_keypair_derand_jazz$125
movq $0, %rax
jmp L_crypto_kem_keypair_derand_jazz$116
L_crypto_kem_keypair_derand_jazz$117:
movq %rax, 56(%rsp)
leaq 192(%rsp), %rcx
leaq 10154(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
L_crypto_kem_keypair_derand_jazz$123:
leaq 8(%rsp), %rsp
movq 56(%rsp), %rax
movq $0, %rcx
L_crypto_kem_keypair_derand_jazz$118:
movzbw 10154(%rsp,%rcx), %dx
incq %rcx
movzbw 10154(%rsp,%rcx), %si
movw %si, %di
shrw $4, %di
andw $15, %si
shlw $8, %si
orw %si, %dx
incq %rcx
movzbw 10154(%rsp,%rcx), %si
shlw $4, %si
orw %si, %di
incq %rcx
cmpw $3329, %dx
jnb L_crypto_kem_keypair_derand_jazz$121
cmpq $256, %rax
jnb L_crypto_kem_keypair_derand_jazz$121
movw %dx, 392(%rsp,%rax,2)
incq %rax
L_crypto_kem_keypair_derand_jazz$122:
L_crypto_kem_keypair_derand_jazz$121:
cmpw $3329, %di
jnb L_crypto_kem_keypair_derand_jazz$119
cmpq $256, %rax
jnb L_crypto_kem_keypair_derand_jazz$119
movw %di, 392(%rsp,%rax,2)
incq %rax
L_crypto_kem_keypair_derand_jazz$120:
L_crypto_kem_keypair_derand_jazz$119:
cmpq $166, %rcx
jb L_crypto_kem_keypair_derand_jazz$118
L_crypto_kem_keypair_derand_jazz$116:
cmpq $256, %rax
jb L_crypto_kem_keypair_derand_jazz$117
movq $0, %rax
movq $1024, %rcx
jmp L_crypto_kem_keypair_derand_jazz$114
L_crypto_kem_keypair_derand_jazz$115:
movw 392(%rsp,%rax,2), %dx
movw %dx, 5512(%rsp,%rcx,2)
incq %rax
incq %rcx
L_crypto_kem_keypair_derand_jazz$114:
cmpq $256, %rax
jb L_crypto_kem_keypair_derand_jazz$115
movq 48(%rsp), %rax
cmpq $0, %rax
je L_crypto_kem_keypair_derand_jazz$112
movb $1, 10152(%rsp)
movb $2, 10153(%rsp)
jmp L_crypto_kem_keypair_derand_jazz$113
L_crypto_kem_keypair_derand_jazz$112:
movb $2, 10152(%rsp)
movb $1, 10153(%rsp)
L_crypto_kem_keypair_derand_jazz$113:
leaq 192(%rsp), %rcx
leaq 10120(%rsp), %rdx
call L_shake128_absorb34$1
L_crypto_kem_keypair_derand_jazz$111:
movq $0, %rax
jmp L_crypto_kem_keypair_derand_jazz$109
L_crypto_kem_keypair_derand_jazz$110:
movq %rax, 392(%rsp,%rax,8)
incq %rax
L_crypto_kem_keypair_derand_jazz$109:
cmpq $64, %rax
jb L_crypto_kem_keypair_derand_jazz$110
movq $0, %rax
jmp L_crypto_kem_keypair_derand_jazz$101
L_crypto_kem_keypair_derand_jazz$102:
movq %rax, 56(%rsp)
leaq 192(%rsp), %rcx
leaq 10154(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
L_crypto_kem_keypair_derand_jazz$108:
leaq 8(%rsp), %rsp
movq 56(%rsp), %rax
movq $0, %rcx
L_crypto_kem_keypair_derand_jazz$103:
movzbw 10154(%rsp,%rcx), %dx
incq %rcx
movzbw 10154(%rsp,%rcx), %si
movw %si, %di
shrw $4, %di
andw $15, %si
shlw $8, %si
orw %si, %dx
incq %rcx
movzbw 10154(%rsp,%rcx), %si
shlw $4, %si
orw %si, %di
incq %rcx
cmpw $3329, %dx
jnb L_crypto_kem_keypair_derand_jazz$106
cmpq $256, %rax
jnb L_crypto_kem_keypair_derand_jazz$106
movw %dx, 392(%rsp,%rax,2)
incq %rax
L_crypto_kem_keypair_derand_jazz$107:
L_crypto_kem_keypair_derand_jazz$106:
cmpw $3329, %di
jnb L_crypto_kem_keypair_derand_jazz$104
cmpq $256, %rax
jnb L_crypto_kem_keypair_derand_jazz$104
movw %di, 392(%rsp,%rax,2)
incq %rax
L_crypto_kem_keypair_derand_jazz$105:
L_crypto_kem_keypair_derand_jazz$104:
cmpq $166, %rcx
jb L_crypto_kem_keypair_derand_jazz$103
L_crypto_kem_keypair_derand_jazz$101:
cmpq $256, %rax
jb L_crypto_kem_keypair_derand_jazz$102
movq $0, %rax
movq $1280, %rcx
jmp L_crypto_kem_keypair_derand_jazz$99
L_crypto_kem_keypair_derand_jazz$100:
movw 392(%rsp,%rax,2), %dx
movw %dx, 5512(%rsp,%rcx,2)
incq %rax
incq %rcx
L_crypto_kem_keypair_derand_jazz$99:
cmpq $256, %rax
jb L_crypto_kem_keypair_derand_jazz$100
movq 48(%rsp), %rax
cmpq $0, %rax
je L_crypto_kem_keypair_derand_jazz$97
movb $2, 10152(%rsp)
movb $0, 10153(%rsp)
jmp L_crypto_kem_keypair_derand_jazz$98
L_crypto_kem_keypair_derand_jazz$97:
movb $0, 10152(%rsp)
movb $2, 10153(%rsp)
L_crypto_kem_keypair_derand_jazz$98:
leaq 192(%rsp), %rcx
leaq 10120(%rsp), %rdx
call L_shake128_absorb34$1
L_crypto_kem_keypair_derand_jazz$96:
movq $0, %rax
jmp L_crypto_kem_keypair_derand_jazz$94
L_crypto_kem_keypair_derand_jazz$95:
movq %rax, 392(%rsp,%rax,8)
incq %rax
L_crypto_kem_keypair_derand_jazz$94:
cmpq $64, %rax
jb L_crypto_kem_keypair_derand_jazz$95
movq $0, %rax
jmp L_crypto_kem_keypair_derand_jazz$86
L_crypto_kem_keypair_derand_jazz$87:
movq %rax, 56(%rsp)
leaq 192(%rsp), %rcx
leaq 10154(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
L_crypto_kem_keypair_derand_jazz$93:
leaq 8(%rsp), %rsp
movq 56(%rsp), %rax
movq $0, %rcx
L_crypto_kem_keypair_derand_jazz$88:
movzbw 10154(%rsp,%rcx), %dx
incq %rcx
movzbw 10154(%rsp,%rcx), %si
movw %si, %di
shrw $4, %di
andw $15, %si
shlw $8, %si
orw %si, %dx
incq %rcx
movzbw 10154(%rsp,%rcx), %si
shlw $4, %si
orw %si, %di
incq %rcx
cmpw $3329, %dx
jnb L_crypto_kem_keypair_derand_jazz$91
cmpq $256, %rax
jnb L_crypto_kem_keypair_derand_jazz$91
movw %dx, 392(%rsp,%rax,2)
incq %rax
L_crypto_kem_keypair_derand_jazz$92:
L_crypto_kem_keypair_derand_jazz$91:
cmpw $3329, %di
jnb L_crypto_kem_keypair_derand_jazz$89
cmpq $256, %rax
jnb L_crypto_kem_keypair_derand_jazz$89
movw %di, 392(%rsp,%rax,2)
incq %rax
L_crypto_kem_keypair_derand_jazz$90:
L_crypto_kem_keypair_derand_jazz$89:
cmpq $166, %rcx
jb L_crypto_kem_keypair_derand_jazz$88
L_crypto_kem_keypair_derand_jazz$86:
cmpq $256, %rax
jb L_crypto_kem_keypair_derand_jazz$87
movq $0, %rax
movq $1536, %rcx
jmp L_crypto_kem_keypair_derand_jazz$84
L_crypto_kem_keypair_derand_jazz$85:
movw 392(%rsp,%rax,2), %dx
movw %dx, 5512(%rsp,%rcx,2)
incq %rax
incq %rcx
L_crypto_kem_keypair_derand_jazz$84:
cmpq $256, %rax
jb L_crypto_kem_keypair_derand_jazz$85
movq 48(%rsp), %rax
cmpq $0, %rax
je L_crypto_kem_keypair_derand_jazz$82
movb $2, 10152(%rsp)
movb $1, 10153(%rsp)
jmp L_crypto_kem_keypair_derand_jazz$83
L_crypto_kem_keypair_derand_jazz$82:
movb $1, 10152(%rsp)
movb $2, 10153(%rsp)
L_crypto_kem_keypair_derand_jazz$83:
leaq 192(%rsp), %rcx
leaq 10120(%rsp), %rdx
call L_shake128_absorb34$1
L_crypto_kem_keypair_derand_jazz$81:
movq $0, %rax
jmp L_crypto_kem_keypair_derand_jazz$79
L_crypto_kem_keypair_derand_jazz$80:
movq %rax, 392(%rsp,%rax,8)
incq %rax
L_crypto_kem_keypair_derand_jazz$79:
cmpq $64, %rax
jb L_crypto_kem_keypair_derand_jazz$80
movq $0, %rax
jmp L_crypto_kem_keypair_derand_jazz$71
L_crypto_kem_keypair_derand_jazz$72:
movq %rax, 56(%rsp)
leaq 192(%rsp), %rcx
leaq 10154(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
L_crypto_kem_keypair_derand_jazz$78:
leaq 8(%rsp), %rsp
movq 56(%rsp), %rax
movq $0, %rcx
L_crypto_kem_keypair_derand_jazz$73:
movzbw 10154(%rsp,%rcx), %dx
incq %rcx
movzbw 10154(%rsp,%rcx), %si
movw %si, %di
shrw $4, %di
andw $15, %si
shlw $8, %si
orw %si, %dx
incq %rcx
movzbw 10154(%rsp,%rcx), %si
shlw $4, %si
orw %si, %di
incq %rcx
cmpw $3329, %dx
jnb L_crypto_kem_keypair_derand_jazz$76
cmpq $256, %rax
jnb L_crypto_kem_keypair_derand_jazz$76
movw %dx, 392(%rsp,%rax,2)
incq %rax
L_crypto_kem_keypair_derand_jazz$77:
L_crypto_kem_keypair_derand_jazz$76:
cmpw $3329, %di
jnb L_crypto_kem_keypair_derand_jazz$74
cmpq $256, %rax
jnb L_crypto_kem_keypair_derand_jazz$74
movw %di, 392(%rsp,%rax,2)
incq %rax
L_crypto_kem_keypair_derand_jazz$75:
L_crypto_kem_keypair_derand_jazz$74:
cmpq $166, %rcx
jb L_crypto_kem_keypair_derand_jazz$73
L_crypto_kem_keypair_derand_jazz$71:
cmpq $256, %rax
jb L_crypto_kem_keypair_derand_jazz$72
movq $0, %rax
movq $1792, %rcx
jmp L_crypto_kem_keypair_derand_jazz$69
L_crypto_kem_keypair_derand_jazz$70:
movw 392(%rsp,%rax,2), %dx
movw %dx, 5512(%rsp,%rcx,2)
incq %rax
incq %rcx
L_crypto_kem_keypair_derand_jazz$69:
cmpq $256, %rax
jb L_crypto_kem_keypair_derand_jazz$70
movq 48(%rsp), %rax
cmpq $0, %rax
je L_crypto_kem_keypair_derand_jazz$67
movb $2, 10152(%rsp)
movb $2, 10153(%rsp)
jmp L_crypto_kem_keypair_derand_jazz$68
L_crypto_kem_keypair_derand_jazz$67:
movb $2, 10152(%rsp)
movb $2, 10153(%rsp)
L_crypto_kem_keypair_derand_jazz$68:
leaq 192(%rsp), %rcx
leaq 10120(%rsp), %rdx
call L_shake128_absorb34$1
L_crypto_kem_keypair_derand_jazz$66:
movq $0, %rax
jmp L_crypto_kem_keypair_derand_jazz$64
L_crypto_kem_keypair_derand_jazz$65:
movq %rax, 392(%rsp,%rax,8)
incq %rax
L_crypto_kem_keypair_derand_jazz$64:
cmpq $64, %rax
jb L_crypto_kem_keypair_derand_jazz$65
movq $0, %rax
jmp L_crypto_kem_keypair_derand_jazz$56
L_crypto_kem_keypair_derand_jazz$57:
movq %rax, 48(%rsp)
leaq 192(%rsp), %rcx
leaq 10154(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
L_crypto_kem_keypair_derand_jazz$63:
leaq 8(%rsp), %rsp
movq 48(%rsp), %rax
movq $0, %rcx
L_crypto_kem_keypair_derand_jazz$58:
movzbw 10154(%rsp,%rcx), %dx
incq %rcx
movzbw 10154(%rsp,%rcx), %si
movw %si, %di
shrw $4, %di
andw $15, %si
shlw $8, %si
orw %si, %dx
incq %rcx
movzbw 10154(%rsp,%rcx), %si
shlw $4, %si
orw %si, %di
incq %rcx
cmpw $3329, %dx
jnb L_crypto_kem_keypair_derand_jazz$61
cmpq $256, %rax
jnb L_crypto_kem_keypair_derand_jazz$61
movw %dx, 392(%rsp,%rax,2)
incq %rax
L_crypto_kem_keypair_derand_jazz$62:
L_crypto_kem_keypair_derand_jazz$61:
cmpw $3329, %di
jnb L_crypto_kem_keypair_derand_jazz$59
cmpq $256, %rax
jnb L_crypto_kem_keypair_derand_jazz$59
movw %di, 392(%rsp,%rax,2)
incq %rax
L_crypto_kem_keypair_derand_jazz$60:
L_crypto_kem_keypair_derand_jazz$59:
cmpq $166, %rcx
jb L_crypto_kem_keypair_derand_jazz$58
L_crypto_kem_keypair_derand_jazz$56:
cmpq $256, %rax
jb L_crypto_kem_keypair_derand_jazz$57
movq $0, %rax
movq $2048, %rcx
jmp L_crypto_kem_keypair_derand_jazz$54
L_crypto_kem_keypair_derand_jazz$55:
movw 392(%rsp,%rax,2), %dx
movw %dx, 5512(%rsp,%rcx,2)
incq %rax
incq %rcx
L_crypto_kem_keypair_derand_jazz$54:
cmpq $256, %rax
jb L_crypto_kem_keypair_derand_jazz$55
movb $0, %cl
leaq 904(%rsp), %rdx
leaq 64(%rsp), %rax
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
L_crypto_kem_keypair_derand_jazz$53:
leaq 176(%rsp), %rsp
movb $1, %cl
leaq 1416(%rsp), %rdx
leaq 64(%rsp), %rax
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
L_crypto_kem_keypair_derand_jazz$52:
leaq 176(%rsp), %rsp
movb $2, %cl
leaq 1928(%rsp), %rdx
leaq 64(%rsp), %rax
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
L_crypto_kem_keypair_derand_jazz$51:
leaq 176(%rsp), %rsp
movb $3, %cl
leaq 2440(%rsp), %rdx
leaq 64(%rsp), %rax
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
L_crypto_kem_keypair_derand_jazz$50:
leaq 176(%rsp), %rsp
movb $4, %cl
leaq 2952(%rsp), %rdx
leaq 64(%rsp), %rax
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
L_crypto_kem_keypair_derand_jazz$49:
leaq 176(%rsp), %rsp
movb $5, %cl
leaq 3464(%rsp), %rdx
leaq 64(%rsp), %rax
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
L_crypto_kem_keypair_derand_jazz$48:
leaq 176(%rsp), %rsp
leaq 904(%rsp), %rcx
call L_poly_ntt$1
L_crypto_kem_keypair_derand_jazz$47:
leaq 1416(%rsp), %rcx
call L_poly_ntt$1
L_crypto_kem_keypair_derand_jazz$46:
leaq 1928(%rsp), %rcx
call L_poly_ntt$1
L_crypto_kem_keypair_derand_jazz$45:
leaq 2440(%rsp), %rcx
call L_poly_ntt$1
L_crypto_kem_keypair_derand_jazz$44:
leaq 2952(%rsp), %rcx
call L_poly_ntt$1
L_crypto_kem_keypair_derand_jazz$43:
leaq 3464(%rsp), %rcx
call L_poly_ntt$1
L_crypto_kem_keypair_derand_jazz$42:
leaq 3976(%rsp), %rdi
leaq 5512(%rsp), %rcx
leaq 904(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_keypair_derand_jazz$41:
leaq 16(%rsp), %rsp
leaq 392(%rsp), %rdi
leaq 6024(%rsp), %rcx
leaq 1416(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_keypair_derand_jazz$40:
leaq 16(%rsp), %rsp
leaq 3976(%rsp), %rcx
leaq 392(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_keypair_derand_jazz$39:
leaq 392(%rsp), %rdi
leaq 6536(%rsp), %rcx
leaq 1928(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_keypair_derand_jazz$38:
leaq 16(%rsp), %rsp
leaq 3976(%rsp), %rcx
leaq 392(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_keypair_derand_jazz$37:
leaq 3976(%rsp), %rax
movq $0, %rcx
jmp L_crypto_kem_keypair_derand_jazz$35
L_crypto_kem_keypair_derand_jazz$36:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
L_crypto_kem_keypair_derand_jazz$35:
cmpq $256, %rcx
jb L_crypto_kem_keypair_derand_jazz$36
leaq 3976(%rsp), %rax
call L_poly_frommont$1
L_crypto_kem_keypair_derand_jazz$34:
leaq 4488(%rsp), %rdi
leaq 7048(%rsp), %rcx
leaq 904(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_keypair_derand_jazz$33:
leaq 16(%rsp), %rsp
leaq 392(%rsp), %rdi
leaq 7560(%rsp), %rcx
leaq 1416(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_keypair_derand_jazz$32:
leaq 16(%rsp), %rsp
leaq 4488(%rsp), %rcx
leaq 392(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_keypair_derand_jazz$31:
leaq 392(%rsp), %rdi
leaq 8072(%rsp), %rcx
leaq 1928(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_keypair_derand_jazz$30:
leaq 16(%rsp), %rsp
leaq 4488(%rsp), %rcx
leaq 392(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_keypair_derand_jazz$29:
leaq 4488(%rsp), %rax
movq $0, %rcx
jmp L_crypto_kem_keypair_derand_jazz$27
L_crypto_kem_keypair_derand_jazz$28:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
L_crypto_kem_keypair_derand_jazz$27:
cmpq $256, %rcx
jb L_crypto_kem_keypair_derand_jazz$28
leaq 4488(%rsp), %rax
call L_poly_frommont$1
L_crypto_kem_keypair_derand_jazz$26:
leaq 5000(%rsp), %rdi
leaq 8584(%rsp), %rcx
leaq 904(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_keypair_derand_jazz$25:
leaq 16(%rsp), %rsp
leaq 392(%rsp), %rdi
leaq 9096(%rsp), %rcx
leaq 1416(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_keypair_derand_jazz$24:
leaq 16(%rsp), %rsp
leaq 5000(%rsp), %rcx
leaq 392(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_keypair_derand_jazz$23:
leaq 392(%rsp), %rdi
leaq 9608(%rsp), %rcx
leaq 1928(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_keypair_derand_jazz$22:
leaq 16(%rsp), %rsp
leaq 5000(%rsp), %rcx
leaq 392(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_keypair_derand_jazz$21:
leaq 5000(%rsp), %rax
movq $0, %rcx
jmp L_crypto_kem_keypair_derand_jazz$19
L_crypto_kem_keypair_derand_jazz$20:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
L_crypto_kem_keypair_derand_jazz$19:
cmpq $256, %rcx
jb L_crypto_kem_keypair_derand_jazz$20
leaq 5000(%rsp), %rax
call L_poly_frommont$1
L_crypto_kem_keypair_derand_jazz$18:
leaq 3976(%rsp), %rcx
leaq 2440(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_keypair_derand_jazz$17:
leaq 4488(%rsp), %rcx
leaq 2952(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_keypair_derand_jazz$16:
leaq 5000(%rsp), %rcx
leaq 3464(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_keypair_derand_jazz$15:
leaq 3976(%rsp), %rax
movq $0, %rcx
jmp L_crypto_kem_keypair_derand_jazz$13
L_crypto_kem_keypair_derand_jazz$14:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
L_crypto_kem_keypair_derand_jazz$13:
cmpq $256, %rcx
jb L_crypto_kem_keypair_derand_jazz$14
leaq 4488(%rsp), %rax
movq $0, %rcx
jmp L_crypto_kem_keypair_derand_jazz$11
L_crypto_kem_keypair_derand_jazz$12:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
L_crypto_kem_keypair_derand_jazz$11:
cmpq $256, %rcx
jb L_crypto_kem_keypair_derand_jazz$12
leaq 5000(%rsp), %rax
movq $0, %rcx
jmp L_crypto_kem_keypair_derand_jazz$9
L_crypto_kem_keypair_derand_jazz$10:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
L_crypto_kem_keypair_derand_jazz$9:
cmpq $256, %rcx
jb L_crypto_kem_keypair_derand_jazz$10
movq 32(%rsp), %rax
movq 40(%rsp), %rcx
movq %rcx, %rdx
leaq 904(%rsp), %rcx
call L_poly_tobytes$1
L_crypto_kem_keypair_derand_jazz$8:
addq $384, %rdx
leaq 1416(%rsp), %rcx
call L_poly_tobytes$1
L_crypto_kem_keypair_derand_jazz$7:
addq $384, %rdx
leaq 1928(%rsp), %rcx
call L_poly_tobytes$1
L_crypto_kem_keypair_derand_jazz$6:
movq %rax, %rdx
leaq 3976(%rsp), %rcx
call L_poly_tobytes$1
L_crypto_kem_keypair_derand_jazz$5:
addq $384, %rdx
leaq 4488(%rsp), %rcx
call L_poly_tobytes$1
L_crypto_kem_keypair_derand_jazz$4:
addq $384, %rdx
leaq 5000(%rsp), %rcx
call L_poly_tobytes$1
L_crypto_kem_keypair_derand_jazz$3:
addq $1152, %rax
movq 96(%rsp), %rcx
movq %rcx, (%rax)
addq $8, %rax
movq 104(%rsp), %rcx
movq %rcx, (%rax)
addq $8, %rax
movq 112(%rsp), %rcx
movq %rcx, (%rax)
addq $8, %rax
movq 120(%rsp), %rcx
movq %rcx, (%rax)
movq 24(%rsp), %rax
addq $1152, %rax
movq 16(%rsp), %rcx
movq (%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 8(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 16(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 24(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 32(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 40(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 48(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 56(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 64(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 72(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 80(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 88(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 96(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 104(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 112(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 120(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 128(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 136(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 144(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 152(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 160(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 168(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 176(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 184(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 192(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 200(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 208(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 216(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 224(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 232(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 240(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 248(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 256(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 264(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 272(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 280(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 288(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 296(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 304(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 312(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 320(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 328(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 336(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 344(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 352(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 360(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 368(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 376(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 384(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 392(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 400(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 408(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 416(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 424(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 432(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 440(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 448(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 456(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 464(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 472(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 480(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 488(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 496(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 504(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 512(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 520(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 528(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 536(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 544(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 552(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 560(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 568(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 576(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 584(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 592(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 600(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 608(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 616(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 624(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 632(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 640(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 648(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 656(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 664(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 672(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 680(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 688(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 696(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 704(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 712(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 720(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 728(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 736(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 744(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 752(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 760(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 768(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 776(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 784(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 792(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 800(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 808(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 816(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 824(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 832(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 840(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 848(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 856(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 864(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 872(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 880(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 888(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 896(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 904(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 912(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 920(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 928(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 936(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 944(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 952(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 960(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 968(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 976(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 984(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 992(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1000(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1008(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1016(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1024(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1032(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1040(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1048(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1056(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1064(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1072(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1080(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1088(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1096(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1104(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1112(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1120(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1128(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1136(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1144(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1152(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1160(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1168(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1176(%rcx), %rcx
movq %rcx, (%rax)
addq $8, %rax
movq %rax, 24(%rsp)
movq 16(%rsp), %rsi
movq $1184, %rax
leaq 96(%rsp), %rcx
leaq -232(%rsp), %rsp
call L_sha3_256$1
L_crypto_kem_keypair_derand_jazz$2:
leaq 232(%rsp), %rsp
movq 24(%rsp), %rax
movq 96(%rsp), %rcx
movq %rcx, (%rax)
addq $8, %rax
movq 104(%rsp), %rcx
movq %rcx, (%rax)
addq $8, %rax
movq 112(%rsp), %rcx
movq %rcx, (%rax)
addq $8, %rax
movq 120(%rsp), %rcx
movq %rcx, (%rax)
addq $8, %rax
movq 8(%rsp), %rcx
leaq 32(%rcx), %rcx
movq (%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 8(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 16(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 24(%rcx), %rcx
movq %rcx, (%rax)
ret
L_i_poly_tomsg$1:
call L_poly_csubq$1
L_i_poly_tomsg$2:
movb $0, %sil
movw (%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 2(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 4(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 6(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 8(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 10(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 12(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 14(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, (%rax)
movb $0, %sil
movw 16(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 18(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 20(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 22(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 24(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 26(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 28(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 30(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 1(%rax)
movb $0, %sil
movw 32(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 34(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 36(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 38(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 40(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 42(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 44(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 46(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 2(%rax)
movb $0, %sil
movw 48(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 50(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 52(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 54(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 56(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 58(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 60(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 62(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 3(%rax)
movb $0, %sil
movw 64(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 66(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 68(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 70(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 72(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 74(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 76(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 78(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 4(%rax)
movb $0, %sil
movw 80(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 82(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 84(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 86(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 88(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 90(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 92(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 94(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 5(%rax)
movb $0, %sil
movw 96(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 98(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 100(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 102(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 104(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 106(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 108(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 110(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 6(%rax)
movb $0, %sil
movw 112(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 114(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 116(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 118(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 120(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 122(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 124(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 126(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 7(%rax)
movb $0, %sil
movw 128(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 130(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 132(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 134(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 136(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 138(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 140(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 142(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 8(%rax)
movb $0, %sil
movw 144(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 146(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 148(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 150(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 152(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 154(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 156(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 158(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 9(%rax)
movb $0, %sil
movw 160(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 162(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 164(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 166(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 168(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 170(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 172(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 174(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 10(%rax)
movb $0, %sil
movw 176(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 178(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 180(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 182(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 184(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 186(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 188(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 190(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 11(%rax)
movb $0, %sil
movw 192(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 194(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 196(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 198(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 200(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 202(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 204(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 206(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 12(%rax)
movb $0, %sil
movw 208(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 210(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 212(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 214(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 216(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 218(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 220(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 222(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 13(%rax)
movb $0, %sil
movw 224(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 226(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 228(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 230(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 232(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 234(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 236(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 238(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 14(%rax)
movb $0, %sil
movw 240(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 242(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 244(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 246(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 248(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 250(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 252(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 254(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 15(%rax)
movb $0, %sil
movw 256(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 258(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 260(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 262(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 264(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 266(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 268(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 270(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 16(%rax)
movb $0, %sil
movw 272(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 274(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 276(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 278(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 280(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 282(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 284(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 286(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 17(%rax)
movb $0, %sil
movw 288(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 290(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 292(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 294(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 296(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 298(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 300(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 302(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 18(%rax)
movb $0, %sil
movw 304(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 306(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 308(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 310(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 312(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 314(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 316(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 318(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 19(%rax)
movb $0, %sil
movw 320(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 322(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 324(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 326(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 328(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 330(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 332(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 334(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 20(%rax)
movb $0, %sil
movw 336(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 338(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 340(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 342(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 344(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 346(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 348(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 350(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 21(%rax)
movb $0, %sil
movw 352(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 354(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 356(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 358(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 360(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 362(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 364(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 366(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 22(%rax)
movb $0, %sil
movw 368(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 370(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 372(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 374(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 376(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 378(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 380(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 382(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 23(%rax)
movb $0, %sil
movw 384(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 386(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 388(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 390(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 392(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 394(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 396(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 398(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 24(%rax)
movb $0, %sil
movw 400(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 402(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 404(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 406(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 408(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 410(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 412(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 414(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 25(%rax)
movb $0, %sil
movw 416(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 418(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 420(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 422(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 424(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 426(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 428(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 430(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 26(%rax)
movb $0, %sil
movw 432(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 434(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 436(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 438(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 440(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 442(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 444(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 446(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 27(%rax)
movb $0, %sil
movw 448(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 450(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 452(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 454(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 456(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 458(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 460(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 462(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 28(%rax)
movb $0, %sil
movw 464(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 466(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 468(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 470(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 472(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 474(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 476(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 478(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 29(%rax)
movb $0, %sil
movw 480(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 482(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 484(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 486(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 488(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 490(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 492(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 494(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 30(%rax)
movb $0, %sil
movw 496(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 498(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 500(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 502(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 504(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 506(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 508(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 510(%rcx), %cx
movzwl %cx, %ecx
shll $1, %ecx
addl $1665, %ecx
imull $80635, %ecx, %ecx
shrl $28, %ecx
andl $1, %ecx
shll $7, %ecx
orb %cl, %sil
movb %sil, 31(%rax)
ret
L_poly_tobytes$1:
call L_poly_csubq$1
L_poly_tobytes$4:
movq $0, %rsi
movq $0, %rdi
jmp L_poly_tobytes$2
L_poly_tobytes$3:
movw (%rcx,%rsi,2), %r8w
incq %rsi
movw (%rcx,%rsi,2), %r9w
incq %rsi
movw %r8w, %r10w
andw $255, %r10w
movb %r10b, (%rdx,%rdi)
incq %rdi
shrw $8, %r8w
movw %r9w, %r10w
andw $15, %r10w
shlw $4, %r10w
orw %r8w, %r10w
movb %r10b, (%rdx,%rdi)
incq %rdi
shrw $4, %r9w
movb %r9b, (%rdx,%rdi)
incq %rdi
L_poly_tobytes$2:
cmpq $256, %rsi
jb L_poly_tobytes$3
ret
L_poly_sub$1:
movq $0, %r8
jmp L_poly_sub$2
L_poly_sub$3:
movw (%rsi,%r8,2), %r9w
movw (%rdi,%r8,2), %r10w
subw %r10w, %r9w
movw %r9w, (%rcx,%r8,2)
incq %r8
L_poly_sub$2:
cmpq $256, %r8
jb L_poly_sub$3
ret
L_poly_ntt$1:
leaq glob_data + 448(%rip), %rsi
movq $0, %rdi
movq $128, %r8
jmp L_poly_ntt$4
L_poly_ntt$5:
movq $0, %r11
jmp L_poly_ntt$6
L_poly_ntt$7:
incq %rdi
movw (%rsi,%rdi,2), %r9w
movq %r11, %r10
leaq (%r11,%r8), %r11
jmp L_poly_ntt$8
L_poly_ntt$9:
leaq (%r10,%r8), %rbx
movw (%rcx,%rbx,2), %bp
movswl %bp, %ebp
movswl %r9w, %r12d
imull %r12d, %ebp
imull $62209, %ebp, %r12d
shll $16, %r12d
sarl $16, %r12d
imull $3329, %r12d, %r12d
subl %r12d, %ebp
sarl $16, %ebp
movw (%rcx,%r10,2), %r12w
movw %r12w, %r13w
subw %bp, %r13w
movw %r13w, (%rcx,%rbx,2)
addw %r12w, %bp
movw %bp, (%rcx,%r10,2)
incq %r10
L_poly_ntt$8:
cmpq %r11, %r10
jb L_poly_ntt$9
leaq (%r10,%r8), %r11
L_poly_ntt$6:
cmpq $256, %r11
jb L_poly_ntt$7
shrq $1, %r8
L_poly_ntt$4:
cmpq $2, %r8
jnb L_poly_ntt$5
movq $0, %rsi
jmp L_poly_ntt$2
L_poly_ntt$3:
movw (%rcx,%rsi,2), %di
movswl %di, %r8d
imull $20159, %r8d, %r8d
sarl $26, %r8d
imull $3329, %r8d, %r8d
subw %r8w, %di
movw %di, (%rcx,%rsi,2)
incq %rsi
L_poly_ntt$2:
cmpq $256, %rsi
jb L_poly_ntt$3
ret
L_poly_invntt$1:
leaq glob_data + 192(%rip), %rsi
movq $0, %rdi
movq $2, %r8
jmp L_poly_invntt$4
L_poly_invntt$5:
movq $0, %r11
jmp L_poly_invntt$6
L_poly_invntt$7:
movw (%rsi,%rdi,2), %r9w
incq %rdi
movq %r11, %r10
leaq (%r11,%r8), %r11
jmp L_poly_invntt$8
L_poly_invntt$9:
leaq (%r10,%r8), %rbx
movw (%rcx,%rbx,2), %bp
movw (%rcx,%r10,2), %r12w
movw %bp, %r13w
addw %r12w, %r13w
movswl %r13w, %r14d
imull $20159, %r14d, %r14d
sarl $26, %r14d
imull $3329, %r14d, %r14d
subw %r14w, %r13w
movw %r13w, (%rcx,%r10,2)
subw %bp, %r12w
movswl %r12w, %ebp
movswl %r9w, %r12d
imull %r12d, %ebp
imull $62209, %ebp, %r12d
shll $16, %r12d
sarl $16, %r12d
imull $3329, %r12d, %r12d
subl %r12d, %ebp
sarl $16, %ebp
movw %bp, (%rcx,%rbx,2)
incq %r10
L_poly_invntt$8:
cmpq %r11, %r10
jb L_poly_invntt$9
leaq (%r10,%r8), %r11
L_poly_invntt$6:
cmpq $256, %r11
jb L_poly_invntt$7
shlq $1, %r8
L_poly_invntt$4:
cmpq $128, %r8
jbe L_poly_invntt$5
movw 254(%rsi), %si
movq $0, %rdi
jmp L_poly_invntt$2
L_poly_invntt$3:
movw (%rcx,%rdi,2), %r8w
movswl %r8w, %r8d
movswl %si, %r9d
imull %r9d, %r8d
imull $62209, %r8d, %r9d
shll $16, %r9d
sarl $16, %r9d
imull $3329, %r9d, %r9d
subl %r9d, %r8d
sarl $16, %r8d
movw %r8w, (%rcx,%rdi,2)
incq %rdi
L_poly_invntt$2:
cmpq $256, %rdi
jb L_poly_invntt$3
ret
L_poly_getnoise$1:
movq %rdx, 8(%rsp)
movb (%rax), %dl
movb %dl, 16(%rsp)
movb 1(%rax), %dl
movb %dl, 17(%rsp)
movb 2(%rax), %dl
movb %dl, 18(%rsp)
movb 3(%rax), %dl
movb %dl, 19(%rsp)
movb 4(%rax), %dl
movb %dl, 20(%rsp)
movb 5(%rax), %dl
movb %dl, 21(%rsp)
movb 6(%rax), %dl
movb %dl, 22(%rsp)
movb 7(%rax), %dl
movb %dl, 23(%rsp)
movb 8(%rax), %dl
movb %dl, 24(%rsp)
movb 9(%rax), %dl
movb %dl, 25(%rsp)
movb 10(%rax), %dl
movb %dl, 26(%rsp)
movb 11(%rax), %dl
movb %dl, 27(%rsp)
movb 12(%rax), %dl
movb %dl, 28(%rsp)
movb 13(%rax), %dl
movb %dl, 29(%rsp)
movb 14(%rax), %dl
movb %dl, 30(%rsp)
movb 15(%rax), %dl
movb %dl, 31(%rsp)
movb 16(%rax), %dl
movb %dl, 32(%rsp)
movb 17(%rax), %dl
movb %dl, 33(%rsp)
movb 18(%rax), %dl
movb %dl, 34(%rsp)
movb 19(%rax), %dl
movb %dl, 35(%rsp)
movb 20(%rax), %dl
movb %dl, 36(%rsp)
movb 21(%rax), %dl
movb %dl, 37(%rsp)
movb 22(%rax), %dl
movb %dl, 38(%rsp)
movb 23(%rax), %dl
movb %dl, 39(%rsp)
movb 24(%rax), %dl
movb %dl, 40(%rsp)
movb 25(%rax), %dl
movb %dl, 41(%rsp)
movb 26(%rax), %dl
movb %dl, 42(%rsp)
movb 27(%rax), %dl
movb %dl, 43(%rsp)
movb 28(%rax), %dl
movb %dl, 44(%rsp)
movb 29(%rax), %dl
movb %dl, 45(%rsp)
movb 30(%rax), %dl
movb %dl, 46(%rsp)
movb 31(%rax), %dl
movb %dl, 47(%rsp)
movb %cl, 48(%rsp)
leaq 49(%rsp), %rcx
leaq 16(%rsp), %rdx
leaq -208(%rsp), %rsp
call L_shake256_128_33$1
L_poly_getnoise$4:
leaq 208(%rsp), %rsp
movq 8(%rsp), %rcx
movq $0, %rdx
movq $0, %rsi
jmp L_poly_getnoise$2
L_poly_getnoise$3:
movb 49(%rsp,%rdx), %dil
movb %dil, %r8b
andb $85, %r8b
shrb $1, %dil
andb $85, %dil
addb %r8b, %dil
movb %dil, %r8b
andb $3, %r8b
movb %dil, %r9b
shrb $2, %r9b
andb $3, %r9b
subb %r9b, %r8b
movsbw %r8b, %r8w
movw %r8w, (%rcx,%rsi,2)
movb %dil, %r8b
shrb $4, %r8b
andb $3, %r8b
shrb $6, %dil
andb $3, %dil
subb %dil, %r8b
movsbw %r8b, %di
incq %rsi
movw %di, (%rcx,%rsi,2)
incq %rdx
incq %rsi
L_poly_getnoise$2:
cmpq $128, %rdx
jb L_poly_getnoise$3
ret
L_i_poly_frommsg$1:
movb (%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, (%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 2(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 4(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 6(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 8(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 10(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 12(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 14(%rdx)
movb 1(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 16(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 18(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 20(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 22(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 24(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 26(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 28(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 30(%rdx)
movb 2(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 32(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 34(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 36(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 38(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 40(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 42(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 44(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 46(%rdx)
movb 3(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 48(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 50(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 52(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 54(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 56(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 58(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 60(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 62(%rdx)
movb 4(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 64(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 66(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 68(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 70(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 72(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 74(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 76(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 78(%rdx)
movb 5(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 80(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 82(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 84(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 86(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 88(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 90(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 92(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 94(%rdx)
movb 6(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 96(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 98(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 100(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 102(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 104(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 106(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 108(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 110(%rdx)
movb 7(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 112(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 114(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 116(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 118(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 120(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 122(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 124(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 126(%rdx)
movb 8(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 128(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 130(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 132(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 134(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 136(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 138(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 140(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 142(%rdx)
movb 9(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 144(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 146(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 148(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 150(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 152(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 154(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 156(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 158(%rdx)
movb 10(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 160(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 162(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 164(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 166(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 168(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 170(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 172(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 174(%rdx)
movb 11(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 176(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 178(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 180(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 182(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 184(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 186(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 188(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 190(%rdx)
movb 12(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 192(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 194(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 196(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 198(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 200(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 202(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 204(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 206(%rdx)
movb 13(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 208(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 210(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 212(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 214(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 216(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 218(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 220(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 222(%rdx)
movb 14(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 224(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 226(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 228(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 230(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 232(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 234(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 236(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 238(%rdx)
movb 15(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 240(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 242(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 244(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 246(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 248(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 250(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 252(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 254(%rdx)
movb 16(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 256(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 258(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 260(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 262(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 264(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 266(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 268(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 270(%rdx)
movb 17(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 272(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 274(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 276(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 278(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 280(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 282(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 284(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 286(%rdx)
movb 18(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 288(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 290(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 292(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 294(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 296(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 298(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 300(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 302(%rdx)
movb 19(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 304(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 306(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 308(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 310(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 312(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 314(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 316(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 318(%rdx)
movb 20(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 320(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 322(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 324(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 326(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 328(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 330(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 332(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 334(%rdx)
movb 21(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 336(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 338(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 340(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 342(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 344(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 346(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 348(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 350(%rdx)
movb 22(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 352(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 354(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 356(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 358(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 360(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 362(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 364(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 366(%rdx)
movb 23(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 368(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 370(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 372(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 374(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 376(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 378(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 380(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 382(%rdx)
movb 24(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 384(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 386(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 388(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 390(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 392(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 394(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 396(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 398(%rdx)
movb 25(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 400(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 402(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 404(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 406(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 408(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 410(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 412(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 414(%rdx)
movb 26(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 416(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 418(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 420(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 422(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 424(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 426(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 428(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 430(%rdx)
movb 27(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 432(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 434(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 436(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 438(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 440(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 442(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 444(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 446(%rdx)
movb 28(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 448(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 450(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 452(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 454(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 456(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 458(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 460(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 462(%rdx)
movb 29(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 464(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 466(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 468(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 470(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 472(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 474(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 476(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 478(%rdx)
movb 30(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 480(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 482(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 484(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 486(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 488(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 490(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 492(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 494(%rdx)
movb 31(%rcx), %cl
movzbw %cl, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 496(%rdx)
shrb $1, %cl
movzbw %cl, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 498(%rdx)
shrb $1, %cl
movzbw %cl, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 500(%rdx)
shrb $1, %cl
movzbw %cl, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 502(%rdx)
shrb $1, %cl
movzbw %cl, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 504(%rdx)
shrb $1, %cl
movzbw %cl, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 506(%rdx)
shrb $1, %cl
movzbw %cl, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 508(%rdx)
shrb $1, %cl
movzbw %cl, %cx
andw $1, %cx
imulw $1665, %cx, %cx
movw %cx, 510(%rdx)
ret
L_poly_frommont$1:
movw $1353, %cx
movq $0, %rdx
jmp L_poly_frommont$2
L_poly_frommont$3:
movw (%rax,%rdx,2), %si
movswl %si, %esi
movswl %cx, %edi
imull %edi, %esi
imull $62209, %esi, %edi
shll $16, %edi
sarl $16, %edi
imull $3329, %edi, %edi
subl %edi, %esi
sarl $16, %esi
movw %si, (%rax,%rdx,2)
incq %rdx
L_poly_frommont$2:
cmpq $256, %rdx
jb L_poly_frommont$3
ret
L_poly_frombytes$1:
movb (%rsi), %r8b
movb 1(%rsi), %r9b
movb 2(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, (%rdi)
movw %r10w, 2(%rdi)
movb 3(%rsi), %r8b
movb 4(%rsi), %r9b
movb 5(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 4(%rdi)
movw %r10w, 6(%rdi)
movb 6(%rsi), %r8b
movb 7(%rsi), %r9b
movb 8(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 8(%rdi)
movw %r10w, 10(%rdi)
movb 9(%rsi), %r8b
movb 10(%rsi), %r9b
movb 11(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 12(%rdi)
movw %r10w, 14(%rdi)
movb 12(%rsi), %r8b
movb 13(%rsi), %r9b
movb 14(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 16(%rdi)
movw %r10w, 18(%rdi)
movb 15(%rsi), %r8b
movb 16(%rsi), %r9b
movb 17(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 20(%rdi)
movw %r10w, 22(%rdi)
movb 18(%rsi), %r8b
movb 19(%rsi), %r9b
movb 20(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 24(%rdi)
movw %r10w, 26(%rdi)
movb 21(%rsi), %r8b
movb 22(%rsi), %r9b
movb 23(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 28(%rdi)
movw %r10w, 30(%rdi)
movb 24(%rsi), %r8b
movb 25(%rsi), %r9b
movb 26(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 32(%rdi)
movw %r10w, 34(%rdi)
movb 27(%rsi), %r8b
movb 28(%rsi), %r9b
movb 29(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 36(%rdi)
movw %r10w, 38(%rdi)
movb 30(%rsi), %r8b
movb 31(%rsi), %r9b
movb 32(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 40(%rdi)
movw %r10w, 42(%rdi)
movb 33(%rsi), %r8b
movb 34(%rsi), %r9b
movb 35(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 44(%rdi)
movw %r10w, 46(%rdi)
movb 36(%rsi), %r8b
movb 37(%rsi), %r9b
movb 38(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 48(%rdi)
movw %r10w, 50(%rdi)
movb 39(%rsi), %r8b
movb 40(%rsi), %r9b
movb 41(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 52(%rdi)
movw %r10w, 54(%rdi)
movb 42(%rsi), %r8b
movb 43(%rsi), %r9b
movb 44(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 56(%rdi)
movw %r10w, 58(%rdi)
movb 45(%rsi), %r8b
movb 46(%rsi), %r9b
movb 47(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 60(%rdi)
movw %r10w, 62(%rdi)
movb 48(%rsi), %r8b
movb 49(%rsi), %r9b
movb 50(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 64(%rdi)
movw %r10w, 66(%rdi)
movb 51(%rsi), %r8b
movb 52(%rsi), %r9b
movb 53(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 68(%rdi)
movw %r10w, 70(%rdi)
movb 54(%rsi), %r8b
movb 55(%rsi), %r9b
movb 56(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 72(%rdi)
movw %r10w, 74(%rdi)
movb 57(%rsi), %r8b
movb 58(%rsi), %r9b
movb 59(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 76(%rdi)
movw %r10w, 78(%rdi)
movb 60(%rsi), %r8b
movb 61(%rsi), %r9b
movb 62(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 80(%rdi)
movw %r10w, 82(%rdi)
movb 63(%rsi), %r8b
movb 64(%rsi), %r9b
movb 65(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 84(%rdi)
movw %r10w, 86(%rdi)
movb 66(%rsi), %r8b
movb 67(%rsi), %r9b
movb 68(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 88(%rdi)
movw %r10w, 90(%rdi)
movb 69(%rsi), %r8b
movb 70(%rsi), %r9b
movb 71(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 92(%rdi)
movw %r10w, 94(%rdi)
movb 72(%rsi), %r8b
movb 73(%rsi), %r9b
movb 74(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 96(%rdi)
movw %r10w, 98(%rdi)
movb 75(%rsi), %r8b
movb 76(%rsi), %r9b
movb 77(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 100(%rdi)
movw %r10w, 102(%rdi)
movb 78(%rsi), %r8b
movb 79(%rsi), %r9b
movb 80(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 104(%rdi)
movw %r10w, 106(%rdi)
movb 81(%rsi), %r8b
movb 82(%rsi), %r9b
movb 83(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 108(%rdi)
movw %r10w, 110(%rdi)
movb 84(%rsi), %r8b
movb 85(%rsi), %r9b
movb 86(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 112(%rdi)
movw %r10w, 114(%rdi)
movb 87(%rsi), %r8b
movb 88(%rsi), %r9b
movb 89(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 116(%rdi)
movw %r10w, 118(%rdi)
movb 90(%rsi), %r8b
movb 91(%rsi), %r9b
movb 92(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 120(%rdi)
movw %r10w, 122(%rdi)
movb 93(%rsi), %r8b
movb 94(%rsi), %r9b
movb 95(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 124(%rdi)
movw %r10w, 126(%rdi)
movb 96(%rsi), %r8b
movb 97(%rsi), %r9b
movb 98(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 128(%rdi)
movw %r10w, 130(%rdi)
movb 99(%rsi), %r8b
movb 100(%rsi), %r9b
movb 101(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 132(%rdi)
movw %r10w, 134(%rdi)
movb 102(%rsi), %r8b
movb 103(%rsi), %r9b
movb 104(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 136(%rdi)
movw %r10w, 138(%rdi)
movb 105(%rsi), %r8b
movb 106(%rsi), %r9b
movb 107(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 140(%rdi)
movw %r10w, 142(%rdi)
movb 108(%rsi), %r8b
movb 109(%rsi), %r9b
movb 110(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 144(%rdi)
movw %r10w, 146(%rdi)
movb 111(%rsi), %r8b
movb 112(%rsi), %r9b
movb 113(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 148(%rdi)
movw %r10w, 150(%rdi)
movb 114(%rsi), %r8b
movb 115(%rsi), %r9b
movb 116(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 152(%rdi)
movw %r10w, 154(%rdi)
movb 117(%rsi), %r8b
movb 118(%rsi), %r9b
movb 119(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 156(%rdi)
movw %r10w, 158(%rdi)
movb 120(%rsi), %r8b
movb 121(%rsi), %r9b
movb 122(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 160(%rdi)
movw %r10w, 162(%rdi)
movb 123(%rsi), %r8b
movb 124(%rsi), %r9b
movb 125(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 164(%rdi)
movw %r10w, 166(%rdi)
movb 126(%rsi), %r8b
movb 127(%rsi), %r9b
movb 128(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 168(%rdi)
movw %r10w, 170(%rdi)
movb 129(%rsi), %r8b
movb 130(%rsi), %r9b
movb 131(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 172(%rdi)
movw %r10w, 174(%rdi)
movb 132(%rsi), %r8b
movb 133(%rsi), %r9b
movb 134(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 176(%rdi)
movw %r10w, 178(%rdi)
movb 135(%rsi), %r8b
movb 136(%rsi), %r9b
movb 137(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 180(%rdi)
movw %r10w, 182(%rdi)
movb 138(%rsi), %r8b
movb 139(%rsi), %r9b
movb 140(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 184(%rdi)
movw %r10w, 186(%rdi)
movb 141(%rsi), %r8b
movb 142(%rsi), %r9b
movb 143(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 188(%rdi)
movw %r10w, 190(%rdi)
movb 144(%rsi), %r8b
movb 145(%rsi), %r9b
movb 146(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 192(%rdi)
movw %r10w, 194(%rdi)
movb 147(%rsi), %r8b
movb 148(%rsi), %r9b
movb 149(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 196(%rdi)
movw %r10w, 198(%rdi)
movb 150(%rsi), %r8b
movb 151(%rsi), %r9b
movb 152(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 200(%rdi)
movw %r10w, 202(%rdi)
movb 153(%rsi), %r8b
movb 154(%rsi), %r9b
movb 155(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 204(%rdi)
movw %r10w, 206(%rdi)
movb 156(%rsi), %r8b
movb 157(%rsi), %r9b
movb 158(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 208(%rdi)
movw %r10w, 210(%rdi)
movb 159(%rsi), %r8b
movb 160(%rsi), %r9b
movb 161(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 212(%rdi)
movw %r10w, 214(%rdi)
movb 162(%rsi), %r8b
movb 163(%rsi), %r9b
movb 164(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 216(%rdi)
movw %r10w, 218(%rdi)
movb 165(%rsi), %r8b
movb 166(%rsi), %r9b
movb 167(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 220(%rdi)
movw %r10w, 222(%rdi)
movb 168(%rsi), %r8b
movb 169(%rsi), %r9b
movb 170(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 224(%rdi)
movw %r10w, 226(%rdi)
movb 171(%rsi), %r8b
movb 172(%rsi), %r9b
movb 173(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 228(%rdi)
movw %r10w, 230(%rdi)
movb 174(%rsi), %r8b
movb 175(%rsi), %r9b
movb 176(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 232(%rdi)
movw %r10w, 234(%rdi)
movb 177(%rsi), %r8b
movb 178(%rsi), %r9b
movb 179(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 236(%rdi)
movw %r10w, 238(%rdi)
movb 180(%rsi), %r8b
movb 181(%rsi), %r9b
movb 182(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 240(%rdi)
movw %r10w, 242(%rdi)
movb 183(%rsi), %r8b
movb 184(%rsi), %r9b
movb 185(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 244(%rdi)
movw %r10w, 246(%rdi)
movb 186(%rsi), %r8b
movb 187(%rsi), %r9b
movb 188(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 248(%rdi)
movw %r10w, 250(%rdi)
movb 189(%rsi), %r8b
movb 190(%rsi), %r9b
movb 191(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 252(%rdi)
movw %r10w, 254(%rdi)
movb 192(%rsi), %r8b
movb 193(%rsi), %r9b
movb 194(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 256(%rdi)
movw %r10w, 258(%rdi)
movb 195(%rsi), %r8b
movb 196(%rsi), %r9b
movb 197(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 260(%rdi)
movw %r10w, 262(%rdi)
movb 198(%rsi), %r8b
movb 199(%rsi), %r9b
movb 200(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 264(%rdi)
movw %r10w, 266(%rdi)
movb 201(%rsi), %r8b
movb 202(%rsi), %r9b
movb 203(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 268(%rdi)
movw %r10w, 270(%rdi)
movb 204(%rsi), %r8b
movb 205(%rsi), %r9b
movb 206(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 272(%rdi)
movw %r10w, 274(%rdi)
movb 207(%rsi), %r8b
movb 208(%rsi), %r9b
movb 209(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 276(%rdi)
movw %r10w, 278(%rdi)
movb 210(%rsi), %r8b
movb 211(%rsi), %r9b
movb 212(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 280(%rdi)
movw %r10w, 282(%rdi)
movb 213(%rsi), %r8b
movb 214(%rsi), %r9b
movb 215(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 284(%rdi)
movw %r10w, 286(%rdi)
movb 216(%rsi), %r8b
movb 217(%rsi), %r9b
movb 218(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 288(%rdi)
movw %r10w, 290(%rdi)
movb 219(%rsi), %r8b
movb 220(%rsi), %r9b
movb 221(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 292(%rdi)
movw %r10w, 294(%rdi)
movb 222(%rsi), %r8b
movb 223(%rsi), %r9b
movb 224(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 296(%rdi)
movw %r10w, 298(%rdi)
movb 225(%rsi), %r8b
movb 226(%rsi), %r9b
movb 227(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 300(%rdi)
movw %r10w, 302(%rdi)
movb 228(%rsi), %r8b
movb 229(%rsi), %r9b
movb 230(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 304(%rdi)
movw %r10w, 306(%rdi)
movb 231(%rsi), %r8b
movb 232(%rsi), %r9b
movb 233(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 308(%rdi)
movw %r10w, 310(%rdi)
movb 234(%rsi), %r8b
movb 235(%rsi), %r9b
movb 236(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 312(%rdi)
movw %r10w, 314(%rdi)
movb 237(%rsi), %r8b
movb 238(%rsi), %r9b
movb 239(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 316(%rdi)
movw %r10w, 318(%rdi)
movb 240(%rsi), %r8b
movb 241(%rsi), %r9b
movb 242(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 320(%rdi)
movw %r10w, 322(%rdi)
movb 243(%rsi), %r8b
movb 244(%rsi), %r9b
movb 245(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 324(%rdi)
movw %r10w, 326(%rdi)
movb 246(%rsi), %r8b
movb 247(%rsi), %r9b
movb 248(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 328(%rdi)
movw %r10w, 330(%rdi)
movb 249(%rsi), %r8b
movb 250(%rsi), %r9b
movb 251(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 332(%rdi)
movw %r10w, 334(%rdi)
movb 252(%rsi), %r8b
movb 253(%rsi), %r9b
movb 254(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 336(%rdi)
movw %r10w, 338(%rdi)
movb 255(%rsi), %r8b
movb 256(%rsi), %r9b
movb 257(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 340(%rdi)
movw %r10w, 342(%rdi)
movb 258(%rsi), %r8b
movb 259(%rsi), %r9b
movb 260(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 344(%rdi)
movw %r10w, 346(%rdi)
movb 261(%rsi), %r8b
movb 262(%rsi), %r9b
movb 263(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 348(%rdi)
movw %r10w, 350(%rdi)
movb 264(%rsi), %r8b
movb 265(%rsi), %r9b
movb 266(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 352(%rdi)
movw %r10w, 354(%rdi)
movb 267(%rsi), %r8b
movb 268(%rsi), %r9b
movb 269(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 356(%rdi)
movw %r10w, 358(%rdi)
movb 270(%rsi), %r8b
movb 271(%rsi), %r9b
movb 272(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 360(%rdi)
movw %r10w, 362(%rdi)
movb 273(%rsi), %r8b
movb 274(%rsi), %r9b
movb 275(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 364(%rdi)
movw %r10w, 366(%rdi)
movb 276(%rsi), %r8b
movb 277(%rsi), %r9b
movb 278(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 368(%rdi)
movw %r10w, 370(%rdi)
movb 279(%rsi), %r8b
movb 280(%rsi), %r9b
movb 281(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 372(%rdi)
movw %r10w, 374(%rdi)
movb 282(%rsi), %r8b
movb 283(%rsi), %r9b
movb 284(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 376(%rdi)
movw %r10w, 378(%rdi)
movb 285(%rsi), %r8b
movb 286(%rsi), %r9b
movb 287(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 380(%rdi)
movw %r10w, 382(%rdi)
movb 288(%rsi), %r8b
movb 289(%rsi), %r9b
movb 290(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 384(%rdi)
movw %r10w, 386(%rdi)
movb 291(%rsi), %r8b
movb 292(%rsi), %r9b
movb 293(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 388(%rdi)
movw %r10w, 390(%rdi)
movb 294(%rsi), %r8b
movb 295(%rsi), %r9b
movb 296(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 392(%rdi)
movw %r10w, 394(%rdi)
movb 297(%rsi), %r8b
movb 298(%rsi), %r9b
movb 299(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 396(%rdi)
movw %r10w, 398(%rdi)
movb 300(%rsi), %r8b
movb 301(%rsi), %r9b
movb 302(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 400(%rdi)
movw %r10w, 402(%rdi)
movb 303(%rsi), %r8b
movb 304(%rsi), %r9b
movb 305(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 404(%rdi)
movw %r10w, 406(%rdi)
movb 306(%rsi), %r8b
movb 307(%rsi), %r9b
movb 308(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 408(%rdi)
movw %r10w, 410(%rdi)
movb 309(%rsi), %r8b
movb 310(%rsi), %r9b
movb 311(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 412(%rdi)
movw %r10w, 414(%rdi)
movb 312(%rsi), %r8b
movb 313(%rsi), %r9b
movb 314(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 416(%rdi)
movw %r10w, 418(%rdi)
movb 315(%rsi), %r8b
movb 316(%rsi), %r9b
movb 317(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 420(%rdi)
movw %r10w, 422(%rdi)
movb 318(%rsi), %r8b
movb 319(%rsi), %r9b
movb 320(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 424(%rdi)
movw %r10w, 426(%rdi)
movb 321(%rsi), %r8b
movb 322(%rsi), %r9b
movb 323(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 428(%rdi)
movw %r10w, 430(%rdi)
movb 324(%rsi), %r8b
movb 325(%rsi), %r9b
movb 326(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 432(%rdi)
movw %r10w, 434(%rdi)
movb 327(%rsi), %r8b
movb 328(%rsi), %r9b
movb 329(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 436(%rdi)
movw %r10w, 438(%rdi)
movb 330(%rsi), %r8b
movb 331(%rsi), %r9b
movb 332(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 440(%rdi)
movw %r10w, 442(%rdi)
movb 333(%rsi), %r8b
movb 334(%rsi), %r9b
movb 335(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 444(%rdi)
movw %r10w, 446(%rdi)
movb 336(%rsi), %r8b
movb 337(%rsi), %r9b
movb 338(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 448(%rdi)
movw %r10w, 450(%rdi)
movb 339(%rsi), %r8b
movb 340(%rsi), %r9b
movb 341(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 452(%rdi)
movw %r10w, 454(%rdi)
movb 342(%rsi), %r8b
movb 343(%rsi), %r9b
movb 344(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 456(%rdi)
movw %r10w, 458(%rdi)
movb 345(%rsi), %r8b
movb 346(%rsi), %r9b
movb 347(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 460(%rdi)
movw %r10w, 462(%rdi)
movb 348(%rsi), %r8b
movb 349(%rsi), %r9b
movb 350(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 464(%rdi)
movw %r10w, 466(%rdi)
movb 351(%rsi), %r8b
movb 352(%rsi), %r9b
movb 353(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 468(%rdi)
movw %r10w, 470(%rdi)
movb 354(%rsi), %r8b
movb 355(%rsi), %r9b
movb 356(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 472(%rdi)
movw %r10w, 474(%rdi)
movb 357(%rsi), %r8b
movb 358(%rsi), %r9b
movb 359(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 476(%rdi)
movw %r10w, 478(%rdi)
movb 360(%rsi), %r8b
movb 361(%rsi), %r9b
movb 362(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 480(%rdi)
movw %r10w, 482(%rdi)
movb 363(%rsi), %r8b
movb 364(%rsi), %r9b
movb 365(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 484(%rdi)
movw %r10w, 486(%rdi)
movb 366(%rsi), %r8b
movb 367(%rsi), %r9b
movb 368(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 488(%rdi)
movw %r10w, 490(%rdi)
movb 369(%rsi), %r8b
movb 370(%rsi), %r9b
movb 371(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 492(%rdi)
movw %r10w, 494(%rdi)
movb 372(%rsi), %r8b
movb 373(%rsi), %r9b
movb 374(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 496(%rdi)
movw %r10w, 498(%rdi)
movb 375(%rsi), %r8b
movb 376(%rsi), %r9b
movb 377(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 500(%rdi)
movw %r10w, 502(%rdi)
movb 378(%rsi), %r8b
movb 379(%rsi), %r9b
movb 380(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 504(%rdi)
movw %r10w, 506(%rdi)
movb 381(%rsi), %r8b
movb 382(%rsi), %r9b
movb 383(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 508(%rdi)
movw %r10w, 510(%rdi)
ret
L_poly_decompress$1:
movq $0, %rdi
movq $0, %r8
jmp L_poly_decompress$2
L_poly_decompress$3:
movb (%rsi,%rdi), %r9b
movzbw %r9b, %r10w
movzbw %r9b, %r9w
andw $15, %r10w
shrw $4, %r9w
imulw $3329, %r10w, %r10w
imulw $3329, %r9w, %r9w
addw $8, %r10w
addw $8, %r9w
shrw $4, %r10w
shrw $4, %r9w
movw %r10w, (%rcx,%r8,2)
incq %r8
movw %r9w, (%rcx,%r8,2)
incq %r8
incq %rdi
L_poly_decompress$2:
cmpq $128, %rdi
jb L_poly_decompress$3
ret
L_i_poly_compress$1:
call L_poly_csubq$1
L_i_poly_compress$4:
movq $0, %rdx
movq $0, %rsi
jmp L_i_poly_compress$2
L_i_poly_compress$3:
movw (%rcx,%rsi,2), %di
movzwl %di, %edi
shll $4, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $15, %edi
incq %rsi
movw (%rcx,%rsi,2), %r8w
movzwl %r8w, %r8d
shll $4, %r8d
addl $1665, %r8d
imull $80635, %r8d, %r8d
shrl $28, %r8d
andl $15, %r8d
shll $4, %r8d
orl %r8d, %edi
movb %dil, (%rax,%rdx)
incq %rdx
incq %rsi
L_i_poly_compress$2:
cmpq $128, %rdx
jb L_i_poly_compress$3
ret
L_poly_compress$1:
call L_poly_csubq$1
L_poly_compress$4:
movq $0, %rdx
movq $0, %rsi
jmp L_poly_compress$2
L_poly_compress$3:
movw (%rcx,%rsi,2), %di
movzwl %di, %edi
shll $4, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $15, %edi
incq %rsi
movw (%rcx,%rsi,2), %r8w
movzwl %r8w, %r8d
shll $4, %r8d
addl $1665, %r8d
imull $80635, %r8d, %r8d
shrl $28, %r8d
andl $15, %r8d
shll $4, %r8d
orl %r8d, %edi
movb %dil, (%rax,%rdx)
incq %rdx
incq %rsi
L_poly_compress$2:
cmpq $128, %rdx
jb L_poly_compress$3
ret
L_poly_basemul$1:
movq %rdi, 8(%rsp)
movq $64, %rdi
movq $0, %r8
jmp L_poly_basemul$2
L_poly_basemul$3:
leaq glob_data + 448(%rip), %r9
movw (%r9,%rdi,2), %r9w
incq %rdi
movw (%rcx,%r8,2), %r10w
movw (%rsi,%r8,2), %r11w
incq %r8
movw (%rcx,%r8,2), %bx
movw (%rsi,%r8,2), %bp
addq $-1, %r8
movswl %bx, %r12d
movswl %bp, %r13d
imull %r13d, %r12d
imull $62209, %r12d, %r13d
shll $16, %r13d
sarl $16, %r13d
imull $3329, %r13d, %r13d
subl %r13d, %r12d
sarl $16, %r12d
movswl %r12w, %r12d
movswl %r9w, %r13d
imull %r13d, %r12d
imull $62209, %r12d, %r13d
shll $16, %r13d
sarl $16, %r13d
imull $3329, %r13d, %r13d
subl %r13d, %r12d
sarl $16, %r12d
movswl %r10w, %r13d
movswl %r11w, %r14d
imull %r14d, %r13d
imull $62209, %r13d, %r14d
shll $16, %r14d
sarl $16, %r14d
imull $3329, %r14d, %r14d
subl %r14d, %r13d
sarl $16, %r13d
addw %r13w, %r12w
movswl %r10w, %r10d
movswl %bp, %ebp
imull %ebp, %r10d
imull $62209, %r10d, %ebp
shll $16, %ebp
sarl $16, %ebp
imull $3329, %ebp, %ebp
subl %ebp, %r10d
sarl $16, %r10d
movswl %bx, %ebx
movswl %r11w, %r11d
imull %r11d, %ebx
imull $62209, %ebx, %r11d
shll $16, %r11d
sarl $16, %r11d
imull $3329, %r11d, %r11d
subl %r11d, %ebx
sarl $16, %ebx
addw %bx, %r10w
movq 8(%rsp), %r11
movw %r12w, (%r11,%r8,2)
incq %r8
movw %r10w, (%r11,%r8,2)
movq %r11, 16(%rsp)
negw %r9w
incq %r8
movw (%rcx,%r8,2), %r10w
movw (%rsi,%r8,2), %r11w
incq %r8
movw (%rcx,%r8,2), %bx
movw (%rsi,%r8,2), %bp
addq $-1, %r8
movswl %bx, %r12d
movswl %bp, %r13d
imull %r13d, %r12d
imull $62209, %r12d, %r13d
shll $16, %r13d
sarl $16, %r13d
imull $3329, %r13d, %r13d
subl %r13d, %r12d
sarl $16, %r12d
movswl %r12w, %r12d
movswl %r9w, %r9d
imull %r9d, %r12d
imull $62209, %r12d, %r9d
shll $16, %r9d
sarl $16, %r9d
imull $3329, %r9d, %r9d
subl %r9d, %r12d
sarl $16, %r12d
movw %r12w, %r9w
movswl %r10w, %r12d
movswl %r11w, %r13d
imull %r13d, %r12d
imull $62209, %r12d, %r13d
shll $16, %r13d
sarl $16, %r13d
imull $3329, %r13d, %r13d
subl %r13d, %r12d
sarl $16, %r12d
addw %r12w, %r9w
movswl %r10w, %r10d
movswl %bp, %ebp
imull %ebp, %r10d
imull $62209, %r10d, %ebp
shll $16, %ebp
sarl $16, %ebp
imull $3329, %ebp, %ebp
subl %ebp, %r10d
sarl $16, %r10d
movswl %bx, %ebx
movswl %r11w, %r11d
imull %r11d, %ebx
imull $62209, %ebx, %r11d
shll $16, %r11d
sarl $16, %r11d
imull $3329, %r11d, %r11d
subl %r11d, %ebx
sarl $16, %ebx
addw %bx, %r10w
movq 16(%rsp), %r11
movw %r9w, (%r11,%r8,2)
incq %r8
movw %r10w, (%r11,%r8,2)
incq %r8
L_poly_basemul$2:
cmpq $256, %r8
jb L_poly_basemul$3
ret
L_poly_csubq$1:
movq $0, %r8
jmp L_poly_csubq$2
L_poly_csubq$3:
movw (%rcx,%r8,2), %r9w
addw $-3329, %r9w
movw %r9w, %r10w
sarw $15, %r10w
andw $3329, %r10w
addw %r10w, %r9w
movw %r9w, (%rcx,%r8,2)
incq %r8
L_poly_csubq$2:
cmpq $256, %r8
jb L_poly_csubq$3
ret
L_poly_add2$1:
movq $0, %rdi
jmp L_poly_add2$2
L_poly_add2$3:
movw (%rcx,%rdi,2), %r8w
movw (%rsi,%rdi,2), %r9w
addw %r9w, %r8w
movw %r8w, (%rcx,%rdi,2)
incq %rdi
L_poly_add2$2:
cmpq $256, %rdi
jb L_poly_add2$3
ret
L_shake256_64$1:
movq %rax, 8(%rsp)
movq %rcx, 16(%rsp)
leaq 24(%rsp), %rcx
xorq %rax, %rax
movq %rax, (%rcx)
movq %rax, 8(%rcx)
movq %rax, 16(%rcx)
movq %rax, 24(%rcx)
movq %rax, 32(%rcx)
movq %rax, 40(%rcx)
movq %rax, 48(%rcx)
movq %rax, 56(%rcx)
movq %rax, 64(%rcx)
movq %rax, 72(%rcx)
movq %rax, 80(%rcx)
movq %rax, 88(%rcx)
movq %rax, 96(%rcx)
movq %rax, 104(%rcx)
movq %rax, 112(%rcx)
movq %rax, 120(%rcx)
movq %rax, 128(%rcx)
movq %rax, 136(%rcx)
movq %rax, 144(%rcx)
movq %rax, 152(%rcx)
movq %rax, 160(%rcx)
movq %rax, 168(%rcx)
movq %rax, 176(%rcx)
movq %rax, 184(%rcx)
movq %rax, 192(%rcx)
movq (%rdx), %rax
xorq %rax, (%rcx)
movq 8(%rdx), %rax
xorq %rax, 8(%rcx)
movq 16(%rdx), %rax
xorq %rax, 16(%rcx)
movq 24(%rdx), %rax
xorq %rax, 24(%rcx)
movq 32(%rdx), %rax
xorq %rax, 32(%rcx)
movq 40(%rdx), %rax
xorq %rax, 40(%rcx)
movq 48(%rdx), %rax
xorq %rax, 48(%rcx)
movq 56(%rdx), %rax
xorq %rax, 56(%rcx)
xorb $31, 64(%rcx)
xorb $-128, 135(%rcx)
leaq -224(%rsp), %rsp
call L_keccakf1600_ref1$1
L_shake256_64$9:
leaq 224(%rsp), %rsp
movq 16(%rsp), %rax
movq 8(%rsp), %rdx
jmp L_shake256_64$6
L_shake256_64$7:
movq (%rcx), %rsi
movq %rsi, (%rdx)
movq 8(%rcx), %rsi
movq %rsi, 8(%rdx)
movq 16(%rcx), %rsi
movq %rsi, 16(%rdx)
movq 24(%rcx), %rsi
movq %rsi, 24(%rdx)
movq 32(%rcx), %rsi
movq %rsi, 32(%rdx)
movq 40(%rcx), %rsi
movq %rsi, 40(%rdx)
movq 48(%rcx), %rsi
movq %rsi, 48(%rdx)
movq 56(%rcx), %rsi
movq %rsi, 56(%rdx)
movq 64(%rcx), %rsi
movq %rsi, 64(%rdx)
movq 72(%rcx), %rsi
movq %rsi, 72(%rdx)
movq 80(%rcx), %rsi
movq %rsi, 80(%rdx)
movq 88(%rcx), %rsi
movq %rsi, 88(%rdx)
movq 96(%rcx), %rsi
movq %rsi, 96(%rdx)
movq 104(%rcx), %rsi
movq %rsi, 104(%rdx)
movq 112(%rcx), %rsi
movq %rsi, 112(%rdx)
movq 120(%rcx), %rsi
movq %rsi, 120(%rdx)
movq 128(%rcx), %rsi
movq %rsi, 128(%rdx)
addq $136, %rdx
addq $-136, %rax
movq %rdx, 8(%rsp)
movq %rax, 16(%rsp)
leaq -224(%rsp), %rsp
call L_keccakf1600_ref1$1
L_shake256_64$8:
leaq 224(%rsp), %rsp
movq 16(%rsp), %rax
movq 8(%rsp), %rdx
L_shake256_64$6:
cmpq $136, %rax
jnbe L_shake256_64$7
movq %rax, 8(%rsp)
shrq $3, %rax
movq $0, %rsi
jmp L_shake256_64$4
L_shake256_64$5:
movq (%rcx,%rsi,8), %rdi
movq %rdi, (%rdx,%rsi,8)
incq %rsi
L_shake256_64$4:
cmpq %rax, %rsi
jb L_shake256_64$5
shlq $3, %rsi
movq 8(%rsp), %rax
jmp L_shake256_64$2
L_shake256_64$3:
movb (%rcx,%rsi), %dil
movb %dil, (%rdx,%rsi)
incq %rsi
L_shake256_64$2:
cmpq %rax, %rsi
jb L_shake256_64$3
ret
L_sha3_512_64$1:
movq %rax, 8(%rsp)
leaq 16(%rsp), %rcx
xorq %rax, %rax
movq %rax, (%rcx)
movq %rax, 8(%rcx)
movq %rax, 16(%rcx)
movq %rax, 24(%rcx)
movq %rax, 32(%rcx)
movq %rax, 40(%rcx)
movq %rax, 48(%rcx)
movq %rax, 56(%rcx)
movq %rax, 64(%rcx)
movq %rax, 72(%rcx)
movq %rax, 80(%rcx)
movq %rax, 88(%rcx)
movq %rax, 96(%rcx)
movq %rax, 104(%rcx)
movq %rax, 112(%rcx)
movq %rax, 120(%rcx)
movq %rax, 128(%rcx)
movq %rax, 136(%rcx)
movq %rax, 144(%rcx)
movq %rax, 152(%rcx)
movq %rax, 160(%rcx)
movq %rax, 168(%rcx)
movq %rax, 176(%rcx)
movq %rax, 184(%rcx)
movq %rax, 192(%rcx)
movq (%rdx), %rax
xorq %rax, (%rcx)
movq 8(%rdx), %rax
xorq %rax, 8(%rcx)
movq 16(%rdx), %rax
xorq %rax, 16(%rcx)
movq 24(%rdx), %rax
xorq %rax, 24(%rcx)
movq 32(%rdx), %rax
xorq %rax, 32(%rcx)
movq 40(%rdx), %rax
xorq %rax, 40(%rcx)
movq 48(%rdx), %rax
xorq %rax, 48(%rcx)
movq 56(%rdx), %rax
xorq %rax, 56(%rcx)
xorb $6, 64(%rcx)
xorb $-128, 71(%rcx)
leaq -224(%rsp), %rsp
call L_keccakf1600_ref1$1
L_sha3_512_64$2:
leaq 224(%rsp), %rsp
movq 8(%rsp), %rax
movq (%rcx), %rdx
movq %rdx, (%rax)
movq 8(%rcx), %rdx
movq %rdx, 8(%rax)
movq 16(%rcx), %rdx
movq %rdx, 16(%rax)
movq 24(%rcx), %rdx
movq %rdx, 24(%rax)
movq 32(%rcx), %rdx
movq %rdx, 32(%rax)
movq 40(%rcx), %rdx
movq %rdx, 40(%rax)
movq 48(%rcx), %rdx
movq %rdx, 48(%rax)
movq 56(%rcx), %rcx
movq %rcx, 56(%rax)
ret
L_sha3_256_32$1:
movq %rax, 8(%rsp)
leaq 16(%rsp), %rcx
xorq %rax, %rax
movq %rax, (%rcx)
movq %rax, 8(%rcx)
movq %rax, 16(%rcx)
movq %rax, 24(%rcx)
movq %rax, 32(%rcx)
movq %rax, 40(%rcx)
movq %rax, 48(%rcx)
movq %rax, 56(%rcx)
movq %rax, 64(%rcx)
movq %rax, 72(%rcx)
movq %rax, 80(%rcx)
movq %rax, 88(%rcx)
movq %rax, 96(%rcx)
movq %rax, 104(%rcx)
movq %rax, 112(%rcx)
movq %rax, 120(%rcx)
movq %rax, 128(%rcx)
movq %rax, 136(%rcx)
movq %rax, 144(%rcx)
movq %rax, 152(%rcx)
movq %rax, 160(%rcx)
movq %rax, 168(%rcx)
movq %rax, 176(%rcx)
movq %rax, 184(%rcx)
movq %rax, 192(%rcx)
movq (%rdx), %rax
movq %rax, (%rcx)
movq 8(%rdx), %rax
movq %rax, 8(%rcx)
movq 16(%rdx), %rax
movq %rax, 16(%rcx)
movq 24(%rdx), %rax
movq %rax, 24(%rcx)
xorb $6, 32(%rcx)
movb $-128, 135(%rcx)
leaq -224(%rsp), %rsp
call L_keccakf1600_ref1$1
L_sha3_256_32$2:
leaq 224(%rsp), %rsp
movq 8(%rsp), %rax
movq (%rcx), %rdx
movq %rdx, (%rax)
movq 8(%rcx), %rdx
movq %rdx, 8(%rax)
movq 16(%rcx), %rdx
movq %rdx, 16(%rax)
movq 24(%rcx), %rcx
movq %rcx, 24(%rax)
ret
L_sha3_256$1:
movq %rcx, 8(%rsp)
leaq 40(%rsp), %rcx
xorq %rdx, %rdx
movq %rdx, (%rcx)
movq %rdx, 8(%rcx)
movq %rdx, 16(%rcx)
movq %rdx, 24(%rcx)
movq %rdx, 32(%rcx)
movq %rdx, 40(%rcx)
movq %rdx, 48(%rcx)
movq %rdx, 56(%rcx)
movq %rdx, 64(%rcx)
movq %rdx, 72(%rcx)
movq %rdx, 80(%rcx)
movq %rdx, 88(%rcx)
movq %rdx, 96(%rcx)
movq %rdx, 104(%rcx)
movq %rdx, 112(%rcx)
movq %rdx, 120(%rcx)
movq %rdx, 128(%rcx)
movq %rdx, 136(%rcx)
movq %rdx, 144(%rcx)
movq %rdx, 152(%rcx)
movq %rdx, 160(%rcx)
movq %rdx, 168(%rcx)
movq %rdx, 176(%rcx)
movq %rdx, 184(%rcx)
movq %rdx, 192(%rcx)
movq $136, %rdx
jmp L_sha3_256$7
L_sha3_256$8:
movq %rdx, %rdi
shrq $3, %rdi
movq $0, %r8
jmp L_sha3_256$10
L_sha3_256$11:
movq (%rsi,%r8,8), %r9
xorq %r9, (%rcx,%r8,8)
incq %r8
L_sha3_256$10:
cmpq %rdi, %r8
jb L_sha3_256$11
addq %rdx, %rsi
subq %rdx, %rax
movq %rsi, 16(%rsp)
movq %rax, 24(%rsp)
movq %rdx, 32(%rsp)
leaq -224(%rsp), %rsp
call L_keccakf1600_ref1$1
L_sha3_256$9:
leaq 224(%rsp), %rsp
movq 16(%rsp), %rsi
movq 24(%rsp), %rax
movq 32(%rsp), %rdx
L_sha3_256$7:
cmpq %rdx, %rax
jnb L_sha3_256$8
movb $6, %dil
movq %rax, %r8
shrq $3, %r8
movq $0, %r9
jmp L_sha3_256$5
L_sha3_256$6:
movq (%rsi,%r9,8), %r10
xorq %r10, (%rcx,%r9,8)
incq %r9
L_sha3_256$5:
cmpq %r8, %r9
jb L_sha3_256$6
shlq $3, %r9
jmp L_sha3_256$3
L_sha3_256$4:
movb (%rsi,%r9), %r8b
xorb %r8b, (%rcx,%r9)
incq %r9
L_sha3_256$3:
cmpq %rax, %r9
jb L_sha3_256$4
xorb %dil, (%rcx,%r9)
addq $-1, %rdx
xorb $-128, (%rcx,%rdx)
leaq -224(%rsp), %rsp
call L_keccakf1600_ref1$1
L_sha3_256$2:
leaq 224(%rsp), %rsp
movq 8(%rsp), %rax
movq (%rcx), %rdx
movq %rdx, (%rax)
movq 8(%rcx), %rdx
movq %rdx, 8(%rax)
movq 16(%rcx), %rdx
movq %rdx, 16(%rax)
movq 24(%rcx), %rcx
movq %rcx, 24(%rax)
ret
L_shake128_squeezeblock$1:
movq %rdx, 8(%rsp)
leaq -224(%rsp), %rsp
call L_keccakf1600_ref1$1
L_shake128_squeezeblock$2:
leaq 224(%rsp), %rsp
movq 8(%rsp), %rdx
movb (%rcx), %sil
movb %sil, (%rdx)
movb 1(%rcx), %sil
movb %sil, 1(%rdx)
movb 2(%rcx), %sil
movb %sil, 2(%rdx)
movb 3(%rcx), %sil
movb %sil, 3(%rdx)
movb 4(%rcx), %sil
movb %sil, 4(%rdx)
movb 5(%rcx), %sil
movb %sil, 5(%rdx)
movb 6(%rcx), %sil
movb %sil, 6(%rdx)
movb 7(%rcx), %sil
movb %sil, 7(%rdx)
movb 8(%rcx), %sil
movb %sil, 8(%rdx)
movb 9(%rcx), %sil
movb %sil, 9(%rdx)
movb 10(%rcx), %sil
movb %sil, 10(%rdx)
movb 11(%rcx), %sil
movb %sil, 11(%rdx)
movb 12(%rcx), %sil
movb %sil, 12(%rdx)
movb 13(%rcx), %sil
movb %sil, 13(%rdx)
movb 14(%rcx), %sil
movb %sil, 14(%rdx)
movb 15(%rcx), %sil
movb %sil, 15(%rdx)
movb 16(%rcx), %sil
movb %sil, 16(%rdx)
movb 17(%rcx), %sil
movb %sil, 17(%rdx)
movb 18(%rcx), %sil
movb %sil, 18(%rdx)
movb 19(%rcx), %sil
movb %sil, 19(%rdx)
movb 20(%rcx), %sil
movb %sil, 20(%rdx)
movb 21(%rcx), %sil
movb %sil, 21(%rdx)
movb 22(%rcx), %sil
movb %sil, 22(%rdx)
movb 23(%rcx), %sil
movb %sil, 23(%rdx)
movb 24(%rcx), %sil
movb %sil, 24(%rdx)
movb 25(%rcx), %sil
movb %sil, 25(%rdx)
movb 26(%rcx), %sil
movb %sil, 26(%rdx)
movb 27(%rcx), %sil
movb %sil, 27(%rdx)
movb 28(%rcx), %sil
movb %sil, 28(%rdx)
movb 29(%rcx), %sil
movb %sil, 29(%rdx)
movb 30(%rcx), %sil
movb %sil, 30(%rdx)
movb 31(%rcx), %sil
movb %sil, 31(%rdx)
movb 32(%rcx), %sil
movb %sil, 32(%rdx)
movb 33(%rcx), %sil
movb %sil, 33(%rdx)
movb 34(%rcx), %sil
movb %sil, 34(%rdx)
movb 35(%rcx), %sil
movb %sil, 35(%rdx)
movb 36(%rcx), %sil
movb %sil, 36(%rdx)
movb 37(%rcx), %sil
movb %sil, 37(%rdx)
movb 38(%rcx), %sil
movb %sil, 38(%rdx)
movb 39(%rcx), %sil
movb %sil, 39(%rdx)
movb 40(%rcx), %sil
movb %sil, 40(%rdx)
movb 41(%rcx), %sil
movb %sil, 41(%rdx)
movb 42(%rcx), %sil
movb %sil, 42(%rdx)
movb 43(%rcx), %sil
movb %sil, 43(%rdx)
movb 44(%rcx), %sil
movb %sil, 44(%rdx)
movb 45(%rcx), %sil
movb %sil, 45(%rdx)
movb 46(%rcx), %sil
movb %sil, 46(%rdx)
movb 47(%rcx), %sil
movb %sil, 47(%rdx)
movb 48(%rcx), %sil
movb %sil, 48(%rdx)
movb 49(%rcx), %sil
movb %sil, 49(%rdx)
movb 50(%rcx), %sil
movb %sil, 50(%rdx)
movb 51(%rcx), %sil
movb %sil, 51(%rdx)
movb 52(%rcx), %sil
movb %sil, 52(%rdx)
movb 53(%rcx), %sil
movb %sil, 53(%rdx)
movb 54(%rcx), %sil
movb %sil, 54(%rdx)
movb 55(%rcx), %sil
movb %sil, 55(%rdx)
movb 56(%rcx), %sil
movb %sil, 56(%rdx)
movb 57(%rcx), %sil
movb %sil, 57(%rdx)
movb 58(%rcx), %sil
movb %sil, 58(%rdx)
movb 59(%rcx), %sil
movb %sil, 59(%rdx)
movb 60(%rcx), %sil
movb %sil, 60(%rdx)
movb 61(%rcx), %sil
movb %sil, 61(%rdx)
movb 62(%rcx), %sil
movb %sil, 62(%rdx)
movb 63(%rcx), %sil
movb %sil, 63(%rdx)
movb 64(%rcx), %sil
movb %sil, 64(%rdx)
movb 65(%rcx), %sil
movb %sil, 65(%rdx)
movb 66(%rcx), %sil
movb %sil, 66(%rdx)
movb 67(%rcx), %sil
movb %sil, 67(%rdx)
movb 68(%rcx), %sil
movb %sil, 68(%rdx)
movb 69(%rcx), %sil
movb %sil, 69(%rdx)
movb 70(%rcx), %sil
movb %sil, 70(%rdx)
movb 71(%rcx), %sil
movb %sil, 71(%rdx)
movb 72(%rcx), %sil
movb %sil, 72(%rdx)
movb 73(%rcx), %sil
movb %sil, 73(%rdx)
movb 74(%rcx), %sil
movb %sil, 74(%rdx)
movb 75(%rcx), %sil
movb %sil, 75(%rdx)
movb 76(%rcx), %sil
movb %sil, 76(%rdx)
movb 77(%rcx), %sil
movb %sil, 77(%rdx)
movb 78(%rcx), %sil
movb %sil, 78(%rdx)
movb 79(%rcx), %sil
movb %sil, 79(%rdx)
movb 80(%rcx), %sil
movb %sil, 80(%rdx)
movb 81(%rcx), %sil
movb %sil, 81(%rdx)
movb 82(%rcx), %sil
movb %sil, 82(%rdx)
movb 83(%rcx), %sil
movb %sil, 83(%rdx)
movb 84(%rcx), %sil
movb %sil, 84(%rdx)
movb 85(%rcx), %sil
movb %sil, 85(%rdx)
movb 86(%rcx), %sil
movb %sil, 86(%rdx)
movb 87(%rcx), %sil
movb %sil, 87(%rdx)
movb 88(%rcx), %sil
movb %sil, 88(%rdx)
movb 89(%rcx), %sil
movb %sil, 89(%rdx)
movb 90(%rcx), %sil
movb %sil, 90(%rdx)
movb 91(%rcx), %sil
movb %sil, 91(%rdx)
movb 92(%rcx), %sil
movb %sil, 92(%rdx)
movb 93(%rcx), %sil
movb %sil, 93(%rdx)
movb 94(%rcx), %sil
movb %sil, 94(%rdx)
movb 95(%rcx), %sil
movb %sil, 95(%rdx)
movb 96(%rcx), %sil
movb %sil, 96(%rdx)
movb 97(%rcx), %sil
movb %sil, 97(%rdx)
movb 98(%rcx), %sil
movb %sil, 98(%rdx)
movb 99(%rcx), %sil
movb %sil, 99(%rdx)
movb 100(%rcx), %sil
movb %sil, 100(%rdx)
movb 101(%rcx), %sil
movb %sil, 101(%rdx)
movb 102(%rcx), %sil
movb %sil, 102(%rdx)
movb 103(%rcx), %sil
movb %sil, 103(%rdx)
movb 104(%rcx), %sil
movb %sil, 104(%rdx)
movb 105(%rcx), %sil
movb %sil, 105(%rdx)
movb 106(%rcx), %sil
movb %sil, 106(%rdx)
movb 107(%rcx), %sil
movb %sil, 107(%rdx)
movb 108(%rcx), %sil
movb %sil, 108(%rdx)
movb 109(%rcx), %sil
movb %sil, 109(%rdx)
movb 110(%rcx), %sil
movb %sil, 110(%rdx)
movb 111(%rcx), %sil
movb %sil, 111(%rdx)
movb 112(%rcx), %sil
movb %sil, 112(%rdx)
movb 113(%rcx), %sil
movb %sil, 113(%rdx)
movb 114(%rcx), %sil
movb %sil, 114(%rdx)
movb 115(%rcx), %sil
movb %sil, 115(%rdx)
movb 116(%rcx), %sil
movb %sil, 116(%rdx)
movb 117(%rcx), %sil
movb %sil, 117(%rdx)
movb 118(%rcx), %sil
movb %sil, 118(%rdx)
movb 119(%rcx), %sil
movb %sil, 119(%rdx)
movb 120(%rcx), %sil
movb %sil, 120(%rdx)
movb 121(%rcx), %sil
movb %sil, 121(%rdx)
movb 122(%rcx), %sil
movb %sil, 122(%rdx)
movb 123(%rcx), %sil
movb %sil, 123(%rdx)
movb 124(%rcx), %sil
movb %sil, 124(%rdx)
movb 125(%rcx), %sil
movb %sil, 125(%rdx)
movb 126(%rcx), %sil
movb %sil, 126(%rdx)
movb 127(%rcx), %sil
movb %sil, 127(%rdx)
movb 128(%rcx), %sil
movb %sil, 128(%rdx)
movb 129(%rcx), %sil
movb %sil, 129(%rdx)
movb 130(%rcx), %sil
movb %sil, 130(%rdx)
movb 131(%rcx), %sil
movb %sil, 131(%rdx)
movb 132(%rcx), %sil
movb %sil, 132(%rdx)
movb 133(%rcx), %sil
movb %sil, 133(%rdx)
movb 134(%rcx), %sil
movb %sil, 134(%rdx)
movb 135(%rcx), %sil
movb %sil, 135(%rdx)
movb 136(%rcx), %sil
movb %sil, 136(%rdx)
movb 137(%rcx), %sil
movb %sil, 137(%rdx)
movb 138(%rcx), %sil
movb %sil, 138(%rdx)
movb 139(%rcx), %sil
movb %sil, 139(%rdx)
movb 140(%rcx), %sil
movb %sil, 140(%rdx)
movb 141(%rcx), %sil
movb %sil, 141(%rdx)
movb 142(%rcx), %sil
movb %sil, 142(%rdx)
movb 143(%rcx), %sil
movb %sil, 143(%rdx)
movb 144(%rcx), %sil
movb %sil, 144(%rdx)
movb 145(%rcx), %sil
movb %sil, 145(%rdx)
movb 146(%rcx), %sil
movb %sil, 146(%rdx)
movb 147(%rcx), %sil
movb %sil, 147(%rdx)
movb 148(%rcx), %sil
movb %sil, 148(%rdx)
movb 149(%rcx), %sil
movb %sil, 149(%rdx)
movb 150(%rcx), %sil
movb %sil, 150(%rdx)
movb 151(%rcx), %sil
movb %sil, 151(%rdx)
movb 152(%rcx), %sil
movb %sil, 152(%rdx)
movb 153(%rcx), %sil
movb %sil, 153(%rdx)
movb 154(%rcx), %sil
movb %sil, 154(%rdx)
movb 155(%rcx), %sil
movb %sil, 155(%rdx)
movb 156(%rcx), %sil
movb %sil, 156(%rdx)
movb 157(%rcx), %sil
movb %sil, 157(%rdx)
movb 158(%rcx), %sil
movb %sil, 158(%rdx)
movb 159(%rcx), %sil
movb %sil, 159(%rdx)
movb 160(%rcx), %sil
movb %sil, 160(%rdx)
movb 161(%rcx), %sil
movb %sil, 161(%rdx)
movb 162(%rcx), %sil
movb %sil, 162(%rdx)
movb 163(%rcx), %sil
movb %sil, 163(%rdx)
movb 164(%rcx), %sil
movb %sil, 164(%rdx)
movb 165(%rcx), %sil
movb %sil, 165(%rdx)
movb 166(%rcx), %sil
movb %sil, 166(%rdx)
movb 167(%rcx), %cl
movb %cl, 167(%rdx)
ret
L_shake128_absorb34$1:
xorq %rsi, %rsi
movq %rsi, (%rcx)
movq %rsi, 8(%rcx)
movq %rsi, 16(%rcx)
movq %rsi, 24(%rcx)
movq %rsi, 32(%rcx)
movq %rsi, 40(%rcx)
movq %rsi, 48(%rcx)
movq %rsi, 56(%rcx)
movq %rsi, 64(%rcx)
movq %rsi, 72(%rcx)
movq %rsi, 80(%rcx)
movq %rsi, 88(%rcx)
movq %rsi, 96(%rcx)
movq %rsi, 104(%rcx)
movq %rsi, 112(%rcx)
movq %rsi, 120(%rcx)
movq %rsi, 128(%rcx)
movq %rsi, 136(%rcx)
movq %rsi, 144(%rcx)
movq %rsi, 152(%rcx)
movq %rsi, 160(%rcx)
movq %rsi, 168(%rcx)
movq %rsi, 176(%rcx)
movq %rsi, 184(%rcx)
movq %rsi, 192(%rcx)
movb (%rdx), %sil
xorb %sil, (%rcx)
movb 1(%rdx), %sil
xorb %sil, 1(%rcx)
movb 2(%rdx), %sil
xorb %sil, 2(%rcx)
movb 3(%rdx), %sil
xorb %sil, 3(%rcx)
movb 4(%rdx), %sil
xorb %sil, 4(%rcx)
movb 5(%rdx), %sil
xorb %sil, 5(%rcx)
movb 6(%rdx), %sil
xorb %sil, 6(%rcx)
movb 7(%rdx), %sil
xorb %sil, 7(%rcx)
movb 8(%rdx), %sil
xorb %sil, 8(%rcx)
movb 9(%rdx), %sil
xorb %sil, 9(%rcx)
movb 10(%rdx), %sil
xorb %sil, 10(%rcx)
movb 11(%rdx), %sil
xorb %sil, 11(%rcx)
movb 12(%rdx), %sil
xorb %sil, 12(%rcx)
movb 13(%rdx), %sil
xorb %sil, 13(%rcx)
movb 14(%rdx), %sil
xorb %sil, 14(%rcx)
movb 15(%rdx), %sil
xorb %sil, 15(%rcx)
movb 16(%rdx), %sil
xorb %sil, 16(%rcx)
movb 17(%rdx), %sil
xorb %sil, 17(%rcx)
movb 18(%rdx), %sil
xorb %sil, 18(%rcx)
movb 19(%rdx), %sil
xorb %sil, 19(%rcx)
movb 20(%rdx), %sil
xorb %sil, 20(%rcx)
movb 21(%rdx), %sil
xorb %sil, 21(%rcx)
movb 22(%rdx), %sil
xorb %sil, 22(%rcx)
movb 23(%rdx), %sil
xorb %sil, 23(%rcx)
movb 24(%rdx), %sil
xorb %sil, 24(%rcx)
movb 25(%rdx), %sil
xorb %sil, 25(%rcx)
movb 26(%rdx), %sil
xorb %sil, 26(%rcx)
movb 27(%rdx), %sil
xorb %sil, 27(%rcx)
movb 28(%rdx), %sil
xorb %sil, 28(%rcx)
movb 29(%rdx), %sil
xorb %sil, 29(%rcx)
movb 30(%rdx), %sil
xorb %sil, 30(%rcx)
movb 31(%rdx), %sil
xorb %sil, 31(%rcx)
movb 32(%rdx), %sil
xorb %sil, 32(%rcx)
movb 33(%rdx), %dl
xorb %dl, 33(%rcx)
xorb $31, 34(%rcx)
xorb $-128, 167(%rcx)
ret
L_sha3_512_32$1:
movq %rcx, 8(%rsp)
leaq 16(%rsp), %rcx
xorq %rdx, %rdx
movq %rdx, (%rcx)
movq %rdx, 8(%rcx)
movq %rdx, 16(%rcx)
movq %rdx, 24(%rcx)
movq %rdx, 32(%rcx)
movq %rdx, 40(%rcx)
movq %rdx, 48(%rcx)
movq %rdx, 56(%rcx)
movq %rdx, 64(%rcx)
movq %rdx, 72(%rcx)
movq %rdx, 80(%rcx)
movq %rdx, 88(%rcx)
movq %rdx, 96(%rcx)
movq %rdx, 104(%rcx)
movq %rdx, 112(%rcx)
movq %rdx, 120(%rcx)
movq %rdx, 128(%rcx)
movq %rdx, 136(%rcx)
movq %rdx, 144(%rcx)
movq %rdx, 152(%rcx)
movq %rdx, 160(%rcx)
movq %rdx, 168(%rcx)
movq %rdx, 176(%rcx)
movq %rdx, 184(%rcx)
movq %rdx, 192(%rcx)
movb (%rax), %dl
xorb %dl, (%rcx)
movb 1(%rax), %dl
xorb %dl, 1(%rcx)
movb 2(%rax), %dl
xorb %dl, 2(%rcx)
movb 3(%rax), %dl
xorb %dl, 3(%rcx)
movb 4(%rax), %dl
xorb %dl, 4(%rcx)
movb 5(%rax), %dl
xorb %dl, 5(%rcx)
movb 6(%rax), %dl
xorb %dl, 6(%rcx)
movb 7(%rax), %dl
xorb %dl, 7(%rcx)
movb 8(%rax), %dl
xorb %dl, 8(%rcx)
movb 9(%rax), %dl
xorb %dl, 9(%rcx)
movb 10(%rax), %dl
xorb %dl, 10(%rcx)
movb 11(%rax), %dl
xorb %dl, 11(%rcx)
movb 12(%rax), %dl
xorb %dl, 12(%rcx)
movb 13(%rax), %dl
xorb %dl, 13(%rcx)
movb 14(%rax), %dl
xorb %dl, 14(%rcx)
movb 15(%rax), %dl
xorb %dl, 15(%rcx)
movb 16(%rax), %dl
xorb %dl, 16(%rcx)
movb 17(%rax), %dl
xorb %dl, 17(%rcx)
movb 18(%rax), %dl
xorb %dl, 18(%rcx)
movb 19(%rax), %dl
xorb %dl, 19(%rcx)
movb 20(%rax), %dl
xorb %dl, 20(%rcx)
movb 21(%rax), %dl
xorb %dl, 21(%rcx)
movb 22(%rax), %dl
xorb %dl, 22(%rcx)
movb 23(%rax), %dl
xorb %dl, 23(%rcx)
movb 24(%rax), %dl
xorb %dl, 24(%rcx)
movb 25(%rax), %dl
xorb %dl, 25(%rcx)
movb 26(%rax), %dl
xorb %dl, 26(%rcx)
movb 27(%rax), %dl
xorb %dl, 27(%rcx)
movb 28(%rax), %dl
xorb %dl, 28(%rcx)
movb 29(%rax), %dl
xorb %dl, 29(%rcx)
movb 30(%rax), %dl
xorb %dl, 30(%rcx)
movb 31(%rax), %al
xorb %al, 31(%rcx)
xorb $6, 32(%rcx)
xorb $-128, 71(%rcx)
leaq -224(%rsp), %rsp
call L_keccakf1600_ref1$1
L_sha3_512_32$2:
leaq 224(%rsp), %rsp
movq 8(%rsp), %rax
movb (%rcx), %dl
movb %dl, (%rax)
movb 1(%rcx), %dl
movb %dl, 1(%rax)
movb 2(%rcx), %dl
movb %dl, 2(%rax)
movb 3(%rcx), %dl
movb %dl, 3(%rax)
movb 4(%rcx), %dl
movb %dl, 4(%rax)
movb 5(%rcx), %dl
movb %dl, 5(%rax)
movb 6(%rcx), %dl
movb %dl, 6(%rax)
movb 7(%rcx), %dl
movb %dl, 7(%rax)
movb 8(%rcx), %dl
movb %dl, 8(%rax)
movb 9(%rcx), %dl
movb %dl, 9(%rax)
movb 10(%rcx), %dl
movb %dl, 10(%rax)
movb 11(%rcx), %dl
movb %dl, 11(%rax)
movb 12(%rcx), %dl
movb %dl, 12(%rax)
movb 13(%rcx), %dl
movb %dl, 13(%rax)
movb 14(%rcx), %dl
movb %dl, 14(%rax)
movb 15(%rcx), %dl
movb %dl, 15(%rax)
movb 16(%rcx), %dl
movb %dl, 16(%rax)
movb 17(%rcx), %dl
movb %dl, 17(%rax)
movb 18(%rcx), %dl
movb %dl, 18(%rax)
movb 19(%rcx), %dl
movb %dl, 19(%rax)
movb 20(%rcx), %dl
movb %dl, 20(%rax)
movb 21(%rcx), %dl
movb %dl, 21(%rax)
movb 22(%rcx), %dl
movb %dl, 22(%rax)
movb 23(%rcx), %dl
movb %dl, 23(%rax)
movb 24(%rcx), %dl
movb %dl, 24(%rax)
movb 25(%rcx), %dl
movb %dl, 25(%rax)
movb 26(%rcx), %dl
movb %dl, 26(%rax)
movb 27(%rcx), %dl
movb %dl, 27(%rax)
movb 28(%rcx), %dl
movb %dl, 28(%rax)
movb 29(%rcx), %dl
movb %dl, 29(%rax)
movb 30(%rcx), %dl
movb %dl, 30(%rax)
movb 31(%rcx), %dl
movb %dl, 31(%rax)
movb 32(%rcx), %dl
movb %dl, 32(%rax)
movb 33(%rcx), %dl
movb %dl, 33(%rax)
movb 34(%rcx), %dl
movb %dl, 34(%rax)
movb 35(%rcx), %dl
movb %dl, 35(%rax)
movb 36(%rcx), %dl
movb %dl, 36(%rax)
movb 37(%rcx), %dl
movb %dl, 37(%rax)
movb 38(%rcx), %dl
movb %dl, 38(%rax)
movb 39(%rcx), %dl
movb %dl, 39(%rax)
movb 40(%rcx), %dl
movb %dl, 40(%rax)
movb 41(%rcx), %dl
movb %dl, 41(%rax)
movb 42(%rcx), %dl
movb %dl, 42(%rax)
movb 43(%rcx), %dl
movb %dl, 43(%rax)
movb 44(%rcx), %dl
movb %dl, 44(%rax)
movb 45(%rcx), %dl
movb %dl, 45(%rax)
movb 46(%rcx), %dl
movb %dl, 46(%rax)
movb 47(%rcx), %dl
movb %dl, 47(%rax)
movb 48(%rcx), %dl
movb %dl, 48(%rax)
movb 49(%rcx), %dl
movb %dl, 49(%rax)
movb 50(%rcx), %dl
movb %dl, 50(%rax)
movb 51(%rcx), %dl
movb %dl, 51(%rax)
movb 52(%rcx), %dl
movb %dl, 52(%rax)
movb 53(%rcx), %dl
movb %dl, 53(%rax)
movb 54(%rcx), %dl
movb %dl, 54(%rax)
movb 55(%rcx), %dl
movb %dl, 55(%rax)
movb 56(%rcx), %dl
movb %dl, 56(%rax)
movb 57(%rcx), %dl
movb %dl, 57(%rax)
movb 58(%rcx), %dl
movb %dl, 58(%rax)
movb 59(%rcx), %dl
movb %dl, 59(%rax)
movb 60(%rcx), %dl
movb %dl, 60(%rax)
movb 61(%rcx), %dl
movb %dl, 61(%rax)
movb 62(%rcx), %dl
movb %dl, 62(%rax)
movb 63(%rcx), %cl
movb %cl, 63(%rax)
ret
L_shake256_128_33$1:
movq %rcx, 8(%rsp)
leaq 16(%rsp), %rcx
xorq %rsi, %rsi
movq %rsi, (%rcx)
movq %rsi, 8(%rcx)
movq %rsi, 16(%rcx)
movq %rsi, 24(%rcx)
movq %rsi, 32(%rcx)
movq %rsi, 40(%rcx)
movq %rsi, 48(%rcx)
movq %rsi, 56(%rcx)
movq %rsi, 64(%rcx)
movq %rsi, 72(%rcx)
movq %rsi, 80(%rcx)
movq %rsi, 88(%rcx)
movq %rsi, 96(%rcx)
movq %rsi, 104(%rcx)
movq %rsi, 112(%rcx)
movq %rsi, 120(%rcx)
movq %rsi, 128(%rcx)
movq %rsi, 136(%rcx)
movq %rsi, 144(%rcx)
movq %rsi, 152(%rcx)
movq %rsi, 160(%rcx)
movq %rsi, 168(%rcx)
movq %rsi, 176(%rcx)
movq %rsi, 184(%rcx)
movq %rsi, 192(%rcx)
movb (%rdx), %sil
xorb %sil, (%rcx)
movb 1(%rdx), %sil
xorb %sil, 1(%rcx)
movb 2(%rdx), %sil
xorb %sil, 2(%rcx)
movb 3(%rdx), %sil
xorb %sil, 3(%rcx)
movb 4(%rdx), %sil
xorb %sil, 4(%rcx)
movb 5(%rdx), %sil
xorb %sil, 5(%rcx)
movb 6(%rdx), %sil
xorb %sil, 6(%rcx)
movb 7(%rdx), %sil
xorb %sil, 7(%rcx)
movb 8(%rdx), %sil
xorb %sil, 8(%rcx)
movb 9(%rdx), %sil
xorb %sil, 9(%rcx)
movb 10(%rdx), %sil
xorb %sil, 10(%rcx)
movb 11(%rdx), %sil
xorb %sil, 11(%rcx)
movb 12(%rdx), %sil
xorb %sil, 12(%rcx)
movb 13(%rdx), %sil
xorb %sil, 13(%rcx)
movb 14(%rdx), %sil
xorb %sil, 14(%rcx)
movb 15(%rdx), %sil
xorb %sil, 15(%rcx)
movb 16(%rdx), %sil
xorb %sil, 16(%rcx)
movb 17(%rdx), %sil
xorb %sil, 17(%rcx)
movb 18(%rdx), %sil
xorb %sil, 18(%rcx)
movb 19(%rdx), %sil
xorb %sil, 19(%rcx)
movb 20(%rdx), %sil
xorb %sil, 20(%rcx)
movb 21(%rdx), %sil
xorb %sil, 21(%rcx)
movb 22(%rdx), %sil
xorb %sil, 22(%rcx)
movb 23(%rdx), %sil
xorb %sil, 23(%rcx)
movb 24(%rdx), %sil
xorb %sil, 24(%rcx)
movb 25(%rdx), %sil
xorb %sil, 25(%rcx)
movb 26(%rdx), %sil
xorb %sil, 26(%rcx)
movb 27(%rdx), %sil
xorb %sil, 27(%rcx)
movb 28(%rdx), %sil
xorb %sil, 28(%rcx)
movb 29(%rdx), %sil
xorb %sil, 29(%rcx)
movb 30(%rdx), %sil
xorb %sil, 30(%rcx)
movb 31(%rdx), %sil
xorb %sil, 31(%rcx)
movb 32(%rdx), %dl
xorb %dl, 32(%rcx)
xorb $31, 33(%rcx)
xorb $-128, 135(%rcx)
leaq -224(%rsp), %rsp
call L_keccakf1600_ref1$1
L_shake256_128_33$2:
leaq 224(%rsp), %rsp
movq 8(%rsp), %rdx
movb (%rcx), %sil
movb %sil, (%rdx)
movb 1(%rcx), %sil
movb %sil, 1(%rdx)
movb 2(%rcx), %sil
movb %sil, 2(%rdx)
movb 3(%rcx), %sil
movb %sil, 3(%rdx)
movb 4(%rcx), %sil
movb %sil, 4(%rdx)
movb 5(%rcx), %sil
movb %sil, 5(%rdx)
movb 6(%rcx), %sil
movb %sil, 6(%rdx)
movb 7(%rcx), %sil
movb %sil, 7(%rdx)
movb 8(%rcx), %sil
movb %sil, 8(%rdx)
movb 9(%rcx), %sil
movb %sil, 9(%rdx)
movb 10(%rcx), %sil
movb %sil, 10(%rdx)
movb 11(%rcx), %sil
movb %sil, 11(%rdx)
movb 12(%rcx), %sil
movb %sil, 12(%rdx)
movb 13(%rcx), %sil
movb %sil, 13(%rdx)
movb 14(%rcx), %sil
movb %sil, 14(%rdx)
movb 15(%rcx), %sil
movb %sil, 15(%rdx)
movb 16(%rcx), %sil
movb %sil, 16(%rdx)
movb 17(%rcx), %sil
movb %sil, 17(%rdx)
movb 18(%rcx), %sil
movb %sil, 18(%rdx)
movb 19(%rcx), %sil
movb %sil, 19(%rdx)
movb 20(%rcx), %sil
movb %sil, 20(%rdx)
movb 21(%rcx), %sil
movb %sil, 21(%rdx)
movb 22(%rcx), %sil
movb %sil, 22(%rdx)
movb 23(%rcx), %sil
movb %sil, 23(%rdx)
movb 24(%rcx), %sil
movb %sil, 24(%rdx)
movb 25(%rcx), %sil
movb %sil, 25(%rdx)
movb 26(%rcx), %sil
movb %sil, 26(%rdx)
movb 27(%rcx), %sil
movb %sil, 27(%rdx)
movb 28(%rcx), %sil
movb %sil, 28(%rdx)
movb 29(%rcx), %sil
movb %sil, 29(%rdx)
movb 30(%rcx), %sil
movb %sil, 30(%rdx)
movb 31(%rcx), %sil
movb %sil, 31(%rdx)
movb 32(%rcx), %sil
movb %sil, 32(%rdx)
movb 33(%rcx), %sil
movb %sil, 33(%rdx)
movb 34(%rcx), %sil
movb %sil, 34(%rdx)
movb 35(%rcx), %sil
movb %sil, 35(%rdx)
movb 36(%rcx), %sil
movb %sil, 36(%rdx)
movb 37(%rcx), %sil
movb %sil, 37(%rdx)
movb 38(%rcx), %sil
movb %sil, 38(%rdx)
movb 39(%rcx), %sil
movb %sil, 39(%rdx)
movb 40(%rcx), %sil
movb %sil, 40(%rdx)
movb 41(%rcx), %sil
movb %sil, 41(%rdx)
movb 42(%rcx), %sil
movb %sil, 42(%rdx)
movb 43(%rcx), %sil
movb %sil, 43(%rdx)
movb 44(%rcx), %sil
movb %sil, 44(%rdx)
movb 45(%rcx), %sil
movb %sil, 45(%rdx)
movb 46(%rcx), %sil
movb %sil, 46(%rdx)
movb 47(%rcx), %sil
movb %sil, 47(%rdx)
movb 48(%rcx), %sil
movb %sil, 48(%rdx)
movb 49(%rcx), %sil
movb %sil, 49(%rdx)
movb 50(%rcx), %sil
movb %sil, 50(%rdx)
movb 51(%rcx), %sil
movb %sil, 51(%rdx)
movb 52(%rcx), %sil
movb %sil, 52(%rdx)
movb 53(%rcx), %sil
movb %sil, 53(%rdx)
movb 54(%rcx), %sil
movb %sil, 54(%rdx)
movb 55(%rcx), %sil
movb %sil, 55(%rdx)
movb 56(%rcx), %sil
movb %sil, 56(%rdx)
movb 57(%rcx), %sil
movb %sil, 57(%rdx)
movb 58(%rcx), %sil
movb %sil, 58(%rdx)
movb 59(%rcx), %sil
movb %sil, 59(%rdx)
movb 60(%rcx), %sil
movb %sil, 60(%rdx)
movb 61(%rcx), %sil
movb %sil, 61(%rdx)
movb 62(%rcx), %sil
movb %sil, 62(%rdx)
movb 63(%rcx), %sil
movb %sil, 63(%rdx)
movb 64(%rcx), %sil
movb %sil, 64(%rdx)
movb 65(%rcx), %sil
movb %sil, 65(%rdx)
movb 66(%rcx), %sil
movb %sil, 66(%rdx)
movb 67(%rcx), %sil
movb %sil, 67(%rdx)
movb 68(%rcx), %sil
movb %sil, 68(%rdx)
movb 69(%rcx), %sil
movb %sil, 69(%rdx)
movb 70(%rcx), %sil
movb %sil, 70(%rdx)
movb 71(%rcx), %sil
movb %sil, 71(%rdx)
movb 72(%rcx), %sil
movb %sil, 72(%rdx)
movb 73(%rcx), %sil
movb %sil, 73(%rdx)
movb 74(%rcx), %sil
movb %sil, 74(%rdx)
movb 75(%rcx), %sil
movb %sil, 75(%rdx)
movb 76(%rcx), %sil
movb %sil, 76(%rdx)
movb 77(%rcx), %sil
movb %sil, 77(%rdx)
movb 78(%rcx), %sil
movb %sil, 78(%rdx)
movb 79(%rcx), %sil
movb %sil, 79(%rdx)
movb 80(%rcx), %sil
movb %sil, 80(%rdx)
movb 81(%rcx), %sil
movb %sil, 81(%rdx)
movb 82(%rcx), %sil
movb %sil, 82(%rdx)
movb 83(%rcx), %sil
movb %sil, 83(%rdx)
movb 84(%rcx), %sil
movb %sil, 84(%rdx)
movb 85(%rcx), %sil
movb %sil, 85(%rdx)
movb 86(%rcx), %sil
movb %sil, 86(%rdx)
movb 87(%rcx), %sil
movb %sil, 87(%rdx)
movb 88(%rcx), %sil
movb %sil, 88(%rdx)
movb 89(%rcx), %sil
movb %sil, 89(%rdx)
movb 90(%rcx), %sil
movb %sil, 90(%rdx)
movb 91(%rcx), %sil
movb %sil, 91(%rdx)
movb 92(%rcx), %sil
movb %sil, 92(%rdx)
movb 93(%rcx), %sil
movb %sil, 93(%rdx)
movb 94(%rcx), %sil
movb %sil, 94(%rdx)
movb 95(%rcx), %sil
movb %sil, 95(%rdx)
movb 96(%rcx), %sil
movb %sil, 96(%rdx)
movb 97(%rcx), %sil
movb %sil, 97(%rdx)
movb 98(%rcx), %sil
movb %sil, 98(%rdx)
movb 99(%rcx), %sil
movb %sil, 99(%rdx)
movb 100(%rcx), %sil
movb %sil, 100(%rdx)
movb 101(%rcx), %sil
movb %sil, 101(%rdx)
movb 102(%rcx), %sil
movb %sil, 102(%rdx)
movb 103(%rcx), %sil
movb %sil, 103(%rdx)
movb 104(%rcx), %sil
movb %sil, 104(%rdx)
movb 105(%rcx), %sil
movb %sil, 105(%rdx)
movb 106(%rcx), %sil
movb %sil, 106(%rdx)
movb 107(%rcx), %sil
movb %sil, 107(%rdx)
movb 108(%rcx), %sil
movb %sil, 108(%rdx)
movb 109(%rcx), %sil
movb %sil, 109(%rdx)
movb 110(%rcx), %sil
movb %sil, 110(%rdx)
movb 111(%rcx), %sil
movb %sil, 111(%rdx)
movb 112(%rcx), %sil
movb %sil, 112(%rdx)
movb 113(%rcx), %sil
movb %sil, 113(%rdx)
movb 114(%rcx), %sil
movb %sil, 114(%rdx)
movb 115(%rcx), %sil
movb %sil, 115(%rdx)
movb 116(%rcx), %sil
movb %sil, 116(%rdx)
movb 117(%rcx), %sil
movb %sil, 117(%rdx)
movb 118(%rcx), %sil
movb %sil, 118(%rdx)
movb 119(%rcx), %sil
movb %sil, 119(%rdx)
movb 120(%rcx), %sil
movb %sil, 120(%rdx)
movb 121(%rcx), %sil
movb %sil, 121(%rdx)
movb 122(%rcx), %sil
movb %sil, 122(%rdx)
movb 123(%rcx), %sil
movb %sil, 123(%rdx)
movb 124(%rcx), %sil
movb %sil, 124(%rdx)
movb 125(%rcx), %sil
movb %sil, 125(%rdx)
movb 126(%rcx), %sil
movb %sil, 126(%rdx)
movb 127(%rcx), %cl
movb %cl, 127(%rdx)
ret
L_keccakf1600_ref1$1:
leaq glob_data + 0(%rip), %rdx
movq %rdx, 8(%rsp)
leaq 32(%rsp), %rdx
movq $0, %r11
jmp L_keccakf1600_ref1$2
L_keccakf1600_ref1$3:
movq %r11, 16(%rsp)
movq 8(%rsp), %rsi
movq (%rsi,%r11,8), %rsi
movq %rsi, 24(%rsp)
movq (%rcx), %r10
movq 8(%rcx), %r9
movq 16(%rcx), %rbx
movq 24(%rcx), %rbp
movq 32(%rcx), %r12
xorq 40(%rcx), %r10
xorq 48(%rcx), %r9
xorq 56(%rcx), %rbx
xorq 64(%rcx), %rbp
xorq 72(%rcx), %r12
xorq 80(%rcx), %r10
xorq 88(%rcx), %r9
xorq 96(%rcx), %rbx
xorq 104(%rcx), %rbp
xorq 112(%rcx), %r12
xorq 120(%rcx), %r10
xorq 128(%rcx), %r9
xorq 136(%rcx), %rbx
xorq 144(%rcx), %rbp
xorq 152(%rcx), %r12
xorq 160(%rcx), %r10
xorq 168(%rcx), %r9
xorq 176(%rcx), %rbx
xorq 184(%rcx), %rbp
xorq 192(%rcx), %r12
movq %r9, %rsi
rolq $1, %rsi
xorq %r12, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r10, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r9, %r8
movq %r12, %r9
rolq $1, %r9
xorq %rbx, %r9
rolq $1, %r10
xorq %rbp, %r10
movq (%rcx), %rbx
xorq %rsi, %rbx
movq 48(%rcx), %rbp
xorq %rdi, %rbp
rolq $44, %rbp
movq 96(%rcx), %r12
xorq %r8, %r12
rolq $43, %r12
movq 144(%rcx), %r13
xorq %r9, %r13
rolq $21, %r13
movq 192(%rcx), %r14
xorq %r10, %r14
rolq $14, %r14
movq %rbp, %r15
notq %r15
andq %r12, %r15
xorq %rbx, %r15
xorq 24(%rsp), %r15
movq %r15, (%rdx)
movq %r12, %r15
notq %r15
andq %r13, %r15
xorq %rbp, %r15
movq %r15, 8(%rdx)
movq %r13, %r15
notq %r15
andq %r14, %r15
xorq %r12, %r15
movq %r15, 16(%rdx)
movq %r14, %r12
notq %r12
andq %rbx, %r12
xorq %r13, %r12
movq %r12, 24(%rdx)
notq %rbx
andq %rbp, %rbx
xorq %r14, %rbx
movq %rbx, 32(%rdx)
movq 24(%rcx), %rbx
xorq %r9, %rbx
rolq $28, %rbx
movq 72(%rcx), %rbp
xorq %r10, %rbp
rolq $20, %rbp
movq 80(%rcx), %r12
xorq %rsi, %r12
rolq $3, %r12
movq 128(%rcx), %r13
xorq %rdi, %r13
rolq $45, %r13
movq 176(%rcx), %r14
xorq %r8, %r14
rolq $61, %r14
movq %rbp, %r15
notq %r15
andq %r12, %r15
xorq %rbx, %r15
movq %r15, 40(%rdx)
movq %r12, %r15
notq %r15
andq %r13, %r15
xorq %rbp, %r15
movq %r15, 48(%rdx)
movq %r13, %r15
notq %r15
andq %r14, %r15
xorq %r12, %r15
movq %r15, 56(%rdx)
movq %r14, %r12
notq %r12
andq %rbx, %r12
xorq %r13, %r12
movq %r12, 64(%rdx)
notq %rbx
andq %rbp, %rbx
xorq %r14, %rbx
movq %rbx, 72(%rdx)
movq 8(%rcx), %rbx
xorq %rdi, %rbx
rolq $1, %rbx
movq 56(%rcx), %rbp
xorq %r8, %rbp
rolq $6, %rbp
movq 104(%rcx), %r12
xorq %r9, %r12
rolq $25, %r12
movq 152(%rcx), %r13
xorq %r10, %r13
rolq $8, %r13
movq 160(%rcx), %r14
xorq %rsi, %r14
rolq $18, %r14
movq %rbp, %r15
notq %r15
andq %r12, %r15
xorq %rbx, %r15
movq %r15, 80(%rdx)
movq %r12, %r15
notq %r15
andq %r13, %r15
xorq %rbp, %r15
movq %r15, 88(%rdx)
movq %r13, %r15
notq %r15
andq %r14, %r15
xorq %r12, %r15
movq %r15, 96(%rdx)
movq %r14, %r12
notq %r12
andq %rbx, %r12
xorq %r13, %r12
movq %r12, 104(%rdx)
notq %rbx
andq %rbp, %rbx
xorq %r14, %rbx
movq %rbx, 112(%rdx)
movq 32(%rcx), %rbx
xorq %r10, %rbx
rolq $27, %rbx
movq 40(%rcx), %rbp
xorq %rsi, %rbp
rolq $36, %rbp
movq 88(%rcx), %r12
xorq %rdi, %r12
rolq $10, %r12
movq 136(%rcx), %r13
xorq %r8, %r13
rolq $15, %r13
movq 184(%rcx), %r14
xorq %r9, %r14
rolq $56, %r14
movq %rbp, %r15
notq %r15
andq %r12, %r15
xorq %rbx, %r15
movq %r15, 120(%rdx)
movq %r12, %r15
notq %r15
andq %r13, %r15
xorq %rbp, %r15
movq %r15, 128(%rdx)
movq %r13, %r15
notq %r15
andq %r14, %r15
xorq %r12, %r15
movq %r15, 136(%rdx)
movq %r14, %r12
notq %r12
andq %rbx, %r12
xorq %r13, %r12
movq %r12, 144(%rdx)
notq %rbx
andq %rbp, %rbx
xorq %r14, %rbx
movq %rbx, 152(%rdx)
movq 16(%rcx), %rbx
xorq %r8, %rbx
rolq $62, %rbx
movq 64(%rcx), %r8
xorq %r9, %r8
rolq $55, %r8
movq 112(%rcx), %r9
xorq %r10, %r9
rolq $39, %r9
movq 120(%rcx), %r10
xorq %rsi, %r10
rolq $41, %r10
movq 168(%rcx), %rsi
xorq %rdi, %rsi
rolq $2, %rsi
movq %r8, %rdi
notq %rdi
andq %r9, %rdi
xorq %rbx, %rdi
movq %rdi, 160(%rdx)
movq %r9, %rdi
notq %rdi
andq %r10, %rdi
xorq %r8, %rdi
movq %rdi, 168(%rdx)
movq %r10, %rdi
notq %rdi
andq %rsi, %rdi
xorq %r9, %rdi
movq %rdi, 176(%rdx)
movq %rsi, %rdi
notq %rdi
andq %rbx, %rdi
xorq %r10, %rdi
movq %rdi, 184(%rdx)
notq %rbx
andq %r8, %rbx
xorq %rsi, %rbx
movq %rbx, 192(%rdx)
movq 8(%rsp), %rsi
movq 8(%rsi,%r11,8), %rsi
movq %rsi, 24(%rsp)
movq (%rdx), %r10
movq 8(%rdx), %r9
movq 16(%rdx), %r11
movq 24(%rdx), %rbx
movq 32(%rdx), %rbp
xorq 40(%rdx), %r10
xorq 48(%rdx), %r9
xorq 56(%rdx), %r11
xorq 64(%rdx), %rbx
xorq 72(%rdx), %rbp
xorq 80(%rdx), %r10
xorq 88(%rdx), %r9
xorq 96(%rdx), %r11
xorq 104(%rdx), %rbx
xorq 112(%rdx), %rbp
xorq 120(%rdx), %r10
xorq 128(%rdx), %r9
xorq 136(%rdx), %r11
xorq 144(%rdx), %rbx
xorq 152(%rdx), %rbp
xorq 160(%rdx), %r10
xorq 168(%rdx), %r9
xorq 176(%rdx), %r11
xorq 184(%rdx), %rbx
xorq 192(%rdx), %rbp
movq %r9, %rsi
rolq $1, %rsi
xorq %rbp, %rsi
movq %r11, %rdi
rolq $1, %rdi
xorq %r10, %rdi
movq %rbx, %r8
rolq $1, %r8
xorq %r9, %r8
movq %rbp, %r9
rolq $1, %r9
xorq %r11, %r9
rolq $1, %r10
xorq %rbx, %r10
movq (%rdx), %r11
xorq %rsi, %r11
movq 48(%rdx), %rbx
xorq %rdi, %rbx
rolq $44, %rbx
movq 96(%rdx), %rbp
xorq %r8, %rbp
rolq $43, %rbp
movq 144(%rdx), %r12
xorq %r9, %r12
rolq $21, %r12
movq 192(%rdx), %r13
xorq %r10, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq 24(%rsp), %r14
movq %r14, (%rcx)
movq %rbp, %r14
notq %r14
andq %r12, %r14
xorq %rbx, %r14
movq %r14, 8(%rcx)
movq %r12, %r14
notq %r14
andq %r13, %r14
xorq %rbp, %r14
movq %r14, 16(%rcx)
movq %r13, %rbp
notq %rbp
andq %r11, %rbp
xorq %r12, %rbp
movq %rbp, 24(%rcx)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 32(%rcx)
movq 24(%rdx), %r11
xorq %r9, %r11
rolq $28, %r11
movq 72(%rdx), %rbx
xorq %r10, %rbx
rolq $20, %rbx
movq 80(%rdx), %rbp
xorq %rsi, %rbp
rolq $3, %rbp
movq 128(%rdx), %r12
xorq %rdi, %r12
rolq $45, %r12
movq 176(%rdx), %r13
xorq %r8, %r13
rolq $61, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
movq %r14, 40(%rcx)
movq %rbp, %r14
notq %r14
andq %r12, %r14
xorq %rbx, %r14
movq %r14, 48(%rcx)
movq %r12, %r14
notq %r14
andq %r13, %r14
xorq %rbp, %r14
movq %r14, 56(%rcx)
movq %r13, %rbp
notq %rbp
andq %r11, %rbp
xorq %r12, %rbp
movq %rbp, 64(%rcx)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 72(%rcx)
movq 8(%rdx), %r11
xorq %rdi, %r11
rolq $1, %r11
movq 56(%rdx), %rbx
xorq %r8, %rbx
rolq $6, %rbx
movq 104(%rdx), %rbp
xorq %r9, %rbp
rolq $25, %rbp
movq 152(%rdx), %r12
xorq %r10, %r12
rolq $8, %r12
movq 160(%rdx), %r13
xorq %rsi, %r13
rolq $18, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
movq %r14, 80(%rcx)
movq %rbp, %r14
notq %r14
andq %r12, %r14
xorq %rbx, %r14
movq %r14, 88(%rcx)
movq %r12, %r14
notq %r14
andq %r13, %r14
xorq %rbp, %r14
movq %r14, 96(%rcx)
movq %r13, %rbp
notq %rbp
andq %r11, %rbp
xorq %r12, %rbp
movq %rbp, 104(%rcx)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 112(%rcx)
movq 32(%rdx), %r11
xorq %r10, %r11
rolq $27, %r11
movq 40(%rdx), %rbx
xorq %rsi, %rbx
rolq $36, %rbx
movq 88(%rdx), %rbp
xorq %rdi, %rbp
rolq $10, %rbp
movq 136(%rdx), %r12
xorq %r8, %r12
rolq $15, %r12
movq 184(%rdx), %r13
xorq %r9, %r13
rolq $56, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
movq %r14, 120(%rcx)
movq %rbp, %r14
notq %r14
andq %r12, %r14
xorq %rbx, %r14
movq %r14, 128(%rcx)
movq %r12, %r14
notq %r14
andq %r13, %r14
xorq %rbp, %r14
movq %r14, 136(%rcx)
movq %r13, %rbp
notq %rbp
andq %r11, %rbp
xorq %r12, %rbp
movq %rbp, 144(%rcx)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 152(%rcx)
movq 16(%rdx), %r11
xorq %r8, %r11
rolq $62, %r11
movq 64(%rdx), %r8
xorq %r9, %r8
rolq $55, %r8
movq 112(%rdx), %r9
xorq %r10, %r9
rolq $39, %r9
movq 120(%rdx), %r10
xorq %rsi, %r10
rolq $41, %r10
movq 168(%rdx), %rsi
xorq %rdi, %rsi
rolq $2, %rsi
movq %r8, %rdi
notq %rdi
andq %r9, %rdi
xorq %r11, %rdi
movq %rdi, 160(%rcx)
movq %r9, %rdi
notq %rdi
andq %r10, %rdi
xorq %r8, %rdi
movq %rdi, 168(%rcx)
movq %r10, %rdi
notq %rdi
andq %rsi, %rdi
xorq %r9, %rdi
movq %rdi, 176(%rcx)
movq %rsi, %rdi
notq %rdi
andq %r11, %rdi
xorq %r10, %rdi
movq %rdi, 184(%rcx)
notq %r11
andq %r8, %r11
xorq %rsi, %r11
movq %r11, 192(%rcx)
movq 16(%rsp), %r11
addq $2, %r11
L_keccakf1600_ref1$2:
cmpq $23, %r11
jb L_keccakf1600_ref1$3
ret
.data
.p2align 5
_glob_data:
glob_data:
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -91
.byte 6
.byte 15
.byte 7
.byte -76
.byte 5
.byte 67
.byte 9
.byte 34
.byte 9
.byte 29
.byte 9
.byte 52
.byte 1
.byte 108
.byte 0
.byte 35
.byte 11
.byte 102
.byte 3
.byte 86
.byte 3
.byte -26
.byte 5
.byte -25
.byte 9
.byte -2
.byte 4
.byte -6
.byte 5
.byte -95
.byte 4
.byte 123
.byte 6
.byte -93
.byte 4
.byte 37
.byte 12
.byte 106
.byte 3
.byte 55
.byte 5
.byte 63
.byte 8
.byte -120
.byte 0
.byte -65
.byte 4
.byte -127
.byte 11
.byte -71
.byte 5
.byte 5
.byte 5
.byte -41
.byte 7
.byte -97
.byte 10
.byte -90
.byte 10
.byte -72
.byte 8
.byte -48
.byte 9
.byte 75
.byte 0
.byte -100
.byte 0
.byte -72
.byte 11
.byte 95
.byte 11
.byte -92
.byte 11
.byte 104
.byte 3
.byte 125
.byte 10
.byte 54
.byte 6
.byte -94
.byte 8
.byte 90
.byte 2
.byte 54
.byte 7
.byte 9
.byte 3
.byte -109
.byte 0
.byte 122
.byte 8
.byte -9
.byte 9
.byte -10
.byte 0
.byte -116
.byte 6
.byte -37
.byte 6
.byte -52
.byte 1
.byte 35
.byte 1
.byte -21
.byte 0
.byte 80
.byte 12
.byte -74
.byte 10
.byte 91
.byte 11
.byte -104
.byte 12
.byte -13
.byte 6
.byte -102
.byte 9
.byte -29
.byte 4
.byte -74
.byte 9
.byte -42
.byte 10
.byte 83
.byte 11
.byte 79
.byte 4
.byte -5
.byte 4
.byte 92
.byte 10
.byte 41
.byte 4
.byte 65
.byte 11
.byte -43
.byte 2
.byte -28
.byte 5
.byte 64
.byte 9
.byte -114
.byte 1
.byte -73
.byte 3
.byte -9
.byte 0
.byte -115
.byte 5
.byte -106
.byte 12
.byte -61
.byte 9
.byte 15
.byte 1
.byte 90
.byte 0
.byte 85
.byte 3
.byte 68
.byte 7
.byte -125
.byte 12
.byte -118
.byte 4
.byte 82
.byte 6
.byte -102
.byte 2
.byte 64
.byte 1
.byte 8
.byte 0
.byte -3
.byte 10
.byte 8
.byte 6
.byte 26
.byte 1
.byte 46
.byte 7
.byte 13
.byte 5
.byte 10
.byte 9
.byte 40
.byte 2
.byte 117
.byte 10
.byte 58
.byte 8
.byte 35
.byte 6
.byte -51
.byte 0
.byte 102
.byte 11
.byte 6
.byte 6
.byte -95
.byte 10
.byte 37
.byte 10
.byte 8
.byte 9
.byte -87
.byte 2
.byte -126
.byte 0
.byte 66
.byte 6
.byte 79
.byte 7
.byte 61
.byte 3
.byte -126
.byte 11
.byte -7
.byte 11
.byte 45
.byte 5
.byte -60
.byte 10
.byte 69
.byte 7
.byte -62
.byte 5
.byte -78
.byte 4
.byte 63
.byte 9
.byte 75
.byte 12
.byte -40
.byte 6
.byte -109
.byte 10
.byte -85
.byte 0
.byte 55
.byte 12
.byte -30
.byte 11
.byte 115
.byte 7
.byte 44
.byte 7
.byte -19
.byte 5
.byte 103
.byte 1
.byte -10
.byte 2
.byte -95
.byte 5
.byte -19
.byte 8
.byte 11
.byte 10
.byte -102
.byte 11
.byte 20
.byte 7
.byte -43
.byte 5
.byte -114
.byte 5
.byte 31
.byte 1
.byte -54
.byte 0
.byte 86
.byte 12
.byte 110
.byte 2
.byte 41
.byte 6
.byte -74
.byte 0
.byte -62
.byte 3
.byte 79
.byte 8
.byte 63
.byte 7
.byte -68
.byte 5
.byte 61
.byte 2
.byte -44
.byte 7
.byte 8
.byte 1
.byte 127
.byte 1
.byte -60
.byte 9
.byte -78
.byte 5
.byte -65
.byte 6
.byte 127
.byte 12
.byte 88
.byte 10
.byte -7
.byte 3
.byte -36
.byte 2
.byte 96
.byte 2
.byte -5
.byte 6
.byte -101
.byte 1
.byte 52
.byte 12
.byte -34
.byte 6
.byte -57
.byte 4
.byte -116
.byte 2
.byte -39
.byte 10
.byte -9
.byte 3
.byte -12
.byte 7
.byte -45
.byte 5
.byte -25
.byte 11
.byte -7
.byte 6
.byte 4
.byte 2
.byte -7
.byte 12
.byte -63
.byte 11
.byte 103
.byte 10
.byte -81
.byte 6
.byte 119
.byte 8
.byte 126
.byte 0
.byte -67
.byte 5
.byte -84
.byte 9
.byte -89
.byte 12
.byte -14
.byte 11
.byte 62
.byte 3
.byte 107
.byte 0
.byte 116
.byte 7
.byte 10
.byte 12
.byte 74
.byte 9
.byte 115
.byte 11
.byte -63
.byte 3
.byte 29
.byte 7
.byte 44
.byte 10
.byte -64
.byte 1
.byte -40
.byte 8
.byte -91
.byte 2
.byte 6
.byte 8
.byte -78
.byte 8
.byte -82
.byte 1
.byte 43
.byte 2
.byte 75
.byte 3
.byte 30
.byte 8
.byte 103
.byte 3
.byte 14
.byte 6
.byte 105
.byte 0
.byte -90
.byte 1
.byte 75
.byte 2
.byte -79
.byte 0
.byte 22
.byte 12
.byte -34
.byte 11
.byte 53
.byte 11
.byte 38
.byte 6
.byte 117
.byte 6
.byte 11
.byte 12
.byte 10
.byte 3
.byte -121
.byte 4
.byte 110
.byte 12
.byte -8
.byte 9
.byte -53
.byte 5
.byte -89
.byte 10
.byte 95
.byte 4
.byte -53
.byte 6
.byte -124
.byte 2
.byte -103
.byte 9
.byte 93
.byte 1
.byte -94
.byte 1
.byte 73
.byte 1
.byte 101
.byte 12
.byte -74
.byte 12
.byte 49
.byte 3
.byte 73
.byte 4
.byte 91
.byte 2
.byte 98
.byte 2
.byte 42
.byte 5
.byte -4
.byte 7
.byte 72
.byte 7
.byte -128
.byte 1
.byte 66
.byte 8
.byte 121
.byte 12
.byte -62
.byte 4
.byte -54
.byte 7
.byte -105
.byte 9
.byte -36
.byte 0
.byte 94
.byte 8
.byte -122
.byte 6
.byte 96
.byte 8
.byte 7
.byte 7
.byte 3
.byte 8
.byte 26
.byte 3
.byte 27
.byte 7
.byte -85
.byte 9
.byte -101
.byte 9
.byte -34
.byte 1
.byte -107
.byte 12
.byte -51
.byte 11
.byte -28
.byte 3
.byte -33
.byte 3
.byte -66
.byte 3
.byte 77
.byte 7
.byte -14
.byte 5
.byte 92
.byte 6
|
usenix-security-verdict/verdict
| 31,350
|
deps/libcrux/sys/libjade/jazz/sha3_384_ref.s
|
.att_syntax
.text
.p2align 5
.globl _jade_hash_sha3_384_amd64_ref
.globl jade_hash_sha3_384_amd64_ref
_jade_hash_sha3_384_amd64_ref:
jade_hash_sha3_384_amd64_ref:
movq %rsp, %rax
leaq -48(%rsp), %rsp
andq $-8, %rsp
movq %rax, 40(%rsp)
movq %rbx, (%rsp)
movq %rbp, 8(%rsp)
movq %r12, 16(%rsp)
movq %r13, 24(%rsp)
movq %r14, 32(%rsp)
movq $48, %rcx
movb $6, %r8b
movq $104, %rax
leaq -448(%rsp), %rsp
call L_keccak1600_ref$1
Ljade_hash_sha3_384_amd64_ref$1:
leaq 448(%rsp), %rsp
xorq %rax, %rax
movq (%rsp), %rbx
movq 8(%rsp), %rbp
movq 16(%rsp), %r12
movq 24(%rsp), %r13
movq 32(%rsp), %r14
movq 40(%rsp), %rsp
ret
L_keccak1600_ref$1:
movq %rdi, 8(%rsp)
movq %rcx, 16(%rsp)
movb %r8b, 448(%rsp)
xorq %rcx, %rcx
movq %rcx, 48(%rsp)
movq %rcx, 56(%rsp)
movq %rcx, 64(%rsp)
movq %rcx, 72(%rsp)
movq %rcx, 80(%rsp)
movq %rcx, 88(%rsp)
movq %rcx, 96(%rsp)
movq %rcx, 104(%rsp)
movq %rcx, 112(%rsp)
movq %rcx, 120(%rsp)
movq %rcx, 128(%rsp)
movq %rcx, 136(%rsp)
movq %rcx, 144(%rsp)
movq %rcx, 152(%rsp)
movq %rcx, 160(%rsp)
movq %rcx, 168(%rsp)
movq %rcx, 176(%rsp)
movq %rcx, 184(%rsp)
movq %rcx, 192(%rsp)
movq %rcx, 200(%rsp)
movq %rcx, 208(%rsp)
movq %rcx, 216(%rsp)
movq %rcx, 224(%rsp)
movq %rcx, 232(%rsp)
movq %rcx, 240(%rsp)
jmp L_keccak1600_ref$16
L_keccak1600_ref$17:
movq %rax, %rcx
shrq $3, %rcx
movq $0, %rdi
jmp L_keccak1600_ref$19
L_keccak1600_ref$20:
movq (%rsi,%rdi,8), %r8
xorq %r8, 48(%rsp,%rdi,8)
incq %rdi
L_keccak1600_ref$19:
cmpq %rcx, %rdi
jb L_keccak1600_ref$20
addq %rax, %rsi
subq %rax, %rdx
movq %rsi, 24(%rsp)
movq %rdx, 32(%rsp)
movq %rax, 40(%rsp)
leaq glob_data + 0(%rip), %rax
movq $0, %rcx
L_keccak1600_ref$18:
movq (%rax,%rcx,8), %r10
movq 48(%rsp), %r9
movq 56(%rsp), %r8
movq 64(%rsp), %r11
movq 72(%rsp), %rbx
movq 80(%rsp), %rbp
xorq 88(%rsp), %r9
xorq 96(%rsp), %r8
xorq 104(%rsp), %r11
xorq 112(%rsp), %rbx
xorq 120(%rsp), %rbp
xorq 128(%rsp), %r9
xorq 136(%rsp), %r8
xorq 144(%rsp), %r11
xorq 152(%rsp), %rbx
xorq 160(%rsp), %rbp
xorq 168(%rsp), %r9
xorq 176(%rsp), %r8
xorq 184(%rsp), %r11
xorq 192(%rsp), %rbx
xorq 200(%rsp), %rbp
xorq 208(%rsp), %r9
xorq 216(%rsp), %r8
xorq 224(%rsp), %r11
xorq 232(%rsp), %rbx
xorq 240(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 48(%rsp), %r11
xorq %rdx, %r11
movq 96(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 144(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 192(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 240(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 248(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 256(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 264(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 272(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 280(%rsp)
movq 72(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 120(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 128(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 176(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 224(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 288(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 296(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 304(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 312(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 320(%rsp)
movq 56(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 104(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 152(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 200(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 208(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 328(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 336(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 344(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 352(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 360(%rsp)
movq 80(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 88(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 136(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 184(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 232(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 368(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 376(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 384(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 392(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 400(%rsp)
movq 64(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 112(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 160(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 168(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 216(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 408(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 416(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 424(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 432(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 440(%rsp)
movq 8(%rax,%rcx,8), %r10
movq 248(%rsp), %r9
movq 256(%rsp), %r8
movq 264(%rsp), %r11
movq 272(%rsp), %rbx
movq 280(%rsp), %rbp
xorq 288(%rsp), %r9
xorq 296(%rsp), %r8
xorq 304(%rsp), %r11
xorq 312(%rsp), %rbx
xorq 320(%rsp), %rbp
xorq 328(%rsp), %r9
xorq 336(%rsp), %r8
xorq 344(%rsp), %r11
xorq 352(%rsp), %rbx
xorq 360(%rsp), %rbp
xorq 368(%rsp), %r9
xorq 376(%rsp), %r8
xorq 384(%rsp), %r11
xorq 392(%rsp), %rbx
xorq 400(%rsp), %rbp
xorq 408(%rsp), %r9
xorq 416(%rsp), %r8
xorq 424(%rsp), %r11
xorq 432(%rsp), %rbx
xorq 440(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 248(%rsp), %r11
xorq %rdx, %r11
movq 296(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 344(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 392(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 440(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 48(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 56(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 64(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 72(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 80(%rsp)
movq 272(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 320(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 328(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 376(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 424(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 88(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 96(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 104(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 112(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 120(%rsp)
movq 256(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 304(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 352(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 400(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 408(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 128(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 136(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 144(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 152(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 160(%rsp)
movq 280(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 288(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 336(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 384(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 432(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 168(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 176(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 184(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 192(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 200(%rsp)
movq 264(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 312(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 360(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 368(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 416(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 208(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 216(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 224(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 232(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 240(%rsp)
addq $2, %rcx
cmpq $23, %rcx
jb L_keccak1600_ref$18
movq 24(%rsp), %rsi
movq 32(%rsp), %rdx
movq 40(%rsp), %rax
L_keccak1600_ref$16:
cmpq %rax, %rdx
jnb L_keccak1600_ref$17
movb 448(%rsp), %cl
movq %rdx, %rdi
shrq $3, %rdi
movq $0, %r8
jmp L_keccak1600_ref$14
L_keccak1600_ref$15:
movq (%rsi,%r8,8), %r9
xorq %r9, 48(%rsp,%r8,8)
incq %r8
L_keccak1600_ref$14:
cmpq %rdi, %r8
jb L_keccak1600_ref$15
shlq $3, %r8
jmp L_keccak1600_ref$12
L_keccak1600_ref$13:
movb (%rsi,%r8), %dil
xorb %dil, 48(%rsp,%r8)
incq %r8
L_keccak1600_ref$12:
cmpq %rdx, %r8
jb L_keccak1600_ref$13
xorb %cl, 48(%rsp,%r8)
movq %rax, %rcx
addq $-1, %rcx
xorb $-128, 48(%rsp,%rcx)
movq 16(%rsp), %rdx
jmp L_keccak1600_ref$7
L_keccak1600_ref$8:
movq %rdx, 16(%rsp)
movq %rax, 40(%rsp)
leaq glob_data + 0(%rip), %rax
movq $0, %rcx
L_keccak1600_ref$11:
movq (%rax,%rcx,8), %r10
movq 48(%rsp), %r9
movq 56(%rsp), %r8
movq 64(%rsp), %r11
movq 72(%rsp), %rbx
movq 80(%rsp), %rbp
xorq 88(%rsp), %r9
xorq 96(%rsp), %r8
xorq 104(%rsp), %r11
xorq 112(%rsp), %rbx
xorq 120(%rsp), %rbp
xorq 128(%rsp), %r9
xorq 136(%rsp), %r8
xorq 144(%rsp), %r11
xorq 152(%rsp), %rbx
xorq 160(%rsp), %rbp
xorq 168(%rsp), %r9
xorq 176(%rsp), %r8
xorq 184(%rsp), %r11
xorq 192(%rsp), %rbx
xorq 200(%rsp), %rbp
xorq 208(%rsp), %r9
xorq 216(%rsp), %r8
xorq 224(%rsp), %r11
xorq 232(%rsp), %rbx
xorq 240(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 48(%rsp), %r11
xorq %rdx, %r11
movq 96(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 144(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 192(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 240(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 248(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 256(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 264(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 272(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 280(%rsp)
movq 72(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 120(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 128(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 176(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 224(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 288(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 296(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 304(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 312(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 320(%rsp)
movq 56(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 104(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 152(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 200(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 208(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 328(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 336(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 344(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 352(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 360(%rsp)
movq 80(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 88(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 136(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 184(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 232(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 368(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 376(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 384(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 392(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 400(%rsp)
movq 64(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 112(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 160(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 168(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 216(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 408(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 416(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 424(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 432(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 440(%rsp)
movq 8(%rax,%rcx,8), %r10
movq 248(%rsp), %r9
movq 256(%rsp), %r8
movq 264(%rsp), %r11
movq 272(%rsp), %rbx
movq 280(%rsp), %rbp
xorq 288(%rsp), %r9
xorq 296(%rsp), %r8
xorq 304(%rsp), %r11
xorq 312(%rsp), %rbx
xorq 320(%rsp), %rbp
xorq 328(%rsp), %r9
xorq 336(%rsp), %r8
xorq 344(%rsp), %r11
xorq 352(%rsp), %rbx
xorq 360(%rsp), %rbp
xorq 368(%rsp), %r9
xorq 376(%rsp), %r8
xorq 384(%rsp), %r11
xorq 392(%rsp), %rbx
xorq 400(%rsp), %rbp
xorq 408(%rsp), %r9
xorq 416(%rsp), %r8
xorq 424(%rsp), %r11
xorq 432(%rsp), %rbx
xorq 440(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 248(%rsp), %r11
xorq %rdx, %r11
movq 296(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 344(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 392(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 440(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 48(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 56(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 64(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 72(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 80(%rsp)
movq 272(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 320(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 328(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 376(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 424(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 88(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 96(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 104(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 112(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 120(%rsp)
movq 256(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 304(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 352(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 400(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 408(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 128(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 136(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 144(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 152(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 160(%rsp)
movq 280(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 288(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 336(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 384(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 432(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 168(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 176(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 184(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 192(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 200(%rsp)
movq 264(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 312(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 360(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 368(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 416(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 208(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 216(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 224(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 232(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 240(%rsp)
addq $2, %rcx
cmpq $23, %rcx
jb L_keccak1600_ref$11
movq 8(%rsp), %rcx
movq 16(%rsp), %rdx
movq 40(%rsp), %rax
movq %rax, %rsi
shrq $3, %rsi
movq $0, %rdi
jmp L_keccak1600_ref$9
L_keccak1600_ref$10:
movq 48(%rsp,%rdi,8), %r8
movq %r8, (%rcx,%rdi,8)
incq %rdi
L_keccak1600_ref$9:
cmpq %rsi, %rdi
jb L_keccak1600_ref$10
addq %rax, %rcx
subq %rax, %rdx
movq %rcx, 8(%rsp)
L_keccak1600_ref$7:
cmpq %rax, %rdx
jnbe L_keccak1600_ref$8
movq %rdx, 40(%rsp)
leaq glob_data + 0(%rip), %rax
movq $0, %rcx
L_keccak1600_ref$6:
movq (%rax,%rcx,8), %r10
movq 48(%rsp), %r9
movq 56(%rsp), %r8
movq 64(%rsp), %r11
movq 72(%rsp), %rbx
movq 80(%rsp), %rbp
xorq 88(%rsp), %r9
xorq 96(%rsp), %r8
xorq 104(%rsp), %r11
xorq 112(%rsp), %rbx
xorq 120(%rsp), %rbp
xorq 128(%rsp), %r9
xorq 136(%rsp), %r8
xorq 144(%rsp), %r11
xorq 152(%rsp), %rbx
xorq 160(%rsp), %rbp
xorq 168(%rsp), %r9
xorq 176(%rsp), %r8
xorq 184(%rsp), %r11
xorq 192(%rsp), %rbx
xorq 200(%rsp), %rbp
xorq 208(%rsp), %r9
xorq 216(%rsp), %r8
xorq 224(%rsp), %r11
xorq 232(%rsp), %rbx
xorq 240(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 48(%rsp), %r11
xorq %rdx, %r11
movq 96(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 144(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 192(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 240(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 248(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 256(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 264(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 272(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 280(%rsp)
movq 72(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 120(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 128(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 176(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 224(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 288(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 296(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 304(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 312(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 320(%rsp)
movq 56(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 104(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 152(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 200(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 208(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 328(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 336(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 344(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 352(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 360(%rsp)
movq 80(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 88(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 136(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 184(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 232(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 368(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 376(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 384(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 392(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 400(%rsp)
movq 64(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 112(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 160(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 168(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 216(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 408(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 416(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 424(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 432(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 440(%rsp)
movq 8(%rax,%rcx,8), %r10
movq 248(%rsp), %r9
movq 256(%rsp), %r8
movq 264(%rsp), %r11
movq 272(%rsp), %rbx
movq 280(%rsp), %rbp
xorq 288(%rsp), %r9
xorq 296(%rsp), %r8
xorq 304(%rsp), %r11
xorq 312(%rsp), %rbx
xorq 320(%rsp), %rbp
xorq 328(%rsp), %r9
xorq 336(%rsp), %r8
xorq 344(%rsp), %r11
xorq 352(%rsp), %rbx
xorq 360(%rsp), %rbp
xorq 368(%rsp), %r9
xorq 376(%rsp), %r8
xorq 384(%rsp), %r11
xorq 392(%rsp), %rbx
xorq 400(%rsp), %rbp
xorq 408(%rsp), %r9
xorq 416(%rsp), %r8
xorq 424(%rsp), %r11
xorq 432(%rsp), %rbx
xorq 440(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 248(%rsp), %r11
xorq %rdx, %r11
movq 296(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 344(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 392(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 440(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 48(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 56(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 64(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 72(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 80(%rsp)
movq 272(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 320(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 328(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 376(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 424(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 88(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 96(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 104(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 112(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 120(%rsp)
movq 256(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 304(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 352(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 400(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 408(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 128(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 136(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 144(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 152(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 160(%rsp)
movq 280(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 288(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 336(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 384(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 432(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 168(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 176(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 184(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 192(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 200(%rsp)
movq 264(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 312(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 360(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 368(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 416(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 208(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 216(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 224(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 232(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 240(%rsp)
addq $2, %rcx
cmpq $23, %rcx
jb L_keccak1600_ref$6
movq 8(%rsp), %rax
movq 40(%rsp), %rcx
movq %rcx, %rdx
shrq $3, %rdx
movq $0, %rsi
jmp L_keccak1600_ref$4
L_keccak1600_ref$5:
movq 48(%rsp,%rsi,8), %rdi
movq %rdi, (%rax,%rsi,8)
incq %rsi
L_keccak1600_ref$4:
cmpq %rdx, %rsi
jb L_keccak1600_ref$5
shlq $3, %rsi
jmp L_keccak1600_ref$2
L_keccak1600_ref$3:
movb 48(%rsp,%rsi), %dl
movb %dl, (%rax,%rsi)
incq %rsi
L_keccak1600_ref$2:
cmpq %rcx, %rsi
jb L_keccak1600_ref$3
ret
.data
.p2align 5
_glob_data:
glob_data:
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
|
usenix-security-verdict/verdict
| 34,209
|
deps/libcrux/sys/libjade/jazz/sha3_384_avx2.s
|
.att_syntax
.text
.p2align 5
.globl _jade_hash_sha3_384_amd64_avx2
.globl jade_hash_sha3_384_amd64_avx2
_jade_hash_sha3_384_amd64_avx2:
jade_hash_sha3_384_amd64_avx2:
movq %rsp, %rax
leaq -40(%rsp), %rsp
andq $-32, %rsp
movq %rax, 32(%rsp)
movq %rbx, (%rsp)
movq %rbp, 8(%rsp)
movq %r12, 16(%rsp)
movq %r13, 24(%rsp)
movq $48, %r9
movb $6, %al
movq $104, %rcx
leaq -224(%rsp), %rsp
leaq Ljade_hash_sha3_384_amd64_avx2$1(%rip), %r10
jmp L_keccak1600_avx2$1
Ljade_hash_sha3_384_amd64_avx2$1:
leaq 224(%rsp), %rsp
xorq %rax, %rax
movq (%rsp), %rbx
movq 8(%rsp), %rbp
movq 16(%rsp), %r12
movq 24(%rsp), %r13
movq 32(%rsp), %rsp
ret
L_keccak1600_avx2$1:
vpxor %ymm6, %ymm6, %ymm6
vpxor %ymm3, %ymm3, %ymm3
vpxor %ymm4, %ymm4, %ymm4
vpxor %ymm0, %ymm0, %ymm0
vpxor %ymm5, %ymm5, %ymm5
vpxor %ymm1, %ymm1, %ymm1
vpxor %ymm2, %ymm2, %ymm2
leaq glob_data + 1152(%rip), %r8
vpxor %ymm7, %ymm7, %ymm7
vmovdqu %ymm7, (%rsp)
vmovdqu %ymm7, 32(%rsp)
vmovdqu %ymm7, 64(%rsp)
vmovdqu %ymm7, 96(%rsp)
vmovdqu %ymm7, 128(%rsp)
vmovdqu %ymm7, 160(%rsp)
vmovdqu %ymm7, 192(%rsp)
jmp L_keccak1600_avx2$16
L_keccak1600_avx2$17:
movq %rcx, %r11
shrq $3, %r11
movq $0, %rbx
jmp L_keccak1600_avx2$19
L_keccak1600_avx2$20:
movq (%rsi,%rbx,8), %rbp
movq (%r8,%rbx,8), %r12
movq %rbp, (%rsp,%r12,8)
incq %rbx
L_keccak1600_avx2$19:
cmpq %r11, %rbx
jb L_keccak1600_avx2$20
movq (%rsp), %r11
movq %r11, 8(%rsp)
movq %r11, 16(%rsp)
movq %r11, 24(%rsp)
vpxor (%rsp), %ymm6, %ymm6
vpxor 32(%rsp), %ymm3, %ymm3
vpxor 64(%rsp), %ymm4, %ymm4
vpxor 96(%rsp), %ymm0, %ymm0
vpxor 128(%rsp), %ymm5, %ymm5
vpxor 160(%rsp), %ymm1, %ymm1
vpxor 192(%rsp), %ymm2, %ymm2
addq %rcx, %rsi
subq %rcx, %rdx
leaq glob_data + 384(%rip), %r11
movq $0, %rbx
leaq glob_data + 192(%rip), %rbp
leaq glob_data + 0(%rip), %r12
movq $24, %r13
L_keccak1600_avx2$18:
vpshufd $78, %ymm4, %ymm8
vpxor %ymm0, %ymm1, %ymm7
vpxor %ymm2, %ymm5, %ymm9
vpxor %ymm3, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm4, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm4, %ymm4
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rbp), %ymm4, %ymm7
vpsrlvq (%r12), %ymm4, %ymm4
vpor %ymm7, %ymm4, %ymm4
vpxor %ymm9, %ymm0, %ymm0
vpsllvq 64(%rbp), %ymm0, %ymm7
vpsrlvq 64(%r12), %ymm0, %ymm0
vpor %ymm7, %ymm0, %ymm0
vpxor %ymm9, %ymm5, %ymm5
vpsllvq 96(%rbp), %ymm5, %ymm7
vpsrlvq 96(%r12), %ymm5, %ymm5
vpor %ymm7, %ymm5, %ymm10
vpxor %ymm9, %ymm1, %ymm1
vpsllvq 128(%rbp), %ymm1, %ymm5
vpsrlvq 128(%r12), %ymm1, %ymm1
vpor %ymm5, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpermq $-115, %ymm4, %ymm5
vpermq $-115, %ymm0, %ymm7
vpsllvq 160(%rbp), %ymm2, %ymm0
vpsrlvq 160(%r12), %ymm2, %ymm2
vpor %ymm0, %ymm2, %ymm8
vpxor %ymm9, %ymm3, %ymm0
vpermq $27, %ymm10, %ymm3
vpermq $114, %ymm1, %ymm9
vpsllvq 32(%rbp), %ymm0, %ymm1
vpsrlvq 32(%r12), %ymm0, %ymm0
vpor %ymm1, %ymm0, %ymm10
vpsrldq $8, %ymm8, %ymm0
vpandn %ymm0, %ymm8, %ymm0
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm2
vpblendd $12, %ymm7, %ymm5, %ymm4
vpblendd $12, %ymm5, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm2, %ymm2
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm2, %ymm2
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm2, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm2
vpblendd $12, %ymm10, %ymm3, %ymm4
vpblendd $12, %ymm3, %ymm5, %ymm11
vpxor %ymm5, %ymm1, %ymm1
vpblendd $48, %ymm5, %ymm4, %ymm4
vpblendd $48, %ymm7, %ymm11, %ymm11
vpxor %ymm3, %ymm2, %ymm2
vpblendd $-64, %ymm7, %ymm4, %ymm4
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm4, %ymm4
vpxor %ymm9, %ymm4, %ymm12
vpermq $30, %ymm8, %ymm4
vpblendd $48, %ymm6, %ymm4, %ymm4
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm4, %ymm11, %ymm11
vpblendd $12, %ymm3, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm4, %ymm4
vpblendd $48, %ymm5, %ymm13, %ymm13
vpblendd $-64, %ymm5, %ymm4, %ymm4
vpblendd $-64, %ymm3, %ymm13, %ymm13
vpandn %ymm13, %ymm4, %ymm4
vpxor %ymm10, %ymm4, %ymm4
vpermq $0, %ymm0, %ymm13
vpermq $27, %ymm1, %ymm0
vpermq $-115, %ymm2, %ymm1
vpermq $114, %ymm12, %ymm2
vpblendd $12, %ymm5, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm3, %ymm9
vpblendd $48, %ymm3, %ymm12, %ymm3
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm3, %ymm3
vpblendd $-64, %ymm5, %ymm9, %ymm5
vpandn %ymm5, %ymm3, %ymm5
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm3
vpxor %ymm7, %ymm5, %ymm5
vpxor (%r11,%rbx), %ymm6, %ymm6
addq $32, %rbx
decq %r13
jne L_keccak1600_avx2$18
L_keccak1600_avx2$16:
cmpq %rcx, %rdx
jnb L_keccak1600_avx2$17
vpxor %ymm7, %ymm7, %ymm7
vmovdqu %ymm7, (%rsp)
vmovdqu %ymm7, 32(%rsp)
vmovdqu %ymm7, 64(%rsp)
vmovdqu %ymm7, 96(%rsp)
vmovdqu %ymm7, 128(%rsp)
vmovdqu %ymm7, 160(%rsp)
vmovdqu %ymm7, 192(%rsp)
movq %rdx, %r11
shrq $3, %r11
movq $0, %rbx
jmp L_keccak1600_avx2$14
L_keccak1600_avx2$15:
movq (%rsi,%rbx,8), %rbp
movq (%r8,%rbx,8), %r12
movq %rbp, (%rsp,%r12,8)
incq %rbx
L_keccak1600_avx2$14:
cmpq %r11, %rbx
jb L_keccak1600_avx2$15
movq (%r8,%rbx,8), %r11
shlq $3, %r11
shlq $3, %rbx
jmp L_keccak1600_avx2$12
L_keccak1600_avx2$13:
movb (%rsi,%rbx), %bpl
movb %bpl, (%rsp,%r11)
incq %rbx
incq %r11
L_keccak1600_avx2$12:
cmpq %rdx, %rbx
jb L_keccak1600_avx2$13
movb %al, (%rsp,%r11)
movq %rcx, %rax
addq $-1, %rax
shrq $3, %rax
movq (%r8,%rax,8), %rax
shlq $3, %rax
movq %rcx, %rdx
addq $-1, %rdx
andq $7, %rdx
addq %rdx, %rax
xorb $-128, (%rsp,%rax)
movq (%rsp), %rax
movq %rax, 8(%rsp)
movq %rax, 16(%rsp)
movq %rax, 24(%rsp)
vpxor (%rsp), %ymm6, %ymm6
vpxor 32(%rsp), %ymm3, %ymm3
vpxor 64(%rsp), %ymm4, %ymm4
vpxor 96(%rsp), %ymm0, %ymm0
vpxor 128(%rsp), %ymm5, %ymm5
vpxor 160(%rsp), %ymm1, %ymm1
vpxor 192(%rsp), %ymm2, %ymm2
leaq glob_data + 1152(%rip), %rax
jmp L_keccak1600_avx2$7
L_keccak1600_avx2$8:
leaq glob_data + 384(%rip), %rdx
movq $0, %rsi
leaq glob_data + 192(%rip), %r8
leaq glob_data + 0(%rip), %r11
movq $24, %rbx
L_keccak1600_avx2$11:
vpshufd $78, %ymm4, %ymm8
vpxor %ymm0, %ymm1, %ymm7
vpxor %ymm2, %ymm5, %ymm9
vpxor %ymm3, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm4, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm4, %ymm4
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%r8), %ymm4, %ymm7
vpsrlvq (%r11), %ymm4, %ymm4
vpor %ymm7, %ymm4, %ymm4
vpxor %ymm9, %ymm0, %ymm0
vpsllvq 64(%r8), %ymm0, %ymm7
vpsrlvq 64(%r11), %ymm0, %ymm0
vpor %ymm7, %ymm0, %ymm0
vpxor %ymm9, %ymm5, %ymm5
vpsllvq 96(%r8), %ymm5, %ymm7
vpsrlvq 96(%r11), %ymm5, %ymm5
vpor %ymm7, %ymm5, %ymm10
vpxor %ymm9, %ymm1, %ymm1
vpsllvq 128(%r8), %ymm1, %ymm5
vpsrlvq 128(%r11), %ymm1, %ymm1
vpor %ymm5, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpermq $-115, %ymm4, %ymm5
vpermq $-115, %ymm0, %ymm7
vpsllvq 160(%r8), %ymm2, %ymm0
vpsrlvq 160(%r11), %ymm2, %ymm2
vpor %ymm0, %ymm2, %ymm8
vpxor %ymm9, %ymm3, %ymm0
vpermq $27, %ymm10, %ymm3
vpermq $114, %ymm1, %ymm9
vpsllvq 32(%r8), %ymm0, %ymm1
vpsrlvq 32(%r11), %ymm0, %ymm0
vpor %ymm1, %ymm0, %ymm10
vpsrldq $8, %ymm8, %ymm0
vpandn %ymm0, %ymm8, %ymm0
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm2
vpblendd $12, %ymm7, %ymm5, %ymm4
vpblendd $12, %ymm5, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm2, %ymm2
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm2, %ymm2
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm2, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm2
vpblendd $12, %ymm10, %ymm3, %ymm4
vpblendd $12, %ymm3, %ymm5, %ymm11
vpxor %ymm5, %ymm1, %ymm1
vpblendd $48, %ymm5, %ymm4, %ymm4
vpblendd $48, %ymm7, %ymm11, %ymm11
vpxor %ymm3, %ymm2, %ymm2
vpblendd $-64, %ymm7, %ymm4, %ymm4
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm4, %ymm4
vpxor %ymm9, %ymm4, %ymm12
vpermq $30, %ymm8, %ymm4
vpblendd $48, %ymm6, %ymm4, %ymm4
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm4, %ymm11, %ymm11
vpblendd $12, %ymm3, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm4, %ymm4
vpblendd $48, %ymm5, %ymm13, %ymm13
vpblendd $-64, %ymm5, %ymm4, %ymm4
vpblendd $-64, %ymm3, %ymm13, %ymm13
vpandn %ymm13, %ymm4, %ymm4
vpxor %ymm10, %ymm4, %ymm4
vpermq $0, %ymm0, %ymm13
vpermq $27, %ymm1, %ymm0
vpermq $-115, %ymm2, %ymm1
vpermq $114, %ymm12, %ymm2
vpblendd $12, %ymm5, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm3, %ymm9
vpblendd $48, %ymm3, %ymm12, %ymm3
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm3, %ymm3
vpblendd $-64, %ymm5, %ymm9, %ymm5
vpandn %ymm5, %ymm3, %ymm5
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm3
vpxor %ymm7, %ymm5, %ymm5
vpxor (%rdx,%rsi), %ymm6, %ymm6
addq $32, %rsi
decq %rbx
jne L_keccak1600_avx2$11
vmovdqu %ymm6, (%rsp)
vmovdqu %ymm3, 32(%rsp)
vmovdqu %ymm4, 64(%rsp)
vmovdqu %ymm0, 96(%rsp)
vmovdqu %ymm5, 128(%rsp)
vmovdqu %ymm1, 160(%rsp)
vmovdqu %ymm2, 192(%rsp)
movq %rcx, %rdx
shrq $3, %rdx
movq $0, %rsi
jmp L_keccak1600_avx2$9
L_keccak1600_avx2$10:
movq (%rax,%rsi,8), %r8
movq (%rsp,%r8,8), %r8
movq %r8, (%rdi,%rsi,8)
incq %rsi
L_keccak1600_avx2$9:
cmpq %rdx, %rsi
jb L_keccak1600_avx2$10
addq %rcx, %rdi
subq %rcx, %r9
L_keccak1600_avx2$7:
cmpq %rcx, %r9
jnbe L_keccak1600_avx2$8
leaq glob_data + 384(%rip), %rcx
movq $0, %rdx
leaq glob_data + 192(%rip), %rsi
leaq glob_data + 0(%rip), %r8
movq $24, %r11
L_keccak1600_avx2$6:
vpshufd $78, %ymm4, %ymm8
vpxor %ymm0, %ymm1, %ymm7
vpxor %ymm2, %ymm5, %ymm9
vpxor %ymm3, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm4, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm4, %ymm4
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm4, %ymm7
vpsrlvq (%r8), %ymm4, %ymm4
vpor %ymm7, %ymm4, %ymm4
vpxor %ymm9, %ymm0, %ymm0
vpsllvq 64(%rsi), %ymm0, %ymm7
vpsrlvq 64(%r8), %ymm0, %ymm0
vpor %ymm7, %ymm0, %ymm0
vpxor %ymm9, %ymm5, %ymm5
vpsllvq 96(%rsi), %ymm5, %ymm7
vpsrlvq 96(%r8), %ymm5, %ymm5
vpor %ymm7, %ymm5, %ymm10
vpxor %ymm9, %ymm1, %ymm1
vpsllvq 128(%rsi), %ymm1, %ymm5
vpsrlvq 128(%r8), %ymm1, %ymm1
vpor %ymm5, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpermq $-115, %ymm4, %ymm5
vpermq $-115, %ymm0, %ymm7
vpsllvq 160(%rsi), %ymm2, %ymm0
vpsrlvq 160(%r8), %ymm2, %ymm2
vpor %ymm0, %ymm2, %ymm8
vpxor %ymm9, %ymm3, %ymm0
vpermq $27, %ymm10, %ymm3
vpermq $114, %ymm1, %ymm9
vpsllvq 32(%rsi), %ymm0, %ymm1
vpsrlvq 32(%r8), %ymm0, %ymm0
vpor %ymm1, %ymm0, %ymm10
vpsrldq $8, %ymm8, %ymm0
vpandn %ymm0, %ymm8, %ymm0
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm2
vpblendd $12, %ymm7, %ymm5, %ymm4
vpblendd $12, %ymm5, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm2, %ymm2
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm2, %ymm2
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm2, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm2
vpblendd $12, %ymm10, %ymm3, %ymm4
vpblendd $12, %ymm3, %ymm5, %ymm11
vpxor %ymm5, %ymm1, %ymm1
vpblendd $48, %ymm5, %ymm4, %ymm4
vpblendd $48, %ymm7, %ymm11, %ymm11
vpxor %ymm3, %ymm2, %ymm2
vpblendd $-64, %ymm7, %ymm4, %ymm4
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm4, %ymm4
vpxor %ymm9, %ymm4, %ymm12
vpermq $30, %ymm8, %ymm4
vpblendd $48, %ymm6, %ymm4, %ymm4
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm4, %ymm11, %ymm11
vpblendd $12, %ymm3, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm4, %ymm4
vpblendd $48, %ymm5, %ymm13, %ymm13
vpblendd $-64, %ymm5, %ymm4, %ymm4
vpblendd $-64, %ymm3, %ymm13, %ymm13
vpandn %ymm13, %ymm4, %ymm4
vpxor %ymm10, %ymm4, %ymm4
vpermq $0, %ymm0, %ymm13
vpermq $27, %ymm1, %ymm0
vpermq $-115, %ymm2, %ymm1
vpermq $114, %ymm12, %ymm2
vpblendd $12, %ymm5, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm3, %ymm9
vpblendd $48, %ymm3, %ymm12, %ymm3
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm3, %ymm3
vpblendd $-64, %ymm5, %ymm9, %ymm5
vpandn %ymm5, %ymm3, %ymm5
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm3
vpxor %ymm7, %ymm5, %ymm5
vpxor (%rcx,%rdx), %ymm6, %ymm6
addq $32, %rdx
decq %r11
jne L_keccak1600_avx2$6
vmovdqu %ymm6, (%rsp)
vmovdqu %ymm3, 32(%rsp)
vmovdqu %ymm4, 64(%rsp)
vmovdqu %ymm0, 96(%rsp)
vmovdqu %ymm5, 128(%rsp)
vmovdqu %ymm1, 160(%rsp)
vmovdqu %ymm2, 192(%rsp)
movq %r9, %rcx
shrq $3, %rcx
movq $0, %rdx
jmp L_keccak1600_avx2$4
L_keccak1600_avx2$5:
movq (%rax,%rdx,8), %rsi
movq (%rsp,%rsi,8), %rsi
movq %rsi, (%rdi,%rdx,8)
incq %rdx
L_keccak1600_avx2$4:
cmpq %rcx, %rdx
jb L_keccak1600_avx2$5
movq (%rax,%rdx,8), %rax
shlq $3, %rdx
shlq $3, %rax
jmp L_keccak1600_avx2$2
L_keccak1600_avx2$3:
movb (%rsp,%rax), %cl
movb %cl, (%rdi,%rdx)
incq %rdx
incq %rax
L_keccak1600_avx2$2:
cmpq %r9, %rdx
jb L_keccak1600_avx2$3
jmp *%r10
.data
.p2align 5
_glob_data:
glob_data:
.byte 61
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 46
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 28
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 23
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 63
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 2
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 36
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 37
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 19
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 58
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 25
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 54
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 3
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 56
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 62
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 49
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 39
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 44
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 20
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 21
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 43
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 50
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 3
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 18
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 36
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 41
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 62
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 28
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 27
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 45
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 6
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 56
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 39
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 61
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 55
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 2
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 15
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 25
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 20
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 44
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 43
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 21
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 14
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 4
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 5
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 6
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 7
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 24
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 13
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 18
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 23
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 16
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 25
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 22
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 15
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 11
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 12
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 21
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 26
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 19
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 20
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 17
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 14
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 27
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
|
usenix-security-verdict/verdict
| 85,265
|
deps/libcrux/sys/libjade/jazz/x25519_ref.s
|
.att_syntax
.text
.p2align 5
.globl _jade_scalarmult_curve25519_amd64_ref5_base
.globl jade_scalarmult_curve25519_amd64_ref5_base
.globl _jade_scalarmult_curve25519_amd64_ref5
.globl jade_scalarmult_curve25519_amd64_ref5
_jade_scalarmult_curve25519_amd64_ref5_base:
jade_scalarmult_curve25519_amd64_ref5_base:
movq %rsp, %rax
leaq -480(%rsp), %rsp
andq $-8, %rsp
movq %rax, 472(%rsp)
movq %rbx, 432(%rsp)
movq %rbp, 440(%rsp)
movq %r12, 448(%rsp)
movq %r13, 456(%rsp)
movq %r14, 464(%rsp)
movq %rdi, (%rsp)
movq (%rsi), %rax
movq %rax, 40(%rsp)
movq 8(%rsi), %rax
movq %rax, 48(%rsp)
movq 16(%rsi), %rax
movq %rax, 56(%rsp)
movq 24(%rsi), %rax
movq %rax, 64(%rsp)
andb $-8, 40(%rsp)
andb $127, 71(%rsp)
orb $64, 71(%rsp)
movq $9, %rcx
movq $0, %r8
movq $0, %r9
movq $0, %r10
movq $0, %r11
xorq %rbx, %rbx
movq $1, 72(%rsp)
movq $0, %rbp
movq %rcx, 112(%rsp)
movq %r8, 120(%rsp)
movq %r9, 128(%rsp)
movq %r10, 136(%rsp)
movq %r11, 144(%rsp)
movq $1, 152(%rsp)
movq %rbx, 80(%rsp)
movq %rbx, %rax
movq %rbx, 160(%rsp)
movq %rbx, 88(%rsp)
movq %rbx, %rdx
movq %rbx, 168(%rsp)
movq %rbx, 96(%rsp)
movq %rbx, %rsi
movq %rbx, 176(%rsp)
movq %rbx, 104(%rsp)
movq %rbx, %rdi
movq %rbx, 184(%rsp)
movq %rcx, 192(%rsp)
movq %r8, 200(%rsp)
movq %r9, 208(%rsp)
movq %r10, 216(%rsp)
movq %r11, 224(%rsp)
movq $255, %rcx
movq $0, 8(%rsp)
Ljade_scalarmult_curve25519_amd64_ref5_base$28:
addq $-1, %rcx
movq %rcx, 16(%rsp)
movq %rcx, %r8
shrq $3, %r8
movzbq 40(%rsp,%r8), %r8
andq $7, %rcx
shrq %cl, %r8
andq $1, %r8
movq 8(%rsp), %r9
xorq %r8, %r9
xorq %rcx, %rcx
subq %r9, %rcx
movq %rbp, %r11
movq %rax, %rbx
movq %rdx, %r12
movq %rsi, %r9
movq %rdi, %r10
xorq 152(%rsp), %r11
andq %rcx, %r11
xorq 160(%rsp), %rbx
andq %rcx, %rbx
xorq 168(%rsp), %r12
andq %rcx, %r12
xorq 176(%rsp), %r9
andq %rcx, %r9
xorq 184(%rsp), %r10
andq %rcx, %r10
xorq %r11, %rbp
movq 152(%rsp), %r13
xorq %r11, %r13
movq %r13, 152(%rsp)
xorq %rbx, %rax
movq 160(%rsp), %r11
xorq %rbx, %r11
movq %r11, 160(%rsp)
xorq %r12, %rdx
movq 168(%rsp), %r11
xorq %r12, %r11
movq %r11, 168(%rsp)
xorq %r9, %rsi
movq 176(%rsp), %r11
xorq %r9, %r11
movq %r11, 176(%rsp)
xorq %r10, %rdi
movq 184(%rsp), %r9
xorq %r10, %r9
movq %r9, 184(%rsp)
movq 112(%rsp), %r12
movq 120(%rsp), %r9
movq 128(%rsp), %r10
movq 136(%rsp), %r11
movq 144(%rsp), %rbx
movq 72(%rsp), %r13
movq %r12, %r14
xorq %r13, %r14
andq %rcx, %r14
xorq %r14, %r13
xorq %r14, %r12
movq %r13, 72(%rsp)
movq %r12, 112(%rsp)
movq 80(%rsp), %r12
movq %r9, %r13
xorq %r12, %r13
andq %rcx, %r13
xorq %r13, %r12
xorq %r13, %r9
movq %r12, 80(%rsp)
movq %r9, 120(%rsp)
movq 88(%rsp), %r9
movq %r10, %r12
xorq %r9, %r12
andq %rcx, %r12
xorq %r12, %r9
xorq %r12, %r10
movq %r9, 88(%rsp)
movq %r10, 128(%rsp)
movq 96(%rsp), %r9
movq %r11, %r10
xorq %r9, %r10
andq %rcx, %r10
xorq %r10, %r9
xorq %r10, %r11
movq %r9, 96(%rsp)
movq %r11, 136(%rsp)
movq 104(%rsp), %r9
movq %rbx, %r10
xorq %r9, %r10
andq %rcx, %r10
xorq %r10, %r9
xorq %r10, %rbx
movq %r9, 104(%rsp)
movq %rbx, 144(%rsp)
movq %r8, 8(%rsp)
movq $4503599627370458, %rcx
movq $4503599627370494, %r8
movq 72(%rsp), %r9
movq 80(%rsp), %r10
movq 88(%rsp), %r11
movq 96(%rsp), %rbx
movq 104(%rsp), %r12
addq %rcx, %r9
addq %r8, %r10
addq %r8, %r11
addq %r8, %rbx
addq %r8, %r12
subq %rbp, %r9
subq %rax, %r10
subq %rdx, %r11
subq %rsi, %rbx
subq %rdi, %r12
movq %r9, 232(%rsp)
movq %r10, 240(%rsp)
movq %r11, 248(%rsp)
movq %rbx, 256(%rsp)
movq %r12, 264(%rsp)
addq 72(%rsp), %rbp
addq 80(%rsp), %rax
addq 88(%rsp), %rdx
addq 96(%rsp), %rsi
addq 104(%rsp), %rdi
movq %rbp, 272(%rsp)
movq %rax, 280(%rsp)
movq %rdx, 288(%rsp)
movq %rsi, 296(%rsp)
movq %rdi, 304(%rsp)
movq 112(%rsp), %rax
movq 120(%rsp), %rcx
movq 128(%rsp), %rdx
movq 136(%rsp), %rsi
movq 144(%rsp), %rdi
movq $4503599627370458, %r8
movq $4503599627370494, %r9
addq %r8, %rax
addq %r9, %rcx
addq %r9, %rdx
addq %r9, %rsi
addq %r9, %rdi
subq 152(%rsp), %rax
subq 160(%rsp), %rcx
subq 168(%rsp), %rdx
subq 176(%rsp), %rsi
subq 184(%rsp), %rdi
movq %rax, 312(%rsp)
movq %rcx, 320(%rsp)
movq %rdx, 328(%rsp)
movq %rsi, 336(%rsp)
movq %rdi, 344(%rsp)
movq 112(%rsp), %rax
movq 120(%rsp), %rcx
movq 128(%rsp), %rdx
movq 136(%rsp), %rsi
movq 144(%rsp), %rdi
addq 152(%rsp), %rax
addq 160(%rsp), %rcx
addq 168(%rsp), %rdx
addq 176(%rsp), %rsi
addq 184(%rsp), %rdi
movq %rax, 352(%rsp)
movq %rcx, 360(%rsp)
movq %rdx, 368(%rsp)
movq %rsi, 376(%rsp)
movq %rdi, 384(%rsp)
movq 296(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 24(%rsp)
mulq 328(%rsp)
movq %rax, %r12
movq %rdx, %rdi
movq 304(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 32(%rsp)
mulq 320(%rsp)
addq %rax, %r12
adcq %rdx, %rdi
movq 272(%rsp), %rax
mulq 312(%rsp)
addq %rax, %r12
adcq %rdx, %rdi
movq 272(%rsp), %rax
mulq 320(%rsp)
movq %rax, %r10
movq %rdx, %rbx
movq 272(%rsp), %rax
mulq 328(%rsp)
movq %rax, %r8
movq %rdx, %r9
movq 272(%rsp), %rax
mulq 336(%rsp)
movq %rax, %rcx
movq %rdx, %r11
movq 272(%rsp), %rax
mulq 344(%rsp)
movq %rax, %rbp
movq %rdx, %rsi
movq 280(%rsp), %rax
mulq 312(%rsp)
addq %rax, %r10
adcq %rdx, %rbx
movq 280(%rsp), %rax
mulq 320(%rsp)
addq %rax, %r8
adcq %rdx, %r9
movq 280(%rsp), %rax
mulq 328(%rsp)
addq %rax, %rcx
adcq %rdx, %r11
movq 280(%rsp), %rax
mulq 336(%rsp)
addq %rax, %rbp
adcq %rdx, %rsi
movq 280(%rsp), %rax
imulq $19, %rax, %rax
mulq 344(%rsp)
addq %rax, %r12
adcq %rdx, %rdi
movq 288(%rsp), %rax
mulq 312(%rsp)
addq %rax, %r8
adcq %rdx, %r9
movq 288(%rsp), %rax
mulq 320(%rsp)
addq %rax, %rcx
adcq %rdx, %r11
movq 288(%rsp), %rax
mulq 328(%rsp)
addq %rax, %rbp
adcq %rdx, %rsi
movq 288(%rsp), %rax
imulq $19, %rax, %rax
mulq 336(%rsp)
addq %rax, %r12
adcq %rdx, %rdi
movq 288(%rsp), %rax
imulq $19, %rax, %rax
mulq 344(%rsp)
addq %rax, %r10
adcq %rdx, %rbx
movq 296(%rsp), %rax
mulq 312(%rsp)
addq %rax, %rcx
adcq %rdx, %r11
movq 296(%rsp), %rax
mulq 320(%rsp)
addq %rax, %rbp
adcq %rdx, %rsi
movq 24(%rsp), %rax
mulq 336(%rsp)
addq %rax, %r10
adcq %rdx, %rbx
movq 24(%rsp), %rax
mulq 344(%rsp)
addq %rax, %r8
adcq %rdx, %r9
movq 304(%rsp), %rax
mulq 312(%rsp)
addq %rax, %rbp
adcq %rdx, %rsi
movq 32(%rsp), %rax
mulq 328(%rsp)
addq %rax, %r10
adcq %rdx, %rbx
movq 32(%rsp), %rax
mulq 336(%rsp)
addq %rax, %r8
adcq %rdx, %r9
movq 32(%rsp), %rax
mulq 344(%rsp)
addq %rax, %rcx
adcq %rdx, %r11
movq $2251799813685247, %rax
shldq $13, %r12, %rdi
andq %rax, %r12
shldq $13, %r10, %rbx
andq %rax, %r10
addq %rdi, %r10
shldq $13, %r8, %r9
andq %rax, %r8
addq %rbx, %r8
shldq $13, %rcx, %r11
andq %rax, %rcx
addq %r9, %rcx
shldq $13, %rbp, %rsi
andq %rax, %rbp
addq %r11, %rbp
imulq $19, %rsi, %rdx
addq %rdx, %r12
movq %r12, %rdx
shrq $51, %rdx
addq %r10, %rdx
movq %rdx, %rsi
shrq $51, %rdx
andq %rax, %r12
addq %r8, %rdx
movq %rdx, %rdi
shrq $51, %rdx
andq %rax, %rsi
addq %rcx, %rdx
movq %rdx, %rcx
shrq $51, %rdx
andq %rax, %rdi
addq %rbp, %rdx
movq %rdx, %r8
shrq $51, %rdx
andq %rax, %rcx
imulq $19, %rdx, %rdx
addq %rdx, %r12
andq %rax, %r8
movq %r12, 312(%rsp)
movq %rsi, 320(%rsp)
movq %rdi, 328(%rsp)
movq %rcx, 336(%rsp)
movq %r8, 344(%rsp)
movq 376(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 32(%rsp)
mulq 248(%rsp)
movq %rax, %rsi
movq %rdx, %rbx
movq 384(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 24(%rsp)
mulq 240(%rsp)
addq %rax, %rsi
adcq %rdx, %rbx
movq 352(%rsp), %rax
mulq 232(%rsp)
addq %rax, %rsi
adcq %rdx, %rbx
movq 352(%rsp), %rax
mulq 240(%rsp)
movq %rax, %r10
movq %rdx, %r11
movq 352(%rsp), %rax
mulq 248(%rsp)
movq %rax, %rcx
movq %rdx, %rdi
movq 352(%rsp), %rax
mulq 256(%rsp)
movq %rax, %rbp
movq %rdx, %r8
movq 352(%rsp), %rax
mulq 264(%rsp)
movq %rax, %r9
movq %rdx, %r12
movq 360(%rsp), %rax
mulq 232(%rsp)
addq %rax, %r10
adcq %rdx, %r11
movq 360(%rsp), %rax
mulq 240(%rsp)
addq %rax, %rcx
adcq %rdx, %rdi
movq 360(%rsp), %rax
mulq 248(%rsp)
addq %rax, %rbp
adcq %rdx, %r8
movq 360(%rsp), %rax
mulq 256(%rsp)
addq %rax, %r9
adcq %rdx, %r12
movq 360(%rsp), %rax
imulq $19, %rax, %rax
mulq 264(%rsp)
addq %rax, %rsi
adcq %rdx, %rbx
movq 368(%rsp), %rax
mulq 232(%rsp)
addq %rax, %rcx
adcq %rdx, %rdi
movq 368(%rsp), %rax
mulq 240(%rsp)
addq %rax, %rbp
adcq %rdx, %r8
movq 368(%rsp), %rax
mulq 248(%rsp)
addq %rax, %r9
adcq %rdx, %r12
movq 368(%rsp), %rax
imulq $19, %rax, %rax
mulq 256(%rsp)
addq %rax, %rsi
adcq %rdx, %rbx
movq 368(%rsp), %rax
imulq $19, %rax, %rax
mulq 264(%rsp)
addq %rax, %r10
adcq %rdx, %r11
movq 376(%rsp), %rax
mulq 232(%rsp)
addq %rax, %rbp
adcq %rdx, %r8
movq 376(%rsp), %rax
mulq 240(%rsp)
addq %rax, %r9
adcq %rdx, %r12
movq 32(%rsp), %rax
mulq 256(%rsp)
addq %rax, %r10
adcq %rdx, %r11
movq 32(%rsp), %rax
mulq 264(%rsp)
addq %rax, %rcx
adcq %rdx, %rdi
movq 384(%rsp), %rax
mulq 232(%rsp)
addq %rax, %r9
adcq %rdx, %r12
movq 24(%rsp), %rax
mulq 248(%rsp)
addq %rax, %r10
adcq %rdx, %r11
movq 24(%rsp), %rax
mulq 256(%rsp)
addq %rax, %rcx
adcq %rdx, %rdi
movq 24(%rsp), %rax
mulq 264(%rsp)
addq %rax, %rbp
adcq %rdx, %r8
movq $2251799813685247, %rax
shldq $13, %rsi, %rbx
andq %rax, %rsi
shldq $13, %r10, %r11
andq %rax, %r10
addq %rbx, %r10
shldq $13, %rcx, %rdi
andq %rax, %rcx
addq %r11, %rcx
shldq $13, %rbp, %r8
andq %rax, %rbp
addq %rdi, %rbp
shldq $13, %r9, %r12
andq %rax, %r9
addq %r8, %r9
imulq $19, %r12, %rdx
addq %rdx, %rsi
movq %rsi, %rdx
shrq $51, %rdx
addq %r10, %rdx
movq %rdx, %rdi
shrq $51, %rdx
andq %rax, %rsi
addq %rcx, %rdx
movq %rdx, %rcx
shrq $51, %rdx
andq %rax, %rdi
addq %rbp, %rdx
movq %rdx, %r8
shrq $51, %rdx
andq %rax, %rcx
addq %r9, %rdx
movq %rdx, %r9
shrq $51, %rdx
andq %rax, %r8
imulq $19, %rdx, %rdx
addq %rdx, %rsi
andq %rax, %r9
movq %rsi, 352(%rsp)
movq %rdi, 360(%rsp)
movq %rcx, 368(%rsp)
movq %r8, 376(%rsp)
movq %r9, 384(%rsp)
movq 272(%rsp), %rax
mulq 272(%rsp)
movq %rax, %rcx
movq %rdx, %rsi
movq 272(%rsp), %rax
shlq $1, %rax
mulq 280(%rsp)
movq %rax, %rbx
movq %rdx, %r8
movq 272(%rsp), %rax
shlq $1, %rax
mulq 288(%rsp)
movq %rax, %r12
movq %rdx, %r9
movq 272(%rsp), %rax
shlq $1, %rax
mulq 296(%rsp)
movq %rax, %rdi
movq %rdx, %r11
movq 272(%rsp), %rax
shlq $1, %rax
mulq 304(%rsp)
movq %rax, %r10
movq %rdx, %rbp
movq 280(%rsp), %rax
mulq 280(%rsp)
addq %rax, %r12
adcq %rdx, %r9
movq 280(%rsp), %rax
shlq $1, %rax
mulq 288(%rsp)
addq %rax, %rdi
adcq %rdx, %r11
movq 280(%rsp), %rax
shlq $1, %rax
mulq 296(%rsp)
addq %rax, %r10
adcq %rdx, %rbp
movq 280(%rsp), %rax
imulq $38, %rax, %rax
mulq 304(%rsp)
addq %rax, %rcx
adcq %rdx, %rsi
movq 288(%rsp), %rax
mulq 288(%rsp)
addq %rax, %r10
adcq %rdx, %rbp
movq 288(%rsp), %rax
imulq $38, %rax, %rax
mulq 296(%rsp)
addq %rax, %rcx
adcq %rdx, %rsi
movq 288(%rsp), %rax
imulq $38, %rax, %rax
mulq 304(%rsp)
addq %rax, %rbx
adcq %rdx, %r8
movq 296(%rsp), %rax
imulq $19, %rax, %rax
mulq 296(%rsp)
addq %rax, %rbx
adcq %rdx, %r8
movq 296(%rsp), %rax
imulq $38, %rax, %rax
mulq 304(%rsp)
addq %rax, %r12
adcq %rdx, %r9
movq 304(%rsp), %rax
imulq $19, %rax, %rax
mulq 304(%rsp)
addq %rax, %rdi
adcq %rdx, %r11
movq $2251799813685247, %rax
shldq $13, %rcx, %rsi
andq %rax, %rcx
shldq $13, %rbx, %r8
andq %rax, %rbx
addq %rsi, %rbx
shldq $13, %r12, %r9
andq %rax, %r12
addq %r8, %r12
shldq $13, %rdi, %r11
andq %rax, %rdi
addq %r9, %rdi
shldq $13, %r10, %rbp
andq %rax, %r10
addq %r11, %r10
imulq $19, %rbp, %rdx
addq %rdx, %rcx
movq %rcx, %rdx
shrq $51, %rdx
addq %rbx, %rdx
andq %rax, %rcx
movq %rdx, %rsi
shrq $51, %rdx
addq %r12, %rdx
andq %rax, %rsi
movq %rdx, %r8
shrq $51, %rdx
addq %rdi, %rdx
andq %rax, %r8
movq %rdx, %rdi
shrq $51, %rdx
addq %r10, %rdx
andq %rax, %rdi
movq %rdx, %r9
shrq $51, %rdx
imulq $19, %rdx, %rdx
addq %rdx, %rcx
andq %rax, %r9
movq %rcx, 272(%rsp)
movq %rsi, 280(%rsp)
movq %r8, 288(%rsp)
movq %rdi, 296(%rsp)
movq %r9, 304(%rsp)
movq 232(%rsp), %rax
mulq 232(%rsp)
movq %rax, %r8
movq %rdx, %r11
movq 232(%rsp), %rax
shlq $1, %rax
mulq 240(%rsp)
movq %rax, %r9
movq %rdx, %rbp
movq 232(%rsp), %rax
shlq $1, %rax
mulq 248(%rsp)
movq %rax, %rdi
movq %rdx, %rbx
movq 232(%rsp), %rax
shlq $1, %rax
mulq 256(%rsp)
movq %rax, %rcx
movq %rdx, %r10
movq 232(%rsp), %rax
shlq $1, %rax
mulq 264(%rsp)
movq %rax, %r12
movq %rdx, %rsi
movq 240(%rsp), %rax
mulq 240(%rsp)
addq %rax, %rdi
adcq %rdx, %rbx
movq 240(%rsp), %rax
shlq $1, %rax
mulq 248(%rsp)
addq %rax, %rcx
adcq %rdx, %r10
movq 240(%rsp), %rax
shlq $1, %rax
mulq 256(%rsp)
addq %rax, %r12
adcq %rdx, %rsi
movq 240(%rsp), %rax
imulq $38, %rax, %rax
mulq 264(%rsp)
addq %rax, %r8
adcq %rdx, %r11
movq 248(%rsp), %rax
mulq 248(%rsp)
addq %rax, %r12
adcq %rdx, %rsi
movq 248(%rsp), %rax
imulq $38, %rax, %rax
mulq 256(%rsp)
addq %rax, %r8
adcq %rdx, %r11
movq 248(%rsp), %rax
imulq $38, %rax, %rax
mulq 264(%rsp)
addq %rax, %r9
adcq %rdx, %rbp
movq 256(%rsp), %rax
imulq $19, %rax, %rax
mulq 256(%rsp)
addq %rax, %r9
adcq %rdx, %rbp
movq 256(%rsp), %rax
imulq $38, %rax, %rax
mulq 264(%rsp)
addq %rax, %rdi
adcq %rdx, %rbx
movq 264(%rsp), %rax
imulq $19, %rax, %rax
mulq 264(%rsp)
addq %rax, %rcx
adcq %rdx, %r10
movq $2251799813685247, %rax
shldq $13, %r8, %r11
andq %rax, %r8
shldq $13, %r9, %rbp
andq %rax, %r9
addq %r11, %r9
shldq $13, %rdi, %rbx
andq %rax, %rdi
addq %rbp, %rdi
shldq $13, %rcx, %r10
andq %rax, %rcx
addq %rbx, %rcx
shldq $13, %r12, %rsi
andq %rax, %r12
addq %r10, %r12
imulq $19, %rsi, %rdx
addq %rdx, %r8
movq %r8, %rdx
shrq $51, %rdx
addq %r9, %rdx
andq %rax, %r8
movq %rdx, %rsi
shrq $51, %rdx
addq %rdi, %rdx
andq %rax, %rsi
movq %rdx, %rdi
shrq $51, %rdx
addq %rcx, %rdx
andq %rax, %rdi
movq %rdx, %rcx
shrq $51, %rdx
addq %r12, %rdx
andq %rax, %rcx
movq %rdx, %r9
shrq $51, %rdx
imulq $19, %rdx, %rdx
addq %rdx, %r8
andq %rax, %r9
movq %r8, 232(%rsp)
movq %rsi, 240(%rsp)
movq %rdi, 248(%rsp)
movq %rcx, 256(%rsp)
movq %r9, 264(%rsp)
movq 312(%rsp), %rax
movq 320(%rsp), %rcx
movq 328(%rsp), %rdx
movq 336(%rsp), %rsi
movq 344(%rsp), %rdi
addq 352(%rsp), %rax
addq 360(%rsp), %rcx
addq 368(%rsp), %rdx
addq 376(%rsp), %rsi
addq 384(%rsp), %rdi
movq %rax, 392(%rsp)
movq %rcx, 400(%rsp)
movq %rdx, 408(%rsp)
movq %rsi, 416(%rsp)
movq %rdi, 424(%rsp)
movq 312(%rsp), %rax
movq 320(%rsp), %rcx
movq 328(%rsp), %rdx
movq 336(%rsp), %rsi
movq 344(%rsp), %rdi
movq $4503599627370458, %r8
movq $4503599627370494, %r9
addq %r8, %rax
addq %r9, %rcx
addq %r9, %rdx
addq %r9, %rsi
addq %r9, %rdi
subq 352(%rsp), %rax
subq 360(%rsp), %rcx
subq 368(%rsp), %rdx
subq 376(%rsp), %rsi
subq 384(%rsp), %rdi
movq %rax, 352(%rsp)
movq %rcx, 360(%rsp)
movq %rdx, 368(%rsp)
movq %rsi, 376(%rsp)
movq %rdi, 384(%rsp)
movq 296(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 24(%rsp)
mulq 248(%rsp)
movq %rax, %r9
movq %rdx, %r12
movq 304(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 32(%rsp)
mulq 240(%rsp)
addq %rax, %r9
adcq %rdx, %r12
movq 272(%rsp), %rax
mulq 232(%rsp)
addq %rax, %r9
adcq %rdx, %r12
movq 272(%rsp), %rax
mulq 240(%rsp)
movq %rax, %rcx
movq %rdx, %rbx
movq 272(%rsp), %rax
mulq 248(%rsp)
movq %rax, %r8
movq %rdx, %rdi
movq 272(%rsp), %rax
mulq 256(%rsp)
movq %rax, %r11
movq %rdx, %rsi
movq 272(%rsp), %rax
mulq 264(%rsp)
movq %rax, %rbp
movq %rdx, %r10
movq 280(%rsp), %rax
mulq 232(%rsp)
addq %rax, %rcx
adcq %rdx, %rbx
movq 280(%rsp), %rax
mulq 240(%rsp)
addq %rax, %r8
adcq %rdx, %rdi
movq 280(%rsp), %rax
mulq 248(%rsp)
addq %rax, %r11
adcq %rdx, %rsi
movq 280(%rsp), %rax
mulq 256(%rsp)
addq %rax, %rbp
adcq %rdx, %r10
movq 280(%rsp), %rax
imulq $19, %rax, %rax
mulq 264(%rsp)
addq %rax, %r9
adcq %rdx, %r12
movq 288(%rsp), %rax
mulq 232(%rsp)
addq %rax, %r8
adcq %rdx, %rdi
movq 288(%rsp), %rax
mulq 240(%rsp)
addq %rax, %r11
adcq %rdx, %rsi
movq 288(%rsp), %rax
mulq 248(%rsp)
addq %rax, %rbp
adcq %rdx, %r10
movq 288(%rsp), %rax
imulq $19, %rax, %rax
mulq 256(%rsp)
addq %rax, %r9
adcq %rdx, %r12
movq 288(%rsp), %rax
imulq $19, %rax, %rax
mulq 264(%rsp)
addq %rax, %rcx
adcq %rdx, %rbx
movq 296(%rsp), %rax
mulq 232(%rsp)
addq %rax, %r11
adcq %rdx, %rsi
movq 296(%rsp), %rax
mulq 240(%rsp)
addq %rax, %rbp
adcq %rdx, %r10
movq 24(%rsp), %rax
mulq 256(%rsp)
addq %rax, %rcx
adcq %rdx, %rbx
movq 24(%rsp), %rax
mulq 264(%rsp)
addq %rax, %r8
adcq %rdx, %rdi
movq 304(%rsp), %rax
mulq 232(%rsp)
addq %rax, %rbp
adcq %rdx, %r10
movq 32(%rsp), %rax
mulq 248(%rsp)
addq %rax, %rcx
adcq %rdx, %rbx
movq 32(%rsp), %rax
mulq 256(%rsp)
addq %rax, %r8
adcq %rdx, %rdi
movq 32(%rsp), %rax
mulq 264(%rsp)
addq %rax, %r11
adcq %rdx, %rsi
movq $2251799813685247, %rax
shldq $13, %r9, %r12
andq %rax, %r9
shldq $13, %rcx, %rbx
andq %rax, %rcx
addq %r12, %rcx
shldq $13, %r8, %rdi
andq %rax, %r8
addq %rbx, %r8
shldq $13, %r11, %rsi
andq %rax, %r11
addq %rdi, %r11
shldq $13, %rbp, %r10
andq %rax, %rbp
addq %rsi, %rbp
imulq $19, %r10, %rdx
addq %rdx, %r9
movq %r9, %rdx
shrq $51, %rdx
addq %rcx, %rdx
movq %rdx, %rcx
shrq $51, %rdx
andq %rax, %r9
addq %r8, %rdx
movq %rdx, %rsi
shrq $51, %rdx
andq %rax, %rcx
addq %r11, %rdx
movq %rdx, %rdi
shrq $51, %rdx
andq %rax, %rsi
addq %rbp, %rdx
movq %rdx, %r8
shrq $51, %rdx
andq %rax, %rdi
imulq $19, %rdx, %rdx
addq %rdx, %r9
andq %rax, %r8
movq %r9, 72(%rsp)
movq %rcx, 80(%rsp)
movq %rsi, 88(%rsp)
movq %rdi, 96(%rsp)
movq %r8, 104(%rsp)
movq 272(%rsp), %rax
movq 280(%rsp), %rcx
movq 288(%rsp), %rdx
movq 296(%rsp), %rsi
movq 304(%rsp), %rdi
movq $4503599627370458, %r8
movq $4503599627370494, %r9
addq %r8, %rax
addq %r9, %rcx
addq %r9, %rdx
addq %r9, %rsi
addq %r9, %rdi
subq 232(%rsp), %rax
subq 240(%rsp), %rcx
subq 248(%rsp), %rdx
subq 256(%rsp), %rsi
subq 264(%rsp), %rdi
movq %rax, 232(%rsp)
movq %rcx, 240(%rsp)
movq %rdx, 248(%rsp)
movq %rsi, 256(%rsp)
movq %rdi, 264(%rsp)
movq 352(%rsp), %rax
mulq 352(%rsp)
movq %rax, %r11
movq %rdx, %rbx
movq 352(%rsp), %rax
shlq $1, %rax
mulq 360(%rsp)
movq %rax, %rbp
movq %rdx, %r10
movq 352(%rsp), %rax
shlq $1, %rax
mulq 368(%rsp)
movq %rax, %r8
movq %rdx, %r12
movq 352(%rsp), %rax
shlq $1, %rax
mulq 376(%rsp)
movq %rax, %rcx
movq %rdx, %rsi
movq 352(%rsp), %rax
shlq $1, %rax
mulq 384(%rsp)
movq %rax, %rdi
movq %rdx, %r9
movq 360(%rsp), %rax
mulq 360(%rsp)
addq %rax, %r8
adcq %rdx, %r12
movq 360(%rsp), %rax
shlq $1, %rax
mulq 368(%rsp)
addq %rax, %rcx
adcq %rdx, %rsi
movq 360(%rsp), %rax
shlq $1, %rax
mulq 376(%rsp)
addq %rax, %rdi
adcq %rdx, %r9
movq 360(%rsp), %rax
imulq $38, %rax, %rax
mulq 384(%rsp)
addq %rax, %r11
adcq %rdx, %rbx
movq 368(%rsp), %rax
mulq 368(%rsp)
addq %rax, %rdi
adcq %rdx, %r9
movq 368(%rsp), %rax
imulq $38, %rax, %rax
mulq 376(%rsp)
addq %rax, %r11
adcq %rdx, %rbx
movq 368(%rsp), %rax
imulq $38, %rax, %rax
mulq 384(%rsp)
addq %rax, %rbp
adcq %rdx, %r10
movq 376(%rsp), %rax
imulq $19, %rax, %rax
mulq 376(%rsp)
addq %rax, %rbp
adcq %rdx, %r10
movq 376(%rsp), %rax
imulq $38, %rax, %rax
mulq 384(%rsp)
addq %rax, %r8
adcq %rdx, %r12
movq 384(%rsp), %rax
imulq $19, %rax, %rax
mulq 384(%rsp)
addq %rax, %rcx
adcq %rdx, %rsi
movq $2251799813685247, %rax
shldq $13, %r11, %rbx
andq %rax, %r11
shldq $13, %rbp, %r10
andq %rax, %rbp
addq %rbx, %rbp
shldq $13, %r8, %r12
andq %rax, %r8
addq %r10, %r8
shldq $13, %rcx, %rsi
andq %rax, %rcx
addq %r12, %rcx
shldq $13, %rdi, %r9
andq %rax, %rdi
addq %rsi, %rdi
imulq $19, %r9, %rdx
addq %rdx, %r11
movq %r11, %rdx
shrq $51, %rdx
addq %rbp, %rdx
andq %rax, %r11
movq %rdx, %rsi
shrq $51, %rdx
addq %r8, %rdx
andq %rax, %rsi
movq %rdx, %r8
shrq $51, %rdx
addq %rcx, %rdx
andq %rax, %r8
movq %rdx, %rcx
shrq $51, %rdx
addq %rdi, %rdx
andq %rax, %rcx
movq %rdx, %rdi
shrq $51, %rdx
imulq $19, %rdx, %rdx
addq %rdx, %r11
andq %rax, %rdi
movq %r11, 352(%rsp)
movq %rsi, 360(%rsp)
movq %r8, 368(%rsp)
movq %rcx, 376(%rsp)
movq %rdi, 384(%rsp)
movq $996679680, %rcx
movq 232(%rsp), %rax
mulq %rcx
shrq $13, %rax
movq %rax, %rsi
movq %rdx, %rdi
movq 240(%rsp), %rax
mulq %rcx
shrq $13, %rax
addq %rax, %rdi
movq %rdx, %r8
movq 248(%rsp), %rax
mulq %rcx
shrq $13, %rax
addq %rax, %r8
movq %rdx, %r9
movq 256(%rsp), %rax
mulq %rcx
shrq $13, %rax
addq %rax, %r9
movq %rdx, %r10
movq 264(%rsp), %rax
mulq %rcx
shrq $13, %rax
addq %rax, %r10
imulq $19, %rdx, %rax
addq %rax, %rsi
addq 272(%rsp), %rsi
addq 280(%rsp), %rdi
addq 288(%rsp), %r8
addq 296(%rsp), %r9
addq 304(%rsp), %r10
movq %rsi, 272(%rsp)
movq %rdi, 280(%rsp)
movq %r8, 288(%rsp)
movq %r9, 296(%rsp)
movq %r10, 304(%rsp)
movq 392(%rsp), %rax
mulq 392(%rsp)
movq %rax, %rbx
movq %rdx, %r8
movq 392(%rsp), %rax
shlq $1, %rax
mulq 400(%rsp)
movq %rax, %r12
movq %rdx, %rsi
movq 392(%rsp), %rax
shlq $1, %rax
mulq 408(%rsp)
movq %rax, %rdi
movq %rdx, %rcx
movq 392(%rsp), %rax
shlq $1, %rax
mulq 416(%rsp)
movq %rax, %rbp
movq %rdx, %r11
movq 392(%rsp), %rax
shlq $1, %rax
mulq 424(%rsp)
movq %rax, %r10
movq %rdx, %r9
movq 400(%rsp), %rax
mulq 400(%rsp)
addq %rax, %rdi
adcq %rdx, %rcx
movq 400(%rsp), %rax
shlq $1, %rax
mulq 408(%rsp)
addq %rax, %rbp
adcq %rdx, %r11
movq 400(%rsp), %rax
shlq $1, %rax
mulq 416(%rsp)
addq %rax, %r10
adcq %rdx, %r9
movq 400(%rsp), %rax
imulq $38, %rax, %rax
mulq 424(%rsp)
addq %rax, %rbx
adcq %rdx, %r8
movq 408(%rsp), %rax
mulq 408(%rsp)
addq %rax, %r10
adcq %rdx, %r9
movq 408(%rsp), %rax
imulq $38, %rax, %rax
mulq 416(%rsp)
addq %rax, %rbx
adcq %rdx, %r8
movq 408(%rsp), %rax
imulq $38, %rax, %rax
mulq 424(%rsp)
addq %rax, %r12
adcq %rdx, %rsi
movq 416(%rsp), %rax
imulq $19, %rax, %rax
mulq 416(%rsp)
addq %rax, %r12
adcq %rdx, %rsi
movq 416(%rsp), %rax
imulq $38, %rax, %rax
mulq 424(%rsp)
addq %rax, %rdi
adcq %rdx, %rcx
movq 424(%rsp), %rax
imulq $19, %rax, %rax
mulq 424(%rsp)
addq %rax, %rbp
adcq %rdx, %r11
movq $2251799813685247, %rax
shldq $13, %rbx, %r8
andq %rax, %rbx
shldq $13, %r12, %rsi
andq %rax, %r12
addq %r8, %r12
shldq $13, %rdi, %rcx
andq %rax, %rdi
addq %rsi, %rdi
shldq $13, %rbp, %r11
andq %rax, %rbp
addq %rcx, %rbp
shldq $13, %r10, %r9
andq %rax, %r10
addq %r11, %r10
imulq $19, %r9, %rcx
addq %rcx, %rbx
movq %rbx, %rcx
shrq $51, %rcx
addq %r12, %rcx
andq %rax, %rbx
movq %rcx, %rdx
shrq $51, %rcx
addq %rdi, %rcx
andq %rax, %rdx
movq %rcx, %rsi
shrq $51, %rcx
addq %rbp, %rcx
andq %rax, %rsi
movq %rcx, %rdi
shrq $51, %rcx
addq %r10, %rcx
andq %rax, %rdi
movq %rcx, %r8
shrq $51, %rcx
imulq $19, %rcx, %rcx
addq %rcx, %rbx
andq %rax, %r8
movq %rbx, 112(%rsp)
movq %rdx, 120(%rsp)
movq %rsi, 128(%rsp)
movq %rdi, 136(%rsp)
movq %r8, 144(%rsp)
movq 216(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 32(%rsp)
mulq 368(%rsp)
movq %rax, %rdi
movq %rdx, %rsi
movq 224(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 24(%rsp)
mulq 360(%rsp)
addq %rax, %rdi
adcq %rdx, %rsi
movq 192(%rsp), %rax
mulq 352(%rsp)
addq %rax, %rdi
adcq %rdx, %rsi
movq 192(%rsp), %rax
mulq 360(%rsp)
movq %rax, %r11
movq %rdx, %rbx
movq 192(%rsp), %rax
mulq 368(%rsp)
movq %rax, %r8
movq %rdx, %r9
movq 192(%rsp), %rax
mulq 376(%rsp)
movq %rax, %r12
movq %rdx, %rcx
movq 192(%rsp), %rax
mulq 384(%rsp)
movq %rax, %rbp
movq %rdx, %r10
movq 200(%rsp), %rax
mulq 352(%rsp)
addq %rax, %r11
adcq %rdx, %rbx
movq 200(%rsp), %rax
mulq 360(%rsp)
addq %rax, %r8
adcq %rdx, %r9
movq 200(%rsp), %rax
mulq 368(%rsp)
addq %rax, %r12
adcq %rdx, %rcx
movq 200(%rsp), %rax
mulq 376(%rsp)
addq %rax, %rbp
adcq %rdx, %r10
movq 200(%rsp), %rax
imulq $19, %rax, %rax
mulq 384(%rsp)
addq %rax, %rdi
adcq %rdx, %rsi
movq 208(%rsp), %rax
mulq 352(%rsp)
addq %rax, %r8
adcq %rdx, %r9
movq 208(%rsp), %rax
mulq 360(%rsp)
addq %rax, %r12
adcq %rdx, %rcx
movq 208(%rsp), %rax
mulq 368(%rsp)
addq %rax, %rbp
adcq %rdx, %r10
movq 208(%rsp), %rax
imulq $19, %rax, %rax
mulq 376(%rsp)
addq %rax, %rdi
adcq %rdx, %rsi
movq 208(%rsp), %rax
imulq $19, %rax, %rax
mulq 384(%rsp)
addq %rax, %r11
adcq %rdx, %rbx
movq 216(%rsp), %rax
mulq 352(%rsp)
addq %rax, %r12
adcq %rdx, %rcx
movq 216(%rsp), %rax
mulq 360(%rsp)
addq %rax, %rbp
adcq %rdx, %r10
movq 32(%rsp), %rax
mulq 376(%rsp)
addq %rax, %r11
adcq %rdx, %rbx
movq 32(%rsp), %rax
mulq 384(%rsp)
addq %rax, %r8
adcq %rdx, %r9
movq 224(%rsp), %rax
mulq 352(%rsp)
addq %rax, %rbp
adcq %rdx, %r10
movq 24(%rsp), %rax
mulq 368(%rsp)
addq %rax, %r11
adcq %rdx, %rbx
movq 24(%rsp), %rax
mulq 376(%rsp)
addq %rax, %r8
adcq %rdx, %r9
movq 24(%rsp), %rax
mulq 384(%rsp)
addq %rax, %r12
adcq %rdx, %rcx
movq $2251799813685247, %rax
shldq $13, %rdi, %rsi
andq %rax, %rdi
shldq $13, %r11, %rbx
andq %rax, %r11
addq %rsi, %r11
shldq $13, %r8, %r9
andq %rax, %r8
addq %rbx, %r8
shldq $13, %r12, %rcx
andq %rax, %r12
addq %r9, %r12
shldq $13, %rbp, %r10
andq %rax, %rbp
addq %rcx, %rbp
imulq $19, %r10, %rcx
addq %rcx, %rdi
movq %rdi, %rcx
shrq $51, %rcx
addq %r11, %rcx
movq %rcx, %rdx
shrq $51, %rcx
andq %rax, %rdi
addq %r8, %rcx
movq %rcx, %rsi
shrq $51, %rcx
andq %rax, %rdx
addq %r12, %rcx
movq %rcx, %r8
shrq $51, %rcx
andq %rax, %rsi
addq %rbp, %rcx
movq %rcx, %r9
shrq $51, %rcx
andq %rax, %r8
imulq $19, %rcx, %rcx
addq %rcx, %rdi
andq %rax, %r9
movq %rdi, 152(%rsp)
movq %rdx, 160(%rsp)
movq %rsi, 168(%rsp)
movq %r8, 176(%rsp)
movq %r9, 184(%rsp)
movq 256(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 24(%rsp)
mulq 288(%rsp)
movq %rax, %rbp
movq %rdx, %rdi
movq 264(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 32(%rsp)
mulq 280(%rsp)
addq %rax, %rbp
adcq %rdx, %rdi
movq 232(%rsp), %rax
mulq 272(%rsp)
addq %rax, %rbp
adcq %rdx, %rdi
movq 232(%rsp), %rax
mulq 280(%rsp)
movq %rax, %rbx
movq %rdx, %r12
movq 232(%rsp), %rax
mulq 288(%rsp)
movq %rax, %rsi
movq %rdx, %r10
movq 232(%rsp), %rax
mulq 296(%rsp)
movq %rax, %r11
movq %rdx, %r8
movq 232(%rsp), %rax
mulq 304(%rsp)
movq %rax, %rcx
movq %rdx, %r9
movq 240(%rsp), %rax
mulq 272(%rsp)
addq %rax, %rbx
adcq %rdx, %r12
movq 240(%rsp), %rax
mulq 280(%rsp)
addq %rax, %rsi
adcq %rdx, %r10
movq 240(%rsp), %rax
mulq 288(%rsp)
addq %rax, %r11
adcq %rdx, %r8
movq 240(%rsp), %rax
mulq 296(%rsp)
addq %rax, %rcx
adcq %rdx, %r9
movq 240(%rsp), %rax
imulq $19, %rax, %rax
mulq 304(%rsp)
addq %rax, %rbp
adcq %rdx, %rdi
movq 248(%rsp), %rax
mulq 272(%rsp)
addq %rax, %rsi
adcq %rdx, %r10
movq 248(%rsp), %rax
mulq 280(%rsp)
addq %rax, %r11
adcq %rdx, %r8
movq 248(%rsp), %rax
mulq 288(%rsp)
addq %rax, %rcx
adcq %rdx, %r9
movq 248(%rsp), %rax
imulq $19, %rax, %rax
mulq 296(%rsp)
addq %rax, %rbp
adcq %rdx, %rdi
movq 248(%rsp), %rax
imulq $19, %rax, %rax
mulq 304(%rsp)
addq %rax, %rbx
adcq %rdx, %r12
movq 256(%rsp), %rax
mulq 272(%rsp)
addq %rax, %r11
adcq %rdx, %r8
movq 256(%rsp), %rax
mulq 280(%rsp)
addq %rax, %rcx
adcq %rdx, %r9
movq 24(%rsp), %rax
mulq 296(%rsp)
addq %rax, %rbx
adcq %rdx, %r12
movq 24(%rsp), %rax
mulq 304(%rsp)
addq %rax, %rsi
adcq %rdx, %r10
movq 264(%rsp), %rax
mulq 272(%rsp)
addq %rax, %rcx
adcq %rdx, %r9
movq 32(%rsp), %rax
mulq 288(%rsp)
addq %rax, %rbx
adcq %rdx, %r12
movq 32(%rsp), %rax
mulq 296(%rsp)
addq %rax, %rsi
adcq %rdx, %r10
movq 32(%rsp), %rax
mulq 304(%rsp)
addq %rax, %r11
adcq %rdx, %r8
movq $2251799813685247, %r13
shldq $13, %rbp, %rdi
andq %r13, %rbp
shldq $13, %rbx, %r12
andq %r13, %rbx
addq %rdi, %rbx
shldq $13, %rsi, %r10
andq %r13, %rsi
addq %r12, %rsi
shldq $13, %r11, %r8
andq %r13, %r11
addq %r10, %r11
shldq $13, %rcx, %r9
andq %r13, %rcx
addq %r8, %rcx
imulq $19, %r9, %rax
addq %rax, %rbp
movq %rbp, %r8
shrq $51, %r8
addq %rbx, %r8
movq %r8, %rax
shrq $51, %r8
andq %r13, %rbp
addq %rsi, %r8
movq %r8, %rdx
shrq $51, %r8
andq %r13, %rax
addq %r11, %r8
movq %r8, %rsi
shrq $51, %r8
andq %r13, %rdx
addq %rcx, %r8
movq %r8, %rdi
shrq $51, %r8
andq %r13, %rsi
imulq $19, %r8, %rcx
addq %rcx, %rbp
andq %r13, %rdi
movq 16(%rsp), %rcx
cmpq $0, %rcx
jnbe Ljade_scalarmult_curve25519_amd64_ref5_base$28
movq %rbp, 152(%rsp)
movq %rax, 160(%rsp)
movq %rdx, 168(%rsp)
movq %rsi, 176(%rsp)
movq %rdi, 184(%rsp)
movq 152(%rsp), %rax
movq %rax, 112(%rsp)
movq 160(%rsp), %rax
movq %rax, 120(%rsp)
movq 168(%rsp), %rax
movq %rax, 128(%rsp)
movq 176(%rsp), %rax
movq %rax, 136(%rsp)
movq 184(%rsp), %rax
movq %rax, 144(%rsp)
leaq 112(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$27(%rip), %rax
movq %rax, (%rsp)
jmp L_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5_base$27:
leaq 8(%rsp), %rsp
movq 112(%rsp), %rax
movq %rax, 192(%rsp)
movq 120(%rsp), %rax
movq %rax, 200(%rsp)
movq 128(%rsp), %rax
movq %rax, 208(%rsp)
movq 136(%rsp), %rax
movq %rax, 216(%rsp)
movq 144(%rsp), %rax
movq %rax, 224(%rsp)
leaq 192(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$26(%rip), %rax
movq %rax, (%rsp)
jmp L_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5_base$26:
leaq 8(%rsp), %rsp
leaq 192(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$25(%rip), %rax
movq %rax, (%rsp)
jmp L_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5_base$25:
leaq 8(%rsp), %rsp
leaq 192(%rsp), %r9
leaq 152(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$24(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5_base$24:
leaq 24(%rsp), %rsp
leaq 112(%rsp), %r9
leaq 192(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$23(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5_base$23:
leaq 24(%rsp), %rsp
movq 112(%rsp), %rax
movq %rax, 152(%rsp)
movq 120(%rsp), %rax
movq %rax, 160(%rsp)
movq 128(%rsp), %rax
movq %rax, 168(%rsp)
movq 136(%rsp), %rax
movq %rax, 176(%rsp)
movq 144(%rsp), %rax
movq %rax, 184(%rsp)
leaq 152(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$22(%rip), %rax
movq %rax, (%rsp)
jmp L_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5_base$22:
leaq 8(%rsp), %rsp
leaq 192(%rsp), %r9
leaq 152(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$21(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5_base$21:
leaq 24(%rsp), %rsp
movq 192(%rsp), %rax
movq %rax, 152(%rsp)
movq 200(%rsp), %rax
movq %rax, 160(%rsp)
movq 208(%rsp), %rax
movq %rax, 168(%rsp)
movq 216(%rsp), %rax
movq %rax, 176(%rsp)
movq 224(%rsp), %rax
movq %rax, 184(%rsp)
leaq 152(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$20(%rip), %rax
movq %rax, (%rsp)
jmp L_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5_base$20:
leaq 8(%rsp), %rsp
movl $4, %r13d
leaq 152(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$19(%rip), %rax
movq %rax, (%rsp)
jmp L_it_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5_base$19:
leaq 8(%rsp), %rsp
leaq 192(%rsp), %r9
leaq 152(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$18(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5_base$18:
leaq 24(%rsp), %rsp
movl $10, %r13d
movq 192(%rsp), %rax
movq %rax, 152(%rsp)
movq 200(%rsp), %rax
movq %rax, 160(%rsp)
movq 208(%rsp), %rax
movq %rax, 168(%rsp)
movq 216(%rsp), %rax
movq %rax, 176(%rsp)
movq 224(%rsp), %rax
movq %rax, 184(%rsp)
leaq 152(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$17(%rip), %rax
movq %rax, (%rsp)
jmp L_it_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5_base$17:
leaq 8(%rsp), %rsp
leaq 152(%rsp), %r9
leaq 192(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$16(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5_base$16:
leaq 24(%rsp), %rsp
movl $20, %r13d
movq 152(%rsp), %rax
movq %rax, 272(%rsp)
movq 160(%rsp), %rax
movq %rax, 280(%rsp)
movq 168(%rsp), %rax
movq %rax, 288(%rsp)
movq 176(%rsp), %rax
movq %rax, 296(%rsp)
movq 184(%rsp), %rax
movq %rax, 304(%rsp)
leaq 272(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$15(%rip), %rax
movq %rax, (%rsp)
jmp L_it_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5_base$15:
leaq 8(%rsp), %rsp
leaq 152(%rsp), %r9
leaq 272(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$14(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5_base$14:
leaq 24(%rsp), %rsp
movl $10, %r13d
leaq 152(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$13(%rip), %rax
movq %rax, (%rsp)
jmp L_it_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5_base$13:
leaq 8(%rsp), %rsp
leaq 192(%rsp), %r9
leaq 152(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$12(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5_base$12:
leaq 24(%rsp), %rsp
movl $50, %r13d
movq 192(%rsp), %rax
movq %rax, 152(%rsp)
movq 200(%rsp), %rax
movq %rax, 160(%rsp)
movq 208(%rsp), %rax
movq %rax, 168(%rsp)
movq 216(%rsp), %rax
movq %rax, 176(%rsp)
movq 224(%rsp), %rax
movq %rax, 184(%rsp)
leaq 152(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$11(%rip), %rax
movq %rax, (%rsp)
jmp L_it_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5_base$11:
leaq 8(%rsp), %rsp
leaq 152(%rsp), %r9
leaq 192(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$10(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5_base$10:
leaq 24(%rsp), %rsp
movl $100, %r13d
movq 152(%rsp), %rax
movq %rax, 272(%rsp)
movq 160(%rsp), %rax
movq %rax, 280(%rsp)
movq 168(%rsp), %rax
movq %rax, 288(%rsp)
movq 176(%rsp), %rax
movq %rax, 296(%rsp)
movq 184(%rsp), %rax
movq %rax, 304(%rsp)
leaq 272(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$9(%rip), %rax
movq %rax, (%rsp)
jmp L_it_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5_base$9:
leaq 8(%rsp), %rsp
leaq 152(%rsp), %r9
leaq 272(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$8(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5_base$8:
leaq 24(%rsp), %rsp
movl $50, %r13d
leaq 152(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$7(%rip), %rax
movq %rax, (%rsp)
jmp L_it_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5_base$7:
leaq 8(%rsp), %rsp
leaq 192(%rsp), %r9
leaq 152(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$6(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5_base$6:
leaq 24(%rsp), %rsp
movl $4, %r13d
leaq 192(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$5(%rip), %rax
movq %rax, (%rsp)
jmp L_it_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5_base$5:
leaq 8(%rsp), %rsp
leaq 192(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$4(%rip), %rax
movq %rax, (%rsp)
jmp L_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5_base$4:
leaq 8(%rsp), %rsp
leaq 192(%rsp), %r9
leaq 112(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$3(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5_base$3:
leaq 24(%rsp), %rsp
movq 96(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 8(%rsp)
mulq 208(%rsp)
movq %rax, %r9
movq %rdx, %r12
movq 104(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 16(%rsp)
mulq 200(%rsp)
addq %rax, %r9
adcq %rdx, %r12
movq 72(%rsp), %rax
mulq 192(%rsp)
addq %rax, %r9
adcq %rdx, %r12
movq 72(%rsp), %rax
mulq 200(%rsp)
movq %rax, %r11
movq %rdx, %rdi
movq 72(%rsp), %rax
mulq 208(%rsp)
movq %rax, %rsi
movq %rdx, %r10
movq 72(%rsp), %rax
mulq 216(%rsp)
movq %rax, %rcx
movq %rdx, %r8
movq 72(%rsp), %rax
mulq 224(%rsp)
movq %rax, %rbx
movq %rdx, %rbp
movq 80(%rsp), %rax
mulq 192(%rsp)
addq %rax, %r11
adcq %rdx, %rdi
movq 80(%rsp), %rax
mulq 200(%rsp)
addq %rax, %rsi
adcq %rdx, %r10
movq 80(%rsp), %rax
mulq 208(%rsp)
addq %rax, %rcx
adcq %rdx, %r8
movq 80(%rsp), %rax
mulq 216(%rsp)
addq %rax, %rbx
adcq %rdx, %rbp
movq 80(%rsp), %rax
imulq $19, %rax, %rax
mulq 224(%rsp)
addq %rax, %r9
adcq %rdx, %r12
movq 88(%rsp), %rax
mulq 192(%rsp)
addq %rax, %rsi
adcq %rdx, %r10
movq 88(%rsp), %rax
mulq 200(%rsp)
addq %rax, %rcx
adcq %rdx, %r8
movq 88(%rsp), %rax
mulq 208(%rsp)
addq %rax, %rbx
adcq %rdx, %rbp
movq 88(%rsp), %rax
imulq $19, %rax, %rax
mulq 216(%rsp)
addq %rax, %r9
adcq %rdx, %r12
movq 88(%rsp), %rax
imulq $19, %rax, %rax
mulq 224(%rsp)
addq %rax, %r11
adcq %rdx, %rdi
movq 96(%rsp), %rax
mulq 192(%rsp)
addq %rax, %rcx
adcq %rdx, %r8
movq 96(%rsp), %rax
mulq 200(%rsp)
addq %rax, %rbx
adcq %rdx, %rbp
movq 8(%rsp), %rax
mulq 216(%rsp)
addq %rax, %r11
adcq %rdx, %rdi
movq 8(%rsp), %rax
mulq 224(%rsp)
addq %rax, %rsi
adcq %rdx, %r10
movq 104(%rsp), %rax
mulq 192(%rsp)
addq %rax, %rbx
adcq %rdx, %rbp
movq 16(%rsp), %rax
mulq 208(%rsp)
addq %rax, %r11
adcq %rdx, %rdi
movq 16(%rsp), %rax
mulq 216(%rsp)
addq %rax, %rsi
adcq %rdx, %r10
movq 16(%rsp), %rax
mulq 224(%rsp)
addq %rax, %rcx
adcq %rdx, %r8
movq $2251799813685247, %rax
shldq $13, %r9, %r12
andq %rax, %r9
shldq $13, %r11, %rdi
andq %rax, %r11
addq %r12, %r11
shldq $13, %rsi, %r10
andq %rax, %rsi
addq %rdi, %rsi
shldq $13, %rcx, %r8
andq %rax, %rcx
addq %r10, %rcx
shldq $13, %rbx, %rbp
andq %rax, %rbx
addq %r8, %rbx
imulq $19, %rbp, %rdx
addq %rdx, %r9
movq %r9, %r8
shrq $51, %r8
addq %r11, %r8
movq %r8, %rdx
shrq $51, %r8
andq %rax, %r9
addq %rsi, %r8
movq %r8, %rsi
shrq $51, %r8
andq %rax, %rdx
addq %rcx, %r8
movq %r8, %rcx
shrq $51, %r8
andq %rax, %rsi
addq %rbx, %r8
movq %r8, %rdi
shrq $51, %r8
andq %rax, %rcx
imulq $19, %r8, %r8
addq %r8, %r9
andq %rax, %rdi
movq $2251799813685247, %rax
movq %rax, %r8
addq $-18, %r8
movq $3, %r10
jmp Ljade_scalarmult_curve25519_amd64_ref5_base$1
Ljade_scalarmult_curve25519_amd64_ref5_base$2:
movq %r9, %r11
shrq $51, %r11
andq %rax, %r9
addq %r11, %rdx
movq %rdx, %r11
shrq $51, %r11
andq %rax, %rdx
addq %r11, %rsi
movq %rsi, %r11
shrq $51, %r11
andq %rax, %rsi
addq %r11, %rcx
movq %rcx, %r11
shrq $51, %r11
andq %rax, %rcx
addq %r11, %rdi
movq %rdi, %r11
shrq $51, %r11
andq %rax, %rdi
imulq $19, %r11, %r11
addq %r11, %r9
addq $-1, %r10
Ljade_scalarmult_curve25519_amd64_ref5_base$1:
cmpq $0, %r10
jnbe Ljade_scalarmult_curve25519_amd64_ref5_base$2
movq $1, %r11
cmpq %r8, %r9
cmovl %r10, %r11
cmpq %rax, %rdx
cmovne %r10, %r11
cmpq %rax, %rsi
cmovne %r10, %r11
cmpq %rax, %rcx
cmovne %r10, %r11
cmpq %rax, %rdi
cmovne %r10, %r11
negq %r11
andq %r11, %rax
andq %r11, %r8
subq %r8, %r9
subq %rax, %rdx
subq %rax, %rsi
subq %rax, %rcx
subq %rax, %rdi
movq %rdx, %rax
shlq $51, %rax
orq %r9, %rax
movq %rsi, %r8
shlq $38, %r8
shrq $13, %rdx
orq %rdx, %r8
movq %rcx, %rdx
shlq $25, %rdx
shrq $26, %rsi
orq %rsi, %rdx
shlq $12, %rdi
shrq $39, %rcx
orq %rcx, %rdi
movq (%rsp), %rcx
movq %rax, (%rcx)
movq %r8, 8(%rcx)
movq %rdx, 16(%rcx)
movq %rdi, 24(%rcx)
xorq %rax, %rax
movq 432(%rsp), %rbx
movq 440(%rsp), %rbp
movq 448(%rsp), %r12
movq 456(%rsp), %r13
movq 464(%rsp), %r14
movq 472(%rsp), %rsp
ret
_jade_scalarmult_curve25519_amd64_ref5:
jade_scalarmult_curve25519_amd64_ref5:
movq %rsp, %rax
leaq -480(%rsp), %rsp
andq $-8, %rsp
movq %rax, 472(%rsp)
movq %rbx, 432(%rsp)
movq %rbp, 440(%rsp)
movq %r12, 448(%rsp)
movq %r13, 456(%rsp)
movq %r14, 464(%rsp)
movq %rdi, (%rsp)
movq (%rsi), %rax
movq %rax, 40(%rsp)
movq 8(%rsi), %rax
movq %rax, 48(%rsp)
movq 16(%rsi), %rax
movq %rax, 56(%rsp)
movq 24(%rsi), %rax
movq %rax, 64(%rsp)
andb $-8, 40(%rsp)
andb $127, 71(%rsp)
orb $64, 71(%rsp)
movq (%rdx), %rax
movq 8(%rdx), %rsi
movq 16(%rdx), %rdi
movq 24(%rdx), %rdx
movq $2251799813685247, %r9
movq %rax, %rcx
andq %r9, %rcx
movq %rsi, %r8
shlq $13, %r8
shrq $51, %rax
orq %rax, %r8
andq %r9, %r8
movq %rdi, %r10
shlq $26, %r10
shrq $38, %rsi
orq %rsi, %r10
andq %r9, %r10
movq %rdx, %r11
shlq $39, %r11
shrq $25, %rdi
orq %rdi, %r11
andq %r9, %r11
movq %rdx, %rbp
shrq $12, %rbp
andq %r9, %rbp
xorq %r9, %r9
movq $1, 72(%rsp)
movq $0, %rbx
movq %rcx, 112(%rsp)
movq %r8, 120(%rsp)
movq %r10, 128(%rsp)
movq %r11, 136(%rsp)
movq %rbp, 144(%rsp)
movq $1, 152(%rsp)
movq %r9, 80(%rsp)
movq %r9, %rax
movq %r9, 160(%rsp)
movq %r9, 88(%rsp)
movq %r9, %rdx
movq %r9, 168(%rsp)
movq %r9, 96(%rsp)
movq %r9, %rsi
movq %r9, 176(%rsp)
movq %r9, 104(%rsp)
movq %r9, %rdi
movq %r9, 184(%rsp)
movq %rcx, 192(%rsp)
movq %r8, 200(%rsp)
movq %r10, 208(%rsp)
movq %r11, 216(%rsp)
movq %rbp, 224(%rsp)
movq $255, %rcx
movq $0, 8(%rsp)
Ljade_scalarmult_curve25519_amd64_ref5$28:
addq $-1, %rcx
movq %rcx, 16(%rsp)
movq %rcx, %r8
shrq $3, %r8
movzbq 40(%rsp,%r8), %r8
andq $7, %rcx
shrq %cl, %r8
andq $1, %r8
movq 8(%rsp), %r9
xorq %r8, %r9
xorq %rcx, %rcx
subq %r9, %rcx
movq %rbx, %r11
movq %rax, %rbp
movq %rdx, %r12
movq %rsi, %r9
movq %rdi, %r10
xorq 152(%rsp), %r11
andq %rcx, %r11
xorq 160(%rsp), %rbp
andq %rcx, %rbp
xorq 168(%rsp), %r12
andq %rcx, %r12
xorq 176(%rsp), %r9
andq %rcx, %r9
xorq 184(%rsp), %r10
andq %rcx, %r10
xorq %r11, %rbx
movq 152(%rsp), %r13
xorq %r11, %r13
movq %r13, 152(%rsp)
xorq %rbp, %rax
movq 160(%rsp), %r11
xorq %rbp, %r11
movq %r11, 160(%rsp)
xorq %r12, %rdx
movq 168(%rsp), %r11
xorq %r12, %r11
movq %r11, 168(%rsp)
xorq %r9, %rsi
movq 176(%rsp), %r11
xorq %r9, %r11
movq %r11, 176(%rsp)
xorq %r10, %rdi
movq 184(%rsp), %r9
xorq %r10, %r9
movq %r9, 184(%rsp)
movq 112(%rsp), %r12
movq 120(%rsp), %r9
movq 128(%rsp), %r10
movq 136(%rsp), %r11
movq 144(%rsp), %rbp
movq 72(%rsp), %r13
movq %r12, %r14
xorq %r13, %r14
andq %rcx, %r14
xorq %r14, %r13
xorq %r14, %r12
movq %r13, 72(%rsp)
movq %r12, 112(%rsp)
movq 80(%rsp), %r12
movq %r9, %r13
xorq %r12, %r13
andq %rcx, %r13
xorq %r13, %r12
xorq %r13, %r9
movq %r12, 80(%rsp)
movq %r9, 120(%rsp)
movq 88(%rsp), %r9
movq %r10, %r12
xorq %r9, %r12
andq %rcx, %r12
xorq %r12, %r9
xorq %r12, %r10
movq %r9, 88(%rsp)
movq %r10, 128(%rsp)
movq 96(%rsp), %r9
movq %r11, %r10
xorq %r9, %r10
andq %rcx, %r10
xorq %r10, %r9
xorq %r10, %r11
movq %r9, 96(%rsp)
movq %r11, 136(%rsp)
movq 104(%rsp), %r9
movq %rbp, %r10
xorq %r9, %r10
andq %rcx, %r10
xorq %r10, %r9
xorq %r10, %rbp
movq %r9, 104(%rsp)
movq %rbp, 144(%rsp)
movq %r8, 8(%rsp)
movq $4503599627370458, %rcx
movq $4503599627370494, %r8
movq 72(%rsp), %r9
movq 80(%rsp), %r10
movq 88(%rsp), %r11
movq 96(%rsp), %rbp
movq 104(%rsp), %r12
addq %rcx, %r9
addq %r8, %r10
addq %r8, %r11
addq %r8, %rbp
addq %r8, %r12
subq %rbx, %r9
subq %rax, %r10
subq %rdx, %r11
subq %rsi, %rbp
subq %rdi, %r12
movq %r9, 232(%rsp)
movq %r10, 240(%rsp)
movq %r11, 248(%rsp)
movq %rbp, 256(%rsp)
movq %r12, 264(%rsp)
addq 72(%rsp), %rbx
addq 80(%rsp), %rax
addq 88(%rsp), %rdx
addq 96(%rsp), %rsi
addq 104(%rsp), %rdi
movq %rbx, 272(%rsp)
movq %rax, 280(%rsp)
movq %rdx, 288(%rsp)
movq %rsi, 296(%rsp)
movq %rdi, 304(%rsp)
movq 112(%rsp), %rax
movq 120(%rsp), %rcx
movq 128(%rsp), %rdx
movq 136(%rsp), %rsi
movq 144(%rsp), %rdi
movq $4503599627370458, %r8
movq $4503599627370494, %r9
addq %r8, %rax
addq %r9, %rcx
addq %r9, %rdx
addq %r9, %rsi
addq %r9, %rdi
subq 152(%rsp), %rax
subq 160(%rsp), %rcx
subq 168(%rsp), %rdx
subq 176(%rsp), %rsi
subq 184(%rsp), %rdi
movq %rax, 312(%rsp)
movq %rcx, 320(%rsp)
movq %rdx, 328(%rsp)
movq %rsi, 336(%rsp)
movq %rdi, 344(%rsp)
movq 112(%rsp), %rax
movq 120(%rsp), %rcx
movq 128(%rsp), %rdx
movq 136(%rsp), %rsi
movq 144(%rsp), %rdi
addq 152(%rsp), %rax
addq 160(%rsp), %rcx
addq 168(%rsp), %rdx
addq 176(%rsp), %rsi
addq 184(%rsp), %rdi
movq %rax, 352(%rsp)
movq %rcx, 360(%rsp)
movq %rdx, 368(%rsp)
movq %rsi, 376(%rsp)
movq %rdi, 384(%rsp)
movq 296(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 24(%rsp)
mulq 328(%rsp)
movq %rax, %r12
movq %rdx, %r9
movq 304(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 32(%rsp)
mulq 320(%rsp)
addq %rax, %r12
adcq %rdx, %r9
movq 272(%rsp), %rax
mulq 312(%rsp)
addq %rax, %r12
adcq %rdx, %r9
movq 272(%rsp), %rax
mulq 320(%rsp)
movq %rax, %rsi
movq %rdx, %rbx
movq 272(%rsp), %rax
mulq 328(%rsp)
movq %rax, %r10
movq %rdx, %r8
movq 272(%rsp), %rax
mulq 336(%rsp)
movq %rax, %rdi
movq %rdx, %rbp
movq 272(%rsp), %rax
mulq 344(%rsp)
movq %rax, %r11
movq %rdx, %rcx
movq 280(%rsp), %rax
mulq 312(%rsp)
addq %rax, %rsi
adcq %rdx, %rbx
movq 280(%rsp), %rax
mulq 320(%rsp)
addq %rax, %r10
adcq %rdx, %r8
movq 280(%rsp), %rax
mulq 328(%rsp)
addq %rax, %rdi
adcq %rdx, %rbp
movq 280(%rsp), %rax
mulq 336(%rsp)
addq %rax, %r11
adcq %rdx, %rcx
movq 280(%rsp), %rax
imulq $19, %rax, %rax
mulq 344(%rsp)
addq %rax, %r12
adcq %rdx, %r9
movq 288(%rsp), %rax
mulq 312(%rsp)
addq %rax, %r10
adcq %rdx, %r8
movq 288(%rsp), %rax
mulq 320(%rsp)
addq %rax, %rdi
adcq %rdx, %rbp
movq 288(%rsp), %rax
mulq 328(%rsp)
addq %rax, %r11
adcq %rdx, %rcx
movq 288(%rsp), %rax
imulq $19, %rax, %rax
mulq 336(%rsp)
addq %rax, %r12
adcq %rdx, %r9
movq 288(%rsp), %rax
imulq $19, %rax, %rax
mulq 344(%rsp)
addq %rax, %rsi
adcq %rdx, %rbx
movq 296(%rsp), %rax
mulq 312(%rsp)
addq %rax, %rdi
adcq %rdx, %rbp
movq 296(%rsp), %rax
mulq 320(%rsp)
addq %rax, %r11
adcq %rdx, %rcx
movq 24(%rsp), %rax
mulq 336(%rsp)
addq %rax, %rsi
adcq %rdx, %rbx
movq 24(%rsp), %rax
mulq 344(%rsp)
addq %rax, %r10
adcq %rdx, %r8
movq 304(%rsp), %rax
mulq 312(%rsp)
addq %rax, %r11
adcq %rdx, %rcx
movq 32(%rsp), %rax
mulq 328(%rsp)
addq %rax, %rsi
adcq %rdx, %rbx
movq 32(%rsp), %rax
mulq 336(%rsp)
addq %rax, %r10
adcq %rdx, %r8
movq 32(%rsp), %rax
mulq 344(%rsp)
addq %rax, %rdi
adcq %rdx, %rbp
movq $2251799813685247, %rax
shldq $13, %r12, %r9
andq %rax, %r12
shldq $13, %rsi, %rbx
andq %rax, %rsi
addq %r9, %rsi
shldq $13, %r10, %r8
andq %rax, %r10
addq %rbx, %r10
shldq $13, %rdi, %rbp
andq %rax, %rdi
addq %r8, %rdi
shldq $13, %r11, %rcx
andq %rax, %r11
addq %rbp, %r11
imulq $19, %rcx, %rcx
addq %rcx, %r12
movq %r12, %rcx
shrq $51, %rcx
addq %rsi, %rcx
movq %rcx, %rdx
shrq $51, %rcx
andq %rax, %r12
addq %r10, %rcx
movq %rcx, %rsi
shrq $51, %rcx
andq %rax, %rdx
addq %rdi, %rcx
movq %rcx, %rdi
shrq $51, %rcx
andq %rax, %rsi
addq %r11, %rcx
movq %rcx, %r8
shrq $51, %rcx
andq %rax, %rdi
imulq $19, %rcx, %rcx
addq %rcx, %r12
andq %rax, %r8
movq %r12, 312(%rsp)
movq %rdx, 320(%rsp)
movq %rsi, 328(%rsp)
movq %rdi, 336(%rsp)
movq %r8, 344(%rsp)
movq 376(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 32(%rsp)
mulq 248(%rsp)
movq %rax, %r10
movq %rdx, %r9
movq 384(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 24(%rsp)
mulq 240(%rsp)
addq %rax, %r10
adcq %rdx, %r9
movq 352(%rsp), %rax
mulq 232(%rsp)
addq %rax, %r10
adcq %rdx, %r9
movq 352(%rsp), %rax
mulq 240(%rsp)
movq %rax, %rdi
movq %rdx, %rbx
movq 352(%rsp), %rax
mulq 248(%rsp)
movq %rax, %rsi
movq %rdx, %rcx
movq 352(%rsp), %rax
mulq 256(%rsp)
movq %rax, %r12
movq %rdx, %r8
movq 352(%rsp), %rax
mulq 264(%rsp)
movq %rax, %r11
movq %rdx, %rbp
movq 360(%rsp), %rax
mulq 232(%rsp)
addq %rax, %rdi
adcq %rdx, %rbx
movq 360(%rsp), %rax
mulq 240(%rsp)
addq %rax, %rsi
adcq %rdx, %rcx
movq 360(%rsp), %rax
mulq 248(%rsp)
addq %rax, %r12
adcq %rdx, %r8
movq 360(%rsp), %rax
mulq 256(%rsp)
addq %rax, %r11
adcq %rdx, %rbp
movq 360(%rsp), %rax
imulq $19, %rax, %rax
mulq 264(%rsp)
addq %rax, %r10
adcq %rdx, %r9
movq 368(%rsp), %rax
mulq 232(%rsp)
addq %rax, %rsi
adcq %rdx, %rcx
movq 368(%rsp), %rax
mulq 240(%rsp)
addq %rax, %r12
adcq %rdx, %r8
movq 368(%rsp), %rax
mulq 248(%rsp)
addq %rax, %r11
adcq %rdx, %rbp
movq 368(%rsp), %rax
imulq $19, %rax, %rax
mulq 256(%rsp)
addq %rax, %r10
adcq %rdx, %r9
movq 368(%rsp), %rax
imulq $19, %rax, %rax
mulq 264(%rsp)
addq %rax, %rdi
adcq %rdx, %rbx
movq 376(%rsp), %rax
mulq 232(%rsp)
addq %rax, %r12
adcq %rdx, %r8
movq 376(%rsp), %rax
mulq 240(%rsp)
addq %rax, %r11
adcq %rdx, %rbp
movq 32(%rsp), %rax
mulq 256(%rsp)
addq %rax, %rdi
adcq %rdx, %rbx
movq 32(%rsp), %rax
mulq 264(%rsp)
addq %rax, %rsi
adcq %rdx, %rcx
movq 384(%rsp), %rax
mulq 232(%rsp)
addq %rax, %r11
adcq %rdx, %rbp
movq 24(%rsp), %rax
mulq 248(%rsp)
addq %rax, %rdi
adcq %rdx, %rbx
movq 24(%rsp), %rax
mulq 256(%rsp)
addq %rax, %rsi
adcq %rdx, %rcx
movq 24(%rsp), %rax
mulq 264(%rsp)
addq %rax, %r12
adcq %rdx, %r8
movq $2251799813685247, %rax
shldq $13, %r10, %r9
andq %rax, %r10
shldq $13, %rdi, %rbx
andq %rax, %rdi
addq %r9, %rdi
shldq $13, %rsi, %rcx
andq %rax, %rsi
addq %rbx, %rsi
shldq $13, %r12, %r8
andq %rax, %r12
addq %rcx, %r12
shldq $13, %r11, %rbp
andq %rax, %r11
addq %r8, %r11
imulq $19, %rbp, %rcx
addq %rcx, %r10
movq %r10, %rcx
shrq $51, %rcx
addq %rdi, %rcx
movq %rcx, %rdx
shrq $51, %rcx
andq %rax, %r10
addq %rsi, %rcx
movq %rcx, %rsi
shrq $51, %rcx
andq %rax, %rdx
addq %r12, %rcx
movq %rcx, %rdi
shrq $51, %rcx
andq %rax, %rsi
addq %r11, %rcx
movq %rcx, %r8
shrq $51, %rcx
andq %rax, %rdi
imulq $19, %rcx, %rcx
addq %rcx, %r10
andq %rax, %r8
movq %r10, 352(%rsp)
movq %rdx, 360(%rsp)
movq %rsi, 368(%rsp)
movq %rdi, 376(%rsp)
movq %r8, 384(%rsp)
movq 272(%rsp), %rax
mulq 272(%rsp)
movq %rax, %r11
movq %rdx, %rbx
movq 272(%rsp), %rax
shlq $1, %rax
mulq 280(%rsp)
movq %rax, %r12
movq %rdx, %r9
movq 272(%rsp), %rax
shlq $1, %rax
mulq 288(%rsp)
movq %rax, %rdi
movq %rdx, %rcx
movq 272(%rsp), %rax
shlq $1, %rax
mulq 296(%rsp)
movq %rax, %rsi
movq %rdx, %r10
movq 272(%rsp), %rax
shlq $1, %rax
mulq 304(%rsp)
movq %rax, %rbp
movq %rdx, %r8
movq 280(%rsp), %rax
mulq 280(%rsp)
addq %rax, %rdi
adcq %rdx, %rcx
movq 280(%rsp), %rax
shlq $1, %rax
mulq 288(%rsp)
addq %rax, %rsi
adcq %rdx, %r10
movq 280(%rsp), %rax
shlq $1, %rax
mulq 296(%rsp)
addq %rax, %rbp
adcq %rdx, %r8
movq 280(%rsp), %rax
imulq $38, %rax, %rax
mulq 304(%rsp)
addq %rax, %r11
adcq %rdx, %rbx
movq 288(%rsp), %rax
mulq 288(%rsp)
addq %rax, %rbp
adcq %rdx, %r8
movq 288(%rsp), %rax
imulq $38, %rax, %rax
mulq 296(%rsp)
addq %rax, %r11
adcq %rdx, %rbx
movq 288(%rsp), %rax
imulq $38, %rax, %rax
mulq 304(%rsp)
addq %rax, %r12
adcq %rdx, %r9
movq 296(%rsp), %rax
imulq $19, %rax, %rax
mulq 296(%rsp)
addq %rax, %r12
adcq %rdx, %r9
movq 296(%rsp), %rax
imulq $38, %rax, %rax
mulq 304(%rsp)
addq %rax, %rdi
adcq %rdx, %rcx
movq 304(%rsp), %rax
imulq $19, %rax, %rax
mulq 304(%rsp)
addq %rax, %rsi
adcq %rdx, %r10
movq $2251799813685247, %rax
shldq $13, %r11, %rbx
andq %rax, %r11
shldq $13, %r12, %r9
andq %rax, %r12
addq %rbx, %r12
shldq $13, %rdi, %rcx
andq %rax, %rdi
addq %r9, %rdi
shldq $13, %rsi, %r10
andq %rax, %rsi
addq %rcx, %rsi
shldq $13, %rbp, %r8
andq %rax, %rbp
addq %r10, %rbp
imulq $19, %r8, %rcx
addq %rcx, %r11
movq %r11, %rcx
shrq $51, %rcx
addq %r12, %rcx
andq %rax, %r11
movq %rcx, %rdx
shrq $51, %rcx
addq %rdi, %rcx
andq %rax, %rdx
movq %rcx, %rdi
shrq $51, %rcx
addq %rsi, %rcx
andq %rax, %rdi
movq %rcx, %rsi
shrq $51, %rcx
addq %rbp, %rcx
andq %rax, %rsi
movq %rcx, %r8
shrq $51, %rcx
imulq $19, %rcx, %rcx
addq %rcx, %r11
andq %rax, %r8
movq %r11, 272(%rsp)
movq %rdx, 280(%rsp)
movq %rdi, 288(%rsp)
movq %rsi, 296(%rsp)
movq %r8, 304(%rsp)
movq 232(%rsp), %rax
mulq 232(%rsp)
movq %rax, %rcx
movq %rdx, %rsi
movq 232(%rsp), %rax
shlq $1, %rax
mulq 240(%rsp)
movq %rax, %rbp
movq %rdx, %r10
movq 232(%rsp), %rax
shlq $1, %rax
mulq 248(%rsp)
movq %rax, %rdi
movq %rdx, %r11
movq 232(%rsp), %rax
shlq $1, %rax
mulq 256(%rsp)
movq %rax, %r12
movq %rdx, %r8
movq 232(%rsp), %rax
shlq $1, %rax
mulq 264(%rsp)
movq %rax, %rbx
movq %rdx, %r9
movq 240(%rsp), %rax
mulq 240(%rsp)
addq %rax, %rdi
adcq %rdx, %r11
movq 240(%rsp), %rax
shlq $1, %rax
mulq 248(%rsp)
addq %rax, %r12
adcq %rdx, %r8
movq 240(%rsp), %rax
shlq $1, %rax
mulq 256(%rsp)
addq %rax, %rbx
adcq %rdx, %r9
movq 240(%rsp), %rax
imulq $38, %rax, %rax
mulq 264(%rsp)
addq %rax, %rcx
adcq %rdx, %rsi
movq 248(%rsp), %rax
mulq 248(%rsp)
addq %rax, %rbx
adcq %rdx, %r9
movq 248(%rsp), %rax
imulq $38, %rax, %rax
mulq 256(%rsp)
addq %rax, %rcx
adcq %rdx, %rsi
movq 248(%rsp), %rax
imulq $38, %rax, %rax
mulq 264(%rsp)
addq %rax, %rbp
adcq %rdx, %r10
movq 256(%rsp), %rax
imulq $19, %rax, %rax
mulq 256(%rsp)
addq %rax, %rbp
adcq %rdx, %r10
movq 256(%rsp), %rax
imulq $38, %rax, %rax
mulq 264(%rsp)
addq %rax, %rdi
adcq %rdx, %r11
movq 264(%rsp), %rax
imulq $19, %rax, %rax
mulq 264(%rsp)
addq %rax, %r12
adcq %rdx, %r8
movq $2251799813685247, %rax
shldq $13, %rcx, %rsi
andq %rax, %rcx
shldq $13, %rbp, %r10
andq %rax, %rbp
addq %rsi, %rbp
shldq $13, %rdi, %r11
andq %rax, %rdi
addq %r10, %rdi
shldq $13, %r12, %r8
andq %rax, %r12
addq %r11, %r12
shldq $13, %rbx, %r9
andq %rax, %rbx
addq %r8, %rbx
imulq $19, %r9, %rdx
addq %rdx, %rcx
movq %rcx, %rdx
shrq $51, %rdx
addq %rbp, %rdx
andq %rax, %rcx
movq %rdx, %rsi
shrq $51, %rdx
addq %rdi, %rdx
andq %rax, %rsi
movq %rdx, %rdi
shrq $51, %rdx
addq %r12, %rdx
andq %rax, %rdi
movq %rdx, %r8
shrq $51, %rdx
addq %rbx, %rdx
andq %rax, %r8
movq %rdx, %r9
shrq $51, %rdx
imulq $19, %rdx, %rdx
addq %rdx, %rcx
andq %rax, %r9
movq %rcx, 232(%rsp)
movq %rsi, 240(%rsp)
movq %rdi, 248(%rsp)
movq %r8, 256(%rsp)
movq %r9, 264(%rsp)
movq 312(%rsp), %rax
movq 320(%rsp), %rcx
movq 328(%rsp), %rdx
movq 336(%rsp), %rsi
movq 344(%rsp), %rdi
addq 352(%rsp), %rax
addq 360(%rsp), %rcx
addq 368(%rsp), %rdx
addq 376(%rsp), %rsi
addq 384(%rsp), %rdi
movq %rax, 392(%rsp)
movq %rcx, 400(%rsp)
movq %rdx, 408(%rsp)
movq %rsi, 416(%rsp)
movq %rdi, 424(%rsp)
movq 312(%rsp), %rax
movq 320(%rsp), %rcx
movq 328(%rsp), %rdx
movq 336(%rsp), %rsi
movq 344(%rsp), %rdi
movq $4503599627370458, %r8
movq $4503599627370494, %r9
addq %r8, %rax
addq %r9, %rcx
addq %r9, %rdx
addq %r9, %rsi
addq %r9, %rdi
subq 352(%rsp), %rax
subq 360(%rsp), %rcx
subq 368(%rsp), %rdx
subq 376(%rsp), %rsi
subq 384(%rsp), %rdi
movq %rax, 352(%rsp)
movq %rcx, 360(%rsp)
movq %rdx, 368(%rsp)
movq %rsi, 376(%rsp)
movq %rdi, 384(%rsp)
movq 296(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 24(%rsp)
mulq 248(%rsp)
movq %rax, %r8
movq %rdx, %r11
movq 304(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 32(%rsp)
mulq 240(%rsp)
addq %rax, %r8
adcq %rdx, %r11
movq 272(%rsp), %rax
mulq 232(%rsp)
addq %rax, %r8
adcq %rdx, %r11
movq 272(%rsp), %rax
mulq 240(%rsp)
movq %rax, %r10
movq %rdx, %rbx
movq 272(%rsp), %rax
mulq 248(%rsp)
movq %rax, %rdi
movq %rdx, %rcx
movq 272(%rsp), %rax
mulq 256(%rsp)
movq %rax, %rsi
movq %rdx, %r12
movq 272(%rsp), %rax
mulq 264(%rsp)
movq %rax, %rbp
movq %rdx, %r9
movq 280(%rsp), %rax
mulq 232(%rsp)
addq %rax, %r10
adcq %rdx, %rbx
movq 280(%rsp), %rax
mulq 240(%rsp)
addq %rax, %rdi
adcq %rdx, %rcx
movq 280(%rsp), %rax
mulq 248(%rsp)
addq %rax, %rsi
adcq %rdx, %r12
movq 280(%rsp), %rax
mulq 256(%rsp)
addq %rax, %rbp
adcq %rdx, %r9
movq 280(%rsp), %rax
imulq $19, %rax, %rax
mulq 264(%rsp)
addq %rax, %r8
adcq %rdx, %r11
movq 288(%rsp), %rax
mulq 232(%rsp)
addq %rax, %rdi
adcq %rdx, %rcx
movq 288(%rsp), %rax
mulq 240(%rsp)
addq %rax, %rsi
adcq %rdx, %r12
movq 288(%rsp), %rax
mulq 248(%rsp)
addq %rax, %rbp
adcq %rdx, %r9
movq 288(%rsp), %rax
imulq $19, %rax, %rax
mulq 256(%rsp)
addq %rax, %r8
adcq %rdx, %r11
movq 288(%rsp), %rax
imulq $19, %rax, %rax
mulq 264(%rsp)
addq %rax, %r10
adcq %rdx, %rbx
movq 296(%rsp), %rax
mulq 232(%rsp)
addq %rax, %rsi
adcq %rdx, %r12
movq 296(%rsp), %rax
mulq 240(%rsp)
addq %rax, %rbp
adcq %rdx, %r9
movq 24(%rsp), %rax
mulq 256(%rsp)
addq %rax, %r10
adcq %rdx, %rbx
movq 24(%rsp), %rax
mulq 264(%rsp)
addq %rax, %rdi
adcq %rdx, %rcx
movq 304(%rsp), %rax
mulq 232(%rsp)
addq %rax, %rbp
adcq %rdx, %r9
movq 32(%rsp), %rax
mulq 248(%rsp)
addq %rax, %r10
adcq %rdx, %rbx
movq 32(%rsp), %rax
mulq 256(%rsp)
addq %rax, %rdi
adcq %rdx, %rcx
movq 32(%rsp), %rax
mulq 264(%rsp)
addq %rax, %rsi
adcq %rdx, %r12
movq $2251799813685247, %rax
shldq $13, %r8, %r11
andq %rax, %r8
shldq $13, %r10, %rbx
andq %rax, %r10
addq %r11, %r10
shldq $13, %rdi, %rcx
andq %rax, %rdi
addq %rbx, %rdi
shldq $13, %rsi, %r12
andq %rax, %rsi
addq %rcx, %rsi
shldq $13, %rbp, %r9
andq %rax, %rbp
addq %r12, %rbp
imulq $19, %r9, %rcx
addq %rcx, %r8
movq %r8, %rcx
shrq $51, %rcx
addq %r10, %rcx
movq %rcx, %rdx
shrq $51, %rcx
andq %rax, %r8
addq %rdi, %rcx
movq %rcx, %rdi
shrq $51, %rcx
andq %rax, %rdx
addq %rsi, %rcx
movq %rcx, %rsi
shrq $51, %rcx
andq %rax, %rdi
addq %rbp, %rcx
movq %rcx, %r9
shrq $51, %rcx
andq %rax, %rsi
imulq $19, %rcx, %rcx
addq %rcx, %r8
andq %rax, %r9
movq %r8, 72(%rsp)
movq %rdx, 80(%rsp)
movq %rdi, 88(%rsp)
movq %rsi, 96(%rsp)
movq %r9, 104(%rsp)
movq 272(%rsp), %rax
movq 280(%rsp), %rcx
movq 288(%rsp), %rdx
movq 296(%rsp), %rsi
movq 304(%rsp), %rdi
movq $4503599627370458, %r8
movq $4503599627370494, %r9
addq %r8, %rax
addq %r9, %rcx
addq %r9, %rdx
addq %r9, %rsi
addq %r9, %rdi
subq 232(%rsp), %rax
subq 240(%rsp), %rcx
subq 248(%rsp), %rdx
subq 256(%rsp), %rsi
subq 264(%rsp), %rdi
movq %rax, 232(%rsp)
movq %rcx, 240(%rsp)
movq %rdx, 248(%rsp)
movq %rsi, 256(%rsp)
movq %rdi, 264(%rsp)
movq 352(%rsp), %rax
mulq 352(%rsp)
movq %rax, %rcx
movq %rdx, %r8
movq 352(%rsp), %rax
shlq $1, %rax
mulq 360(%rsp)
movq %rax, %r9
movq %rdx, %r11
movq 352(%rsp), %rax
shlq $1, %rax
mulq 368(%rsp)
movq %rax, %rdi
movq %rdx, %r10
movq 352(%rsp), %rax
shlq $1, %rax
mulq 376(%rsp)
movq %rax, %rbx
movq %rdx, %rbp
movq 352(%rsp), %rax
shlq $1, %rax
mulq 384(%rsp)
movq %rax, %r12
movq %rdx, %rsi
movq 360(%rsp), %rax
mulq 360(%rsp)
addq %rax, %rdi
adcq %rdx, %r10
movq 360(%rsp), %rax
shlq $1, %rax
mulq 368(%rsp)
addq %rax, %rbx
adcq %rdx, %rbp
movq 360(%rsp), %rax
shlq $1, %rax
mulq 376(%rsp)
addq %rax, %r12
adcq %rdx, %rsi
movq 360(%rsp), %rax
imulq $38, %rax, %rax
mulq 384(%rsp)
addq %rax, %rcx
adcq %rdx, %r8
movq 368(%rsp), %rax
mulq 368(%rsp)
addq %rax, %r12
adcq %rdx, %rsi
movq 368(%rsp), %rax
imulq $38, %rax, %rax
mulq 376(%rsp)
addq %rax, %rcx
adcq %rdx, %r8
movq 368(%rsp), %rax
imulq $38, %rax, %rax
mulq 384(%rsp)
addq %rax, %r9
adcq %rdx, %r11
movq 376(%rsp), %rax
imulq $19, %rax, %rax
mulq 376(%rsp)
addq %rax, %r9
adcq %rdx, %r11
movq 376(%rsp), %rax
imulq $38, %rax, %rax
mulq 384(%rsp)
addq %rax, %rdi
adcq %rdx, %r10
movq 384(%rsp), %rax
imulq $19, %rax, %rax
mulq 384(%rsp)
addq %rax, %rbx
adcq %rdx, %rbp
movq $2251799813685247, %rax
shldq $13, %rcx, %r8
andq %rax, %rcx
shldq $13, %r9, %r11
andq %rax, %r9
addq %r8, %r9
shldq $13, %rdi, %r10
andq %rax, %rdi
addq %r11, %rdi
shldq $13, %rbx, %rbp
andq %rax, %rbx
addq %r10, %rbx
shldq $13, %r12, %rsi
andq %rax, %r12
addq %rbp, %r12
imulq $19, %rsi, %rdx
addq %rdx, %rcx
movq %rcx, %rdx
shrq $51, %rdx
addq %r9, %rdx
andq %rax, %rcx
movq %rdx, %rsi
shrq $51, %rdx
addq %rdi, %rdx
andq %rax, %rsi
movq %rdx, %rdi
shrq $51, %rdx
addq %rbx, %rdx
andq %rax, %rdi
movq %rdx, %r8
shrq $51, %rdx
addq %r12, %rdx
andq %rax, %r8
movq %rdx, %r9
shrq $51, %rdx
imulq $19, %rdx, %rdx
addq %rdx, %rcx
andq %rax, %r9
movq %rcx, 352(%rsp)
movq %rsi, 360(%rsp)
movq %rdi, 368(%rsp)
movq %r8, 376(%rsp)
movq %r9, 384(%rsp)
movq $996679680, %rcx
movq 232(%rsp), %rax
mulq %rcx
shrq $13, %rax
movq %rax, %rsi
movq %rdx, %rdi
movq 240(%rsp), %rax
mulq %rcx
shrq $13, %rax
addq %rax, %rdi
movq %rdx, %r8
movq 248(%rsp), %rax
mulq %rcx
shrq $13, %rax
addq %rax, %r8
movq %rdx, %r9
movq 256(%rsp), %rax
mulq %rcx
shrq $13, %rax
addq %rax, %r9
movq %rdx, %r10
movq 264(%rsp), %rax
mulq %rcx
shrq $13, %rax
addq %rax, %r10
imulq $19, %rdx, %rax
addq %rax, %rsi
addq 272(%rsp), %rsi
addq 280(%rsp), %rdi
addq 288(%rsp), %r8
addq 296(%rsp), %r9
addq 304(%rsp), %r10
movq %rsi, 272(%rsp)
movq %rdi, 280(%rsp)
movq %r8, 288(%rsp)
movq %r9, 296(%rsp)
movq %r10, 304(%rsp)
movq 392(%rsp), %rax
mulq 392(%rsp)
movq %rax, %rsi
movq %rdx, %r10
movq 392(%rsp), %rax
shlq $1, %rax
mulq 400(%rsp)
movq %rax, %rbx
movq %rdx, %rcx
movq 392(%rsp), %rax
shlq $1, %rax
mulq 408(%rsp)
movq %rax, %r11
movq %rdx, %rbp
movq 392(%rsp), %rax
shlq $1, %rax
mulq 416(%rsp)
movq %rax, %r12
movq %rdx, %r9
movq 392(%rsp), %rax
shlq $1, %rax
mulq 424(%rsp)
movq %rax, %rdi
movq %rdx, %r8
movq 400(%rsp), %rax
mulq 400(%rsp)
addq %rax, %r11
adcq %rdx, %rbp
movq 400(%rsp), %rax
shlq $1, %rax
mulq 408(%rsp)
addq %rax, %r12
adcq %rdx, %r9
movq 400(%rsp), %rax
shlq $1, %rax
mulq 416(%rsp)
addq %rax, %rdi
adcq %rdx, %r8
movq 400(%rsp), %rax
imulq $38, %rax, %rax
mulq 424(%rsp)
addq %rax, %rsi
adcq %rdx, %r10
movq 408(%rsp), %rax
mulq 408(%rsp)
addq %rax, %rdi
adcq %rdx, %r8
movq 408(%rsp), %rax
imulq $38, %rax, %rax
mulq 416(%rsp)
addq %rax, %rsi
adcq %rdx, %r10
movq 408(%rsp), %rax
imulq $38, %rax, %rax
mulq 424(%rsp)
addq %rax, %rbx
adcq %rdx, %rcx
movq 416(%rsp), %rax
imulq $19, %rax, %rax
mulq 416(%rsp)
addq %rax, %rbx
adcq %rdx, %rcx
movq 416(%rsp), %rax
imulq $38, %rax, %rax
mulq 424(%rsp)
addq %rax, %r11
adcq %rdx, %rbp
movq 424(%rsp), %rax
imulq $19, %rax, %rax
mulq 424(%rsp)
addq %rax, %r12
adcq %rdx, %r9
movq $2251799813685247, %rax
shldq $13, %rsi, %r10
andq %rax, %rsi
shldq $13, %rbx, %rcx
andq %rax, %rbx
addq %r10, %rbx
shldq $13, %r11, %rbp
andq %rax, %r11
addq %rcx, %r11
shldq $13, %r12, %r9
andq %rax, %r12
addq %rbp, %r12
shldq $13, %rdi, %r8
andq %rax, %rdi
addq %r9, %rdi
imulq $19, %r8, %rcx
addq %rcx, %rsi
movq %rsi, %rcx
shrq $51, %rcx
addq %rbx, %rcx
andq %rax, %rsi
movq %rcx, %rdx
shrq $51, %rcx
addq %r11, %rcx
andq %rax, %rdx
movq %rcx, %r8
shrq $51, %rcx
addq %r12, %rcx
andq %rax, %r8
movq %rcx, %r9
shrq $51, %rcx
addq %rdi, %rcx
andq %rax, %r9
movq %rcx, %rdi
shrq $51, %rcx
imulq $19, %rcx, %rcx
addq %rcx, %rsi
andq %rax, %rdi
movq %rsi, 112(%rsp)
movq %rdx, 120(%rsp)
movq %r8, 128(%rsp)
movq %r9, 136(%rsp)
movq %rdi, 144(%rsp)
movq 216(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 32(%rsp)
mulq 368(%rsp)
movq %rax, %r9
movq %rdx, %rsi
movq 224(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 24(%rsp)
mulq 360(%rsp)
addq %rax, %r9
adcq %rdx, %rsi
movq 192(%rsp), %rax
mulq 352(%rsp)
addq %rax, %r9
adcq %rdx, %rsi
movq 192(%rsp), %rax
mulq 360(%rsp)
movq %rax, %r10
movq %rdx, %rcx
movq 192(%rsp), %rax
mulq 368(%rsp)
movq %rax, %rbx
movq %rdx, %r12
movq 192(%rsp), %rax
mulq 376(%rsp)
movq %rax, %rdi
movq %rdx, %rbp
movq 192(%rsp), %rax
mulq 384(%rsp)
movq %rax, %r8
movq %rdx, %r11
movq 200(%rsp), %rax
mulq 352(%rsp)
addq %rax, %r10
adcq %rdx, %rcx
movq 200(%rsp), %rax
mulq 360(%rsp)
addq %rax, %rbx
adcq %rdx, %r12
movq 200(%rsp), %rax
mulq 368(%rsp)
addq %rax, %rdi
adcq %rdx, %rbp
movq 200(%rsp), %rax
mulq 376(%rsp)
addq %rax, %r8
adcq %rdx, %r11
movq 200(%rsp), %rax
imulq $19, %rax, %rax
mulq 384(%rsp)
addq %rax, %r9
adcq %rdx, %rsi
movq 208(%rsp), %rax
mulq 352(%rsp)
addq %rax, %rbx
adcq %rdx, %r12
movq 208(%rsp), %rax
mulq 360(%rsp)
addq %rax, %rdi
adcq %rdx, %rbp
movq 208(%rsp), %rax
mulq 368(%rsp)
addq %rax, %r8
adcq %rdx, %r11
movq 208(%rsp), %rax
imulq $19, %rax, %rax
mulq 376(%rsp)
addq %rax, %r9
adcq %rdx, %rsi
movq 208(%rsp), %rax
imulq $19, %rax, %rax
mulq 384(%rsp)
addq %rax, %r10
adcq %rdx, %rcx
movq 216(%rsp), %rax
mulq 352(%rsp)
addq %rax, %rdi
adcq %rdx, %rbp
movq 216(%rsp), %rax
mulq 360(%rsp)
addq %rax, %r8
adcq %rdx, %r11
movq 32(%rsp), %rax
mulq 376(%rsp)
addq %rax, %r10
adcq %rdx, %rcx
movq 32(%rsp), %rax
mulq 384(%rsp)
addq %rax, %rbx
adcq %rdx, %r12
movq 224(%rsp), %rax
mulq 352(%rsp)
addq %rax, %r8
adcq %rdx, %r11
movq 24(%rsp), %rax
mulq 368(%rsp)
addq %rax, %r10
adcq %rdx, %rcx
movq 24(%rsp), %rax
mulq 376(%rsp)
addq %rax, %rbx
adcq %rdx, %r12
movq 24(%rsp), %rax
mulq 384(%rsp)
addq %rax, %rdi
adcq %rdx, %rbp
movq $2251799813685247, %rax
shldq $13, %r9, %rsi
andq %rax, %r9
shldq $13, %r10, %rcx
andq %rax, %r10
addq %rsi, %r10
shldq $13, %rbx, %r12
andq %rax, %rbx
addq %rcx, %rbx
shldq $13, %rdi, %rbp
andq %rax, %rdi
addq %r12, %rdi
shldq $13, %r8, %r11
andq %rax, %r8
addq %rbp, %r8
imulq $19, %r11, %rcx
addq %rcx, %r9
movq %r9, %rcx
shrq $51, %rcx
addq %r10, %rcx
movq %rcx, %rdx
shrq $51, %rcx
andq %rax, %r9
addq %rbx, %rcx
movq %rcx, %rsi
shrq $51, %rcx
andq %rax, %rdx
addq %rdi, %rcx
movq %rcx, %rdi
shrq $51, %rcx
andq %rax, %rsi
addq %r8, %rcx
movq %rcx, %r8
shrq $51, %rcx
andq %rax, %rdi
imulq $19, %rcx, %rcx
addq %rcx, %r9
andq %rax, %r8
movq %r9, 152(%rsp)
movq %rdx, 160(%rsp)
movq %rsi, 168(%rsp)
movq %rdi, 176(%rsp)
movq %r8, 184(%rsp)
movq 256(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 24(%rsp)
mulq 288(%rsp)
movq %rax, %rbx
movq %rdx, %r12
movq 264(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 32(%rsp)
mulq 280(%rsp)
addq %rax, %rbx
adcq %rdx, %r12
movq 232(%rsp), %rax
mulq 272(%rsp)
addq %rax, %rbx
adcq %rdx, %r12
movq 232(%rsp), %rax
mulq 280(%rsp)
movq %rax, %r11
movq %rdx, %rsi
movq 232(%rsp), %rax
mulq 288(%rsp)
movq %rax, %r8
movq %rdx, %r9
movq 232(%rsp), %rax
mulq 296(%rsp)
movq %rax, %rcx
movq %rdx, %rdi
movq 232(%rsp), %rax
mulq 304(%rsp)
movq %rax, %r10
movq %rdx, %rbp
movq 240(%rsp), %rax
mulq 272(%rsp)
addq %rax, %r11
adcq %rdx, %rsi
movq 240(%rsp), %rax
mulq 280(%rsp)
addq %rax, %r8
adcq %rdx, %r9
movq 240(%rsp), %rax
mulq 288(%rsp)
addq %rax, %rcx
adcq %rdx, %rdi
movq 240(%rsp), %rax
mulq 296(%rsp)
addq %rax, %r10
adcq %rdx, %rbp
movq 240(%rsp), %rax
imulq $19, %rax, %rax
mulq 304(%rsp)
addq %rax, %rbx
adcq %rdx, %r12
movq 248(%rsp), %rax
mulq 272(%rsp)
addq %rax, %r8
adcq %rdx, %r9
movq 248(%rsp), %rax
mulq 280(%rsp)
addq %rax, %rcx
adcq %rdx, %rdi
movq 248(%rsp), %rax
mulq 288(%rsp)
addq %rax, %r10
adcq %rdx, %rbp
movq 248(%rsp), %rax
imulq $19, %rax, %rax
mulq 296(%rsp)
addq %rax, %rbx
adcq %rdx, %r12
movq 248(%rsp), %rax
imulq $19, %rax, %rax
mulq 304(%rsp)
addq %rax, %r11
adcq %rdx, %rsi
movq 256(%rsp), %rax
mulq 272(%rsp)
addq %rax, %rcx
adcq %rdx, %rdi
movq 256(%rsp), %rax
mulq 280(%rsp)
addq %rax, %r10
adcq %rdx, %rbp
movq 24(%rsp), %rax
mulq 296(%rsp)
addq %rax, %r11
adcq %rdx, %rsi
movq 24(%rsp), %rax
mulq 304(%rsp)
addq %rax, %r8
adcq %rdx, %r9
movq 264(%rsp), %rax
mulq 272(%rsp)
addq %rax, %r10
adcq %rdx, %rbp
movq 32(%rsp), %rax
mulq 288(%rsp)
addq %rax, %r11
adcq %rdx, %rsi
movq 32(%rsp), %rax
mulq 296(%rsp)
addq %rax, %r8
adcq %rdx, %r9
movq 32(%rsp), %rax
mulq 304(%rsp)
addq %rax, %rcx
adcq %rdx, %rdi
movq $2251799813685247, %r13
shldq $13, %rbx, %r12
andq %r13, %rbx
shldq $13, %r11, %rsi
andq %r13, %r11
addq %r12, %r11
shldq $13, %r8, %r9
andq %r13, %r8
addq %rsi, %r8
shldq $13, %rcx, %rdi
andq %r13, %rcx
addq %r9, %rcx
shldq $13, %r10, %rbp
andq %r13, %r10
addq %rdi, %r10
imulq $19, %rbp, %rax
addq %rax, %rbx
movq %rbx, %r9
shrq $51, %r9
addq %r11, %r9
movq %r9, %rax
shrq $51, %r9
andq %r13, %rbx
addq %r8, %r9
movq %r9, %rdx
shrq $51, %r9
andq %r13, %rax
addq %rcx, %r9
movq %r9, %rsi
shrq $51, %r9
andq %r13, %rdx
addq %r10, %r9
movq %r9, %rdi
shrq $51, %r9
andq %r13, %rsi
imulq $19, %r9, %rcx
addq %rcx, %rbx
andq %r13, %rdi
movq 16(%rsp), %rcx
cmpq $0, %rcx
jnbe Ljade_scalarmult_curve25519_amd64_ref5$28
movq %rbx, 152(%rsp)
movq %rax, 160(%rsp)
movq %rdx, 168(%rsp)
movq %rsi, 176(%rsp)
movq %rdi, 184(%rsp)
movq 152(%rsp), %rax
movq %rax, 112(%rsp)
movq 160(%rsp), %rax
movq %rax, 120(%rsp)
movq 168(%rsp), %rax
movq %rax, 128(%rsp)
movq 176(%rsp), %rax
movq %rax, 136(%rsp)
movq 184(%rsp), %rax
movq %rax, 144(%rsp)
leaq 112(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$27(%rip), %rax
movq %rax, (%rsp)
jmp L_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5$27:
leaq 8(%rsp), %rsp
movq 112(%rsp), %rax
movq %rax, 192(%rsp)
movq 120(%rsp), %rax
movq %rax, 200(%rsp)
movq 128(%rsp), %rax
movq %rax, 208(%rsp)
movq 136(%rsp), %rax
movq %rax, 216(%rsp)
movq 144(%rsp), %rax
movq %rax, 224(%rsp)
leaq 192(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$26(%rip), %rax
movq %rax, (%rsp)
jmp L_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5$26:
leaq 8(%rsp), %rsp
leaq 192(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$25(%rip), %rax
movq %rax, (%rsp)
jmp L_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5$25:
leaq 8(%rsp), %rsp
leaq 192(%rsp), %r9
leaq 152(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$24(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5$24:
leaq 24(%rsp), %rsp
leaq 112(%rsp), %r9
leaq 192(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$23(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5$23:
leaq 24(%rsp), %rsp
movq 112(%rsp), %rax
movq %rax, 152(%rsp)
movq 120(%rsp), %rax
movq %rax, 160(%rsp)
movq 128(%rsp), %rax
movq %rax, 168(%rsp)
movq 136(%rsp), %rax
movq %rax, 176(%rsp)
movq 144(%rsp), %rax
movq %rax, 184(%rsp)
leaq 152(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$22(%rip), %rax
movq %rax, (%rsp)
jmp L_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5$22:
leaq 8(%rsp), %rsp
leaq 192(%rsp), %r9
leaq 152(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$21(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5$21:
leaq 24(%rsp), %rsp
movq 192(%rsp), %rax
movq %rax, 152(%rsp)
movq 200(%rsp), %rax
movq %rax, 160(%rsp)
movq 208(%rsp), %rax
movq %rax, 168(%rsp)
movq 216(%rsp), %rax
movq %rax, 176(%rsp)
movq 224(%rsp), %rax
movq %rax, 184(%rsp)
leaq 152(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$20(%rip), %rax
movq %rax, (%rsp)
jmp L_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5$20:
leaq 8(%rsp), %rsp
movl $4, %r13d
leaq 152(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$19(%rip), %rax
movq %rax, (%rsp)
jmp L_it_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5$19:
leaq 8(%rsp), %rsp
leaq 192(%rsp), %r9
leaq 152(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$18(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5$18:
leaq 24(%rsp), %rsp
movl $10, %r13d
movq 192(%rsp), %rax
movq %rax, 152(%rsp)
movq 200(%rsp), %rax
movq %rax, 160(%rsp)
movq 208(%rsp), %rax
movq %rax, 168(%rsp)
movq 216(%rsp), %rax
movq %rax, 176(%rsp)
movq 224(%rsp), %rax
movq %rax, 184(%rsp)
leaq 152(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$17(%rip), %rax
movq %rax, (%rsp)
jmp L_it_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5$17:
leaq 8(%rsp), %rsp
leaq 152(%rsp), %r9
leaq 192(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$16(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5$16:
leaq 24(%rsp), %rsp
movl $20, %r13d
movq 152(%rsp), %rax
movq %rax, 272(%rsp)
movq 160(%rsp), %rax
movq %rax, 280(%rsp)
movq 168(%rsp), %rax
movq %rax, 288(%rsp)
movq 176(%rsp), %rax
movq %rax, 296(%rsp)
movq 184(%rsp), %rax
movq %rax, 304(%rsp)
leaq 272(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$15(%rip), %rax
movq %rax, (%rsp)
jmp L_it_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5$15:
leaq 8(%rsp), %rsp
leaq 152(%rsp), %r9
leaq 272(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$14(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5$14:
leaq 24(%rsp), %rsp
movl $10, %r13d
leaq 152(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$13(%rip), %rax
movq %rax, (%rsp)
jmp L_it_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5$13:
leaq 8(%rsp), %rsp
leaq 192(%rsp), %r9
leaq 152(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$12(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5$12:
leaq 24(%rsp), %rsp
movl $50, %r13d
movq 192(%rsp), %rax
movq %rax, 152(%rsp)
movq 200(%rsp), %rax
movq %rax, 160(%rsp)
movq 208(%rsp), %rax
movq %rax, 168(%rsp)
movq 216(%rsp), %rax
movq %rax, 176(%rsp)
movq 224(%rsp), %rax
movq %rax, 184(%rsp)
leaq 152(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$11(%rip), %rax
movq %rax, (%rsp)
jmp L_it_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5$11:
leaq 8(%rsp), %rsp
leaq 152(%rsp), %r9
leaq 192(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$10(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5$10:
leaq 24(%rsp), %rsp
movl $100, %r13d
movq 152(%rsp), %rax
movq %rax, 272(%rsp)
movq 160(%rsp), %rax
movq %rax, 280(%rsp)
movq 168(%rsp), %rax
movq %rax, 288(%rsp)
movq 176(%rsp), %rax
movq %rax, 296(%rsp)
movq 184(%rsp), %rax
movq %rax, 304(%rsp)
leaq 272(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$9(%rip), %rax
movq %rax, (%rsp)
jmp L_it_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5$9:
leaq 8(%rsp), %rsp
leaq 152(%rsp), %r9
leaq 272(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$8(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5$8:
leaq 24(%rsp), %rsp
movl $50, %r13d
leaq 152(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$7(%rip), %rax
movq %rax, (%rsp)
jmp L_it_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5$7:
leaq 8(%rsp), %rsp
leaq 192(%rsp), %r9
leaq 152(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$6(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5$6:
leaq 24(%rsp), %rsp
movl $4, %r13d
leaq 192(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$5(%rip), %rax
movq %rax, (%rsp)
jmp L_it_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5$5:
leaq 8(%rsp), %rsp
leaq 192(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$4(%rip), %rax
movq %rax, (%rsp)
jmp L_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5$4:
leaq 8(%rsp), %rsp
leaq 192(%rsp), %r9
leaq 112(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$3(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5$3:
leaq 24(%rsp), %rsp
movq 96(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 8(%rsp)
mulq 208(%rsp)
movq %rax, %r10
movq %rdx, %rsi
movq 104(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 16(%rsp)
mulq 200(%rsp)
addq %rax, %r10
adcq %rdx, %rsi
movq 72(%rsp), %rax
mulq 192(%rsp)
addq %rax, %r10
adcq %rdx, %rsi
movq 72(%rsp), %rax
mulq 200(%rsp)
movq %rax, %rbp
movq %rdx, %rdi
movq 72(%rsp), %rax
mulq 208(%rsp)
movq %rax, %rcx
movq %rdx, %r12
movq 72(%rsp), %rax
mulq 216(%rsp)
movq %rax, %r9
movq %rdx, %r11
movq 72(%rsp), %rax
mulq 224(%rsp)
movq %rax, %r8
movq %rdx, %rbx
movq 80(%rsp), %rax
mulq 192(%rsp)
addq %rax, %rbp
adcq %rdx, %rdi
movq 80(%rsp), %rax
mulq 200(%rsp)
addq %rax, %rcx
adcq %rdx, %r12
movq 80(%rsp), %rax
mulq 208(%rsp)
addq %rax, %r9
adcq %rdx, %r11
movq 80(%rsp), %rax
mulq 216(%rsp)
addq %rax, %r8
adcq %rdx, %rbx
movq 80(%rsp), %rax
imulq $19, %rax, %rax
mulq 224(%rsp)
addq %rax, %r10
adcq %rdx, %rsi
movq 88(%rsp), %rax
mulq 192(%rsp)
addq %rax, %rcx
adcq %rdx, %r12
movq 88(%rsp), %rax
mulq 200(%rsp)
addq %rax, %r9
adcq %rdx, %r11
movq 88(%rsp), %rax
mulq 208(%rsp)
addq %rax, %r8
adcq %rdx, %rbx
movq 88(%rsp), %rax
imulq $19, %rax, %rax
mulq 216(%rsp)
addq %rax, %r10
adcq %rdx, %rsi
movq 88(%rsp), %rax
imulq $19, %rax, %rax
mulq 224(%rsp)
addq %rax, %rbp
adcq %rdx, %rdi
movq 96(%rsp), %rax
mulq 192(%rsp)
addq %rax, %r9
adcq %rdx, %r11
movq 96(%rsp), %rax
mulq 200(%rsp)
addq %rax, %r8
adcq %rdx, %rbx
movq 8(%rsp), %rax
mulq 216(%rsp)
addq %rax, %rbp
adcq %rdx, %rdi
movq 8(%rsp), %rax
mulq 224(%rsp)
addq %rax, %rcx
adcq %rdx, %r12
movq 104(%rsp), %rax
mulq 192(%rsp)
addq %rax, %r8
adcq %rdx, %rbx
movq 16(%rsp), %rax
mulq 208(%rsp)
addq %rax, %rbp
adcq %rdx, %rdi
movq 16(%rsp), %rax
mulq 216(%rsp)
addq %rax, %rcx
adcq %rdx, %r12
movq 16(%rsp), %rax
mulq 224(%rsp)
addq %rax, %r9
adcq %rdx, %r11
movq $2251799813685247, %rax
shldq $13, %r10, %rsi
andq %rax, %r10
shldq $13, %rbp, %rdi
andq %rax, %rbp
addq %rsi, %rbp
shldq $13, %rcx, %r12
andq %rax, %rcx
addq %rdi, %rcx
shldq $13, %r9, %r11
andq %rax, %r9
addq %r12, %r9
shldq $13, %r8, %rbx
andq %rax, %r8
addq %r11, %r8
imulq $19, %rbx, %rdx
addq %rdx, %r10
movq %r10, %r11
shrq $51, %r11
addq %rbp, %r11
movq %r11, %rdx
shrq $51, %r11
andq %rax, %r10
addq %rcx, %r11
movq %r11, %rcx
shrq $51, %r11
andq %rax, %rdx
addq %r9, %r11
movq %r11, %rsi
shrq $51, %r11
andq %rax, %rcx
addq %r8, %r11
movq %r11, %rdi
shrq $51, %r11
andq %rax, %rsi
imulq $19, %r11, %r8
addq %r8, %r10
andq %rax, %rdi
movq $2251799813685247, %rax
movq %rax, %r8
addq $-18, %r8
movq $3, %r9
jmp Ljade_scalarmult_curve25519_amd64_ref5$1
Ljade_scalarmult_curve25519_amd64_ref5$2:
movq %r10, %r11
shrq $51, %r11
andq %rax, %r10
addq %r11, %rdx
movq %rdx, %r11
shrq $51, %r11
andq %rax, %rdx
addq %r11, %rcx
movq %rcx, %r11
shrq $51, %r11
andq %rax, %rcx
addq %r11, %rsi
movq %rsi, %r11
shrq $51, %r11
andq %rax, %rsi
addq %r11, %rdi
movq %rdi, %r11
shrq $51, %r11
andq %rax, %rdi
imulq $19, %r11, %r11
addq %r11, %r10
addq $-1, %r9
Ljade_scalarmult_curve25519_amd64_ref5$1:
cmpq $0, %r9
jnbe Ljade_scalarmult_curve25519_amd64_ref5$2
movq $1, %r11
cmpq %r8, %r10
cmovl %r9, %r11
cmpq %rax, %rdx
cmovne %r9, %r11
cmpq %rax, %rcx
cmovne %r9, %r11
cmpq %rax, %rsi
cmovne %r9, %r11
cmpq %rax, %rdi
cmovne %r9, %r11
negq %r11
andq %r11, %rax
andq %r11, %r8
subq %r8, %r10
subq %rax, %rdx
subq %rax, %rcx
subq %rax, %rsi
subq %rax, %rdi
movq %rdx, %rax
shlq $51, %rax
orq %r10, %rax
movq %rcx, %r8
shlq $38, %r8
shrq $13, %rdx
orq %rdx, %r8
movq %rsi, %rdx
shlq $25, %rdx
shrq $26, %rcx
orq %rcx, %rdx
shlq $12, %rdi
shrq $39, %rsi
orq %rsi, %rdi
movq (%rsp), %rcx
movq %rax, (%rcx)
movq %r8, 8(%rcx)
movq %rdx, 16(%rcx)
movq %rdi, 24(%rcx)
xorq %rax, %rax
movq 432(%rsp), %rbx
movq 440(%rsp), %rbp
movq 448(%rsp), %r12
movq 456(%rsp), %r13
movq 464(%rsp), %r14
movq 472(%rsp), %rsp
ret
L_it_sqr5_p$1:
L_it_sqr5_p$2:
leaq -8(%rsp), %rsp
leaq L_it_sqr5_p$3(%rip), %rax
movq %rax, (%rsp)
jmp L_sqr5_p$1
L_it_sqr5_p$3:
leaq 8(%rsp), %rsp
decl %r13d
jne L_it_sqr5_p$2
jmp *(%rsp)
L_sqr5_p$1:
movq (%rdi), %rax
mulq (%rdi)
movq %rax, %r8
movq %rdx, %rsi
movq (%rdi), %rax
shlq $1, %rax
mulq 8(%rdi)
movq %rax, %rbx
movq %rdx, %r11
movq (%rdi), %rax
shlq $1, %rax
mulq 16(%rdi)
movq %rax, %r10
movq %rdx, %r14
movq (%rdi), %rax
shlq $1, %rax
mulq 24(%rdi)
movq %rax, %rbp
movq %rdx, %r12
movq (%rdi), %rax
shlq $1, %rax
mulq 32(%rdi)
movq %rax, %rcx
movq %rdx, %r9
movq 8(%rdi), %rax
mulq 8(%rdi)
addq %rax, %r10
adcq %rdx, %r14
movq 8(%rdi), %rax
shlq $1, %rax
mulq 16(%rdi)
addq %rax, %rbp
adcq %rdx, %r12
movq 8(%rdi), %rax
shlq $1, %rax
mulq 24(%rdi)
addq %rax, %rcx
adcq %rdx, %r9
movq 8(%rdi), %rax
imulq $38, %rax, %rax
mulq 32(%rdi)
addq %rax, %r8
adcq %rdx, %rsi
movq 16(%rdi), %rax
mulq 16(%rdi)
addq %rax, %rcx
adcq %rdx, %r9
movq 16(%rdi), %rax
imulq $38, %rax, %rax
mulq 24(%rdi)
addq %rax, %r8
adcq %rdx, %rsi
movq 16(%rdi), %rax
imulq $38, %rax, %rax
mulq 32(%rdi)
addq %rax, %rbx
adcq %rdx, %r11
movq 24(%rdi), %rax
imulq $19, %rax, %rax
mulq 24(%rdi)
addq %rax, %rbx
adcq %rdx, %r11
movq 24(%rdi), %rax
imulq $38, %rax, %rax
mulq 32(%rdi)
addq %rax, %r10
adcq %rdx, %r14
movq 32(%rdi), %rax
imulq $19, %rax, %rax
mulq 32(%rdi)
addq %rax, %rbp
adcq %rdx, %r12
movq $2251799813685247, %rax
shldq $13, %r8, %rsi
andq %rax, %r8
shldq $13, %rbx, %r11
andq %rax, %rbx
addq %rsi, %rbx
shldq $13, %r10, %r14
andq %rax, %r10
addq %r11, %r10
shldq $13, %rbp, %r12
andq %rax, %rbp
addq %r14, %rbp
shldq $13, %rcx, %r9
andq %rax, %rcx
addq %r12, %rcx
imulq $19, %r9, %rdx
addq %rdx, %r8
movq %r8, %rdx
shrq $51, %rdx
addq %rbx, %rdx
andq %rax, %r8
movq %rdx, %rsi
shrq $51, %rdx
addq %r10, %rdx
andq %rax, %rsi
movq %rdx, %r9
shrq $51, %rdx
addq %rbp, %rdx
andq %rax, %r9
movq %rdx, %r10
shrq $51, %rdx
addq %rcx, %rdx
andq %rax, %r10
movq %rdx, %rcx
shrq $51, %rdx
imulq $19, %rdx, %rdx
addq %rdx, %r8
andq %rax, %rcx
movq %r8, (%rdi)
movq %rsi, 8(%rdi)
movq %r9, 16(%rdi)
movq %r10, 24(%rdi)
movq %rcx, 32(%rdi)
jmp *(%rsp)
L_mul5_pp$1:
movq 24(%r9), %rax
imulq $19, %rax, %rax
movq %rax, (%rsp)
mulq 16(%rbp)
movq %rax, %rdi
movq %rdx, %r8
movq 32(%r9), %rax
imulq $19, %rax, %rax
movq %rax, 8(%rsp)
mulq 8(%rbp)
addq %rax, %rdi
adcq %rdx, %r8
movq (%r9), %rax
mulq (%rbp)
addq %rax, %rdi
adcq %rdx, %r8
movq (%r9), %rax
mulq 8(%rbp)
movq %rax, %rbx
movq %rdx, %r14
movq (%r9), %rax
mulq 16(%rbp)
movq %rax, %r11
movq %rdx, %rcx
movq (%r9), %rax
mulq 24(%rbp)
movq %rax, %r10
movq %rdx, %r12
movq (%r9), %rax
mulq 32(%rbp)
movq %rax, %rsi
movq %rdx, %r13
movq 8(%r9), %rax
mulq (%rbp)
addq %rax, %rbx
adcq %rdx, %r14
movq 8(%r9), %rax
mulq 8(%rbp)
addq %rax, %r11
adcq %rdx, %rcx
movq 8(%r9), %rax
mulq 16(%rbp)
addq %rax, %r10
adcq %rdx, %r12
movq 8(%r9), %rax
mulq 24(%rbp)
addq %rax, %rsi
adcq %rdx, %r13
movq 8(%r9), %rax
imulq $19, %rax, %rax
mulq 32(%rbp)
addq %rax, %rdi
adcq %rdx, %r8
movq 16(%r9), %rax
mulq (%rbp)
addq %rax, %r11
adcq %rdx, %rcx
movq 16(%r9), %rax
mulq 8(%rbp)
addq %rax, %r10
adcq %rdx, %r12
movq 16(%r9), %rax
mulq 16(%rbp)
addq %rax, %rsi
adcq %rdx, %r13
movq 16(%r9), %rax
imulq $19, %rax, %rax
mulq 24(%rbp)
addq %rax, %rdi
adcq %rdx, %r8
movq 16(%r9), %rax
imulq $19, %rax, %rax
mulq 32(%rbp)
addq %rax, %rbx
adcq %rdx, %r14
movq 24(%r9), %rax
mulq (%rbp)
addq %rax, %r10
adcq %rdx, %r12
movq 24(%r9), %rax
mulq 8(%rbp)
addq %rax, %rsi
adcq %rdx, %r13
movq (%rsp), %rax
mulq 24(%rbp)
addq %rax, %rbx
adcq %rdx, %r14
movq (%rsp), %rax
mulq 32(%rbp)
addq %rax, %r11
adcq %rdx, %rcx
movq 32(%r9), %rax
mulq (%rbp)
addq %rax, %rsi
adcq %rdx, %r13
movq 8(%rsp), %rax
mulq 16(%rbp)
addq %rax, %rbx
adcq %rdx, %r14
movq 8(%rsp), %rax
mulq 24(%rbp)
addq %rax, %r11
adcq %rdx, %rcx
movq 8(%rsp), %rax
mulq 32(%rbp)
addq %rax, %r10
adcq %rdx, %r12
movq $2251799813685247, %rax
shldq $13, %rdi, %r8
andq %rax, %rdi
shldq $13, %rbx, %r14
andq %rax, %rbx
addq %r8, %rbx
shldq $13, %r11, %rcx
andq %rax, %r11
addq %r14, %r11
shldq $13, %r10, %r12
andq %rax, %r10
addq %rcx, %r10
shldq $13, %rsi, %r13
andq %rax, %rsi
addq %r12, %rsi
imulq $19, %r13, %rcx
addq %rcx, %rdi
movq %rdi, %rcx
shrq $51, %rcx
addq %rbx, %rcx
movq %rcx, %rdx
shrq $51, %rcx
andq %rax, %rdi
addq %r11, %rcx
movq %rcx, %r8
shrq $51, %rcx
andq %rax, %rdx
addq %r10, %rcx
movq %rcx, %r10
shrq $51, %rcx
andq %rax, %r8
addq %rsi, %rcx
movq %rcx, %rsi
shrq $51, %rcx
andq %rax, %r10
imulq $19, %rcx, %rcx
addq %rcx, %rdi
andq %rax, %rsi
movq %rdi, (%r9)
movq %rdx, 8(%r9)
movq %r8, 16(%r9)
movq %r10, 24(%r9)
movq %rsi, 32(%r9)
jmp *16(%rsp)
|
usenix-security-verdict/verdict
| 60,313
|
deps/libcrux/sys/libjade/jazz/chacha20_avx.s
|
.att_syntax
.text
.p2align 5
.globl _jade_stream_chacha_chacha20_ietf_amd64_avx
.globl jade_stream_chacha_chacha20_ietf_amd64_avx
.globl _jade_stream_chacha_chacha20_ietf_amd64_avx_xor
.globl jade_stream_chacha_chacha20_ietf_amd64_avx_xor
_jade_stream_chacha_chacha20_ietf_amd64_avx:
jade_stream_chacha_chacha20_ietf_amd64_avx:
movq %rsp, %r10
leaq -592(%rsp), %rsp
andq $-16, %rsp
cmpq $129, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$1
vmovdqu glob_data + 64(%rip), %xmm0
vmovdqu glob_data + 48(%rip), %xmm1
vmovdqu %xmm0, (%rsp)
vmovdqu %xmm1, 16(%rsp)
vmovdqu glob_data + 112(%rip), %xmm0
vmovdqu glob_data + 128(%rip), %xmm1
vmovdqu glob_data + 144(%rip), %xmm2
vmovdqu glob_data + 160(%rip), %xmm3
vpbroadcastd (%rcx), %xmm4
vpbroadcastd 4(%rcx), %xmm5
vpbroadcastd 8(%rcx), %xmm6
vpbroadcastd 12(%rcx), %xmm7
vpbroadcastd 16(%rcx), %xmm8
vpbroadcastd 20(%rcx), %xmm9
vpbroadcastd 24(%rcx), %xmm10
vpbroadcastd 28(%rcx), %xmm11
vmovdqu glob_data + 96(%rip), %xmm12
vpbroadcastd (%rdx), %xmm13
vpbroadcastd 4(%rdx), %xmm14
vpbroadcastd 8(%rdx), %xmm15
vmovdqu %xmm0, 336(%rsp)
vmovdqu %xmm1, 352(%rsp)
vmovdqu %xmm2, 368(%rsp)
vmovdqu %xmm3, 384(%rsp)
vmovdqu %xmm4, 400(%rsp)
vmovdqu %xmm5, 416(%rsp)
vmovdqu %xmm6, 432(%rsp)
vmovdqu %xmm7, 448(%rsp)
vmovdqu %xmm8, 464(%rsp)
vmovdqu %xmm9, 480(%rsp)
vmovdqu %xmm10, 496(%rsp)
vmovdqu %xmm11, 512(%rsp)
vmovdqu %xmm12, 528(%rsp)
vmovdqu %xmm13, 544(%rsp)
vmovdqu %xmm14, 560(%rsp)
vmovdqu %xmm15, 576(%rsp)
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx$29
Ljade_stream_chacha_chacha20_ietf_amd64_avx$30:
vmovdqu 336(%rsp), %xmm0
vmovdqu 352(%rsp), %xmm1
vmovdqu 368(%rsp), %xmm2
vmovdqu 384(%rsp), %xmm3
vmovdqu 400(%rsp), %xmm4
vmovdqu 416(%rsp), %xmm5
vmovdqu 432(%rsp), %xmm6
vmovdqu 448(%rsp), %xmm7
vmovdqu 464(%rsp), %xmm8
vmovdqu 480(%rsp), %xmm9
vmovdqu 496(%rsp), %xmm10
vmovdqu 512(%rsp), %xmm11
vmovdqu 528(%rsp), %xmm12
vmovdqu 544(%rsp), %xmm13
vmovdqu 560(%rsp), %xmm14
vmovdqu 576(%rsp), %xmm15
vmovdqu %xmm15, 32(%rsp)
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx$31:
vpaddd %xmm4, %xmm0, %xmm0
vpxor %xmm0, %xmm12, %xmm12
vpshufb (%rsp), %xmm12, %xmm12
vpaddd %xmm12, %xmm8, %xmm8
vpxor %xmm8, %xmm4, %xmm4
vpslld $12, %xmm4, %xmm15
vpsrld $20, %xmm4, %xmm4
vpxor %xmm15, %xmm4, %xmm4
vpaddd %xmm4, %xmm0, %xmm0
vpxor %xmm0, %xmm12, %xmm12
vpshufb 16(%rsp), %xmm12, %xmm12
vpaddd %xmm12, %xmm8, %xmm8
vpxor %xmm8, %xmm4, %xmm4
vpslld $7, %xmm4, %xmm15
vpsrld $25, %xmm4, %xmm4
vpxor %xmm15, %xmm4, %xmm4
vpaddd %xmm5, %xmm1, %xmm1
vpxor %xmm1, %xmm13, %xmm13
vpshufb (%rsp), %xmm13, %xmm13
vpaddd %xmm13, %xmm9, %xmm9
vpxor %xmm9, %xmm5, %xmm5
vpslld $12, %xmm5, %xmm15
vpsrld $20, %xmm5, %xmm5
vpxor %xmm15, %xmm5, %xmm5
vpaddd %xmm5, %xmm1, %xmm1
vpxor %xmm1, %xmm13, %xmm13
vpshufb 16(%rsp), %xmm13, %xmm13
vpaddd %xmm13, %xmm9, %xmm9
vpxor %xmm9, %xmm5, %xmm5
vpslld $7, %xmm5, %xmm15
vpsrld $25, %xmm5, %xmm5
vpxor %xmm15, %xmm5, %xmm5
vpaddd %xmm6, %xmm2, %xmm2
vpxor %xmm2, %xmm14, %xmm14
vpshufb (%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm10, %xmm10
vpxor %xmm10, %xmm6, %xmm6
vpslld $12, %xmm6, %xmm15
vpsrld $20, %xmm6, %xmm6
vpxor %xmm15, %xmm6, %xmm6
vpaddd %xmm6, %xmm2, %xmm2
vpxor %xmm2, %xmm14, %xmm14
vpshufb 16(%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm10, %xmm10
vpxor %xmm10, %xmm6, %xmm6
vpslld $7, %xmm6, %xmm15
vpsrld $25, %xmm6, %xmm6
vpxor %xmm15, %xmm6, %xmm6
vmovdqu %xmm14, 48(%rsp)
vmovdqu 32(%rsp), %xmm14
vpaddd %xmm7, %xmm3, %xmm3
vpxor %xmm3, %xmm14, %xmm14
vpshufb (%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm11, %xmm11
vpxor %xmm11, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm15
vpsrld $20, %xmm7, %xmm7
vpxor %xmm15, %xmm7, %xmm7
vpaddd %xmm7, %xmm3, %xmm3
vpxor %xmm3, %xmm14, %xmm14
vpshufb 16(%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm11, %xmm11
vpxor %xmm11, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm15
vpsrld $25, %xmm7, %xmm7
vpxor %xmm15, %xmm7, %xmm7
vmovdqu %xmm14, 64(%rsp)
vmovdqu 48(%rsp), %xmm14
vmovdqu %xmm14, 48(%rsp)
vmovdqu 64(%rsp), %xmm14
vpaddd %xmm5, %xmm0, %xmm0
vpxor %xmm0, %xmm14, %xmm14
vpshufb (%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm10, %xmm10
vpxor %xmm10, %xmm5, %xmm5
vpslld $12, %xmm5, %xmm15
vpsrld $20, %xmm5, %xmm5
vpxor %xmm15, %xmm5, %xmm5
vpaddd %xmm5, %xmm0, %xmm0
vpxor %xmm0, %xmm14, %xmm14
vpshufb 16(%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm10, %xmm10
vpxor %xmm10, %xmm5, %xmm5
vpslld $7, %xmm5, %xmm15
vpsrld $25, %xmm5, %xmm5
vpxor %xmm15, %xmm5, %xmm5
vmovdqu %xmm14, 32(%rsp)
vmovdqu 48(%rsp), %xmm14
vpaddd %xmm6, %xmm1, %xmm1
vpxor %xmm1, %xmm12, %xmm12
vpshufb (%rsp), %xmm12, %xmm12
vpaddd %xmm12, %xmm11, %xmm11
vpxor %xmm11, %xmm6, %xmm6
vpslld $12, %xmm6, %xmm15
vpsrld $20, %xmm6, %xmm6
vpxor %xmm15, %xmm6, %xmm6
vpaddd %xmm6, %xmm1, %xmm1
vpxor %xmm1, %xmm12, %xmm12
vpshufb 16(%rsp), %xmm12, %xmm12
vpaddd %xmm12, %xmm11, %xmm11
vpxor %xmm11, %xmm6, %xmm6
vpslld $7, %xmm6, %xmm15
vpsrld $25, %xmm6, %xmm6
vpxor %xmm15, %xmm6, %xmm6
vpaddd %xmm7, %xmm2, %xmm2
vpxor %xmm2, %xmm13, %xmm13
vpshufb (%rsp), %xmm13, %xmm13
vpaddd %xmm13, %xmm8, %xmm8
vpxor %xmm8, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm15
vpsrld $20, %xmm7, %xmm7
vpxor %xmm15, %xmm7, %xmm7
vpaddd %xmm7, %xmm2, %xmm2
vpxor %xmm2, %xmm13, %xmm13
vpshufb 16(%rsp), %xmm13, %xmm13
vpaddd %xmm13, %xmm8, %xmm8
vpxor %xmm8, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm15
vpsrld $25, %xmm7, %xmm7
vpxor %xmm15, %xmm7, %xmm7
vpaddd %xmm4, %xmm3, %xmm3
vpxor %xmm3, %xmm14, %xmm14
vpshufb (%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm9, %xmm9
vpxor %xmm9, %xmm4, %xmm4
vpslld $12, %xmm4, %xmm15
vpsrld $20, %xmm4, %xmm4
vpxor %xmm15, %xmm4, %xmm4
vpaddd %xmm4, %xmm3, %xmm3
vpxor %xmm3, %xmm14, %xmm14
vpshufb 16(%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm9, %xmm9
vpxor %xmm9, %xmm4, %xmm4
vpslld $7, %xmm4, %xmm15
vpsrld $25, %xmm4, %xmm4
vpxor %xmm15, %xmm4, %xmm4
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$31
vmovdqu 32(%rsp), %xmm15
vpaddd 336(%rsp), %xmm0, %xmm0
vpaddd 352(%rsp), %xmm1, %xmm1
vpaddd 368(%rsp), %xmm2, %xmm2
vpaddd 384(%rsp), %xmm3, %xmm3
vpaddd 400(%rsp), %xmm4, %xmm4
vpaddd 416(%rsp), %xmm5, %xmm5
vpaddd 432(%rsp), %xmm6, %xmm6
vpaddd 448(%rsp), %xmm7, %xmm7
vpaddd 464(%rsp), %xmm8, %xmm8
vpaddd 480(%rsp), %xmm9, %xmm9
vpaddd 496(%rsp), %xmm10, %xmm10
vpaddd 512(%rsp), %xmm11, %xmm11
vpaddd 528(%rsp), %xmm12, %xmm12
vpaddd 544(%rsp), %xmm13, %xmm13
vpaddd 560(%rsp), %xmm14, %xmm14
vpaddd 576(%rsp), %xmm15, %xmm15
vmovdqu %xmm8, 80(%rsp)
vmovdqu %xmm9, 96(%rsp)
vmovdqu %xmm10, 112(%rsp)
vmovdqu %xmm11, 128(%rsp)
vmovdqu %xmm12, 144(%rsp)
vmovdqu %xmm13, 160(%rsp)
vmovdqu %xmm14, 176(%rsp)
vmovdqu %xmm15, 192(%rsp)
vpunpckldq %xmm1, %xmm0, %xmm8
vpunpckhdq %xmm1, %xmm0, %xmm0
vpunpckldq %xmm3, %xmm2, %xmm1
vpunpckhdq %xmm3, %xmm2, %xmm2
vpunpckldq %xmm5, %xmm4, %xmm3
vpunpckhdq %xmm5, %xmm4, %xmm4
vpunpckldq %xmm7, %xmm6, %xmm5
vpunpckhdq %xmm7, %xmm6, %xmm6
vpunpcklqdq %xmm1, %xmm8, %xmm7
vpunpcklqdq %xmm5, %xmm3, %xmm9
vpunpckhqdq %xmm1, %xmm8, %xmm1
vpunpckhqdq %xmm5, %xmm3, %xmm3
vpunpcklqdq %xmm2, %xmm0, %xmm5
vpunpcklqdq %xmm6, %xmm4, %xmm8
vpunpckhqdq %xmm2, %xmm0, %xmm0
vpunpckhqdq %xmm6, %xmm4, %xmm2
vmovdqu %xmm7, (%rdi)
vmovdqu %xmm9, 16(%rdi)
vmovdqu %xmm1, 64(%rdi)
vmovdqu %xmm3, 80(%rdi)
vmovdqu %xmm5, 128(%rdi)
vmovdqu %xmm8, 144(%rdi)
vmovdqu %xmm0, 192(%rdi)
vmovdqu %xmm2, 208(%rdi)
vmovdqu 80(%rsp), %xmm0
vmovdqu 112(%rsp), %xmm1
vmovdqu 144(%rsp), %xmm2
vmovdqu 176(%rsp), %xmm3
vpunpckldq 96(%rsp), %xmm0, %xmm4
vpunpckhdq 96(%rsp), %xmm0, %xmm0
vpunpckldq 128(%rsp), %xmm1, %xmm5
vpunpckhdq 128(%rsp), %xmm1, %xmm1
vpunpckldq 160(%rsp), %xmm2, %xmm6
vpunpckhdq 160(%rsp), %xmm2, %xmm2
vpunpckldq 192(%rsp), %xmm3, %xmm7
vpunpckhdq 192(%rsp), %xmm3, %xmm3
vpunpcklqdq %xmm5, %xmm4, %xmm8
vpunpcklqdq %xmm7, %xmm6, %xmm9
vpunpckhqdq %xmm5, %xmm4, %xmm4
vpunpckhqdq %xmm7, %xmm6, %xmm5
vpunpcklqdq %xmm1, %xmm0, %xmm6
vpunpcklqdq %xmm3, %xmm2, %xmm7
vpunpckhqdq %xmm1, %xmm0, %xmm0
vpunpckhqdq %xmm3, %xmm2, %xmm1
vmovdqu %xmm8, 32(%rdi)
vmovdqu %xmm9, 48(%rdi)
vmovdqu %xmm4, 96(%rdi)
vmovdqu %xmm5, 112(%rdi)
vmovdqu %xmm6, 160(%rdi)
vmovdqu %xmm7, 176(%rdi)
vmovdqu %xmm0, 224(%rdi)
vmovdqu %xmm1, 240(%rdi)
addq $256, %rdi
addq $-256, %rsi
vmovdqu glob_data + 0(%rip), %xmm0
vpaddd 528(%rsp), %xmm0, %xmm0
vmovdqu %xmm0, 528(%rsp)
Ljade_stream_chacha_chacha20_ietf_amd64_avx$29:
cmpq $256, %rsi
jnb Ljade_stream_chacha_chacha20_ietf_amd64_avx$30
cmpq $0, %rsi
jbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$2
vmovdqu 336(%rsp), %xmm0
vmovdqu 352(%rsp), %xmm1
vmovdqu 368(%rsp), %xmm2
vmovdqu 384(%rsp), %xmm3
vmovdqu 400(%rsp), %xmm4
vmovdqu 416(%rsp), %xmm5
vmovdqu 432(%rsp), %xmm6
vmovdqu 448(%rsp), %xmm7
vmovdqu 464(%rsp), %xmm8
vmovdqu 480(%rsp), %xmm9
vmovdqu 496(%rsp), %xmm10
vmovdqu 512(%rsp), %xmm11
vmovdqu 528(%rsp), %xmm12
vmovdqu 544(%rsp), %xmm13
vmovdqu 560(%rsp), %xmm14
vmovdqu 576(%rsp), %xmm15
vmovdqu %xmm15, 32(%rsp)
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx$28:
vpaddd %xmm4, %xmm0, %xmm0
vpxor %xmm0, %xmm12, %xmm12
vpshufb (%rsp), %xmm12, %xmm12
vpaddd %xmm12, %xmm8, %xmm8
vpxor %xmm8, %xmm4, %xmm4
vpslld $12, %xmm4, %xmm15
vpsrld $20, %xmm4, %xmm4
vpxor %xmm15, %xmm4, %xmm4
vpaddd %xmm4, %xmm0, %xmm0
vpxor %xmm0, %xmm12, %xmm12
vpshufb 16(%rsp), %xmm12, %xmm12
vpaddd %xmm12, %xmm8, %xmm8
vpxor %xmm8, %xmm4, %xmm4
vpslld $7, %xmm4, %xmm15
vpsrld $25, %xmm4, %xmm4
vpxor %xmm15, %xmm4, %xmm4
vpaddd %xmm5, %xmm1, %xmm1
vpxor %xmm1, %xmm13, %xmm13
vpshufb (%rsp), %xmm13, %xmm13
vpaddd %xmm13, %xmm9, %xmm9
vpxor %xmm9, %xmm5, %xmm5
vpslld $12, %xmm5, %xmm15
vpsrld $20, %xmm5, %xmm5
vpxor %xmm15, %xmm5, %xmm5
vpaddd %xmm5, %xmm1, %xmm1
vpxor %xmm1, %xmm13, %xmm13
vpshufb 16(%rsp), %xmm13, %xmm13
vpaddd %xmm13, %xmm9, %xmm9
vpxor %xmm9, %xmm5, %xmm5
vpslld $7, %xmm5, %xmm15
vpsrld $25, %xmm5, %xmm5
vpxor %xmm15, %xmm5, %xmm5
vpaddd %xmm6, %xmm2, %xmm2
vpxor %xmm2, %xmm14, %xmm14
vpshufb (%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm10, %xmm10
vpxor %xmm10, %xmm6, %xmm6
vpslld $12, %xmm6, %xmm15
vpsrld $20, %xmm6, %xmm6
vpxor %xmm15, %xmm6, %xmm6
vpaddd %xmm6, %xmm2, %xmm2
vpxor %xmm2, %xmm14, %xmm14
vpshufb 16(%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm10, %xmm10
vpxor %xmm10, %xmm6, %xmm6
vpslld $7, %xmm6, %xmm15
vpsrld $25, %xmm6, %xmm6
vpxor %xmm15, %xmm6, %xmm6
vmovdqu %xmm14, 48(%rsp)
vmovdqu 32(%rsp), %xmm14
vpaddd %xmm7, %xmm3, %xmm3
vpxor %xmm3, %xmm14, %xmm14
vpshufb (%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm11, %xmm11
vpxor %xmm11, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm15
vpsrld $20, %xmm7, %xmm7
vpxor %xmm15, %xmm7, %xmm7
vpaddd %xmm7, %xmm3, %xmm3
vpxor %xmm3, %xmm14, %xmm14
vpshufb 16(%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm11, %xmm11
vpxor %xmm11, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm15
vpsrld $25, %xmm7, %xmm7
vpxor %xmm15, %xmm7, %xmm7
vmovdqu %xmm14, 64(%rsp)
vmovdqu 48(%rsp), %xmm14
vmovdqu %xmm14, 48(%rsp)
vmovdqu 64(%rsp), %xmm14
vpaddd %xmm5, %xmm0, %xmm0
vpxor %xmm0, %xmm14, %xmm14
vpshufb (%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm10, %xmm10
vpxor %xmm10, %xmm5, %xmm5
vpslld $12, %xmm5, %xmm15
vpsrld $20, %xmm5, %xmm5
vpxor %xmm15, %xmm5, %xmm5
vpaddd %xmm5, %xmm0, %xmm0
vpxor %xmm0, %xmm14, %xmm14
vpshufb 16(%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm10, %xmm10
vpxor %xmm10, %xmm5, %xmm5
vpslld $7, %xmm5, %xmm15
vpsrld $25, %xmm5, %xmm5
vpxor %xmm15, %xmm5, %xmm5
vmovdqu %xmm14, 32(%rsp)
vmovdqu 48(%rsp), %xmm14
vpaddd %xmm6, %xmm1, %xmm1
vpxor %xmm1, %xmm12, %xmm12
vpshufb (%rsp), %xmm12, %xmm12
vpaddd %xmm12, %xmm11, %xmm11
vpxor %xmm11, %xmm6, %xmm6
vpslld $12, %xmm6, %xmm15
vpsrld $20, %xmm6, %xmm6
vpxor %xmm15, %xmm6, %xmm6
vpaddd %xmm6, %xmm1, %xmm1
vpxor %xmm1, %xmm12, %xmm12
vpshufb 16(%rsp), %xmm12, %xmm12
vpaddd %xmm12, %xmm11, %xmm11
vpxor %xmm11, %xmm6, %xmm6
vpslld $7, %xmm6, %xmm15
vpsrld $25, %xmm6, %xmm6
vpxor %xmm15, %xmm6, %xmm6
vpaddd %xmm7, %xmm2, %xmm2
vpxor %xmm2, %xmm13, %xmm13
vpshufb (%rsp), %xmm13, %xmm13
vpaddd %xmm13, %xmm8, %xmm8
vpxor %xmm8, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm15
vpsrld $20, %xmm7, %xmm7
vpxor %xmm15, %xmm7, %xmm7
vpaddd %xmm7, %xmm2, %xmm2
vpxor %xmm2, %xmm13, %xmm13
vpshufb 16(%rsp), %xmm13, %xmm13
vpaddd %xmm13, %xmm8, %xmm8
vpxor %xmm8, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm15
vpsrld $25, %xmm7, %xmm7
vpxor %xmm15, %xmm7, %xmm7
vpaddd %xmm4, %xmm3, %xmm3
vpxor %xmm3, %xmm14, %xmm14
vpshufb (%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm9, %xmm9
vpxor %xmm9, %xmm4, %xmm4
vpslld $12, %xmm4, %xmm15
vpsrld $20, %xmm4, %xmm4
vpxor %xmm15, %xmm4, %xmm4
vpaddd %xmm4, %xmm3, %xmm3
vpxor %xmm3, %xmm14, %xmm14
vpshufb 16(%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm9, %xmm9
vpxor %xmm9, %xmm4, %xmm4
vpslld $7, %xmm4, %xmm15
vpsrld $25, %xmm4, %xmm4
vpxor %xmm15, %xmm4, %xmm4
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$28
vmovdqu 32(%rsp), %xmm15
vpaddd 336(%rsp), %xmm0, %xmm0
vpaddd 352(%rsp), %xmm1, %xmm1
vpaddd 368(%rsp), %xmm2, %xmm2
vpaddd 384(%rsp), %xmm3, %xmm3
vpaddd 400(%rsp), %xmm4, %xmm4
vpaddd 416(%rsp), %xmm5, %xmm5
vpaddd 432(%rsp), %xmm6, %xmm6
vpaddd 448(%rsp), %xmm7, %xmm7
vpaddd 464(%rsp), %xmm8, %xmm8
vpaddd 480(%rsp), %xmm9, %xmm9
vpaddd 496(%rsp), %xmm10, %xmm10
vpaddd 512(%rsp), %xmm11, %xmm11
vpaddd 528(%rsp), %xmm12, %xmm12
vpaddd 544(%rsp), %xmm13, %xmm13
vpaddd 560(%rsp), %xmm14, %xmm14
vpaddd 576(%rsp), %xmm15, %xmm15
vmovdqu %xmm8, 80(%rsp)
vmovdqu %xmm9, 96(%rsp)
vmovdqu %xmm10, 112(%rsp)
vmovdqu %xmm11, 128(%rsp)
vmovdqu %xmm12, 144(%rsp)
vmovdqu %xmm13, 160(%rsp)
vmovdqu %xmm14, 176(%rsp)
vmovdqu %xmm15, 192(%rsp)
vpunpckldq %xmm1, %xmm0, %xmm8
vpunpckhdq %xmm1, %xmm0, %xmm0
vpunpckldq %xmm3, %xmm2, %xmm1
vpunpckhdq %xmm3, %xmm2, %xmm2
vpunpckldq %xmm5, %xmm4, %xmm3
vpunpckhdq %xmm5, %xmm4, %xmm4
vpunpckldq %xmm7, %xmm6, %xmm5
vpunpckhdq %xmm7, %xmm6, %xmm6
vpunpcklqdq %xmm1, %xmm8, %xmm7
vpunpcklqdq %xmm5, %xmm3, %xmm9
vpunpckhqdq %xmm1, %xmm8, %xmm1
vpunpckhqdq %xmm5, %xmm3, %xmm3
vpunpcklqdq %xmm2, %xmm0, %xmm5
vpunpcklqdq %xmm6, %xmm4, %xmm8
vpunpckhqdq %xmm2, %xmm0, %xmm0
vpunpckhqdq %xmm6, %xmm4, %xmm2
vmovdqu %xmm7, 208(%rsp)
vmovdqu %xmm9, 224(%rsp)
vmovdqu %xmm1, 240(%rsp)
vmovdqu %xmm3, 256(%rsp)
vmovdqu %xmm5, 272(%rsp)
vmovdqu %xmm8, 288(%rsp)
vmovdqu %xmm0, 304(%rsp)
vmovdqu %xmm2, 320(%rsp)
vmovdqu 80(%rsp), %xmm0
vmovdqu 112(%rsp), %xmm1
vmovdqu 144(%rsp), %xmm2
vmovdqu 176(%rsp), %xmm3
vpunpckldq 96(%rsp), %xmm0, %xmm4
vpunpckhdq 96(%rsp), %xmm0, %xmm0
vpunpckldq 128(%rsp), %xmm1, %xmm5
vpunpckhdq 128(%rsp), %xmm1, %xmm1
vpunpckldq 160(%rsp), %xmm2, %xmm6
vpunpckhdq 160(%rsp), %xmm2, %xmm2
vpunpckldq 192(%rsp), %xmm3, %xmm7
vpunpckhdq 192(%rsp), %xmm3, %xmm3
vpunpcklqdq %xmm5, %xmm4, %xmm8
vpunpcklqdq %xmm7, %xmm6, %xmm9
vpunpckhqdq %xmm5, %xmm4, %xmm4
vpunpckhqdq %xmm7, %xmm6, %xmm5
vpunpcklqdq %xmm1, %xmm0, %xmm6
vpunpcklqdq %xmm3, %xmm2, %xmm7
vpunpckhqdq %xmm1, %xmm0, %xmm0
vpunpckhqdq %xmm3, %xmm2, %xmm1
vmovdqu 208(%rsp), %xmm13
vmovdqu 224(%rsp), %xmm12
vmovdqu %xmm8, %xmm11
vmovdqu %xmm9, %xmm10
vmovdqu 240(%rsp), %xmm9
vmovdqu 256(%rsp), %xmm8
vmovdqu %xmm4, %xmm3
vmovdqu %xmm5, %xmm2
cmpq $128, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$27
vmovdqu %xmm13, (%rdi)
vmovdqu %xmm12, 16(%rdi)
vmovdqu %xmm11, 32(%rdi)
vmovdqu %xmm10, 48(%rdi)
vmovdqu %xmm9, 64(%rdi)
vmovdqu %xmm8, 80(%rdi)
vmovdqu %xmm3, 96(%rdi)
vmovdqu %xmm2, 112(%rdi)
addq $128, %rdi
addq $-128, %rsi
vmovdqu 272(%rsp), %xmm13
vmovdqu 288(%rsp), %xmm12
vmovdqu %xmm6, %xmm11
vmovdqu %xmm7, %xmm10
vmovdqu 304(%rsp), %xmm9
vmovdqu 320(%rsp), %xmm8
vmovdqu %xmm0, %xmm3
vmovdqu %xmm1, %xmm2
Ljade_stream_chacha_chacha20_ietf_amd64_avx$27:
cmpq $64, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$26
vmovdqu %xmm13, (%rdi)
vmovdqu %xmm12, 16(%rdi)
vmovdqu %xmm11, 32(%rdi)
vmovdqu %xmm10, 48(%rdi)
addq $64, %rdi
addq $-64, %rsi
vmovdqu %xmm9, %xmm13
vmovdqu %xmm8, %xmm12
vmovdqu %xmm3, %xmm11
vmovdqu %xmm2, %xmm10
Ljade_stream_chacha_chacha20_ietf_amd64_avx$26:
cmpq $32, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$25
vmovdqu %xmm13, (%rdi)
vmovdqu %xmm12, 16(%rdi)
addq $32, %rdi
addq $-32, %rsi
vmovdqu %xmm11, %xmm13
vmovdqu %xmm10, %xmm12
Ljade_stream_chacha_chacha20_ietf_amd64_avx$25:
cmpq $16, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$24
vmovdqu %xmm13, (%rdi)
addq $16, %rdi
addq $-16, %rsi
vmovdqu %xmm12, %xmm13
Ljade_stream_chacha_chacha20_ietf_amd64_avx$24:
vpextrq $0, %xmm13, %rax
cmpq $8, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$21
movq %rax, (%rdi)
addq $8, %rdi
addq $-8, %rsi
vpextrq $1, %xmm13, %rax
Ljade_stream_chacha_chacha20_ietf_amd64_avx$23:
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx$21
Ljade_stream_chacha_chacha20_ietf_amd64_avx$22:
movb %al, %cl
movb %cl, (%rdi)
shrq $8, %rax
incq %rdi
addq $-1, %rsi
Ljade_stream_chacha_chacha20_ietf_amd64_avx$21:
cmpq $0, %rsi
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$22
Ljade_stream_chacha_chacha20_ietf_amd64_avx$20:
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx$2
Ljade_stream_chacha_chacha20_ietf_amd64_avx$1:
vmovdqu glob_data + 64(%rip), %xmm0
vmovdqu glob_data + 48(%rip), %xmm1
vmovdqu glob_data + 208(%rip), %xmm2
vmovdqu (%rcx), %xmm3
vmovdqu 16(%rcx), %xmm4
vpxor %xmm5, %xmm5, %xmm5
vpinsrd $1, (%rdx), %xmm5, %xmm5
vpinsrq $1, 4(%rdx), %xmm5, %xmm5
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx$17
Ljade_stream_chacha_chacha20_ietf_amd64_avx$18:
vmovdqu %xmm2, %xmm6
vmovdqu %xmm3, %xmm7
vmovdqu %xmm4, %xmm8
vmovdqu %xmm5, %xmm9
vmovdqu %xmm2, %xmm10
vmovdqu %xmm3, %xmm11
vmovdqu %xmm4, %xmm12
vmovdqu %xmm5, %xmm13
vpaddd glob_data + 32(%rip), %xmm13, %xmm13
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx$19:
vpaddd %xmm7, %xmm6, %xmm6
vpaddd %xmm11, %xmm10, %xmm10
vpxor %xmm6, %xmm9, %xmm9
vpxor %xmm10, %xmm13, %xmm13
vpshufb %xmm0, %xmm9, %xmm9
vpshufb %xmm0, %xmm13, %xmm13
vpaddd %xmm9, %xmm8, %xmm8
vpaddd %xmm13, %xmm12, %xmm12
vpxor %xmm8, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm14
vpsrld $20, %xmm7, %xmm7
vpxor %xmm12, %xmm11, %xmm11
vpxor %xmm14, %xmm7, %xmm7
vpslld $12, %xmm11, %xmm14
vpsrld $20, %xmm11, %xmm11
vpxor %xmm14, %xmm11, %xmm11
vpaddd %xmm7, %xmm6, %xmm6
vpaddd %xmm11, %xmm10, %xmm10
vpxor %xmm6, %xmm9, %xmm9
vpxor %xmm10, %xmm13, %xmm13
vpshufb %xmm1, %xmm9, %xmm9
vpshufb %xmm1, %xmm13, %xmm13
vpaddd %xmm9, %xmm8, %xmm8
vpaddd %xmm13, %xmm12, %xmm12
vpxor %xmm8, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm14
vpsrld $25, %xmm7, %xmm7
vpxor %xmm12, %xmm11, %xmm11
vpxor %xmm14, %xmm7, %xmm7
vpslld $7, %xmm11, %xmm14
vpsrld $25, %xmm11, %xmm11
vpxor %xmm14, %xmm11, %xmm11
vpshufd $57, %xmm7, %xmm7
vpshufd $78, %xmm8, %xmm8
vpshufd $-109, %xmm9, %xmm9
vpshufd $57, %xmm11, %xmm11
vpshufd $78, %xmm12, %xmm12
vpshufd $-109, %xmm13, %xmm13
vpaddd %xmm7, %xmm6, %xmm6
vpaddd %xmm11, %xmm10, %xmm10
vpxor %xmm6, %xmm9, %xmm9
vpxor %xmm10, %xmm13, %xmm13
vpshufb %xmm0, %xmm9, %xmm9
vpshufb %xmm0, %xmm13, %xmm13
vpaddd %xmm9, %xmm8, %xmm8
vpaddd %xmm13, %xmm12, %xmm12
vpxor %xmm8, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm14
vpsrld $20, %xmm7, %xmm7
vpxor %xmm12, %xmm11, %xmm11
vpxor %xmm14, %xmm7, %xmm7
vpslld $12, %xmm11, %xmm14
vpsrld $20, %xmm11, %xmm11
vpxor %xmm14, %xmm11, %xmm11
vpaddd %xmm7, %xmm6, %xmm6
vpaddd %xmm11, %xmm10, %xmm10
vpxor %xmm6, %xmm9, %xmm9
vpxor %xmm10, %xmm13, %xmm13
vpshufb %xmm1, %xmm9, %xmm9
vpshufb %xmm1, %xmm13, %xmm13
vpaddd %xmm9, %xmm8, %xmm8
vpaddd %xmm13, %xmm12, %xmm12
vpxor %xmm8, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm14
vpsrld $25, %xmm7, %xmm7
vpxor %xmm12, %xmm11, %xmm11
vpxor %xmm14, %xmm7, %xmm7
vpslld $7, %xmm11, %xmm14
vpsrld $25, %xmm11, %xmm11
vpxor %xmm14, %xmm11, %xmm11
vpshufd $-109, %xmm7, %xmm7
vpshufd $78, %xmm8, %xmm8
vpshufd $57, %xmm9, %xmm9
vpshufd $-109, %xmm11, %xmm11
vpshufd $78, %xmm12, %xmm12
vpshufd $57, %xmm13, %xmm13
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$19
vpaddd %xmm2, %xmm6, %xmm6
vpaddd %xmm3, %xmm7, %xmm7
vpaddd %xmm4, %xmm8, %xmm8
vpaddd %xmm5, %xmm9, %xmm9
vpaddd %xmm2, %xmm10, %xmm10
vpaddd %xmm3, %xmm11, %xmm11
vpaddd %xmm4, %xmm12, %xmm12
vpaddd %xmm5, %xmm13, %xmm13
vpaddd glob_data + 32(%rip), %xmm13, %xmm13
vmovdqu %xmm6, (%rdi)
vmovdqu %xmm7, 16(%rdi)
vmovdqu %xmm8, 32(%rdi)
vmovdqu %xmm9, 48(%rdi)
vmovdqu %xmm10, 64(%rdi)
vmovdqu %xmm11, 80(%rdi)
vmovdqu %xmm12, 96(%rdi)
vmovdqu %xmm13, 112(%rdi)
addq $128, %rdi
addq $-128, %rsi
vpaddd glob_data + 16(%rip), %xmm5, %xmm5
Ljade_stream_chacha_chacha20_ietf_amd64_avx$17:
cmpq $128, %rsi
jnb Ljade_stream_chacha_chacha20_ietf_amd64_avx$18
cmpq $64, %rsi
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$3
vmovdqu %xmm2, %xmm6
vmovdqu %xmm3, %xmm7
vmovdqu %xmm4, %xmm8
vmovdqu %xmm5, %xmm9
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx$16:
vpaddd %xmm7, %xmm6, %xmm6
vpxor %xmm6, %xmm9, %xmm9
vpshufb %xmm0, %xmm9, %xmm9
vpaddd %xmm9, %xmm8, %xmm8
vpxor %xmm8, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm10
vpsrld $20, %xmm7, %xmm7
vpxor %xmm10, %xmm7, %xmm7
vpaddd %xmm7, %xmm6, %xmm6
vpxor %xmm6, %xmm9, %xmm9
vpshufb %xmm1, %xmm9, %xmm9
vpaddd %xmm9, %xmm8, %xmm8
vpxor %xmm8, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm10
vpsrld $25, %xmm7, %xmm7
vpxor %xmm10, %xmm7, %xmm7
vpshufd $57, %xmm7, %xmm7
vpshufd $78, %xmm8, %xmm8
vpshufd $-109, %xmm9, %xmm9
vpaddd %xmm7, %xmm6, %xmm6
vpxor %xmm6, %xmm9, %xmm9
vpshufb %xmm0, %xmm9, %xmm9
vpaddd %xmm9, %xmm8, %xmm8
vpxor %xmm8, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm10
vpsrld $20, %xmm7, %xmm7
vpxor %xmm10, %xmm7, %xmm7
vpaddd %xmm7, %xmm6, %xmm6
vpxor %xmm6, %xmm9, %xmm9
vpshufb %xmm1, %xmm9, %xmm9
vpaddd %xmm9, %xmm8, %xmm8
vpxor %xmm8, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm10
vpsrld $25, %xmm7, %xmm7
vpxor %xmm10, %xmm7, %xmm7
vpshufd $-109, %xmm7, %xmm7
vpshufd $78, %xmm8, %xmm8
vpshufd $57, %xmm9, %xmm9
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$16
vpaddd %xmm2, %xmm6, %xmm6
vpaddd %xmm3, %xmm7, %xmm2
vpaddd %xmm4, %xmm8, %xmm0
vpaddd %xmm5, %xmm9, %xmm1
cmpq $32, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$15
vmovdqu %xmm6, (%rdi)
vmovdqu %xmm2, 16(%rdi)
addq $32, %rdi
addq $-32, %rsi
vmovdqu %xmm0, %xmm6
vmovdqu %xmm1, %xmm2
Ljade_stream_chacha_chacha20_ietf_amd64_avx$15:
cmpq $16, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$14
vmovdqu %xmm6, (%rdi)
addq $16, %rdi
addq $-16, %rsi
vmovdqu %xmm2, %xmm6
Ljade_stream_chacha_chacha20_ietf_amd64_avx$14:
vpextrq $0, %xmm6, %rax
cmpq $8, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$11
movq %rax, (%rdi)
addq $8, %rdi
addq $-8, %rsi
vpextrq $1, %xmm6, %rax
Ljade_stream_chacha_chacha20_ietf_amd64_avx$13:
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx$11
Ljade_stream_chacha_chacha20_ietf_amd64_avx$12:
movb %al, %cl
movb %cl, (%rdi)
shrq $8, %rax
incq %rdi
addq $-1, %rsi
Ljade_stream_chacha_chacha20_ietf_amd64_avx$11:
cmpq $0, %rsi
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$12
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx$2
Ljade_stream_chacha_chacha20_ietf_amd64_avx$3:
vmovdqu %xmm2, %xmm6
vmovdqu %xmm3, %xmm7
vmovdqu %xmm4, %xmm8
vmovdqu %xmm5, %xmm9
vmovdqu %xmm2, %xmm10
vmovdqu %xmm3, %xmm11
vmovdqu %xmm4, %xmm12
vmovdqu %xmm5, %xmm13
vpaddd glob_data + 32(%rip), %xmm13, %xmm13
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx$10:
vpaddd %xmm7, %xmm6, %xmm6
vpaddd %xmm11, %xmm10, %xmm10
vpxor %xmm6, %xmm9, %xmm9
vpxor %xmm10, %xmm13, %xmm13
vpshufb %xmm0, %xmm9, %xmm9
vpshufb %xmm0, %xmm13, %xmm13
vpaddd %xmm9, %xmm8, %xmm8
vpaddd %xmm13, %xmm12, %xmm12
vpxor %xmm8, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm14
vpsrld $20, %xmm7, %xmm7
vpxor %xmm12, %xmm11, %xmm11
vpxor %xmm14, %xmm7, %xmm7
vpslld $12, %xmm11, %xmm14
vpsrld $20, %xmm11, %xmm11
vpxor %xmm14, %xmm11, %xmm11
vpaddd %xmm7, %xmm6, %xmm6
vpaddd %xmm11, %xmm10, %xmm10
vpxor %xmm6, %xmm9, %xmm9
vpxor %xmm10, %xmm13, %xmm13
vpshufb %xmm1, %xmm9, %xmm9
vpshufb %xmm1, %xmm13, %xmm13
vpaddd %xmm9, %xmm8, %xmm8
vpaddd %xmm13, %xmm12, %xmm12
vpxor %xmm8, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm14
vpsrld $25, %xmm7, %xmm7
vpxor %xmm12, %xmm11, %xmm11
vpxor %xmm14, %xmm7, %xmm7
vpslld $7, %xmm11, %xmm14
vpsrld $25, %xmm11, %xmm11
vpxor %xmm14, %xmm11, %xmm11
vpshufd $57, %xmm7, %xmm7
vpshufd $78, %xmm8, %xmm8
vpshufd $-109, %xmm9, %xmm9
vpshufd $57, %xmm11, %xmm11
vpshufd $78, %xmm12, %xmm12
vpshufd $-109, %xmm13, %xmm13
vpaddd %xmm7, %xmm6, %xmm6
vpaddd %xmm11, %xmm10, %xmm10
vpxor %xmm6, %xmm9, %xmm9
vpxor %xmm10, %xmm13, %xmm13
vpshufb %xmm0, %xmm9, %xmm9
vpshufb %xmm0, %xmm13, %xmm13
vpaddd %xmm9, %xmm8, %xmm8
vpaddd %xmm13, %xmm12, %xmm12
vpxor %xmm8, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm14
vpsrld $20, %xmm7, %xmm7
vpxor %xmm12, %xmm11, %xmm11
vpxor %xmm14, %xmm7, %xmm7
vpslld $12, %xmm11, %xmm14
vpsrld $20, %xmm11, %xmm11
vpxor %xmm14, %xmm11, %xmm11
vpaddd %xmm7, %xmm6, %xmm6
vpaddd %xmm11, %xmm10, %xmm10
vpxor %xmm6, %xmm9, %xmm9
vpxor %xmm10, %xmm13, %xmm13
vpshufb %xmm1, %xmm9, %xmm9
vpshufb %xmm1, %xmm13, %xmm13
vpaddd %xmm9, %xmm8, %xmm8
vpaddd %xmm13, %xmm12, %xmm12
vpxor %xmm8, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm14
vpsrld $25, %xmm7, %xmm7
vpxor %xmm12, %xmm11, %xmm11
vpxor %xmm14, %xmm7, %xmm7
vpslld $7, %xmm11, %xmm14
vpsrld $25, %xmm11, %xmm11
vpxor %xmm14, %xmm11, %xmm11
vpshufd $-109, %xmm7, %xmm7
vpshufd $78, %xmm8, %xmm8
vpshufd $57, %xmm9, %xmm9
vpshufd $-109, %xmm11, %xmm11
vpshufd $78, %xmm12, %xmm12
vpshufd $57, %xmm13, %xmm13
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$10
vpaddd %xmm2, %xmm6, %xmm0
vpaddd %xmm3, %xmm7, %xmm1
vpaddd %xmm4, %xmm8, %xmm6
vpaddd %xmm5, %xmm9, %xmm7
vpaddd %xmm2, %xmm10, %xmm9
vpaddd %xmm3, %xmm11, %xmm8
vpaddd %xmm4, %xmm12, %xmm2
vpaddd %xmm5, %xmm13, %xmm3
vpaddd glob_data + 32(%rip), %xmm3, %xmm3
vmovdqu %xmm0, (%rdi)
vmovdqu %xmm1, 16(%rdi)
vmovdqu %xmm6, 32(%rdi)
vmovdqu %xmm7, 48(%rdi)
addq $64, %rdi
addq $-64, %rsi
cmpq $32, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$9
vmovdqu %xmm9, (%rdi)
vmovdqu %xmm8, 16(%rdi)
addq $32, %rdi
addq $-32, %rsi
vmovdqu %xmm2, %xmm9
vmovdqu %xmm3, %xmm8
Ljade_stream_chacha_chacha20_ietf_amd64_avx$9:
cmpq $16, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$8
vmovdqu %xmm9, (%rdi)
addq $16, %rdi
addq $-16, %rsi
vmovdqu %xmm8, %xmm9
Ljade_stream_chacha_chacha20_ietf_amd64_avx$8:
vpextrq $0, %xmm9, %rax
cmpq $8, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$5
movq %rax, (%rdi)
addq $8, %rdi
addq $-8, %rsi
vpextrq $1, %xmm9, %rax
Ljade_stream_chacha_chacha20_ietf_amd64_avx$7:
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx$5
Ljade_stream_chacha_chacha20_ietf_amd64_avx$6:
movb %al, %cl
movb %cl, (%rdi)
shrq $8, %rax
incq %rdi
addq $-1, %rsi
Ljade_stream_chacha_chacha20_ietf_amd64_avx$5:
cmpq $0, %rsi
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$6
Ljade_stream_chacha_chacha20_ietf_amd64_avx$4:
Ljade_stream_chacha_chacha20_ietf_amd64_avx$2:
xorq %rax, %rax
movq %r10, %rsp
ret
_jade_stream_chacha_chacha20_ietf_amd64_avx_xor:
jade_stream_chacha_chacha20_ietf_amd64_avx_xor:
movq %rsp, %r10
leaq -592(%rsp), %rsp
andq $-16, %rsp
cmpq $129, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$1
vmovdqu glob_data + 64(%rip), %xmm0
vmovdqu glob_data + 48(%rip), %xmm1
vmovdqu %xmm0, (%rsp)
vmovdqu %xmm1, 16(%rsp)
vmovdqu glob_data + 112(%rip), %xmm0
vmovdqu glob_data + 128(%rip), %xmm1
vmovdqu glob_data + 144(%rip), %xmm2
vmovdqu glob_data + 160(%rip), %xmm3
vpbroadcastd (%r8), %xmm4
vpbroadcastd 4(%r8), %xmm5
vpbroadcastd 8(%r8), %xmm6
vpbroadcastd 12(%r8), %xmm7
vpbroadcastd 16(%r8), %xmm8
vpbroadcastd 20(%r8), %xmm9
vpbroadcastd 24(%r8), %xmm10
vpbroadcastd 28(%r8), %xmm11
vmovdqu glob_data + 96(%rip), %xmm12
vpbroadcastd (%rcx), %xmm13
vpbroadcastd 4(%rcx), %xmm14
vpbroadcastd 8(%rcx), %xmm15
vmovdqu %xmm0, 336(%rsp)
vmovdqu %xmm1, 352(%rsp)
vmovdqu %xmm2, 368(%rsp)
vmovdqu %xmm3, 384(%rsp)
vmovdqu %xmm4, 400(%rsp)
vmovdqu %xmm5, 416(%rsp)
vmovdqu %xmm6, 432(%rsp)
vmovdqu %xmm7, 448(%rsp)
vmovdqu %xmm8, 464(%rsp)
vmovdqu %xmm9, 480(%rsp)
vmovdqu %xmm10, 496(%rsp)
vmovdqu %xmm11, 512(%rsp)
vmovdqu %xmm12, 528(%rsp)
vmovdqu %xmm13, 544(%rsp)
vmovdqu %xmm14, 560(%rsp)
vmovdqu %xmm15, 576(%rsp)
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$29
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$30:
vmovdqu 336(%rsp), %xmm0
vmovdqu 352(%rsp), %xmm1
vmovdqu 368(%rsp), %xmm2
vmovdqu 384(%rsp), %xmm3
vmovdqu 400(%rsp), %xmm4
vmovdqu 416(%rsp), %xmm5
vmovdqu 432(%rsp), %xmm6
vmovdqu 448(%rsp), %xmm7
vmovdqu 464(%rsp), %xmm8
vmovdqu 480(%rsp), %xmm9
vmovdqu 496(%rsp), %xmm10
vmovdqu 512(%rsp), %xmm11
vmovdqu 528(%rsp), %xmm12
vmovdqu 544(%rsp), %xmm13
vmovdqu 560(%rsp), %xmm14
vmovdqu 576(%rsp), %xmm15
vmovdqu %xmm15, 32(%rsp)
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$31:
vpaddd %xmm4, %xmm0, %xmm0
vpxor %xmm0, %xmm12, %xmm12
vpshufb (%rsp), %xmm12, %xmm12
vpaddd %xmm12, %xmm8, %xmm8
vpxor %xmm8, %xmm4, %xmm4
vpslld $12, %xmm4, %xmm15
vpsrld $20, %xmm4, %xmm4
vpxor %xmm15, %xmm4, %xmm4
vpaddd %xmm4, %xmm0, %xmm0
vpxor %xmm0, %xmm12, %xmm12
vpshufb 16(%rsp), %xmm12, %xmm12
vpaddd %xmm12, %xmm8, %xmm8
vpxor %xmm8, %xmm4, %xmm4
vpslld $7, %xmm4, %xmm15
vpsrld $25, %xmm4, %xmm4
vpxor %xmm15, %xmm4, %xmm4
vpaddd %xmm5, %xmm1, %xmm1
vpxor %xmm1, %xmm13, %xmm13
vpshufb (%rsp), %xmm13, %xmm13
vpaddd %xmm13, %xmm9, %xmm9
vpxor %xmm9, %xmm5, %xmm5
vpslld $12, %xmm5, %xmm15
vpsrld $20, %xmm5, %xmm5
vpxor %xmm15, %xmm5, %xmm5
vpaddd %xmm5, %xmm1, %xmm1
vpxor %xmm1, %xmm13, %xmm13
vpshufb 16(%rsp), %xmm13, %xmm13
vpaddd %xmm13, %xmm9, %xmm9
vpxor %xmm9, %xmm5, %xmm5
vpslld $7, %xmm5, %xmm15
vpsrld $25, %xmm5, %xmm5
vpxor %xmm15, %xmm5, %xmm5
vpaddd %xmm6, %xmm2, %xmm2
vpxor %xmm2, %xmm14, %xmm14
vpshufb (%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm10, %xmm10
vpxor %xmm10, %xmm6, %xmm6
vpslld $12, %xmm6, %xmm15
vpsrld $20, %xmm6, %xmm6
vpxor %xmm15, %xmm6, %xmm6
vpaddd %xmm6, %xmm2, %xmm2
vpxor %xmm2, %xmm14, %xmm14
vpshufb 16(%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm10, %xmm10
vpxor %xmm10, %xmm6, %xmm6
vpslld $7, %xmm6, %xmm15
vpsrld $25, %xmm6, %xmm6
vpxor %xmm15, %xmm6, %xmm6
vmovdqu %xmm14, 48(%rsp)
vmovdqu 32(%rsp), %xmm14
vpaddd %xmm7, %xmm3, %xmm3
vpxor %xmm3, %xmm14, %xmm14
vpshufb (%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm11, %xmm11
vpxor %xmm11, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm15
vpsrld $20, %xmm7, %xmm7
vpxor %xmm15, %xmm7, %xmm7
vpaddd %xmm7, %xmm3, %xmm3
vpxor %xmm3, %xmm14, %xmm14
vpshufb 16(%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm11, %xmm11
vpxor %xmm11, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm15
vpsrld $25, %xmm7, %xmm7
vpxor %xmm15, %xmm7, %xmm7
vmovdqu %xmm14, 64(%rsp)
vmovdqu 48(%rsp), %xmm14
vmovdqu %xmm14, 48(%rsp)
vmovdqu 64(%rsp), %xmm14
vpaddd %xmm5, %xmm0, %xmm0
vpxor %xmm0, %xmm14, %xmm14
vpshufb (%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm10, %xmm10
vpxor %xmm10, %xmm5, %xmm5
vpslld $12, %xmm5, %xmm15
vpsrld $20, %xmm5, %xmm5
vpxor %xmm15, %xmm5, %xmm5
vpaddd %xmm5, %xmm0, %xmm0
vpxor %xmm0, %xmm14, %xmm14
vpshufb 16(%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm10, %xmm10
vpxor %xmm10, %xmm5, %xmm5
vpslld $7, %xmm5, %xmm15
vpsrld $25, %xmm5, %xmm5
vpxor %xmm15, %xmm5, %xmm5
vmovdqu %xmm14, 32(%rsp)
vmovdqu 48(%rsp), %xmm14
vpaddd %xmm6, %xmm1, %xmm1
vpxor %xmm1, %xmm12, %xmm12
vpshufb (%rsp), %xmm12, %xmm12
vpaddd %xmm12, %xmm11, %xmm11
vpxor %xmm11, %xmm6, %xmm6
vpslld $12, %xmm6, %xmm15
vpsrld $20, %xmm6, %xmm6
vpxor %xmm15, %xmm6, %xmm6
vpaddd %xmm6, %xmm1, %xmm1
vpxor %xmm1, %xmm12, %xmm12
vpshufb 16(%rsp), %xmm12, %xmm12
vpaddd %xmm12, %xmm11, %xmm11
vpxor %xmm11, %xmm6, %xmm6
vpslld $7, %xmm6, %xmm15
vpsrld $25, %xmm6, %xmm6
vpxor %xmm15, %xmm6, %xmm6
vpaddd %xmm7, %xmm2, %xmm2
vpxor %xmm2, %xmm13, %xmm13
vpshufb (%rsp), %xmm13, %xmm13
vpaddd %xmm13, %xmm8, %xmm8
vpxor %xmm8, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm15
vpsrld $20, %xmm7, %xmm7
vpxor %xmm15, %xmm7, %xmm7
vpaddd %xmm7, %xmm2, %xmm2
vpxor %xmm2, %xmm13, %xmm13
vpshufb 16(%rsp), %xmm13, %xmm13
vpaddd %xmm13, %xmm8, %xmm8
vpxor %xmm8, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm15
vpsrld $25, %xmm7, %xmm7
vpxor %xmm15, %xmm7, %xmm7
vpaddd %xmm4, %xmm3, %xmm3
vpxor %xmm3, %xmm14, %xmm14
vpshufb (%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm9, %xmm9
vpxor %xmm9, %xmm4, %xmm4
vpslld $12, %xmm4, %xmm15
vpsrld $20, %xmm4, %xmm4
vpxor %xmm15, %xmm4, %xmm4
vpaddd %xmm4, %xmm3, %xmm3
vpxor %xmm3, %xmm14, %xmm14
vpshufb 16(%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm9, %xmm9
vpxor %xmm9, %xmm4, %xmm4
vpslld $7, %xmm4, %xmm15
vpsrld $25, %xmm4, %xmm4
vpxor %xmm15, %xmm4, %xmm4
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$31
vmovdqu 32(%rsp), %xmm15
vpaddd 336(%rsp), %xmm0, %xmm0
vpaddd 352(%rsp), %xmm1, %xmm1
vpaddd 368(%rsp), %xmm2, %xmm2
vpaddd 384(%rsp), %xmm3, %xmm3
vpaddd 400(%rsp), %xmm4, %xmm4
vpaddd 416(%rsp), %xmm5, %xmm5
vpaddd 432(%rsp), %xmm6, %xmm6
vpaddd 448(%rsp), %xmm7, %xmm7
vpaddd 464(%rsp), %xmm8, %xmm8
vpaddd 480(%rsp), %xmm9, %xmm9
vpaddd 496(%rsp), %xmm10, %xmm10
vpaddd 512(%rsp), %xmm11, %xmm11
vpaddd 528(%rsp), %xmm12, %xmm12
vpaddd 544(%rsp), %xmm13, %xmm13
vpaddd 560(%rsp), %xmm14, %xmm14
vpaddd 576(%rsp), %xmm15, %xmm15
vmovdqu %xmm8, 80(%rsp)
vmovdqu %xmm9, 96(%rsp)
vmovdqu %xmm10, 112(%rsp)
vmovdqu %xmm11, 128(%rsp)
vmovdqu %xmm12, 144(%rsp)
vmovdqu %xmm13, 160(%rsp)
vmovdqu %xmm14, 176(%rsp)
vmovdqu %xmm15, 192(%rsp)
vpunpckldq %xmm1, %xmm0, %xmm8
vpunpckhdq %xmm1, %xmm0, %xmm0
vpunpckldq %xmm3, %xmm2, %xmm1
vpunpckhdq %xmm3, %xmm2, %xmm2
vpunpckldq %xmm5, %xmm4, %xmm3
vpunpckhdq %xmm5, %xmm4, %xmm4
vpunpckldq %xmm7, %xmm6, %xmm5
vpunpckhdq %xmm7, %xmm6, %xmm6
vpunpcklqdq %xmm1, %xmm8, %xmm7
vpunpcklqdq %xmm5, %xmm3, %xmm9
vpunpckhqdq %xmm1, %xmm8, %xmm1
vpunpckhqdq %xmm5, %xmm3, %xmm3
vpunpcklqdq %xmm2, %xmm0, %xmm5
vpunpcklqdq %xmm6, %xmm4, %xmm8
vpunpckhqdq %xmm2, %xmm0, %xmm0
vpunpckhqdq %xmm6, %xmm4, %xmm2
vpxor (%rsi), %xmm7, %xmm4
vpxor 16(%rsi), %xmm9, %xmm6
vpxor 64(%rsi), %xmm1, %xmm1
vpxor 80(%rsi), %xmm3, %xmm3
vpxor 128(%rsi), %xmm5, %xmm5
vpxor 144(%rsi), %xmm8, %xmm7
vpxor 192(%rsi), %xmm0, %xmm0
vpxor 208(%rsi), %xmm2, %xmm2
vmovdqu %xmm4, (%rdi)
vmovdqu %xmm6, 16(%rdi)
vmovdqu %xmm1, 64(%rdi)
vmovdqu %xmm3, 80(%rdi)
vmovdqu %xmm5, 128(%rdi)
vmovdqu %xmm7, 144(%rdi)
vmovdqu %xmm0, 192(%rdi)
vmovdqu %xmm2, 208(%rdi)
vmovdqu 80(%rsp), %xmm0
vmovdqu 112(%rsp), %xmm1
vmovdqu 144(%rsp), %xmm2
vmovdqu 176(%rsp), %xmm3
vpunpckldq 96(%rsp), %xmm0, %xmm4
vpunpckhdq 96(%rsp), %xmm0, %xmm0
vpunpckldq 128(%rsp), %xmm1, %xmm5
vpunpckhdq 128(%rsp), %xmm1, %xmm1
vpunpckldq 160(%rsp), %xmm2, %xmm6
vpunpckhdq 160(%rsp), %xmm2, %xmm2
vpunpckldq 192(%rsp), %xmm3, %xmm7
vpunpckhdq 192(%rsp), %xmm3, %xmm3
vpunpcklqdq %xmm5, %xmm4, %xmm8
vpunpcklqdq %xmm7, %xmm6, %xmm9
vpunpckhqdq %xmm5, %xmm4, %xmm4
vpunpckhqdq %xmm7, %xmm6, %xmm5
vpunpcklqdq %xmm1, %xmm0, %xmm6
vpunpcklqdq %xmm3, %xmm2, %xmm7
vpunpckhqdq %xmm1, %xmm0, %xmm0
vpunpckhqdq %xmm3, %xmm2, %xmm1
vpxor 32(%rsi), %xmm8, %xmm2
vpxor 48(%rsi), %xmm9, %xmm3
vpxor 96(%rsi), %xmm4, %xmm4
vpxor 112(%rsi), %xmm5, %xmm5
vpxor 160(%rsi), %xmm6, %xmm6
vpxor 176(%rsi), %xmm7, %xmm7
vpxor 224(%rsi), %xmm0, %xmm0
vpxor 240(%rsi), %xmm1, %xmm1
vmovdqu %xmm2, 32(%rdi)
vmovdqu %xmm3, 48(%rdi)
vmovdqu %xmm4, 96(%rdi)
vmovdqu %xmm5, 112(%rdi)
vmovdqu %xmm6, 160(%rdi)
vmovdqu %xmm7, 176(%rdi)
vmovdqu %xmm0, 224(%rdi)
vmovdqu %xmm1, 240(%rdi)
addq $256, %rdi
addq $256, %rsi
addq $-256, %rdx
vmovdqu glob_data + 0(%rip), %xmm0
vpaddd 528(%rsp), %xmm0, %xmm0
vmovdqu %xmm0, 528(%rsp)
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$29:
cmpq $256, %rdx
jnb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$30
cmpq $0, %rdx
jbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$2
vmovdqu 336(%rsp), %xmm0
vmovdqu 352(%rsp), %xmm1
vmovdqu 368(%rsp), %xmm2
vmovdqu 384(%rsp), %xmm3
vmovdqu 400(%rsp), %xmm4
vmovdqu 416(%rsp), %xmm5
vmovdqu 432(%rsp), %xmm6
vmovdqu 448(%rsp), %xmm7
vmovdqu 464(%rsp), %xmm8
vmovdqu 480(%rsp), %xmm9
vmovdqu 496(%rsp), %xmm10
vmovdqu 512(%rsp), %xmm11
vmovdqu 528(%rsp), %xmm12
vmovdqu 544(%rsp), %xmm13
vmovdqu 560(%rsp), %xmm14
vmovdqu 576(%rsp), %xmm15
vmovdqu %xmm15, 32(%rsp)
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$28:
vpaddd %xmm4, %xmm0, %xmm0
vpxor %xmm0, %xmm12, %xmm12
vpshufb (%rsp), %xmm12, %xmm12
vpaddd %xmm12, %xmm8, %xmm8
vpxor %xmm8, %xmm4, %xmm4
vpslld $12, %xmm4, %xmm15
vpsrld $20, %xmm4, %xmm4
vpxor %xmm15, %xmm4, %xmm4
vpaddd %xmm4, %xmm0, %xmm0
vpxor %xmm0, %xmm12, %xmm12
vpshufb 16(%rsp), %xmm12, %xmm12
vpaddd %xmm12, %xmm8, %xmm8
vpxor %xmm8, %xmm4, %xmm4
vpslld $7, %xmm4, %xmm15
vpsrld $25, %xmm4, %xmm4
vpxor %xmm15, %xmm4, %xmm4
vpaddd %xmm5, %xmm1, %xmm1
vpxor %xmm1, %xmm13, %xmm13
vpshufb (%rsp), %xmm13, %xmm13
vpaddd %xmm13, %xmm9, %xmm9
vpxor %xmm9, %xmm5, %xmm5
vpslld $12, %xmm5, %xmm15
vpsrld $20, %xmm5, %xmm5
vpxor %xmm15, %xmm5, %xmm5
vpaddd %xmm5, %xmm1, %xmm1
vpxor %xmm1, %xmm13, %xmm13
vpshufb 16(%rsp), %xmm13, %xmm13
vpaddd %xmm13, %xmm9, %xmm9
vpxor %xmm9, %xmm5, %xmm5
vpslld $7, %xmm5, %xmm15
vpsrld $25, %xmm5, %xmm5
vpxor %xmm15, %xmm5, %xmm5
vpaddd %xmm6, %xmm2, %xmm2
vpxor %xmm2, %xmm14, %xmm14
vpshufb (%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm10, %xmm10
vpxor %xmm10, %xmm6, %xmm6
vpslld $12, %xmm6, %xmm15
vpsrld $20, %xmm6, %xmm6
vpxor %xmm15, %xmm6, %xmm6
vpaddd %xmm6, %xmm2, %xmm2
vpxor %xmm2, %xmm14, %xmm14
vpshufb 16(%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm10, %xmm10
vpxor %xmm10, %xmm6, %xmm6
vpslld $7, %xmm6, %xmm15
vpsrld $25, %xmm6, %xmm6
vpxor %xmm15, %xmm6, %xmm6
vmovdqu %xmm14, 48(%rsp)
vmovdqu 32(%rsp), %xmm14
vpaddd %xmm7, %xmm3, %xmm3
vpxor %xmm3, %xmm14, %xmm14
vpshufb (%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm11, %xmm11
vpxor %xmm11, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm15
vpsrld $20, %xmm7, %xmm7
vpxor %xmm15, %xmm7, %xmm7
vpaddd %xmm7, %xmm3, %xmm3
vpxor %xmm3, %xmm14, %xmm14
vpshufb 16(%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm11, %xmm11
vpxor %xmm11, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm15
vpsrld $25, %xmm7, %xmm7
vpxor %xmm15, %xmm7, %xmm7
vmovdqu %xmm14, 64(%rsp)
vmovdqu 48(%rsp), %xmm14
vmovdqu %xmm14, 48(%rsp)
vmovdqu 64(%rsp), %xmm14
vpaddd %xmm5, %xmm0, %xmm0
vpxor %xmm0, %xmm14, %xmm14
vpshufb (%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm10, %xmm10
vpxor %xmm10, %xmm5, %xmm5
vpslld $12, %xmm5, %xmm15
vpsrld $20, %xmm5, %xmm5
vpxor %xmm15, %xmm5, %xmm5
vpaddd %xmm5, %xmm0, %xmm0
vpxor %xmm0, %xmm14, %xmm14
vpshufb 16(%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm10, %xmm10
vpxor %xmm10, %xmm5, %xmm5
vpslld $7, %xmm5, %xmm15
vpsrld $25, %xmm5, %xmm5
vpxor %xmm15, %xmm5, %xmm5
vmovdqu %xmm14, 32(%rsp)
vmovdqu 48(%rsp), %xmm14
vpaddd %xmm6, %xmm1, %xmm1
vpxor %xmm1, %xmm12, %xmm12
vpshufb (%rsp), %xmm12, %xmm12
vpaddd %xmm12, %xmm11, %xmm11
vpxor %xmm11, %xmm6, %xmm6
vpslld $12, %xmm6, %xmm15
vpsrld $20, %xmm6, %xmm6
vpxor %xmm15, %xmm6, %xmm6
vpaddd %xmm6, %xmm1, %xmm1
vpxor %xmm1, %xmm12, %xmm12
vpshufb 16(%rsp), %xmm12, %xmm12
vpaddd %xmm12, %xmm11, %xmm11
vpxor %xmm11, %xmm6, %xmm6
vpslld $7, %xmm6, %xmm15
vpsrld $25, %xmm6, %xmm6
vpxor %xmm15, %xmm6, %xmm6
vpaddd %xmm7, %xmm2, %xmm2
vpxor %xmm2, %xmm13, %xmm13
vpshufb (%rsp), %xmm13, %xmm13
vpaddd %xmm13, %xmm8, %xmm8
vpxor %xmm8, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm15
vpsrld $20, %xmm7, %xmm7
vpxor %xmm15, %xmm7, %xmm7
vpaddd %xmm7, %xmm2, %xmm2
vpxor %xmm2, %xmm13, %xmm13
vpshufb 16(%rsp), %xmm13, %xmm13
vpaddd %xmm13, %xmm8, %xmm8
vpxor %xmm8, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm15
vpsrld $25, %xmm7, %xmm7
vpxor %xmm15, %xmm7, %xmm7
vpaddd %xmm4, %xmm3, %xmm3
vpxor %xmm3, %xmm14, %xmm14
vpshufb (%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm9, %xmm9
vpxor %xmm9, %xmm4, %xmm4
vpslld $12, %xmm4, %xmm15
vpsrld $20, %xmm4, %xmm4
vpxor %xmm15, %xmm4, %xmm4
vpaddd %xmm4, %xmm3, %xmm3
vpxor %xmm3, %xmm14, %xmm14
vpshufb 16(%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm9, %xmm9
vpxor %xmm9, %xmm4, %xmm4
vpslld $7, %xmm4, %xmm15
vpsrld $25, %xmm4, %xmm4
vpxor %xmm15, %xmm4, %xmm4
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$28
vmovdqu 32(%rsp), %xmm15
vpaddd 336(%rsp), %xmm0, %xmm0
vpaddd 352(%rsp), %xmm1, %xmm1
vpaddd 368(%rsp), %xmm2, %xmm2
vpaddd 384(%rsp), %xmm3, %xmm3
vpaddd 400(%rsp), %xmm4, %xmm4
vpaddd 416(%rsp), %xmm5, %xmm5
vpaddd 432(%rsp), %xmm6, %xmm6
vpaddd 448(%rsp), %xmm7, %xmm7
vpaddd 464(%rsp), %xmm8, %xmm8
vpaddd 480(%rsp), %xmm9, %xmm9
vpaddd 496(%rsp), %xmm10, %xmm10
vpaddd 512(%rsp), %xmm11, %xmm11
vpaddd 528(%rsp), %xmm12, %xmm12
vpaddd 544(%rsp), %xmm13, %xmm13
vpaddd 560(%rsp), %xmm14, %xmm14
vpaddd 576(%rsp), %xmm15, %xmm15
vmovdqu %xmm8, 80(%rsp)
vmovdqu %xmm9, 96(%rsp)
vmovdqu %xmm10, 112(%rsp)
vmovdqu %xmm11, 128(%rsp)
vmovdqu %xmm12, 144(%rsp)
vmovdqu %xmm13, 160(%rsp)
vmovdqu %xmm14, 176(%rsp)
vmovdqu %xmm15, 192(%rsp)
vpunpckldq %xmm1, %xmm0, %xmm8
vpunpckhdq %xmm1, %xmm0, %xmm0
vpunpckldq %xmm3, %xmm2, %xmm1
vpunpckhdq %xmm3, %xmm2, %xmm2
vpunpckldq %xmm5, %xmm4, %xmm3
vpunpckhdq %xmm5, %xmm4, %xmm4
vpunpckldq %xmm7, %xmm6, %xmm5
vpunpckhdq %xmm7, %xmm6, %xmm6
vpunpcklqdq %xmm1, %xmm8, %xmm7
vpunpcklqdq %xmm5, %xmm3, %xmm9
vpunpckhqdq %xmm1, %xmm8, %xmm1
vpunpckhqdq %xmm5, %xmm3, %xmm3
vpunpcklqdq %xmm2, %xmm0, %xmm5
vpunpcklqdq %xmm6, %xmm4, %xmm8
vpunpckhqdq %xmm2, %xmm0, %xmm0
vpunpckhqdq %xmm6, %xmm4, %xmm2
vmovdqu %xmm7, 208(%rsp)
vmovdqu %xmm9, 224(%rsp)
vmovdqu %xmm1, 240(%rsp)
vmovdqu %xmm3, 256(%rsp)
vmovdqu %xmm5, 272(%rsp)
vmovdqu %xmm8, 288(%rsp)
vmovdqu %xmm0, 304(%rsp)
vmovdqu %xmm2, 320(%rsp)
vmovdqu 80(%rsp), %xmm0
vmovdqu 112(%rsp), %xmm1
vmovdqu 144(%rsp), %xmm2
vmovdqu 176(%rsp), %xmm3
vpunpckldq 96(%rsp), %xmm0, %xmm4
vpunpckhdq 96(%rsp), %xmm0, %xmm0
vpunpckldq 128(%rsp), %xmm1, %xmm5
vpunpckhdq 128(%rsp), %xmm1, %xmm1
vpunpckldq 160(%rsp), %xmm2, %xmm6
vpunpckhdq 160(%rsp), %xmm2, %xmm2
vpunpckldq 192(%rsp), %xmm3, %xmm7
vpunpckhdq 192(%rsp), %xmm3, %xmm3
vpunpcklqdq %xmm5, %xmm4, %xmm8
vpunpcklqdq %xmm7, %xmm6, %xmm9
vpunpckhqdq %xmm5, %xmm4, %xmm4
vpunpckhqdq %xmm7, %xmm6, %xmm5
vpunpcklqdq %xmm1, %xmm0, %xmm6
vpunpcklqdq %xmm3, %xmm2, %xmm7
vpunpckhqdq %xmm1, %xmm0, %xmm0
vpunpckhqdq %xmm3, %xmm2, %xmm1
vmovdqu 208(%rsp), %xmm2
vmovdqu 224(%rsp), %xmm12
vmovdqu %xmm8, %xmm11
vmovdqu %xmm9, %xmm10
vmovdqu 240(%rsp), %xmm9
vmovdqu 256(%rsp), %xmm8
vmovdqu %xmm5, %xmm3
cmpq $128, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$27
vpxor (%rsi), %xmm2, %xmm2
vmovdqu %xmm2, (%rdi)
vpxor 16(%rsi), %xmm12, %xmm2
vmovdqu %xmm2, 16(%rdi)
vpxor 32(%rsi), %xmm11, %xmm2
vmovdqu %xmm2, 32(%rdi)
vpxor 48(%rsi), %xmm10, %xmm2
vmovdqu %xmm2, 48(%rdi)
vpxor 64(%rsi), %xmm9, %xmm2
vmovdqu %xmm2, 64(%rdi)
vpxor 80(%rsi), %xmm8, %xmm2
vmovdqu %xmm2, 80(%rdi)
vpxor 96(%rsi), %xmm4, %xmm2
vmovdqu %xmm2, 96(%rdi)
vpxor 112(%rsi), %xmm3, %xmm2
vmovdqu %xmm2, 112(%rdi)
addq $128, %rdi
addq $128, %rsi
addq $-128, %rdx
vmovdqu 272(%rsp), %xmm2
vmovdqu 288(%rsp), %xmm12
vmovdqu %xmm6, %xmm11
vmovdqu %xmm7, %xmm10
vmovdqu 304(%rsp), %xmm9
vmovdqu 320(%rsp), %xmm8
vmovdqu %xmm0, %xmm4
vmovdqu %xmm1, %xmm3
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$27:
cmpq $64, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$26
vpxor (%rsi), %xmm2, %xmm0
vmovdqu %xmm0, (%rdi)
vpxor 16(%rsi), %xmm12, %xmm0
vmovdqu %xmm0, 16(%rdi)
vpxor 32(%rsi), %xmm11, %xmm0
vmovdqu %xmm0, 32(%rdi)
vpxor 48(%rsi), %xmm10, %xmm0
vmovdqu %xmm0, 48(%rdi)
addq $64, %rdi
addq $64, %rsi
addq $-64, %rdx
vmovdqu %xmm9, %xmm2
vmovdqu %xmm8, %xmm12
vmovdqu %xmm4, %xmm11
vmovdqu %xmm3, %xmm10
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$26:
cmpq $32, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$25
vpxor (%rsi), %xmm2, %xmm0
vmovdqu %xmm0, (%rdi)
vpxor 16(%rsi), %xmm12, %xmm0
vmovdqu %xmm0, 16(%rdi)
addq $32, %rdi
addq $32, %rsi
addq $-32, %rdx
vmovdqu %xmm11, %xmm2
vmovdqu %xmm10, %xmm12
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$25:
cmpq $16, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$24
vpxor (%rsi), %xmm2, %xmm0
vmovdqu %xmm0, (%rdi)
addq $16, %rdi
addq $16, %rsi
addq $-16, %rdx
vmovdqu %xmm12, %xmm2
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$24:
vpextrq $0, %xmm2, %rax
cmpq $8, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$21
xorq (%rsi), %rax
movq %rax, (%rdi)
addq $8, %rdi
addq $8, %rsi
addq $-8, %rdx
vpextrq $1, %xmm2, %rax
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$23:
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$21
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$22:
movb %al, %cl
xorb (%rsi), %cl
movb %cl, (%rdi)
shrq $8, %rax
incq %rdi
incq %rsi
addq $-1, %rdx
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$21:
cmpq $0, %rdx
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$22
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$20:
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$2
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$1:
vmovdqu glob_data + 64(%rip), %xmm0
vmovdqu glob_data + 48(%rip), %xmm1
vmovdqu glob_data + 208(%rip), %xmm2
vmovdqu (%r8), %xmm3
vmovdqu 16(%r8), %xmm4
vpxor %xmm5, %xmm5, %xmm5
vpinsrd $1, (%rcx), %xmm5, %xmm5
vpinsrq $1, 4(%rcx), %xmm5, %xmm5
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$17
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$18:
vmovdqu %xmm2, %xmm6
vmovdqu %xmm3, %xmm7
vmovdqu %xmm4, %xmm8
vmovdqu %xmm5, %xmm9
vmovdqu %xmm2, %xmm10
vmovdqu %xmm3, %xmm11
vmovdqu %xmm4, %xmm12
vmovdqu %xmm5, %xmm13
vpaddd glob_data + 32(%rip), %xmm13, %xmm13
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$19:
vpaddd %xmm7, %xmm6, %xmm6
vpaddd %xmm11, %xmm10, %xmm10
vpxor %xmm6, %xmm9, %xmm9
vpxor %xmm10, %xmm13, %xmm13
vpshufb %xmm0, %xmm9, %xmm9
vpshufb %xmm0, %xmm13, %xmm13
vpaddd %xmm9, %xmm8, %xmm8
vpaddd %xmm13, %xmm12, %xmm12
vpxor %xmm8, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm14
vpsrld $20, %xmm7, %xmm7
vpxor %xmm12, %xmm11, %xmm11
vpxor %xmm14, %xmm7, %xmm7
vpslld $12, %xmm11, %xmm14
vpsrld $20, %xmm11, %xmm11
vpxor %xmm14, %xmm11, %xmm11
vpaddd %xmm7, %xmm6, %xmm6
vpaddd %xmm11, %xmm10, %xmm10
vpxor %xmm6, %xmm9, %xmm9
vpxor %xmm10, %xmm13, %xmm13
vpshufb %xmm1, %xmm9, %xmm9
vpshufb %xmm1, %xmm13, %xmm13
vpaddd %xmm9, %xmm8, %xmm8
vpaddd %xmm13, %xmm12, %xmm12
vpxor %xmm8, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm14
vpsrld $25, %xmm7, %xmm7
vpxor %xmm12, %xmm11, %xmm11
vpxor %xmm14, %xmm7, %xmm7
vpslld $7, %xmm11, %xmm14
vpsrld $25, %xmm11, %xmm11
vpxor %xmm14, %xmm11, %xmm11
vpshufd $57, %xmm7, %xmm7
vpshufd $78, %xmm8, %xmm8
vpshufd $-109, %xmm9, %xmm9
vpshufd $57, %xmm11, %xmm11
vpshufd $78, %xmm12, %xmm12
vpshufd $-109, %xmm13, %xmm13
vpaddd %xmm7, %xmm6, %xmm6
vpaddd %xmm11, %xmm10, %xmm10
vpxor %xmm6, %xmm9, %xmm9
vpxor %xmm10, %xmm13, %xmm13
vpshufb %xmm0, %xmm9, %xmm9
vpshufb %xmm0, %xmm13, %xmm13
vpaddd %xmm9, %xmm8, %xmm8
vpaddd %xmm13, %xmm12, %xmm12
vpxor %xmm8, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm14
vpsrld $20, %xmm7, %xmm7
vpxor %xmm12, %xmm11, %xmm11
vpxor %xmm14, %xmm7, %xmm7
vpslld $12, %xmm11, %xmm14
vpsrld $20, %xmm11, %xmm11
vpxor %xmm14, %xmm11, %xmm11
vpaddd %xmm7, %xmm6, %xmm6
vpaddd %xmm11, %xmm10, %xmm10
vpxor %xmm6, %xmm9, %xmm9
vpxor %xmm10, %xmm13, %xmm13
vpshufb %xmm1, %xmm9, %xmm9
vpshufb %xmm1, %xmm13, %xmm13
vpaddd %xmm9, %xmm8, %xmm8
vpaddd %xmm13, %xmm12, %xmm12
vpxor %xmm8, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm14
vpsrld $25, %xmm7, %xmm7
vpxor %xmm12, %xmm11, %xmm11
vpxor %xmm14, %xmm7, %xmm7
vpslld $7, %xmm11, %xmm14
vpsrld $25, %xmm11, %xmm11
vpxor %xmm14, %xmm11, %xmm11
vpshufd $-109, %xmm7, %xmm7
vpshufd $78, %xmm8, %xmm8
vpshufd $57, %xmm9, %xmm9
vpshufd $-109, %xmm11, %xmm11
vpshufd $78, %xmm12, %xmm12
vpshufd $57, %xmm13, %xmm13
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$19
vpaddd %xmm2, %xmm6, %xmm6
vpaddd %xmm3, %xmm7, %xmm7
vpaddd %xmm4, %xmm8, %xmm8
vpaddd %xmm5, %xmm9, %xmm9
vpaddd %xmm2, %xmm10, %xmm10
vpaddd %xmm3, %xmm11, %xmm11
vpaddd %xmm4, %xmm12, %xmm12
vpaddd %xmm5, %xmm13, %xmm13
vpaddd glob_data + 32(%rip), %xmm13, %xmm13
vpxor (%rsi), %xmm6, %xmm6
vmovdqu %xmm6, (%rdi)
vpxor 16(%rsi), %xmm7, %xmm6
vmovdqu %xmm6, 16(%rdi)
vpxor 32(%rsi), %xmm8, %xmm6
vmovdqu %xmm6, 32(%rdi)
vpxor 48(%rsi), %xmm9, %xmm6
vmovdqu %xmm6, 48(%rdi)
vpxor 64(%rsi), %xmm10, %xmm6
vmovdqu %xmm6, 64(%rdi)
vpxor 80(%rsi), %xmm11, %xmm6
vmovdqu %xmm6, 80(%rdi)
vpxor 96(%rsi), %xmm12, %xmm6
vmovdqu %xmm6, 96(%rdi)
vpxor 112(%rsi), %xmm13, %xmm6
vmovdqu %xmm6, 112(%rdi)
addq $128, %rdi
addq $128, %rsi
addq $-128, %rdx
vpaddd glob_data + 16(%rip), %xmm5, %xmm5
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$17:
cmpq $128, %rdx
jnb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$18
cmpq $64, %rdx
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$3
vmovdqu %xmm2, %xmm6
vmovdqu %xmm3, %xmm7
vmovdqu %xmm4, %xmm8
vmovdqu %xmm5, %xmm9
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$16:
vpaddd %xmm7, %xmm6, %xmm6
vpxor %xmm6, %xmm9, %xmm9
vpshufb %xmm0, %xmm9, %xmm9
vpaddd %xmm9, %xmm8, %xmm8
vpxor %xmm8, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm10
vpsrld $20, %xmm7, %xmm7
vpxor %xmm10, %xmm7, %xmm7
vpaddd %xmm7, %xmm6, %xmm6
vpxor %xmm6, %xmm9, %xmm9
vpshufb %xmm1, %xmm9, %xmm9
vpaddd %xmm9, %xmm8, %xmm8
vpxor %xmm8, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm10
vpsrld $25, %xmm7, %xmm7
vpxor %xmm10, %xmm7, %xmm7
vpshufd $57, %xmm7, %xmm7
vpshufd $78, %xmm8, %xmm8
vpshufd $-109, %xmm9, %xmm9
vpaddd %xmm7, %xmm6, %xmm6
vpxor %xmm6, %xmm9, %xmm9
vpshufb %xmm0, %xmm9, %xmm9
vpaddd %xmm9, %xmm8, %xmm8
vpxor %xmm8, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm10
vpsrld $20, %xmm7, %xmm7
vpxor %xmm10, %xmm7, %xmm7
vpaddd %xmm7, %xmm6, %xmm6
vpxor %xmm6, %xmm9, %xmm9
vpshufb %xmm1, %xmm9, %xmm9
vpaddd %xmm9, %xmm8, %xmm8
vpxor %xmm8, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm10
vpsrld $25, %xmm7, %xmm7
vpxor %xmm10, %xmm7, %xmm7
vpshufd $-109, %xmm7, %xmm7
vpshufd $78, %xmm8, %xmm8
vpshufd $57, %xmm9, %xmm9
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$16
vpaddd %xmm2, %xmm6, %xmm2
vpaddd %xmm3, %xmm7, %xmm3
vpaddd %xmm4, %xmm8, %xmm0
vpaddd %xmm5, %xmm9, %xmm1
cmpq $32, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$15
vpxor (%rsi), %xmm2, %xmm2
vmovdqu %xmm2, (%rdi)
vpxor 16(%rsi), %xmm3, %xmm2
vmovdqu %xmm2, 16(%rdi)
addq $32, %rdi
addq $32, %rsi
addq $-32, %rdx
vmovdqu %xmm0, %xmm2
vmovdqu %xmm1, %xmm3
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$15:
cmpq $16, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$14
vpxor (%rsi), %xmm2, %xmm0
vmovdqu %xmm0, (%rdi)
addq $16, %rdi
addq $16, %rsi
addq $-16, %rdx
vmovdqu %xmm3, %xmm2
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$14:
vpextrq $0, %xmm2, %rax
cmpq $8, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$11
xorq (%rsi), %rax
movq %rax, (%rdi)
addq $8, %rdi
addq $8, %rsi
addq $-8, %rdx
vpextrq $1, %xmm2, %rax
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$13:
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$11
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$12:
movb %al, %cl
xorb (%rsi), %cl
movb %cl, (%rdi)
shrq $8, %rax
incq %rdi
incq %rsi
addq $-1, %rdx
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$11:
cmpq $0, %rdx
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$12
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$2
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$3:
vmovdqu %xmm2, %xmm6
vmovdqu %xmm3, %xmm7
vmovdqu %xmm4, %xmm8
vmovdqu %xmm5, %xmm9
vmovdqu %xmm2, %xmm10
vmovdqu %xmm3, %xmm11
vmovdqu %xmm4, %xmm12
vmovdqu %xmm5, %xmm13
vpaddd glob_data + 32(%rip), %xmm13, %xmm13
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$10:
vpaddd %xmm7, %xmm6, %xmm6
vpaddd %xmm11, %xmm10, %xmm10
vpxor %xmm6, %xmm9, %xmm9
vpxor %xmm10, %xmm13, %xmm13
vpshufb %xmm0, %xmm9, %xmm9
vpshufb %xmm0, %xmm13, %xmm13
vpaddd %xmm9, %xmm8, %xmm8
vpaddd %xmm13, %xmm12, %xmm12
vpxor %xmm8, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm14
vpsrld $20, %xmm7, %xmm7
vpxor %xmm12, %xmm11, %xmm11
vpxor %xmm14, %xmm7, %xmm7
vpslld $12, %xmm11, %xmm14
vpsrld $20, %xmm11, %xmm11
vpxor %xmm14, %xmm11, %xmm11
vpaddd %xmm7, %xmm6, %xmm6
vpaddd %xmm11, %xmm10, %xmm10
vpxor %xmm6, %xmm9, %xmm9
vpxor %xmm10, %xmm13, %xmm13
vpshufb %xmm1, %xmm9, %xmm9
vpshufb %xmm1, %xmm13, %xmm13
vpaddd %xmm9, %xmm8, %xmm8
vpaddd %xmm13, %xmm12, %xmm12
vpxor %xmm8, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm14
vpsrld $25, %xmm7, %xmm7
vpxor %xmm12, %xmm11, %xmm11
vpxor %xmm14, %xmm7, %xmm7
vpslld $7, %xmm11, %xmm14
vpsrld $25, %xmm11, %xmm11
vpxor %xmm14, %xmm11, %xmm11
vpshufd $57, %xmm7, %xmm7
vpshufd $78, %xmm8, %xmm8
vpshufd $-109, %xmm9, %xmm9
vpshufd $57, %xmm11, %xmm11
vpshufd $78, %xmm12, %xmm12
vpshufd $-109, %xmm13, %xmm13
vpaddd %xmm7, %xmm6, %xmm6
vpaddd %xmm11, %xmm10, %xmm10
vpxor %xmm6, %xmm9, %xmm9
vpxor %xmm10, %xmm13, %xmm13
vpshufb %xmm0, %xmm9, %xmm9
vpshufb %xmm0, %xmm13, %xmm13
vpaddd %xmm9, %xmm8, %xmm8
vpaddd %xmm13, %xmm12, %xmm12
vpxor %xmm8, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm14
vpsrld $20, %xmm7, %xmm7
vpxor %xmm12, %xmm11, %xmm11
vpxor %xmm14, %xmm7, %xmm7
vpslld $12, %xmm11, %xmm14
vpsrld $20, %xmm11, %xmm11
vpxor %xmm14, %xmm11, %xmm11
vpaddd %xmm7, %xmm6, %xmm6
vpaddd %xmm11, %xmm10, %xmm10
vpxor %xmm6, %xmm9, %xmm9
vpxor %xmm10, %xmm13, %xmm13
vpshufb %xmm1, %xmm9, %xmm9
vpshufb %xmm1, %xmm13, %xmm13
vpaddd %xmm9, %xmm8, %xmm8
vpaddd %xmm13, %xmm12, %xmm12
vpxor %xmm8, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm14
vpsrld $25, %xmm7, %xmm7
vpxor %xmm12, %xmm11, %xmm11
vpxor %xmm14, %xmm7, %xmm7
vpslld $7, %xmm11, %xmm14
vpsrld $25, %xmm11, %xmm11
vpxor %xmm14, %xmm11, %xmm11
vpshufd $-109, %xmm7, %xmm7
vpshufd $78, %xmm8, %xmm8
vpshufd $57, %xmm9, %xmm9
vpshufd $-109, %xmm11, %xmm11
vpshufd $78, %xmm12, %xmm12
vpshufd $57, %xmm13, %xmm13
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$10
vpaddd %xmm2, %xmm6, %xmm0
vpaddd %xmm3, %xmm7, %xmm1
vpaddd %xmm4, %xmm8, %xmm6
vpaddd %xmm5, %xmm9, %xmm7
vpaddd %xmm2, %xmm10, %xmm9
vpaddd %xmm3, %xmm11, %xmm8
vpaddd %xmm4, %xmm12, %xmm2
vpaddd %xmm5, %xmm13, %xmm3
vpaddd glob_data + 32(%rip), %xmm3, %xmm3
vpxor (%rsi), %xmm0, %xmm0
vmovdqu %xmm0, (%rdi)
vpxor 16(%rsi), %xmm1, %xmm0
vmovdqu %xmm0, 16(%rdi)
vpxor 32(%rsi), %xmm6, %xmm0
vmovdqu %xmm0, 32(%rdi)
vpxor 48(%rsi), %xmm7, %xmm0
vmovdqu %xmm0, 48(%rdi)
addq $64, %rdi
addq $64, %rsi
addq $-64, %rdx
cmpq $32, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$9
vpxor (%rsi), %xmm9, %xmm0
vmovdqu %xmm0, (%rdi)
vpxor 16(%rsi), %xmm8, %xmm0
vmovdqu %xmm0, 16(%rdi)
addq $32, %rdi
addq $32, %rsi
addq $-32, %rdx
vmovdqu %xmm2, %xmm9
vmovdqu %xmm3, %xmm8
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$9:
cmpq $16, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$8
vpxor (%rsi), %xmm9, %xmm0
vmovdqu %xmm0, (%rdi)
addq $16, %rdi
addq $16, %rsi
addq $-16, %rdx
vmovdqu %xmm8, %xmm9
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$8:
vpextrq $0, %xmm9, %rax
cmpq $8, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$5
xorq (%rsi), %rax
movq %rax, (%rdi)
addq $8, %rdi
addq $8, %rsi
addq $-8, %rdx
vpextrq $1, %xmm9, %rax
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$7:
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$5
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$6:
movb %al, %cl
xorb (%rsi), %cl
movb %cl, (%rdi)
shrq $8, %rax
incq %rdi
incq %rsi
addq $-1, %rdx
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$5:
cmpq $0, %rdx
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$6
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$4:
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$2:
xorq %rax, %rax
movq %r10, %rsp
ret
.data
.p2align 5
_glob_data:
glob_data:
.byte 4
.byte 0
.byte 0
.byte 0
.byte 4
.byte 0
.byte 0
.byte 0
.byte 4
.byte 0
.byte 0
.byte 0
.byte 4
.byte 0
.byte 0
.byte 0
.byte 2
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 3
.byte 0
.byte 1
.byte 2
.byte 7
.byte 4
.byte 5
.byte 6
.byte 11
.byte 8
.byte 9
.byte 10
.byte 15
.byte 12
.byte 13
.byte 14
.byte 2
.byte 3
.byte 0
.byte 1
.byte 6
.byte 7
.byte 4
.byte 5
.byte 10
.byte 11
.byte 8
.byte 9
.byte 14
.byte 15
.byte 12
.byte 13
.byte 4
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 4
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 2
.byte 0
.byte 0
.byte 0
.byte 3
.byte 0
.byte 0
.byte 0
.byte 101
.byte 120
.byte 112
.byte 97
.byte 101
.byte 120
.byte 112
.byte 97
.byte 101
.byte 120
.byte 112
.byte 97
.byte 101
.byte 120
.byte 112
.byte 97
.byte 110
.byte 100
.byte 32
.byte 51
.byte 110
.byte 100
.byte 32
.byte 51
.byte 110
.byte 100
.byte 32
.byte 51
.byte 110
.byte 100
.byte 32
.byte 51
.byte 50
.byte 45
.byte 98
.byte 121
.byte 50
.byte 45
.byte 98
.byte 121
.byte 50
.byte 45
.byte 98
.byte 121
.byte 50
.byte 45
.byte 98
.byte 121
.byte 116
.byte 101
.byte 32
.byte 107
.byte 116
.byte 101
.byte 32
.byte 107
.byte 116
.byte 101
.byte 32
.byte 107
.byte 116
.byte 101
.byte 32
.byte 107
.byte 2
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 101
.byte 120
.byte 112
.byte 97
.byte 110
.byte 100
.byte 32
.byte 51
.byte 50
.byte 45
.byte 98
.byte 121
.byte 116
.byte 101
.byte 32
.byte 107
|
usenix-security-verdict/verdict
| 128,503
|
deps/libcrux/sys/libjade/jazz/x25519_mulx.s
|
.att_syntax
.text
.p2align 5
.globl _jade_scalarmult_curve25519_amd64_mulx_base
.globl jade_scalarmult_curve25519_amd64_mulx_base
.globl _jade_scalarmult_curve25519_amd64_mulx
.globl jade_scalarmult_curve25519_amd64_mulx
_jade_scalarmult_curve25519_amd64_mulx_base:
jade_scalarmult_curve25519_amd64_mulx_base:
movq %rsp, %rax
leaq -408(%rsp), %rsp
andq $-8, %rsp
movq %rax, 400(%rsp)
movq %rbx, 352(%rsp)
movq %rbp, 360(%rsp)
movq %r12, 368(%rsp)
movq %r13, 376(%rsp)
movq %r14, 384(%rsp)
movq %r15, 392(%rsp)
movq %rdi, (%rsp)
movq (%rsi), %rax
movq %rax, 24(%rsp)
movq 8(%rsi), %rax
movq %rax, 32(%rsp)
movq 16(%rsi), %rax
movq %rax, 40(%rsp)
movq 24(%rsi), %rax
movq %rax, 48(%rsp)
andb $-8, 24(%rsp)
andb $127, 55(%rsp)
orb $64, 55(%rsp)
movq $9, %rcx
movq $0, %rdx
movq $0, %r9
movq $0, %r10
xorq %r11, %r11
movq $1, 56(%rsp)
movq $0, %rax
movq %rcx, 88(%rsp)
movq %rdx, 96(%rsp)
movq %r9, 104(%rsp)
movq %r10, 112(%rsp)
movq $1, 120(%rsp)
movq %r11, 64(%rsp)
movq %r11, %r8
movq %r11, 128(%rsp)
movq %r11, 72(%rsp)
movq %r11, %rsi
movq %r11, 136(%rsp)
movq %r11, 80(%rsp)
movq %r11, %rdi
movq %r11, 144(%rsp)
movq %rcx, 152(%rsp)
movq %rdx, 160(%rsp)
movq %r9, 168(%rsp)
movq %r10, 176(%rsp)
movq $255, %rcx
movq $0, 8(%rsp)
Ljade_scalarmult_curve25519_amd64_mulx_base$9:
addq $-1, %rcx
movq %rcx, 16(%rsp)
movq %rcx, %rdx
shrq $3, %rdx
movzbq 24(%rsp,%rdx), %rdx
andq $7, %rcx
shrq %cl, %rdx
andq $1, %rdx
movq 8(%rsp), %r9
xorq %rdx, %r9
xorq %rcx, %rcx
subq %r9, %rcx
movq 120(%rsp), %r9
movq 128(%rsp), %r10
movq 136(%rsp), %r11
movq 144(%rsp), %rbx
movq %rax, %rbp
movq %r8, %r12
movq %rsi, %r13
movq %rdi, %r14
xorq %r9, %rbp
xorq %r10, %r12
xorq %r11, %r13
xorq %rbx, %r14
andq %rcx, %rbp
andq %rcx, %r12
andq %rcx, %r13
andq %rcx, %r14
xorq %rbp, %rax
xorq %rbp, %r9
movq %r9, 120(%rsp)
xorq %r12, %r8
xorq %r12, %r10
movq %r10, 128(%rsp)
xorq %r13, %rsi
xorq %r13, %r11
movq %r11, 136(%rsp)
xorq %r14, %rdi
xorq %r14, %rbx
movq %rbx, 144(%rsp)
movq 88(%rsp), %r11
movq 96(%rsp), %rbx
movq 104(%rsp), %r9
movq 112(%rsp), %r10
movq 56(%rsp), %rbp
movq %r11, %r12
xorq %rbp, %r12
andq %rcx, %r12
xorq %r12, %rbp
xorq %r12, %r11
movq %rbp, 56(%rsp)
movq %r11, 88(%rsp)
movq 64(%rsp), %r11
movq %rbx, %rbp
xorq %r11, %rbp
andq %rcx, %rbp
xorq %rbp, %r11
xorq %rbp, %rbx
movq %r11, 64(%rsp)
movq %rbx, 96(%rsp)
movq 72(%rsp), %r11
movq %r9, %rbx
xorq %r11, %rbx
andq %rcx, %rbx
xorq %rbx, %r11
xorq %rbx, %r9
movq %r11, 72(%rsp)
movq %r9, 104(%rsp)
movq 80(%rsp), %r9
movq %r10, %r11
xorq %r9, %r11
andq %rcx, %r11
xorq %r11, %r9
xorq %r11, %r10
movq %r9, 80(%rsp)
movq %r10, 112(%rsp)
movq %rdx, 8(%rsp)
xorq %rcx, %rcx
movq 56(%rsp), %rdx
movq 64(%rsp), %r9
movq 72(%rsp), %r10
movq 80(%rsp), %r11
subq %rax, %rdx
sbbq %r8, %r9
sbbq %rsi, %r10
sbbq %rdi, %r11
sbbq %rcx, %rcx
andq $38, %rcx
subq %rcx, %rdx
sbbq $0, %r9
sbbq $0, %r10
sbbq $0, %r11
sbbq %rcx, %rcx
andq $38, %rcx
subq %rcx, %rdx
movq %rdx, 184(%rsp)
movq %r9, 192(%rsp)
movq %r10, 200(%rsp)
movq %r11, 208(%rsp)
xorq %rcx, %rcx
addq 56(%rsp), %rax
adcq 64(%rsp), %r8
adcq 72(%rsp), %rsi
adcq 80(%rsp), %rdi
sbbq %rcx, %rcx
andq $38, %rcx
addq %rcx, %rax
adcq $0, %r8
adcq $0, %rsi
adcq $0, %rdi
sbbq %rcx, %rcx
andq $38, %rcx
addq %rcx, %rax
movq %rax, 216(%rsp)
movq %r8, 224(%rsp)
movq %rsi, 232(%rsp)
movq %rdi, 240(%rsp)
movq 88(%rsp), %rax
movq 96(%rsp), %rcx
movq 104(%rsp), %rdx
movq 112(%rsp), %rsi
xorq %rdi, %rdi
subq 120(%rsp), %rax
sbbq 128(%rsp), %rcx
sbbq 136(%rsp), %rdx
sbbq 144(%rsp), %rsi
sbbq %rdi, %rdi
andq $38, %rdi
subq %rdi, %rax
sbbq $0, %rcx
sbbq $0, %rdx
sbbq $0, %rsi
sbbq %rdi, %rdi
andq $38, %rdi
subq %rdi, %rax
movq %rax, 248(%rsp)
movq %rcx, 256(%rsp)
movq %rdx, 264(%rsp)
movq %rsi, 272(%rsp)
movq 88(%rsp), %rax
movq 96(%rsp), %rcx
movq 104(%rsp), %rdx
movq 112(%rsp), %rsi
xorq %rdi, %rdi
addq 120(%rsp), %rax
adcq 128(%rsp), %rcx
adcq 136(%rsp), %rdx
adcq 144(%rsp), %rsi
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %rax
adcq $0, %rcx
adcq $0, %rdx
adcq $0, %rsi
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %rax
movq %rax, 280(%rsp)
movq %rcx, 288(%rsp)
movq %rdx, 296(%rsp)
movq %rsi, 304(%rsp)
movq 248(%rsp), %r9
movq 256(%rsp), %r10
movq 264(%rsp), %r11
movq 272(%rsp), %rbx
xorq %rax, %rax
movq 216(%rsp), %rdx
MULXq %r9, %rsi, %rcx
MULXq %r10, %r8, %rdi
adcxq %r8, %rcx
MULXq %r11, %rbp, %r8
adcxq %rbp, %rdi
MULXq %rbx, %rdx, %rbp
adcxq %rdx, %r8
adcxq %rax, %rbp
movq 224(%rsp), %rdx
MULXq %r9, %r13, %r12
adoxq %r13, %rcx
adcxq %r12, %rdi
MULXq %r10, %r13, %r12
adoxq %r13, %rdi
adcxq %r12, %r8
MULXq %r11, %r13, %r12
adoxq %r13, %r8
adcxq %r12, %rbp
MULXq %rbx, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rax, %r12
adoxq %rax, %r12
movq 232(%rsp), %rdx
MULXq %r9, %r14, %r13
adoxq %r14, %rdi
adcxq %r13, %r8
MULXq %r10, %r14, %r13
adoxq %r14, %r8
adcxq %r13, %rbp
MULXq %r11, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %rbx, %rdx, %r13
adoxq %rdx, %r12
adcxq %rax, %r13
adoxq %rax, %r13
movq 240(%rsp), %rdx
MULXq %r9, %r14, %r9
adoxq %r14, %r8
adcxq %r9, %rbp
MULXq %r10, %r10, %r9
adoxq %r10, %rbp
adcxq %r9, %r12
MULXq %r11, %r10, %r9
adoxq %r10, %r12
adcxq %r9, %r13
MULXq %rbx, %rdx, %r9
adoxq %rdx, %r13
adcxq %rax, %r9
adoxq %rax, %r9
movq $38, %rdx
MULXq %rbp, %r11, %r10
adoxq %r11, %rsi
adcxq %r10, %rcx
MULXq %r12, %r11, %r10
adoxq %r11, %rcx
adcxq %r10, %rdi
MULXq %r13, %r11, %r10
adoxq %r11, %rdi
adcxq %r10, %r8
MULXq %r9, %r9, %rdx
adoxq %r9, %r8
adcxq %rax, %rdx
adoxq %rax, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rsi
adcq %rax, %rcx
adcq %rax, %rdi
adcq %rax, %r8
sbbq %rax, %rax
andq $38, %rax
addq %rax, %rsi
movq %rsi, 248(%rsp)
movq %rcx, 256(%rsp)
movq %rdi, 264(%rsp)
movq %r8, 272(%rsp)
movq 184(%rsp), %r9
movq 192(%rsp), %r10
movq 200(%rsp), %r11
movq 208(%rsp), %rbx
xorq %rax, %rax
movq 280(%rsp), %rdx
MULXq %r9, %rsi, %rcx
MULXq %r10, %r8, %rdi
adcxq %r8, %rcx
MULXq %r11, %rbp, %r8
adcxq %rbp, %rdi
MULXq %rbx, %rdx, %rbp
adcxq %rdx, %r8
adcxq %rax, %rbp
movq 288(%rsp), %rdx
MULXq %r9, %r13, %r12
adoxq %r13, %rcx
adcxq %r12, %rdi
MULXq %r10, %r13, %r12
adoxq %r13, %rdi
adcxq %r12, %r8
MULXq %r11, %r13, %r12
adoxq %r13, %r8
adcxq %r12, %rbp
MULXq %rbx, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rax, %r12
adoxq %rax, %r12
movq 296(%rsp), %rdx
MULXq %r9, %r14, %r13
adoxq %r14, %rdi
adcxq %r13, %r8
MULXq %r10, %r14, %r13
adoxq %r14, %r8
adcxq %r13, %rbp
MULXq %r11, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %rbx, %rdx, %r13
adoxq %rdx, %r12
adcxq %rax, %r13
adoxq %rax, %r13
movq 304(%rsp), %rdx
MULXq %r9, %r14, %r9
adoxq %r14, %r8
adcxq %r9, %rbp
MULXq %r10, %r10, %r9
adoxq %r10, %rbp
adcxq %r9, %r12
MULXq %r11, %r10, %r9
adoxq %r10, %r12
adcxq %r9, %r13
MULXq %rbx, %rdx, %r9
adoxq %rdx, %r13
adcxq %rax, %r9
adoxq %rax, %r9
movq $38, %rdx
MULXq %rbp, %r11, %r10
adoxq %r11, %rsi
adcxq %r10, %rcx
MULXq %r12, %r11, %r10
adoxq %r11, %rcx
adcxq %r10, %rdi
MULXq %r13, %r11, %r10
adoxq %r11, %rdi
adcxq %r10, %r8
MULXq %r9, %r9, %rdx
adoxq %r9, %r8
adcxq %rax, %rdx
adoxq %rax, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rsi
adcq %rax, %rcx
adcq %rax, %rdi
adcq %rax, %r8
sbbq %rax, %rax
andq $38, %rax
addq %rax, %rsi
movq %rsi, 280(%rsp)
movq %rcx, 288(%rsp)
movq %rdi, 296(%rsp)
movq %r8, 304(%rsp)
movq 216(%rsp), %rdx
movq 224(%rsp), %r11
movq 232(%rsp), %r13
movq 240(%rsp), %rbx
xorq %rax, %rax
MULXq %rdx, %rsi, %rcx
MULXq %r11, %r8, %rdi
MULXq %r13, %r10, %r9
adcxq %r10, %rdi
MULXq %rbx, %rdx, %r10
adcxq %rdx, %r9
movq %r11, %rdx
MULXq %r13, %rbp, %r11
adoxq %rbp, %r9
adcxq %r11, %r10
MULXq %rbx, %rbp, %r11
adoxq %rbp, %r10
MULXq %rdx, %r12, %rbp
movq %r13, %rdx
MULXq %rbx, %r14, %r13
adcxq %r14, %r11
adoxq %rax, %r11
adcxq %rax, %r13
adoxq %rax, %r13
MULXq %rdx, %r15, %r14
movq %rbx, %rdx
MULXq %rdx, %rdx, %rbx
adcxq %r8, %r8
adoxq %rcx, %r8
adcxq %rdi, %rdi
adoxq %r12, %rdi
adcxq %r9, %r9
adoxq %rbp, %r9
adcxq %r10, %r10
adoxq %r15, %r10
adcxq %r11, %r11
adoxq %r14, %r11
adcxq %r13, %r13
adoxq %rdx, %r13
adcxq %rax, %rbx
adoxq %rax, %rbx
movq $38, %rdx
MULXq %r10, %r10, %rcx
adoxq %r10, %rsi
adcxq %rcx, %r8
MULXq %r11, %r10, %rcx
adoxq %r10, %r8
adcxq %rcx, %rdi
MULXq %r13, %r10, %rcx
adoxq %r10, %rdi
adcxq %rcx, %r9
MULXq %rbx, %rdx, %rcx
adoxq %rdx, %r9
adcxq %rax, %rcx
adoxq %rax, %rcx
imulq $38, %rcx, %rcx
addq %rcx, %rsi
adcq %rax, %r8
adcq %rax, %rdi
adcq %rax, %r9
sbbq %rax, %rax
andq $38, %rax
addq %rax, %rsi
movq %rsi, 216(%rsp)
movq %r8, 224(%rsp)
movq %rdi, 232(%rsp)
movq %r9, 240(%rsp)
movq 184(%rsp), %rdx
movq 192(%rsp), %r11
movq 200(%rsp), %r13
movq 208(%rsp), %rbx
xorq %r8, %r8
MULXq %rdx, %rax, %r9
MULXq %r11, %rsi, %rcx
MULXq %r13, %r10, %rdi
adcxq %r10, %rcx
MULXq %rbx, %rdx, %r10
adcxq %rdx, %rdi
movq %r11, %rdx
MULXq %r13, %rbp, %r11
adoxq %rbp, %rdi
adcxq %r11, %r10
MULXq %rbx, %rbp, %r11
adoxq %rbp, %r10
MULXq %rdx, %r12, %rbp
movq %r13, %rdx
MULXq %rbx, %r14, %r13
adcxq %r14, %r11
adoxq %r8, %r11
adcxq %r8, %r13
adoxq %r8, %r13
MULXq %rdx, %r15, %r14
movq %rbx, %rdx
MULXq %rdx, %rdx, %rbx
adcxq %rsi, %rsi
adoxq %r9, %rsi
adcxq %rcx, %rcx
adoxq %r12, %rcx
adcxq %rdi, %rdi
adoxq %rbp, %rdi
adcxq %r10, %r10
adoxq %r15, %r10
adcxq %r11, %r11
adoxq %r14, %r11
adcxq %r13, %r13
adoxq %rdx, %r13
adcxq %r8, %rbx
adoxq %r8, %rbx
movq $38, %rdx
MULXq %r10, %r10, %r9
adoxq %r10, %rax
adcxq %r9, %rsi
MULXq %r11, %r10, %r9
adoxq %r10, %rsi
adcxq %r9, %rcx
MULXq %r13, %r10, %r9
adoxq %r10, %rcx
adcxq %r9, %rdi
MULXq %rbx, %r9, %rdx
adoxq %r9, %rdi
adcxq %r8, %rdx
adoxq %r8, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rax
adcq %r8, %rsi
adcq %r8, %rcx
adcq %r8, %rdi
sbbq %r8, %r8
andq $38, %r8
addq %r8, %rax
movq 248(%rsp), %rdx
movq 256(%rsp), %r8
movq 264(%rsp), %r9
movq 272(%rsp), %r10
xorq %r11, %r11
addq 280(%rsp), %rdx
adcq 288(%rsp), %r8
adcq 296(%rsp), %r9
adcq 304(%rsp), %r10
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rdx
adcq $0, %r8
adcq $0, %r9
adcq $0, %r10
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rdx
movq %rdx, 184(%rsp)
movq %r8, 192(%rsp)
movq %r9, 200(%rsp)
movq %r10, 208(%rsp)
movq 248(%rsp), %rdx
movq 256(%rsp), %r8
movq 264(%rsp), %r9
movq 272(%rsp), %r10
xorq %r11, %r11
subq 280(%rsp), %rdx
sbbq 288(%rsp), %r8
sbbq 296(%rsp), %r9
sbbq 304(%rsp), %r10
sbbq %r11, %r11
andq $38, %r11
subq %r11, %rdx
sbbq $0, %r8
sbbq $0, %r9
sbbq $0, %r10
sbbq %r11, %r11
andq $38, %r11
subq %r11, %rdx
movq %rdx, 280(%rsp)
movq %r8, 288(%rsp)
movq %r9, 296(%rsp)
movq %r10, 304(%rsp)
xorq %rdx, %rdx
movq 216(%rsp), %r8
movq 224(%rsp), %r9
movq 232(%rsp), %r10
movq 240(%rsp), %r11
subq %rax, %r8
sbbq %rsi, %r9
sbbq %rcx, %r10
sbbq %rdi, %r11
sbbq %rdx, %rdx
andq $38, %rdx
subq %rdx, %r8
sbbq $0, %r9
sbbq $0, %r10
sbbq $0, %r11
sbbq %rdx, %rdx
andq $38, %rdx
subq %rdx, %r8
movq %r8, 248(%rsp)
movq %r9, 256(%rsp)
movq %r10, 264(%rsp)
movq %r11, 272(%rsp)
xorq %r8, %r8
movq 216(%rsp), %rdx
MULXq %rax, %r10, %r9
MULXq %rsi, %rbx, %r11
adcxq %rbx, %r9
MULXq %rcx, %rbp, %rbx
adcxq %rbp, %r11
MULXq %rdi, %rdx, %rbp
adcxq %rdx, %rbx
adcxq %r8, %rbp
movq 224(%rsp), %rdx
MULXq %rax, %r13, %r12
adoxq %r13, %r9
adcxq %r12, %r11
MULXq %rsi, %r13, %r12
adoxq %r13, %r11
adcxq %r12, %rbx
MULXq %rcx, %r13, %r12
adoxq %r13, %rbx
adcxq %r12, %rbp
MULXq %rdi, %rdx, %r12
adoxq %rdx, %rbp
adcxq %r8, %r12
adoxq %r8, %r12
movq 232(%rsp), %rdx
MULXq %rax, %r14, %r13
adoxq %r14, %r11
adcxq %r13, %rbx
MULXq %rsi, %r14, %r13
adoxq %r14, %rbx
adcxq %r13, %rbp
MULXq %rcx, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %rdi, %rdx, %r13
adoxq %rdx, %r12
adcxq %r8, %r13
adoxq %r8, %r13
movq 240(%rsp), %rdx
MULXq %rax, %r14, %rax
adoxq %r14, %rbx
adcxq %rax, %rbp
MULXq %rsi, %rsi, %rax
adoxq %rsi, %rbp
adcxq %rax, %r12
MULXq %rcx, %rcx, %rax
adoxq %rcx, %r12
adcxq %rax, %r13
MULXq %rdi, %rcx, %rax
adoxq %rcx, %r13
adcxq %r8, %rax
adoxq %r8, %rax
movq $38, %rdx
MULXq %rbp, %rsi, %rcx
adoxq %rsi, %r10
adcxq %rcx, %r9
MULXq %r12, %rsi, %rcx
adoxq %rsi, %r9
adcxq %rcx, %r11
MULXq %r13, %rsi, %rcx
adoxq %rsi, %r11
adcxq %rcx, %rbx
MULXq %rax, %rcx, %rax
adoxq %rcx, %rbx
adcxq %r8, %rax
adoxq %r8, %rax
imulq $38, %rax, %rax
addq %rax, %r10
adcq %r8, %r9
adcq %r8, %r11
adcq %r8, %rbx
sbbq %r8, %r8
andq $38, %r8
addq %r8, %r10
movq %r10, 56(%rsp)
movq %r9, 64(%rsp)
movq %r11, 72(%rsp)
movq %rbx, 80(%rsp)
movq 280(%rsp), %rdx
movq 288(%rsp), %r11
movq 296(%rsp), %r13
movq 304(%rsp), %rbx
xorq %rax, %rax
MULXq %rdx, %rsi, %rcx
MULXq %r11, %r8, %rdi
MULXq %r13, %r10, %r9
adcxq %r10, %rdi
MULXq %rbx, %rdx, %r10
adcxq %rdx, %r9
movq %r11, %rdx
MULXq %r13, %rbp, %r11
adoxq %rbp, %r9
adcxq %r11, %r10
MULXq %rbx, %rbp, %r11
adoxq %rbp, %r10
MULXq %rdx, %r12, %rbp
movq %r13, %rdx
MULXq %rbx, %r14, %r13
adcxq %r14, %r11
adoxq %rax, %r11
adcxq %rax, %r13
adoxq %rax, %r13
MULXq %rdx, %r15, %r14
movq %rbx, %rdx
MULXq %rdx, %rdx, %rbx
adcxq %r8, %r8
adoxq %rcx, %r8
adcxq %rdi, %rdi
adoxq %r12, %rdi
adcxq %r9, %r9
adoxq %rbp, %r9
adcxq %r10, %r10
adoxq %r15, %r10
adcxq %r11, %r11
adoxq %r14, %r11
adcxq %r13, %r13
adoxq %rdx, %r13
adcxq %rax, %rbx
adoxq %rax, %rbx
movq $38, %rdx
MULXq %r10, %r10, %rcx
adoxq %r10, %rsi
adcxq %rcx, %r8
MULXq %r11, %r10, %rcx
adoxq %r10, %r8
adcxq %rcx, %rdi
MULXq %r13, %r10, %rcx
adoxq %r10, %rdi
adcxq %rcx, %r9
MULXq %rbx, %rdx, %rcx
adoxq %rdx, %r9
adcxq %rax, %rcx
adoxq %rax, %rcx
imulq $38, %rcx, %rcx
addq %rcx, %rsi
adcq %rax, %r8
adcq %rax, %rdi
adcq %rax, %r9
sbbq %rax, %rax
andq $38, %rax
addq %rax, %rsi
movq %rsi, 280(%rsp)
movq %r8, 288(%rsp)
movq %rdi, 296(%rsp)
movq %r9, 304(%rsp)
movq $121665, %rdx
MULXq 248(%rsp), %rcx, %rax
MULXq 256(%rsp), %rdi, %rsi
addq %rdi, %rax
MULXq 264(%rsp), %r8, %rdi
adcq %r8, %rsi
MULXq 272(%rsp), %r9, %r8
adcq %r9, %rdi
adcq $0, %r8
imulq $38, %r8, %r8
addq %r8, %rcx
adcq $0, %rax
adcq $0, %rsi
adcq $0, %rdi
sbbq %rdx, %rdx
andq $38, %rdx
addq %rdx, %rcx
movq %rcx, 312(%rsp)
movq %rax, 320(%rsp)
movq %rsi, 328(%rsp)
movq %rdi, 336(%rsp)
movq 184(%rsp), %rdx
movq 192(%rsp), %r11
movq 200(%rsp), %r13
movq 208(%rsp), %rbx
xorq %rax, %rax
MULXq %rdx, %rsi, %rcx
MULXq %r11, %r8, %rdi
MULXq %r13, %r10, %r9
adcxq %r10, %rdi
MULXq %rbx, %rdx, %r10
adcxq %rdx, %r9
movq %r11, %rdx
MULXq %r13, %rbp, %r11
adoxq %rbp, %r9
adcxq %r11, %r10
MULXq %rbx, %rbp, %r11
adoxq %rbp, %r10
MULXq %rdx, %r12, %rbp
movq %r13, %rdx
MULXq %rbx, %r14, %r13
adcxq %r14, %r11
adoxq %rax, %r11
adcxq %rax, %r13
adoxq %rax, %r13
MULXq %rdx, %r15, %r14
movq %rbx, %rdx
MULXq %rdx, %rdx, %rbx
adcxq %r8, %r8
adoxq %rcx, %r8
adcxq %rdi, %rdi
adoxq %r12, %rdi
adcxq %r9, %r9
adoxq %rbp, %r9
adcxq %r10, %r10
adoxq %r15, %r10
adcxq %r11, %r11
adoxq %r14, %r11
adcxq %r13, %r13
adoxq %rdx, %r13
adcxq %rax, %rbx
adoxq %rax, %rbx
movq $38, %rdx
MULXq %r10, %r10, %rcx
adoxq %r10, %rsi
adcxq %rcx, %r8
MULXq %r11, %r10, %rcx
adoxq %r10, %r8
adcxq %rcx, %rdi
MULXq %r13, %r10, %rcx
adoxq %r10, %rdi
adcxq %rcx, %r9
MULXq %rbx, %rdx, %rcx
adoxq %rdx, %r9
adcxq %rax, %rcx
adoxq %rax, %rcx
imulq $38, %rcx, %rcx
addq %rcx, %rsi
adcq %rax, %r8
adcq %rax, %rdi
adcq %rax, %r9
sbbq %rax, %rax
andq $38, %rax
addq %rax, %rsi
movq %rsi, 88(%rsp)
movq %r8, 96(%rsp)
movq %rdi, 104(%rsp)
movq %r9, 112(%rsp)
movq 216(%rsp), %rax
movq 224(%rsp), %rcx
movq 232(%rsp), %rdx
movq 240(%rsp), %rsi
xorq %rdi, %rdi
addq 312(%rsp), %rax
adcq 320(%rsp), %rcx
adcq 328(%rsp), %rdx
adcq 336(%rsp), %rsi
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %rax
adcq $0, %rcx
adcq $0, %rdx
adcq $0, %rsi
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %rax
movq %rax, 312(%rsp)
movq %rcx, 320(%rsp)
movq %rdx, 328(%rsp)
movq %rsi, 336(%rsp)
movq 280(%rsp), %r9
movq 288(%rsp), %r10
movq 296(%rsp), %r11
movq 304(%rsp), %rbx
xorq %rax, %rax
movq 152(%rsp), %rdx
MULXq %r9, %rsi, %rcx
MULXq %r10, %r8, %rdi
adcxq %r8, %rcx
MULXq %r11, %rbp, %r8
adcxq %rbp, %rdi
MULXq %rbx, %rdx, %rbp
adcxq %rdx, %r8
adcxq %rax, %rbp
movq 160(%rsp), %rdx
MULXq %r9, %r13, %r12
adoxq %r13, %rcx
adcxq %r12, %rdi
MULXq %r10, %r13, %r12
adoxq %r13, %rdi
adcxq %r12, %r8
MULXq %r11, %r13, %r12
adoxq %r13, %r8
adcxq %r12, %rbp
MULXq %rbx, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rax, %r12
adoxq %rax, %r12
movq 168(%rsp), %rdx
MULXq %r9, %r14, %r13
adoxq %r14, %rdi
adcxq %r13, %r8
MULXq %r10, %r14, %r13
adoxq %r14, %r8
adcxq %r13, %rbp
MULXq %r11, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %rbx, %rdx, %r13
adoxq %rdx, %r12
adcxq %rax, %r13
adoxq %rax, %r13
movq 176(%rsp), %rdx
MULXq %r9, %r14, %r9
adoxq %r14, %r8
adcxq %r9, %rbp
MULXq %r10, %r10, %r9
adoxq %r10, %rbp
adcxq %r9, %r12
MULXq %r11, %r10, %r9
adoxq %r10, %r12
adcxq %r9, %r13
MULXq %rbx, %rdx, %r9
adoxq %rdx, %r13
adcxq %rax, %r9
adoxq %rax, %r9
movq $38, %rdx
MULXq %rbp, %r11, %r10
adoxq %r11, %rsi
adcxq %r10, %rcx
MULXq %r12, %r11, %r10
adoxq %r11, %rcx
adcxq %r10, %rdi
MULXq %r13, %r11, %r10
adoxq %r11, %rdi
adcxq %r10, %r8
MULXq %r9, %r9, %rdx
adoxq %r9, %r8
adcxq %rax, %rdx
adoxq %rax, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rsi
adcq %rax, %rcx
adcq %rax, %rdi
adcq %rax, %r8
sbbq %rax, %rax
andq $38, %rax
addq %rax, %rsi
movq %rsi, 120(%rsp)
movq %rcx, 128(%rsp)
movq %rdi, 136(%rsp)
movq %r8, 144(%rsp)
movq 312(%rsp), %r9
movq 320(%rsp), %r10
movq 328(%rsp), %r11
movq 336(%rsp), %rbx
xorq %rcx, %rcx
movq 248(%rsp), %rdx
MULXq %r9, %rax, %r8
MULXq %r10, %rdi, %rsi
adcxq %rdi, %r8
MULXq %r11, %rbp, %rdi
adcxq %rbp, %rsi
MULXq %rbx, %rdx, %rbp
adcxq %rdx, %rdi
adcxq %rcx, %rbp
movq 256(%rsp), %rdx
MULXq %r9, %r13, %r12
adoxq %r13, %r8
adcxq %r12, %rsi
MULXq %r10, %r13, %r12
adoxq %r13, %rsi
adcxq %r12, %rdi
MULXq %r11, %r13, %r12
adoxq %r13, %rdi
adcxq %r12, %rbp
MULXq %rbx, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rcx, %r12
adoxq %rcx, %r12
movq 264(%rsp), %rdx
MULXq %r9, %r14, %r13
adoxq %r14, %rsi
adcxq %r13, %rdi
MULXq %r10, %r14, %r13
adoxq %r14, %rdi
adcxq %r13, %rbp
MULXq %r11, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %rbx, %rdx, %r13
adoxq %rdx, %r12
adcxq %rcx, %r13
adoxq %rcx, %r13
movq 272(%rsp), %rdx
MULXq %r9, %r14, %r9
adoxq %r14, %rdi
adcxq %r9, %rbp
MULXq %r10, %r10, %r9
adoxq %r10, %rbp
adcxq %r9, %r12
MULXq %r11, %r10, %r9
adoxq %r10, %r12
adcxq %r9, %r13
MULXq %rbx, %rdx, %r9
adoxq %rdx, %r13
adcxq %rcx, %r9
adoxq %rcx, %r9
movq $38, %rdx
MULXq %rbp, %r11, %r10
adoxq %r11, %rax
adcxq %r10, %r8
MULXq %r12, %r11, %r10
adoxq %r11, %r8
adcxq %r10, %rsi
MULXq %r13, %r11, %r10
adoxq %r11, %rsi
adcxq %r10, %rdi
MULXq %r9, %r9, %rdx
adoxq %r9, %rdi
adcxq %rcx, %rdx
adoxq %rcx, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rax
adcq %rcx, %r8
adcq %rcx, %rsi
adcq %rcx, %rdi
sbbq %rcx, %rcx
andq $38, %rcx
addq %rcx, %rax
movq 16(%rsp), %rcx
cmpq $0, %rcx
jnbe Ljade_scalarmult_curve25519_amd64_mulx_base$9
movq %rax, 120(%rsp)
movq %r8, 128(%rsp)
movq %rsi, 136(%rsp)
movq %rdi, 144(%rsp)
xorq %r9, %r9
movq %rax, %rdx
MULXq %rdx, %r10, %rbx
MULXq %r8, %r11, %rcx
MULXq %rsi, %rbp, %rax
adcxq %rbp, %rcx
MULXq %rdi, %rdx, %rbp
adcxq %rdx, %rax
movq %r8, %rdx
MULXq %rsi, %r12, %r8
adoxq %r12, %rax
adcxq %r8, %rbp
MULXq %rdi, %r12, %r8
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rsi, %rdx
MULXq %rdi, %r14, %rsi
adcxq %r14, %r8
adoxq %r9, %r8
adcxq %r9, %rsi
adoxq %r9, %rsi
MULXq %rdx, %r15, %r14
movq %rdi, %rdx
MULXq %rdx, %rdx, %rdi
adcxq %r11, %r11
adoxq %rbx, %r11
adcxq %rcx, %rcx
adoxq %r13, %rcx
adcxq %rax, %rax
adoxq %r12, %rax
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r8, %r8
adoxq %r14, %r8
adcxq %rsi, %rsi
adoxq %rdx, %rsi
adcxq %r9, %rdi
adoxq %r9, %rdi
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %r10
adcxq %rbx, %r11
MULXq %r8, %rbx, %r8
adoxq %rbx, %r11
adcxq %r8, %rcx
MULXq %rsi, %r8, %rsi
adoxq %r8, %rcx
adcxq %rsi, %rax
MULXq %rdi, %rsi, %rdx
adoxq %rsi, %rax
adcxq %r9, %rdx
adoxq %r9, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %r10
adcq %r9, %r11
adcq %r9, %rcx
adcq %r9, %rax
sbbq %r9, %r9
andq $38, %r9
addq %r9, %r10
movq %r10, 88(%rsp)
movq %r11, 96(%rsp)
movq %rcx, 104(%rsp)
movq %rax, 112(%rsp)
xorq %rsi, %rsi
movq %r10, %rdx
MULXq %rdx, %rdi, %rbx
MULXq %r11, %r10, %r9
MULXq %rcx, %rbp, %r8
adcxq %rbp, %r9
MULXq %rax, %rdx, %rbp
adcxq %rdx, %r8
movq %r11, %rdx
MULXq %rcx, %r12, %r11
adoxq %r12, %r8
adcxq %r11, %rbp
MULXq %rax, %r12, %r11
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rcx, %rdx
MULXq %rax, %r14, %rcx
adcxq %r14, %r11
adoxq %rsi, %r11
adcxq %rsi, %rcx
adoxq %rsi, %rcx
MULXq %rdx, %r15, %r14
movq %rax, %rdx
MULXq %rdx, %rdx, %rax
adcxq %r10, %r10
adoxq %rbx, %r10
adcxq %r9, %r9
adoxq %r13, %r9
adcxq %r8, %r8
adoxq %r12, %r8
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r11, %r11
adoxq %r14, %r11
adcxq %rcx, %rcx
adoxq %rdx, %rcx
adcxq %rsi, %rax
adoxq %rsi, %rax
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %rdi
adcxq %rbx, %r10
MULXq %r11, %rbx, %r11
adoxq %rbx, %r10
adcxq %r11, %r9
MULXq %rcx, %r11, %rcx
adoxq %r11, %r9
adcxq %rcx, %r8
MULXq %rax, %rcx, %rax
adoxq %rcx, %r8
adcxq %rsi, %rax
adoxq %rsi, %rax
imulq $38, %rax, %rax
addq %rax, %rdi
adcq %rsi, %r10
adcq %rsi, %r9
adcq %rsi, %r8
sbbq %rsi, %rsi
andq $38, %rsi
addq %rsi, %rdi
xorq %r11, %r11
movq %rdi, %rdx
MULXq %rdx, %rax, %rbx
MULXq %r10, %rsi, %rcx
MULXq %r9, %rbp, %rdi
adcxq %rbp, %rcx
MULXq %r8, %rdx, %rbp
adcxq %rdx, %rdi
movq %r10, %rdx
MULXq %r9, %r12, %r10
adoxq %r12, %rdi
adcxq %r10, %rbp
MULXq %r8, %r12, %r10
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %r9, %rdx
MULXq %r8, %r14, %r9
adcxq %r14, %r10
adoxq %r11, %r10
adcxq %r11, %r9
adoxq %r11, %r9
MULXq %rdx, %r15, %r14
movq %r8, %rdx
MULXq %rdx, %rdx, %r8
adcxq %rsi, %rsi
adoxq %rbx, %rsi
adcxq %rcx, %rcx
adoxq %r13, %rcx
adcxq %rdi, %rdi
adoxq %r12, %rdi
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r10, %r10
adoxq %r14, %r10
adcxq %r9, %r9
adoxq %rdx, %r9
adcxq %r11, %r8
adoxq %r11, %r8
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %rax
adcxq %rbx, %rsi
MULXq %r10, %rbx, %r10
adoxq %rbx, %rsi
adcxq %r10, %rcx
MULXq %r9, %r10, %r9
adoxq %r10, %rcx
adcxq %r9, %rdi
MULXq %r8, %r8, %rdx
adoxq %r8, %rdi
adcxq %r11, %rdx
adoxq %r11, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rax
adcq %r11, %rsi
adcq %r11, %rcx
adcq %r11, %rdi
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rax
xorq %r11, %r11
movq 120(%rsp), %rdx
MULXq %rax, %rbx, %r8
MULXq %rsi, %r10, %r9
adcxq %r10, %r8
MULXq %rcx, %rbp, %r10
adcxq %rbp, %r9
MULXq %rdi, %rdx, %rbp
adcxq %rdx, %r10
adcxq %r11, %rbp
movq 128(%rsp), %rdx
MULXq %rax, %r13, %r12
adoxq %r13, %r8
adcxq %r12, %r9
MULXq %rsi, %r13, %r12
adoxq %r13, %r9
adcxq %r12, %r10
MULXq %rcx, %r13, %r12
adoxq %r13, %r10
adcxq %r12, %rbp
MULXq %rdi, %rdx, %r12
adoxq %rdx, %rbp
adcxq %r11, %r12
adoxq %r11, %r12
movq 136(%rsp), %rdx
MULXq %rax, %r14, %r13
adoxq %r14, %r9
adcxq %r13, %r10
MULXq %rsi, %r14, %r13
adoxq %r14, %r10
adcxq %r13, %rbp
MULXq %rcx, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %rdi, %rdx, %r13
adoxq %rdx, %r12
adcxq %r11, %r13
adoxq %r11, %r13
movq 144(%rsp), %rdx
MULXq %rax, %r14, %rax
adoxq %r14, %r10
adcxq %rax, %rbp
MULXq %rsi, %rsi, %rax
adoxq %rsi, %rbp
adcxq %rax, %r12
MULXq %rcx, %rcx, %rax
adoxq %rcx, %r12
adcxq %rax, %r13
MULXq %rdi, %rcx, %rax
adoxq %rcx, %r13
adcxq %r11, %rax
adoxq %r11, %rax
movq $38, %rdx
MULXq %rbp, %rsi, %rcx
adoxq %rsi, %rbx
adcxq %rcx, %r8
MULXq %r12, %rsi, %rcx
adoxq %rsi, %r8
adcxq %rcx, %r9
MULXq %r13, %rsi, %rcx
adoxq %rsi, %r9
adcxq %rcx, %r10
MULXq %rax, %rcx, %rax
adoxq %rcx, %r10
adcxq %r11, %rax
adoxq %r11, %rax
imulq $38, %rax, %rax
addq %rax, %rbx
adcq %r11, %r8
adcq %r11, %r9
adcq %r11, %r10
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rbx
movq %rbx, 120(%rsp)
movq %r8, 128(%rsp)
movq %r9, 136(%rsp)
movq %r10, 144(%rsp)
xorq %rcx, %rcx
movq 88(%rsp), %rdx
MULXq %rbx, %rsi, %r11
MULXq %r8, %rax, %rbp
adcxq %rax, %r11
MULXq %r9, %rdi, %rax
adcxq %rdi, %rbp
MULXq %r10, %rdx, %rdi
adcxq %rdx, %rax
adcxq %rcx, %rdi
movq 96(%rsp), %rdx
MULXq %rbx, %r13, %r12
adoxq %r13, %r11
adcxq %r12, %rbp
MULXq %r8, %r13, %r12
adoxq %r13, %rbp
adcxq %r12, %rax
MULXq %r9, %r13, %r12
adoxq %r13, %rax
adcxq %r12, %rdi
MULXq %r10, %rdx, %r12
adoxq %rdx, %rdi
adcxq %rcx, %r12
adoxq %rcx, %r12
movq 104(%rsp), %rdx
MULXq %rbx, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %rax
MULXq %r8, %r14, %r13
adoxq %r14, %rax
adcxq %r13, %rdi
MULXq %r9, %r14, %r13
adoxq %r14, %rdi
adcxq %r13, %r12
MULXq %r10, %rdx, %r13
adoxq %rdx, %r12
adcxq %rcx, %r13
adoxq %rcx, %r13
movq 112(%rsp), %rdx
MULXq %rbx, %r14, %rbx
adoxq %r14, %rax
adcxq %rbx, %rdi
MULXq %r8, %rbx, %r8
adoxq %rbx, %rdi
adcxq %r8, %r12
MULXq %r9, %r9, %r8
adoxq %r9, %r12
adcxq %r8, %r13
MULXq %r10, %rdx, %r8
adoxq %rdx, %r13
adcxq %rcx, %r8
adoxq %rcx, %r8
movq $38, %rdx
MULXq %rdi, %r9, %rdi
adoxq %r9, %rsi
adcxq %rdi, %r11
MULXq %r12, %r9, %rdi
adoxq %r9, %r11
adcxq %rdi, %rbp
MULXq %r13, %r9, %rdi
adoxq %r9, %rbp
adcxq %rdi, %rax
MULXq %r8, %rdi, %rdx
adoxq %rdi, %rax
adcxq %rcx, %rdx
adoxq %rcx, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rsi
adcq %rcx, %r11
adcq %rcx, %rbp
adcq %rcx, %rax
sbbq %rcx, %rcx
andq $38, %rcx
addq %rcx, %rsi
movq %rsi, 88(%rsp)
movq %r11, 96(%rsp)
movq %rbp, 104(%rsp)
movq %rax, 112(%rsp)
xorq %r8, %r8
movq %rsi, %rdx
MULXq %rdx, %rcx, %r10
MULXq %r11, %rdi, %rsi
MULXq %rbp, %rbx, %r9
adcxq %rbx, %rsi
MULXq %rax, %rdx, %rbx
adcxq %rdx, %r9
movq %r11, %rdx
MULXq %rbp, %r12, %r11
adoxq %r12, %r9
adcxq %r11, %rbx
MULXq %rax, %r12, %r11
adoxq %r12, %rbx
MULXq %rdx, %r13, %r12
movq %rbp, %rdx
MULXq %rax, %r14, %rbp
adcxq %r14, %r11
adoxq %r8, %r11
adcxq %r8, %rbp
adoxq %r8, %rbp
MULXq %rdx, %r15, %r14
movq %rax, %rdx
MULXq %rdx, %rdx, %rax
adcxq %rdi, %rdi
adoxq %r10, %rdi
adcxq %rsi, %rsi
adoxq %r13, %rsi
adcxq %r9, %r9
adoxq %r12, %r9
adcxq %rbx, %rbx
adoxq %r15, %rbx
adcxq %r11, %r11
adoxq %r14, %r11
adcxq %rbp, %rbp
adoxq %rdx, %rbp
adcxq %r8, %rax
adoxq %r8, %rax
movq $38, %rdx
MULXq %rbx, %rbx, %r10
adoxq %rbx, %rcx
adcxq %r10, %rdi
MULXq %r11, %r11, %r10
adoxq %r11, %rdi
adcxq %r10, %rsi
MULXq %rbp, %r11, %r10
adoxq %r11, %rsi
adcxq %r10, %r9
MULXq %rax, %rdx, %rax
adoxq %rdx, %r9
adcxq %r8, %rax
adoxq %r8, %rax
imulq $38, %rax, %rax
addq %rax, %rcx
adcq %r8, %rdi
adcq %r8, %rsi
adcq %r8, %r9
sbbq %r8, %r8
andq $38, %r8
addq %r8, %rcx
xorq %rax, %rax
movq 120(%rsp), %rdx
MULXq %rcx, %rbx, %r10
MULXq %rdi, %r8, %r11
adcxq %r8, %r10
MULXq %rsi, %rbp, %r8
adcxq %rbp, %r11
MULXq %r9, %rdx, %rbp
adcxq %rdx, %r8
adcxq %rax, %rbp
movq 128(%rsp), %rdx
MULXq %rcx, %r13, %r12
adoxq %r13, %r10
adcxq %r12, %r11
MULXq %rdi, %r13, %r12
adoxq %r13, %r11
adcxq %r12, %r8
MULXq %rsi, %r13, %r12
adoxq %r13, %r8
adcxq %r12, %rbp
MULXq %r9, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rax, %r12
adoxq %rax, %r12
movq 136(%rsp), %rdx
MULXq %rcx, %r14, %r13
adoxq %r14, %r11
adcxq %r13, %r8
MULXq %rdi, %r14, %r13
adoxq %r14, %r8
adcxq %r13, %rbp
MULXq %rsi, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %r9, %rdx, %r13
adoxq %rdx, %r12
adcxq %rax, %r13
adoxq %rax, %r13
movq 144(%rsp), %rdx
MULXq %rcx, %r14, %rcx
adoxq %r14, %r8
adcxq %rcx, %rbp
MULXq %rdi, %rdi, %rcx
adoxq %rdi, %rbp
adcxq %rcx, %r12
MULXq %rsi, %rsi, %rcx
adoxq %rsi, %r12
adcxq %rcx, %r13
MULXq %r9, %rdx, %rcx
adoxq %rdx, %r13
adcxq %rax, %rcx
adoxq %rax, %rcx
movq $38, %rdx
MULXq %rbp, %rdi, %rsi
adoxq %rdi, %rbx
adcxq %rsi, %r10
MULXq %r12, %rdi, %rsi
adoxq %rdi, %r10
adcxq %rsi, %r11
MULXq %r13, %rdi, %rsi
adoxq %rdi, %r11
adcxq %rsi, %r8
MULXq %rcx, %rdx, %rcx
adoxq %rdx, %r8
adcxq %rax, %rcx
adoxq %rax, %rcx
imulq $38, %rcx, %rcx
addq %rcx, %rbx
adcq %rax, %r10
adcq %rax, %r11
adcq %rax, %r8
sbbq %rax, %rax
andq $38, %rax
addq %rax, %rbx
movq %rbx, 120(%rsp)
movq %r10, 128(%rsp)
movq %r11, 136(%rsp)
movq %r8, 144(%rsp)
xorq %r9, %r9
movq %rbx, %rdx
MULXq %rdx, %rdi, %rbx
MULXq %r10, %rsi, %rax
MULXq %r11, %rbp, %rcx
adcxq %rbp, %rax
MULXq %r8, %rdx, %rbp
adcxq %rdx, %rcx
movq %r10, %rdx
MULXq %r11, %r12, %r10
adoxq %r12, %rcx
adcxq %r10, %rbp
MULXq %r8, %r12, %r10
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %r11, %rdx
MULXq %r8, %r14, %r11
adcxq %r14, %r10
adoxq %r9, %r10
adcxq %r9, %r11
adoxq %r9, %r11
MULXq %rdx, %r15, %r14
movq %r8, %rdx
MULXq %rdx, %rdx, %r8
adcxq %rsi, %rsi
adoxq %rbx, %rsi
adcxq %rax, %rax
adoxq %r13, %rax
adcxq %rcx, %rcx
adoxq %r12, %rcx
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r10, %r10
adoxq %r14, %r10
adcxq %r11, %r11
adoxq %rdx, %r11
adcxq %r9, %r8
adoxq %r9, %r8
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %rdi
adcxq %rbx, %rsi
MULXq %r10, %rbx, %r10
adoxq %rbx, %rsi
adcxq %r10, %rax
MULXq %r11, %r11, %r10
adoxq %r11, %rax
adcxq %r10, %rcx
MULXq %r8, %r8, %rdx
adoxq %r8, %rcx
adcxq %r9, %rdx
adoxq %r9, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rdi
adcq %r9, %rsi
adcq %r9, %rax
adcq %r9, %rcx
sbbq %r9, %r9
andq $38, %r9
addq %r9, %rdi
movl $2, %edx
Ljade_scalarmult_curve25519_amd64_mulx_base$8:
movl %edx, 344(%rsp)
xorq %r11, %r11
movq %rdi, %rdx
MULXq %rdx, %rdi, %rbx
MULXq %rsi, %r9, %r8
MULXq %rax, %rbp, %r10
adcxq %rbp, %r8
MULXq %rcx, %rdx, %rbp
adcxq %rdx, %r10
movq %rsi, %rdx
MULXq %rax, %r12, %rsi
adoxq %r12, %r10
adcxq %rsi, %rbp
MULXq %rcx, %r12, %rsi
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rax, %rdx
MULXq %rcx, %r14, %rax
adcxq %r14, %rsi
adoxq %r11, %rsi
adcxq %r11, %rax
adoxq %r11, %rax
MULXq %rdx, %r15, %r14
movq %rcx, %rdx
MULXq %rdx, %rdx, %rcx
adcxq %r9, %r9
adoxq %rbx, %r9
adcxq %r8, %r8
adoxq %r13, %r8
adcxq %r10, %r10
adoxq %r12, %r10
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %rsi, %rsi
adoxq %r14, %rsi
adcxq %rax, %rax
adoxq %rdx, %rax
adcxq %r11, %rcx
adoxq %r11, %rcx
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %rdi
adcxq %rbx, %r9
MULXq %rsi, %rbx, %rsi
adoxq %rbx, %r9
adcxq %rsi, %r8
MULXq %rax, %rsi, %rax
adoxq %rsi, %r8
adcxq %rax, %r10
MULXq %rcx, %rcx, %rax
adoxq %rcx, %r10
adcxq %r11, %rax
adoxq %r11, %rax
imulq $38, %rax, %rax
addq %rax, %rdi
adcq %r11, %r9
adcq %r11, %r8
adcq %r11, %r10
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rdi
xorq %r11, %r11
movq %rdi, %rdx
MULXq %rdx, %rdi, %rbx
MULXq %r9, %rsi, %rax
MULXq %r8, %rbp, %rcx
adcxq %rbp, %rax
MULXq %r10, %rdx, %rbp
adcxq %rdx, %rcx
movq %r9, %rdx
MULXq %r8, %r12, %r9
adoxq %r12, %rcx
adcxq %r9, %rbp
MULXq %r10, %r12, %r9
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %r8, %rdx
MULXq %r10, %r14, %r8
adcxq %r14, %r9
adoxq %r11, %r9
adcxq %r11, %r8
adoxq %r11, %r8
MULXq %rdx, %r15, %r14
movq %r10, %rdx
MULXq %rdx, %rdx, %r10
adcxq %rsi, %rsi
adoxq %rbx, %rsi
adcxq %rax, %rax
adoxq %r13, %rax
adcxq %rcx, %rcx
adoxq %r12, %rcx
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r9, %r9
adoxq %r14, %r9
adcxq %r8, %r8
adoxq %rdx, %r8
adcxq %r11, %r10
adoxq %r11, %r10
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %rdi
adcxq %rbx, %rsi
MULXq %r9, %rbx, %r9
adoxq %rbx, %rsi
adcxq %r9, %rax
MULXq %r8, %r9, %r8
adoxq %r9, %rax
adcxq %r8, %rcx
MULXq %r10, %r8, %rdx
adoxq %r8, %rcx
adcxq %r11, %rdx
adoxq %r11, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rdi
adcq %r11, %rsi
adcq %r11, %rax
adcq %r11, %rcx
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rdi
movl 344(%rsp), %edx
decl %edx
jne Ljade_scalarmult_curve25519_amd64_mulx_base$8
xorq %r10, %r10
movq 120(%rsp), %rdx
MULXq %rdi, %r12, %r8
MULXq %rsi, %r9, %r11
adcxq %r9, %r8
MULXq %rax, %rbx, %r9
adcxq %rbx, %r11
MULXq %rcx, %rdx, %rbx
adcxq %rdx, %r9
adcxq %r10, %rbx
movq 128(%rsp), %rdx
MULXq %rdi, %r13, %rbp
adoxq %r13, %r8
adcxq %rbp, %r11
MULXq %rsi, %r13, %rbp
adoxq %r13, %r11
adcxq %rbp, %r9
MULXq %rax, %r13, %rbp
adoxq %r13, %r9
adcxq %rbp, %rbx
MULXq %rcx, %rdx, %rbp
adoxq %rdx, %rbx
adcxq %r10, %rbp
adoxq %r10, %rbp
movq 136(%rsp), %rdx
MULXq %rdi, %r14, %r13
adoxq %r14, %r11
adcxq %r13, %r9
MULXq %rsi, %r14, %r13
adoxq %r14, %r9
adcxq %r13, %rbx
MULXq %rax, %r14, %r13
adoxq %r14, %rbx
adcxq %r13, %rbp
MULXq %rcx, %rdx, %r13
adoxq %rdx, %rbp
adcxq %r10, %r13
adoxq %r10, %r13
movq 144(%rsp), %rdx
MULXq %rdi, %r14, %rdi
adoxq %r14, %r9
adcxq %rdi, %rbx
MULXq %rsi, %rdi, %rsi
adoxq %rdi, %rbx
adcxq %rsi, %rbp
MULXq %rax, %rsi, %rax
adoxq %rsi, %rbp
adcxq %rax, %r13
MULXq %rcx, %rcx, %rax
adoxq %rcx, %r13
adcxq %r10, %rax
adoxq %r10, %rax
movq $38, %rdx
MULXq %rbx, %rsi, %rcx
adoxq %rsi, %r12
adcxq %rcx, %r8
MULXq %rbp, %rsi, %rcx
adoxq %rsi, %r8
adcxq %rcx, %r11
MULXq %r13, %rsi, %rcx
adoxq %rsi, %r11
adcxq %rcx, %r9
MULXq %rax, %rcx, %rax
adoxq %rcx, %r9
adcxq %r10, %rax
adoxq %r10, %rax
imulq $38, %rax, %rax
addq %rax, %r12
adcq %r10, %r8
adcq %r10, %r11
adcq %r10, %r9
sbbq %r10, %r10
andq $38, %r10
addq %r10, %r12
movq %r12, 120(%rsp)
movq %r8, 128(%rsp)
movq %r11, 136(%rsp)
movq %r9, 144(%rsp)
movl $5, %eax
Ljade_scalarmult_curve25519_amd64_mulx_base$7:
movl %eax, 344(%rsp)
xorq %rdi, %rdi
movq %r12, %rdx
MULXq %rdx, %r10, %rbx
MULXq %r8, %rcx, %rax
MULXq %r11, %rbp, %rsi
adcxq %rbp, %rax
MULXq %r9, %rdx, %rbp
adcxq %rdx, %rsi
movq %r8, %rdx
MULXq %r11, %r12, %r8
adoxq %r12, %rsi
adcxq %r8, %rbp
MULXq %r9, %r12, %r8
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %r11, %rdx
MULXq %r9, %r14, %r11
adcxq %r14, %r8
adoxq %rdi, %r8
adcxq %rdi, %r11
adoxq %rdi, %r11
MULXq %rdx, %r15, %r14
movq %r9, %rdx
MULXq %rdx, %rdx, %r9
adcxq %rcx, %rcx
adoxq %rbx, %rcx
adcxq %rax, %rax
adoxq %r13, %rax
adcxq %rsi, %rsi
adoxq %r12, %rsi
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r8, %r8
adoxq %r14, %r8
adcxq %r11, %r11
adoxq %rdx, %r11
adcxq %rdi, %r9
adoxq %rdi, %r9
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %r10
adcxq %rbx, %rcx
MULXq %r8, %rbx, %r8
adoxq %rbx, %rcx
adcxq %r8, %rax
MULXq %r11, %r11, %r8
adoxq %r11, %rax
adcxq %r8, %rsi
MULXq %r9, %r8, %rdx
adoxq %r8, %rsi
adcxq %rdi, %rdx
adoxq %rdi, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %r10
adcq %rdi, %rcx
adcq %rdi, %rax
adcq %rdi, %rsi
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %r10
xorq %rdi, %rdi
movq %r10, %rdx
MULXq %rdx, %r12, %r10
MULXq %rcx, %r8, %r11
MULXq %rax, %rbx, %r9
adcxq %rbx, %r11
MULXq %rsi, %rdx, %rbx
adcxq %rdx, %r9
movq %rcx, %rdx
MULXq %rax, %rbp, %rcx
adoxq %rbp, %r9
adcxq %rcx, %rbx
MULXq %rsi, %rbp, %rcx
adoxq %rbp, %rbx
MULXq %rdx, %r13, %rbp
movq %rax, %rdx
MULXq %rsi, %r14, %rax
adcxq %r14, %rcx
adoxq %rdi, %rcx
adcxq %rdi, %rax
adoxq %rdi, %rax
MULXq %rdx, %r15, %r14
movq %rsi, %rdx
MULXq %rdx, %rdx, %rsi
adcxq %r8, %r8
adoxq %r10, %r8
adcxq %r11, %r11
adoxq %r13, %r11
adcxq %r9, %r9
adoxq %rbp, %r9
adcxq %rbx, %rbx
adoxq %r15, %rbx
adcxq %rcx, %rcx
adoxq %r14, %rcx
adcxq %rax, %rax
adoxq %rdx, %rax
adcxq %rdi, %rsi
adoxq %rdi, %rsi
movq $38, %rdx
MULXq %rbx, %rbx, %r10
adoxq %rbx, %r12
adcxq %r10, %r8
MULXq %rcx, %r10, %rcx
adoxq %r10, %r8
adcxq %rcx, %r11
MULXq %rax, %rcx, %rax
adoxq %rcx, %r11
adcxq %rax, %r9
MULXq %rsi, %rcx, %rax
adoxq %rcx, %r9
adcxq %rdi, %rax
adoxq %rdi, %rax
imulq $38, %rax, %rax
addq %rax, %r12
adcq %rdi, %r8
adcq %rdi, %r11
adcq %rdi, %r9
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %r12
movl 344(%rsp), %eax
decl %eax
jne Ljade_scalarmult_curve25519_amd64_mulx_base$7
xorq %rax, %rax
movq 120(%rsp), %rdx
MULXq %r12, %rbp, %rbx
MULXq %r8, %rcx, %r10
adcxq %rcx, %rbx
MULXq %r11, %rsi, %rcx
adcxq %rsi, %r10
MULXq %r9, %rdx, %rsi
adcxq %rdx, %rcx
adcxq %rax, %rsi
movq 128(%rsp), %rdx
MULXq %r12, %r13, %rdi
adoxq %r13, %rbx
adcxq %rdi, %r10
MULXq %r8, %r13, %rdi
adoxq %r13, %r10
adcxq %rdi, %rcx
MULXq %r11, %r13, %rdi
adoxq %r13, %rcx
adcxq %rdi, %rsi
MULXq %r9, %rdx, %rdi
adoxq %rdx, %rsi
adcxq %rax, %rdi
adoxq %rax, %rdi
movq 136(%rsp), %rdx
MULXq %r12, %r14, %r13
adoxq %r14, %r10
adcxq %r13, %rcx
MULXq %r8, %r14, %r13
adoxq %r14, %rcx
adcxq %r13, %rsi
MULXq %r11, %r14, %r13
adoxq %r14, %rsi
adcxq %r13, %rdi
MULXq %r9, %rdx, %r13
adoxq %rdx, %rdi
adcxq %rax, %r13
adoxq %rax, %r13
movq 144(%rsp), %rdx
MULXq %r12, %r14, %r12
adoxq %r14, %rcx
adcxq %r12, %rsi
MULXq %r8, %r12, %r8
adoxq %r12, %rsi
adcxq %r8, %rdi
MULXq %r11, %r11, %r8
adoxq %r11, %rdi
adcxq %r8, %r13
MULXq %r9, %rdx, %r8
adoxq %rdx, %r13
adcxq %rax, %r8
adoxq %rax, %r8
movq $38, %rdx
MULXq %rsi, %r9, %rsi
adoxq %r9, %rbp
adcxq %rsi, %rbx
MULXq %rdi, %rdi, %rsi
adoxq %rdi, %rbx
adcxq %rsi, %r10
MULXq %r13, %rdi, %rsi
adoxq %rdi, %r10
adcxq %rsi, %rcx
MULXq %r8, %rsi, %rdx
adoxq %rsi, %rcx
adcxq %rax, %rdx
adoxq %rax, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rbp
adcq %rax, %rbx
adcq %rax, %r10
adcq %rax, %rcx
sbbq %rax, %rax
andq $38, %rax
addq %rax, %rbp
movq %rbp, 152(%rsp)
movq %rbx, 160(%rsp)
movq %r10, 168(%rsp)
movq %rcx, 176(%rsp)
movl $10, %eax
Ljade_scalarmult_curve25519_amd64_mulx_base$6:
movl %eax, 344(%rsp)
xorq %r8, %r8
movq %rbp, %rdx
MULXq %rdx, %r9, %r11
MULXq %rbx, %rsi, %rax
MULXq %r10, %rbp, %rdi
adcxq %rbp, %rax
MULXq %rcx, %rdx, %rbp
adcxq %rdx, %rdi
movq %rbx, %rdx
MULXq %r10, %r12, %rbx
adoxq %r12, %rdi
adcxq %rbx, %rbp
MULXq %rcx, %r12, %rbx
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %r10, %rdx
MULXq %rcx, %r14, %r10
adcxq %r14, %rbx
adoxq %r8, %rbx
adcxq %r8, %r10
adoxq %r8, %r10
MULXq %rdx, %r15, %r14
movq %rcx, %rdx
MULXq %rdx, %rdx, %rcx
adcxq %rsi, %rsi
adoxq %r11, %rsi
adcxq %rax, %rax
adoxq %r13, %rax
adcxq %rdi, %rdi
adoxq %r12, %rdi
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %rbx, %rbx
adoxq %r14, %rbx
adcxq %r10, %r10
adoxq %rdx, %r10
adcxq %r8, %rcx
adoxq %r8, %rcx
movq $38, %rdx
MULXq %rbp, %rbp, %r11
adoxq %rbp, %r9
adcxq %r11, %rsi
MULXq %rbx, %rbx, %r11
adoxq %rbx, %rsi
adcxq %r11, %rax
MULXq %r10, %r11, %r10
adoxq %r11, %rax
adcxq %r10, %rdi
MULXq %rcx, %rdx, %rcx
adoxq %rdx, %rdi
adcxq %r8, %rcx
adoxq %r8, %rcx
imulq $38, %rcx, %rcx
addq %rcx, %r9
adcq %r8, %rsi
adcq %r8, %rax
adcq %r8, %rdi
sbbq %r8, %r8
andq $38, %r8
addq %r8, %r9
xorq %r8, %r8
movq %r9, %rdx
MULXq %rdx, %rbp, %r9
MULXq %rsi, %rbx, %r10
MULXq %rax, %r11, %rcx
adcxq %r11, %r10
MULXq %rdi, %rdx, %r11
adcxq %rdx, %rcx
movq %rsi, %rdx
MULXq %rax, %r12, %rsi
adoxq %r12, %rcx
adcxq %rsi, %r11
MULXq %rdi, %r12, %rsi
adoxq %r12, %r11
MULXq %rdx, %r13, %r12
movq %rax, %rdx
MULXq %rdi, %r14, %rax
adcxq %r14, %rsi
adoxq %r8, %rsi
adcxq %r8, %rax
adoxq %r8, %rax
MULXq %rdx, %r15, %r14
movq %rdi, %rdx
MULXq %rdx, %rdx, %rdi
adcxq %rbx, %rbx
adoxq %r9, %rbx
adcxq %r10, %r10
adoxq %r13, %r10
adcxq %rcx, %rcx
adoxq %r12, %rcx
adcxq %r11, %r11
adoxq %r15, %r11
adcxq %rsi, %rsi
adoxq %r14, %rsi
adcxq %rax, %rax
adoxq %rdx, %rax
adcxq %r8, %rdi
adoxq %r8, %rdi
movq $38, %rdx
MULXq %r11, %r11, %r9
adoxq %r11, %rbp
adcxq %r9, %rbx
MULXq %rsi, %r9, %rsi
adoxq %r9, %rbx
adcxq %rsi, %r10
MULXq %rax, %rsi, %rax
adoxq %rsi, %r10
adcxq %rax, %rcx
MULXq %rdi, %rdx, %rax
adoxq %rdx, %rcx
adcxq %r8, %rax
adoxq %r8, %rax
imulq $38, %rax, %rax
addq %rax, %rbp
adcq %r8, %rbx
adcq %r8, %r10
adcq %r8, %rcx
sbbq %r8, %r8
andq $38, %r8
addq %r8, %rbp
movl 344(%rsp), %eax
decl %eax
jne Ljade_scalarmult_curve25519_amd64_mulx_base$6
xorq %r9, %r9
movq 152(%rsp), %rdx
MULXq %rbp, %rdi, %rax
MULXq %rbx, %r8, %rsi
adcxq %r8, %rax
MULXq %r10, %r11, %r8
adcxq %r11, %rsi
MULXq %rcx, %rdx, %r11
adcxq %rdx, %r8
adcxq %r9, %r11
movq 160(%rsp), %rdx
MULXq %rbp, %r13, %r12
adoxq %r13, %rax
adcxq %r12, %rsi
MULXq %rbx, %r13, %r12
adoxq %r13, %rsi
adcxq %r12, %r8
MULXq %r10, %r13, %r12
adoxq %r13, %r8
adcxq %r12, %r11
MULXq %rcx, %rdx, %r12
adoxq %rdx, %r11
adcxq %r9, %r12
adoxq %r9, %r12
movq 168(%rsp), %rdx
MULXq %rbp, %r14, %r13
adoxq %r14, %rsi
adcxq %r13, %r8
MULXq %rbx, %r14, %r13
adoxq %r14, %r8
adcxq %r13, %r11
MULXq %r10, %r14, %r13
adoxq %r14, %r11
adcxq %r13, %r12
MULXq %rcx, %rdx, %r13
adoxq %rdx, %r12
adcxq %r9, %r13
adoxq %r9, %r13
movq 176(%rsp), %rdx
MULXq %rbp, %r14, %rbp
adoxq %r14, %r8
adcxq %rbp, %r11
MULXq %rbx, %rbp, %rbx
adoxq %rbp, %r11
adcxq %rbx, %r12
MULXq %r10, %rbx, %r10
adoxq %rbx, %r12
adcxq %r10, %r13
MULXq %rcx, %rdx, %rcx
adoxq %rdx, %r13
adcxq %r9, %rcx
adoxq %r9, %rcx
movq $38, %rdx
MULXq %r11, %r11, %r10
adoxq %r11, %rdi
adcxq %r10, %rax
MULXq %r12, %r11, %r10
adoxq %r11, %rax
adcxq %r10, %rsi
MULXq %r13, %r11, %r10
adoxq %r11, %rsi
adcxq %r10, %r8
MULXq %rcx, %rdx, %rcx
adoxq %rdx, %r8
adcxq %r9, %rcx
adoxq %r9, %rcx
imulq $38, %rcx, %rcx
addq %rcx, %rdi
adcq %r9, %rax
adcq %r9, %rsi
adcq %r9, %r8
sbbq %r9, %r9
andq $38, %r9
addq %r9, %rdi
movl $5, %ecx
Ljade_scalarmult_curve25519_amd64_mulx_base$5:
movl %ecx, 344(%rsp)
xorq %r11, %r11
movq %rdi, %rdx
MULXq %rdx, %rdi, %rbx
MULXq %rax, %r9, %rcx
MULXq %rsi, %rbp, %r10
adcxq %rbp, %rcx
MULXq %r8, %rdx, %rbp
adcxq %rdx, %r10
movq %rax, %rdx
MULXq %rsi, %r12, %rax
adoxq %r12, %r10
adcxq %rax, %rbp
MULXq %r8, %r12, %rax
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rsi, %rdx
MULXq %r8, %r14, %rsi
adcxq %r14, %rax
adoxq %r11, %rax
adcxq %r11, %rsi
adoxq %r11, %rsi
MULXq %rdx, %r15, %r14
movq %r8, %rdx
MULXq %rdx, %rdx, %r8
adcxq %r9, %r9
adoxq %rbx, %r9
adcxq %rcx, %rcx
adoxq %r13, %rcx
adcxq %r10, %r10
adoxq %r12, %r10
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %rax, %rax
adoxq %r14, %rax
adcxq %rsi, %rsi
adoxq %rdx, %rsi
adcxq %r11, %r8
adoxq %r11, %r8
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %rdi
adcxq %rbx, %r9
MULXq %rax, %rbx, %rax
adoxq %rbx, %r9
adcxq %rax, %rcx
MULXq %rsi, %rsi, %rax
adoxq %rsi, %rcx
adcxq %rax, %r10
MULXq %r8, %rdx, %rax
adoxq %rdx, %r10
adcxq %r11, %rax
adoxq %r11, %rax
imulq $38, %rax, %rax
addq %rax, %rdi
adcq %r11, %r9
adcq %r11, %rcx
adcq %r11, %r10
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rdi
xorq %r11, %r11
movq %rdi, %rdx
MULXq %rdx, %rdi, %rbx
MULXq %r9, %rax, %rsi
MULXq %rcx, %rbp, %r8
adcxq %rbp, %rsi
MULXq %r10, %rdx, %rbp
adcxq %rdx, %r8
movq %r9, %rdx
MULXq %rcx, %r12, %r9
adoxq %r12, %r8
adcxq %r9, %rbp
MULXq %r10, %r12, %r9
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rcx, %rdx
MULXq %r10, %r14, %rcx
adcxq %r14, %r9
adoxq %r11, %r9
adcxq %r11, %rcx
adoxq %r11, %rcx
MULXq %rdx, %r15, %r14
movq %r10, %rdx
MULXq %rdx, %rdx, %r10
adcxq %rax, %rax
adoxq %rbx, %rax
adcxq %rsi, %rsi
adoxq %r13, %rsi
adcxq %r8, %r8
adoxq %r12, %r8
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r9, %r9
adoxq %r14, %r9
adcxq %rcx, %rcx
adoxq %rdx, %rcx
adcxq %r11, %r10
adoxq %r11, %r10
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %rdi
adcxq %rbx, %rax
MULXq %r9, %rbx, %r9
adoxq %rbx, %rax
adcxq %r9, %rsi
MULXq %rcx, %r9, %rcx
adoxq %r9, %rsi
adcxq %rcx, %r8
MULXq %r10, %rdx, %rcx
adoxq %rdx, %r8
adcxq %r11, %rcx
adoxq %r11, %rcx
imulq $38, %rcx, %rcx
addq %rcx, %rdi
adcq %r11, %rax
adcq %r11, %rsi
adcq %r11, %r8
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rdi
movl 344(%rsp), %ecx
decl %ecx
jne Ljade_scalarmult_curve25519_amd64_mulx_base$5
xorq %rcx, %rcx
movq 120(%rsp), %rdx
MULXq %rdi, %rbx, %r9
MULXq %rax, %r11, %r10
adcxq %r11, %r9
MULXq %rsi, %rbp, %r11
adcxq %rbp, %r10
MULXq %r8, %rdx, %rbp
adcxq %rdx, %r11
adcxq %rcx, %rbp
movq 128(%rsp), %rdx
MULXq %rdi, %r13, %r12
adoxq %r13, %r9
adcxq %r12, %r10
MULXq %rax, %r13, %r12
adoxq %r13, %r10
adcxq %r12, %r11
MULXq %rsi, %r13, %r12
adoxq %r13, %r11
adcxq %r12, %rbp
MULXq %r8, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rcx, %r12
adoxq %rcx, %r12
movq 136(%rsp), %rdx
MULXq %rdi, %r14, %r13
adoxq %r14, %r10
adcxq %r13, %r11
MULXq %rax, %r14, %r13
adoxq %r14, %r11
adcxq %r13, %rbp
MULXq %rsi, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %r8, %rdx, %r13
adoxq %rdx, %r12
adcxq %rcx, %r13
adoxq %rcx, %r13
movq 144(%rsp), %rdx
MULXq %rdi, %r14, %rdi
adoxq %r14, %r11
adcxq %rdi, %rbp
MULXq %rax, %rdi, %rax
adoxq %rdi, %rbp
adcxq %rax, %r12
MULXq %rsi, %rsi, %rax
adoxq %rsi, %r12
adcxq %rax, %r13
MULXq %r8, %rdx, %rax
adoxq %rdx, %r13
adcxq %rcx, %rax
adoxq %rcx, %rax
movq $38, %rdx
MULXq %rbp, %rdi, %rsi
adoxq %rdi, %rbx
adcxq %rsi, %r9
MULXq %r12, %rdi, %rsi
adoxq %rdi, %r9
adcxq %rsi, %r10
MULXq %r13, %rdi, %rsi
adoxq %rdi, %r10
adcxq %rsi, %r11
MULXq %rax, %rdx, %rax
adoxq %rdx, %r11
adcxq %rcx, %rax
adoxq %rcx, %rax
imulq $38, %rax, %rax
addq %rax, %rbx
adcq %rcx, %r9
adcq %rcx, %r10
adcq %rcx, %r11
sbbq %rcx, %rcx
andq $38, %rcx
addq %rcx, %rbx
movq %rbx, 120(%rsp)
movq %r9, 128(%rsp)
movq %r10, 136(%rsp)
movq %r11, 144(%rsp)
movl $25, %eax
Ljade_scalarmult_curve25519_amd64_mulx_base$4:
movl %eax, 344(%rsp)
xorq %rdi, %rdi
movq %rbx, %rdx
MULXq %rdx, %r8, %rbx
MULXq %r9, %rcx, %rax
MULXq %r10, %rbp, %rsi
adcxq %rbp, %rax
MULXq %r11, %rdx, %rbp
adcxq %rdx, %rsi
movq %r9, %rdx
MULXq %r10, %r12, %r9
adoxq %r12, %rsi
adcxq %r9, %rbp
MULXq %r11, %r12, %r9
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %r10, %rdx
MULXq %r11, %r14, %r10
adcxq %r14, %r9
adoxq %rdi, %r9
adcxq %rdi, %r10
adoxq %rdi, %r10
MULXq %rdx, %r15, %r14
movq %r11, %rdx
MULXq %rdx, %rdx, %r11
adcxq %rcx, %rcx
adoxq %rbx, %rcx
adcxq %rax, %rax
adoxq %r13, %rax
adcxq %rsi, %rsi
adoxq %r12, %rsi
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r9, %r9
adoxq %r14, %r9
adcxq %r10, %r10
adoxq %rdx, %r10
adcxq %rdi, %r11
adoxq %rdi, %r11
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %r8
adcxq %rbx, %rcx
MULXq %r9, %rbx, %r9
adoxq %rbx, %rcx
adcxq %r9, %rax
MULXq %r10, %r10, %r9
adoxq %r10, %rax
adcxq %r9, %rsi
MULXq %r11, %r9, %rdx
adoxq %r9, %rsi
adcxq %rdi, %rdx
adoxq %rdi, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %r8
adcq %rdi, %rcx
adcq %rdi, %rax
adcq %rdi, %rsi
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %r8
xorq %rdi, %rdi
movq %r8, %rdx
MULXq %rdx, %rbx, %r8
MULXq %rcx, %r9, %r10
MULXq %rax, %rbp, %r11
adcxq %rbp, %r10
MULXq %rsi, %rdx, %rbp
adcxq %rdx, %r11
movq %rcx, %rdx
MULXq %rax, %r12, %rcx
adoxq %r12, %r11
adcxq %rcx, %rbp
MULXq %rsi, %r12, %rcx
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rax, %rdx
MULXq %rsi, %r14, %rax
adcxq %r14, %rcx
adoxq %rdi, %rcx
adcxq %rdi, %rax
adoxq %rdi, %rax
MULXq %rdx, %r15, %r14
movq %rsi, %rdx
MULXq %rdx, %rdx, %rsi
adcxq %r9, %r9
adoxq %r8, %r9
adcxq %r10, %r10
adoxq %r13, %r10
adcxq %r11, %r11
adoxq %r12, %r11
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %rcx, %rcx
adoxq %r14, %rcx
adcxq %rax, %rax
adoxq %rdx, %rax
adcxq %rdi, %rsi
adoxq %rdi, %rsi
movq $38, %rdx
MULXq %rbp, %rbp, %r8
adoxq %rbp, %rbx
adcxq %r8, %r9
MULXq %rcx, %r8, %rcx
adoxq %r8, %r9
adcxq %rcx, %r10
MULXq %rax, %rcx, %rax
adoxq %rcx, %r10
adcxq %rax, %r11
MULXq %rsi, %rcx, %rax
adoxq %rcx, %r11
adcxq %rdi, %rax
adoxq %rdi, %rax
imulq $38, %rax, %rax
addq %rax, %rbx
adcq %rdi, %r9
adcq %rdi, %r10
adcq %rdi, %r11
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %rbx
movl 344(%rsp), %eax
decl %eax
jne Ljade_scalarmult_curve25519_amd64_mulx_base$4
xorq %r8, %r8
movq 120(%rsp), %rdx
MULXq %rbx, %rdi, %rsi
MULXq %r9, %rax, %rcx
adcxq %rax, %rsi
MULXq %r10, %rbp, %rax
adcxq %rbp, %rcx
MULXq %r11, %rdx, %rbp
adcxq %rdx, %rax
adcxq %r8, %rbp
movq 128(%rsp), %rdx
MULXq %rbx, %r13, %r12
adoxq %r13, %rsi
adcxq %r12, %rcx
MULXq %r9, %r13, %r12
adoxq %r13, %rcx
adcxq %r12, %rax
MULXq %r10, %r13, %r12
adoxq %r13, %rax
adcxq %r12, %rbp
MULXq %r11, %rdx, %r12
adoxq %rdx, %rbp
adcxq %r8, %r12
adoxq %r8, %r12
movq 136(%rsp), %rdx
MULXq %rbx, %r14, %r13
adoxq %r14, %rcx
adcxq %r13, %rax
MULXq %r9, %r14, %r13
adoxq %r14, %rax
adcxq %r13, %rbp
MULXq %r10, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %r11, %rdx, %r13
adoxq %rdx, %r12
adcxq %r8, %r13
adoxq %r8, %r13
movq 144(%rsp), %rdx
MULXq %rbx, %r14, %rbx
adoxq %r14, %rax
adcxq %rbx, %rbp
MULXq %r9, %rbx, %r9
adoxq %rbx, %rbp
adcxq %r9, %r12
MULXq %r10, %r10, %r9
adoxq %r10, %r12
adcxq %r9, %r13
MULXq %r11, %rdx, %r9
adoxq %rdx, %r13
adcxq %r8, %r9
adoxq %r8, %r9
movq $38, %rdx
MULXq %rbp, %r11, %r10
adoxq %r11, %rdi
adcxq %r10, %rsi
MULXq %r12, %r11, %r10
adoxq %r11, %rsi
adcxq %r10, %rcx
MULXq %r13, %r11, %r10
adoxq %r11, %rcx
adcxq %r10, %rax
MULXq %r9, %r9, %rdx
adoxq %r9, %rax
adcxq %r8, %rdx
adoxq %r8, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rdi
adcq %r8, %rsi
adcq %r8, %rcx
adcq %r8, %rax
sbbq %r8, %r8
andq $38, %r8
addq %r8, %rdi
movq %rdi, 152(%rsp)
movq %rsi, 160(%rsp)
movq %rcx, 168(%rsp)
movq %rax, 176(%rsp)
movl $50, %edx
Ljade_scalarmult_curve25519_amd64_mulx_base$3:
movl %edx, 344(%rsp)
xorq %r11, %r11
movq %rdi, %rdx
MULXq %rdx, %rdi, %rbx
MULXq %rsi, %r9, %r8
MULXq %rcx, %rbp, %r10
adcxq %rbp, %r8
MULXq %rax, %rdx, %rbp
adcxq %rdx, %r10
movq %rsi, %rdx
MULXq %rcx, %r12, %rsi
adoxq %r12, %r10
adcxq %rsi, %rbp
MULXq %rax, %r12, %rsi
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rcx, %rdx
MULXq %rax, %r14, %rcx
adcxq %r14, %rsi
adoxq %r11, %rsi
adcxq %r11, %rcx
adoxq %r11, %rcx
MULXq %rdx, %r15, %r14
movq %rax, %rdx
MULXq %rdx, %rdx, %rax
adcxq %r9, %r9
adoxq %rbx, %r9
adcxq %r8, %r8
adoxq %r13, %r8
adcxq %r10, %r10
adoxq %r12, %r10
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %rsi, %rsi
adoxq %r14, %rsi
adcxq %rcx, %rcx
adoxq %rdx, %rcx
adcxq %r11, %rax
adoxq %r11, %rax
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %rdi
adcxq %rbx, %r9
MULXq %rsi, %rbx, %rsi
adoxq %rbx, %r9
adcxq %rsi, %r8
MULXq %rcx, %rsi, %rcx
adoxq %rsi, %r8
adcxq %rcx, %r10
MULXq %rax, %rcx, %rax
adoxq %rcx, %r10
adcxq %r11, %rax
adoxq %r11, %rax
imulq $38, %rax, %rax
addq %rax, %rdi
adcq %r11, %r9
adcq %r11, %r8
adcq %r11, %r10
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rdi
xorq %r11, %r11
movq %rdi, %rdx
MULXq %rdx, %rdi, %rbx
MULXq %r9, %rsi, %rcx
MULXq %r8, %rbp, %rax
adcxq %rbp, %rcx
MULXq %r10, %rdx, %rbp
adcxq %rdx, %rax
movq %r9, %rdx
MULXq %r8, %r12, %r9
adoxq %r12, %rax
adcxq %r9, %rbp
MULXq %r10, %r12, %r9
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %r8, %rdx
MULXq %r10, %r14, %r8
adcxq %r14, %r9
adoxq %r11, %r9
adcxq %r11, %r8
adoxq %r11, %r8
MULXq %rdx, %r15, %r14
movq %r10, %rdx
MULXq %rdx, %rdx, %r10
adcxq %rsi, %rsi
adoxq %rbx, %rsi
adcxq %rcx, %rcx
adoxq %r13, %rcx
adcxq %rax, %rax
adoxq %r12, %rax
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r9, %r9
adoxq %r14, %r9
adcxq %r8, %r8
adoxq %rdx, %r8
adcxq %r11, %r10
adoxq %r11, %r10
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %rdi
adcxq %rbx, %rsi
MULXq %r9, %rbx, %r9
adoxq %rbx, %rsi
adcxq %r9, %rcx
MULXq %r8, %r9, %r8
adoxq %r9, %rcx
adcxq %r8, %rax
MULXq %r10, %r8, %rdx
adoxq %r8, %rax
adcxq %r11, %rdx
adoxq %r11, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rdi
adcq %r11, %rsi
adcq %r11, %rcx
adcq %r11, %rax
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rdi
movl 344(%rsp), %edx
decl %edx
jne Ljade_scalarmult_curve25519_amd64_mulx_base$3
xorq %rbx, %rbx
movq 152(%rsp), %rdx
MULXq %rdi, %r9, %r8
MULXq %rsi, %r11, %r10
adcxq %r11, %r8
MULXq %rcx, %rbp, %r11
adcxq %rbp, %r10
MULXq %rax, %rdx, %rbp
adcxq %rdx, %r11
adcxq %rbx, %rbp
movq 160(%rsp), %rdx
MULXq %rdi, %r13, %r12
adoxq %r13, %r8
adcxq %r12, %r10
MULXq %rsi, %r13, %r12
adoxq %r13, %r10
adcxq %r12, %r11
MULXq %rcx, %r13, %r12
adoxq %r13, %r11
adcxq %r12, %rbp
MULXq %rax, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rbx, %r12
adoxq %rbx, %r12
movq 168(%rsp), %rdx
MULXq %rdi, %r14, %r13
adoxq %r14, %r10
adcxq %r13, %r11
MULXq %rsi, %r14, %r13
adoxq %r14, %r11
adcxq %r13, %rbp
MULXq %rcx, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %rax, %rdx, %r13
adoxq %rdx, %r12
adcxq %rbx, %r13
adoxq %rbx, %r13
movq 176(%rsp), %rdx
MULXq %rdi, %r14, %rdi
adoxq %r14, %r11
adcxq %rdi, %rbp
MULXq %rsi, %rdi, %rsi
adoxq %rdi, %rbp
adcxq %rsi, %r12
MULXq %rcx, %rsi, %rcx
adoxq %rsi, %r12
adcxq %rcx, %r13
MULXq %rax, %rcx, %rax
adoxq %rcx, %r13
adcxq %rbx, %rax
adoxq %rbx, %rax
movq $38, %rdx
MULXq %rbp, %rsi, %rcx
adoxq %rsi, %r9
adcxq %rcx, %r8
MULXq %r12, %rsi, %rcx
adoxq %rsi, %r8
adcxq %rcx, %r10
MULXq %r13, %rsi, %rcx
adoxq %rsi, %r10
adcxq %rcx, %r11
MULXq %rax, %rcx, %rax
adoxq %rcx, %r11
adcxq %rbx, %rax
adoxq %rbx, %rax
imulq $38, %rax, %rax
addq %rax, %r9
adcq %rbx, %r8
adcq %rbx, %r10
adcq %rbx, %r11
sbbq %rbx, %rbx
andq $38, %rbx
addq %rbx, %r9
movl $25, %eax
Ljade_scalarmult_curve25519_amd64_mulx_base$2:
movl %eax, 344(%rsp)
xorq %rdi, %rdi
movq %r9, %rdx
MULXq %rdx, %r9, %rbx
MULXq %r8, %rcx, %rax
MULXq %r10, %rbp, %rsi
adcxq %rbp, %rax
MULXq %r11, %rdx, %rbp
adcxq %rdx, %rsi
movq %r8, %rdx
MULXq %r10, %r12, %r8
adoxq %r12, %rsi
adcxq %r8, %rbp
MULXq %r11, %r12, %r8
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %r10, %rdx
MULXq %r11, %r14, %r10
adcxq %r14, %r8
adoxq %rdi, %r8
adcxq %rdi, %r10
adoxq %rdi, %r10
MULXq %rdx, %r15, %r14
movq %r11, %rdx
MULXq %rdx, %rdx, %r11
adcxq %rcx, %rcx
adoxq %rbx, %rcx
adcxq %rax, %rax
adoxq %r13, %rax
adcxq %rsi, %rsi
adoxq %r12, %rsi
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r8, %r8
adoxq %r14, %r8
adcxq %r10, %r10
adoxq %rdx, %r10
adcxq %rdi, %r11
adoxq %rdi, %r11
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %r9
adcxq %rbx, %rcx
MULXq %r8, %rbx, %r8
adoxq %rbx, %rcx
adcxq %r8, %rax
MULXq %r10, %r10, %r8
adoxq %r10, %rax
adcxq %r8, %rsi
MULXq %r11, %r8, %rdx
adoxq %r8, %rsi
adcxq %rdi, %rdx
adoxq %rdi, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %r9
adcq %rdi, %rcx
adcq %rdi, %rax
adcq %rdi, %rsi
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %r9
xorq %rdi, %rdi
movq %r9, %rdx
MULXq %rdx, %r9, %rbx
MULXq %rcx, %r8, %r10
MULXq %rax, %rbp, %r11
adcxq %rbp, %r10
MULXq %rsi, %rdx, %rbp
adcxq %rdx, %r11
movq %rcx, %rdx
MULXq %rax, %r12, %rcx
adoxq %r12, %r11
adcxq %rcx, %rbp
MULXq %rsi, %r12, %rcx
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rax, %rdx
MULXq %rsi, %r14, %rax
adcxq %r14, %rcx
adoxq %rdi, %rcx
adcxq %rdi, %rax
adoxq %rdi, %rax
MULXq %rdx, %r15, %r14
movq %rsi, %rdx
MULXq %rdx, %rdx, %rsi
adcxq %r8, %r8
adoxq %rbx, %r8
adcxq %r10, %r10
adoxq %r13, %r10
adcxq %r11, %r11
adoxq %r12, %r11
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %rcx, %rcx
adoxq %r14, %rcx
adcxq %rax, %rax
adoxq %rdx, %rax
adcxq %rdi, %rsi
adoxq %rdi, %rsi
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %r9
adcxq %rbx, %r8
MULXq %rcx, %rbx, %rcx
adoxq %rbx, %r8
adcxq %rcx, %r10
MULXq %rax, %rcx, %rax
adoxq %rcx, %r10
adcxq %rax, %r11
MULXq %rsi, %rcx, %rax
adoxq %rcx, %r11
adcxq %rdi, %rax
adoxq %rdi, %rax
imulq $38, %rax, %rax
addq %rax, %r9
adcq %rdi, %r8
adcq %rdi, %r10
adcq %rdi, %r11
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %r9
movl 344(%rsp), %eax
decl %eax
jne Ljade_scalarmult_curve25519_amd64_mulx_base$2
xorq %rdi, %rdi
movq 120(%rsp), %rdx
MULXq %r9, %rsi, %rcx
MULXq %r8, %rax, %rbx
adcxq %rax, %rcx
MULXq %r10, %rbp, %rax
adcxq %rbp, %rbx
MULXq %r11, %rdx, %rbp
adcxq %rdx, %rax
adcxq %rdi, %rbp
movq 128(%rsp), %rdx
MULXq %r9, %r13, %r12
adoxq %r13, %rcx
adcxq %r12, %rbx
MULXq %r8, %r13, %r12
adoxq %r13, %rbx
adcxq %r12, %rax
MULXq %r10, %r13, %r12
adoxq %r13, %rax
adcxq %r12, %rbp
MULXq %r11, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rdi, %r12
adoxq %rdi, %r12
movq 136(%rsp), %rdx
MULXq %r9, %r14, %r13
adoxq %r14, %rbx
adcxq %r13, %rax
MULXq %r8, %r14, %r13
adoxq %r14, %rax
adcxq %r13, %rbp
MULXq %r10, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %r11, %rdx, %r13
adoxq %rdx, %r12
adcxq %rdi, %r13
adoxq %rdi, %r13
movq 144(%rsp), %rdx
MULXq %r9, %r14, %r9
adoxq %r14, %rax
adcxq %r9, %rbp
MULXq %r8, %r9, %r8
adoxq %r9, %rbp
adcxq %r8, %r12
MULXq %r10, %r9, %r8
adoxq %r9, %r12
adcxq %r8, %r13
MULXq %r11, %rdx, %r8
adoxq %rdx, %r13
adcxq %rdi, %r8
adoxq %rdi, %r8
movq $38, %rdx
MULXq %rbp, %r10, %r9
adoxq %r10, %rsi
adcxq %r9, %rcx
MULXq %r12, %r10, %r9
adoxq %r10, %rcx
adcxq %r9, %rbx
MULXq %r13, %r10, %r9
adoxq %r10, %rbx
adcxq %r9, %rax
MULXq %r8, %r8, %rdx
adoxq %r8, %rax
adcxq %rdi, %rdx
adoxq %rdi, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rsi
adcq %rdi, %rcx
adcq %rdi, %rbx
adcq %rdi, %rax
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %rsi
movl $2, %edx
Ljade_scalarmult_curve25519_amd64_mulx_base$1:
movl %edx, 344(%rsp)
xorq %r10, %r10
movq %rsi, %rdx
MULXq %rdx, %rsi, %r11
MULXq %rcx, %r8, %rdi
MULXq %rbx, %rbp, %r9
adcxq %rbp, %rdi
MULXq %rax, %rdx, %rbp
adcxq %rdx, %r9
movq %rcx, %rdx
MULXq %rbx, %r12, %rcx
adoxq %r12, %r9
adcxq %rcx, %rbp
MULXq %rax, %r12, %rcx
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rbx, %rdx
MULXq %rax, %r14, %rbx
adcxq %r14, %rcx
adoxq %r10, %rcx
adcxq %r10, %rbx
adoxq %r10, %rbx
MULXq %rdx, %r15, %r14
movq %rax, %rdx
MULXq %rdx, %rdx, %rax
adcxq %r8, %r8
adoxq %r11, %r8
adcxq %rdi, %rdi
adoxq %r13, %rdi
adcxq %r9, %r9
adoxq %r12, %r9
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %rcx, %rcx
adoxq %r14, %rcx
adcxq %rbx, %rbx
adoxq %rdx, %rbx
adcxq %r10, %rax
adoxq %r10, %rax
movq $38, %rdx
MULXq %rbp, %rbp, %r11
adoxq %rbp, %rsi
adcxq %r11, %r8
MULXq %rcx, %r11, %rcx
adoxq %r11, %r8
adcxq %rcx, %rdi
MULXq %rbx, %r11, %rcx
adoxq %r11, %rdi
adcxq %rcx, %r9
MULXq %rax, %rcx, %rax
adoxq %rcx, %r9
adcxq %r10, %rax
adoxq %r10, %rax
imulq $38, %rax, %rax
addq %rax, %rsi
adcq %r10, %r8
adcq %r10, %rdi
adcq %r10, %r9
sbbq %r10, %r10
andq $38, %r10
addq %r10, %rsi
xorq %r10, %r10
movq %rsi, %rdx
MULXq %rdx, %rsi, %r11
MULXq %r8, %rcx, %rbx
MULXq %rdi, %rbp, %rax
adcxq %rbp, %rbx
MULXq %r9, %rdx, %rbp
adcxq %rdx, %rax
movq %r8, %rdx
MULXq %rdi, %r12, %r8
adoxq %r12, %rax
adcxq %r8, %rbp
MULXq %r9, %r12, %r8
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rdi, %rdx
MULXq %r9, %r14, %rdi
adcxq %r14, %r8
adoxq %r10, %r8
adcxq %r10, %rdi
adoxq %r10, %rdi
MULXq %rdx, %r15, %r14
movq %r9, %rdx
MULXq %rdx, %rdx, %r9
adcxq %rcx, %rcx
adoxq %r11, %rcx
adcxq %rbx, %rbx
adoxq %r13, %rbx
adcxq %rax, %rax
adoxq %r12, %rax
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r8, %r8
adoxq %r14, %r8
adcxq %rdi, %rdi
adoxq %rdx, %rdi
adcxq %r10, %r9
adoxq %r10, %r9
movq $38, %rdx
MULXq %rbp, %rbp, %r11
adoxq %rbp, %rsi
adcxq %r11, %rcx
MULXq %r8, %r11, %r8
adoxq %r11, %rcx
adcxq %r8, %rbx
MULXq %rdi, %r8, %rdi
adoxq %r8, %rbx
adcxq %rdi, %rax
MULXq %r9, %rdi, %rdx
adoxq %rdi, %rax
adcxq %r10, %rdx
adoxq %r10, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rsi
adcq %r10, %rcx
adcq %r10, %rbx
adcq %r10, %rax
sbbq %r10, %r10
andq $38, %r10
addq %r10, %rsi
movl 344(%rsp), %edx
decl %edx
jne Ljade_scalarmult_curve25519_amd64_mulx_base$1
xorq %r8, %r8
movq %rsi, %rdx
MULXq %rdx, %rsi, %r9
MULXq %rcx, %r10, %rdi
MULXq %rbx, %rbp, %r11
adcxq %rbp, %rdi
MULXq %rax, %rdx, %rbp
adcxq %rdx, %r11
movq %rcx, %rdx
MULXq %rbx, %r12, %rcx
adoxq %r12, %r11
adcxq %rcx, %rbp
MULXq %rax, %r12, %rcx
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rbx, %rdx
MULXq %rax, %r14, %rbx
adcxq %r14, %rcx
adoxq %r8, %rcx
adcxq %r8, %rbx
adoxq %r8, %rbx
MULXq %rdx, %r15, %r14
movq %rax, %rdx
MULXq %rdx, %rdx, %rax
adcxq %r10, %r10
adoxq %r9, %r10
adcxq %rdi, %rdi
adoxq %r13, %rdi
adcxq %r11, %r11
adoxq %r12, %r11
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %rcx, %rcx
adoxq %r14, %rcx
adcxq %rbx, %rbx
adoxq %rdx, %rbx
adcxq %r8, %rax
adoxq %r8, %rax
movq $38, %rdx
MULXq %rbp, %rbp, %r9
adoxq %rbp, %rsi
adcxq %r9, %r10
MULXq %rcx, %r9, %rcx
adoxq %r9, %r10
adcxq %rcx, %rdi
MULXq %rbx, %r9, %rcx
adoxq %r9, %rdi
adcxq %rcx, %r11
MULXq %rax, %rcx, %rax
adoxq %rcx, %r11
adcxq %r8, %rax
adoxq %r8, %rax
imulq $38, %rax, %rax
addq %rax, %rsi
adcq %r8, %r10
adcq %r8, %rdi
adcq %r8, %r11
sbbq %r8, %r8
andq $38, %r8
addq %r8, %rsi
xorq %rbx, %rbx
movq 88(%rsp), %rdx
MULXq %rsi, %rcx, %rax
MULXq %r10, %r9, %r8
adcxq %r9, %rax
MULXq %rdi, %rbp, %r9
adcxq %rbp, %r8
MULXq %r11, %rdx, %rbp
adcxq %rdx, %r9
adcxq %rbx, %rbp
movq 96(%rsp), %rdx
MULXq %rsi, %r13, %r12
adoxq %r13, %rax
adcxq %r12, %r8
MULXq %r10, %r13, %r12
adoxq %r13, %r8
adcxq %r12, %r9
MULXq %rdi, %r13, %r12
adoxq %r13, %r9
adcxq %r12, %rbp
MULXq %r11, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rbx, %r12
adoxq %rbx, %r12
movq 104(%rsp), %rdx
MULXq %rsi, %r14, %r13
adoxq %r14, %r8
adcxq %r13, %r9
MULXq %r10, %r14, %r13
adoxq %r14, %r9
adcxq %r13, %rbp
MULXq %rdi, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %r11, %rdx, %r13
adoxq %rdx, %r12
adcxq %rbx, %r13
adoxq %rbx, %r13
movq 112(%rsp), %rdx
MULXq %rsi, %r14, %rsi
adoxq %r14, %r9
adcxq %rsi, %rbp
MULXq %r10, %r10, %rsi
adoxq %r10, %rbp
adcxq %rsi, %r12
MULXq %rdi, %rdi, %rsi
adoxq %rdi, %r12
adcxq %rsi, %r13
MULXq %r11, %rdx, %rsi
adoxq %rdx, %r13
adcxq %rbx, %rsi
adoxq %rbx, %rsi
movq $38, %rdx
MULXq %rbp, %r10, %rdi
adoxq %r10, %rcx
adcxq %rdi, %rax
MULXq %r12, %r10, %rdi
adoxq %r10, %rax
adcxq %rdi, %r8
MULXq %r13, %r10, %rdi
adoxq %r10, %r8
adcxq %rdi, %r9
MULXq %rsi, %rsi, %rdx
adoxq %rsi, %r9
adcxq %rbx, %rdx
adoxq %rbx, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rcx
adcq %rbx, %rax
adcq %rbx, %r8
adcq %rbx, %r9
sbbq %rbx, %rbx
andq $38, %rbx
addq %rbx, %rcx
xorq %rsi, %rsi
movq 56(%rsp), %rdx
MULXq %rcx, %r10, %rdi
MULXq %rax, %rbx, %r11
adcxq %rbx, %rdi
MULXq %r8, %rbp, %rbx
adcxq %rbp, %r11
MULXq %r9, %rdx, %rbp
adcxq %rdx, %rbx
adcxq %rsi, %rbp
movq 64(%rsp), %rdx
MULXq %rcx, %r13, %r12
adoxq %r13, %rdi
adcxq %r12, %r11
MULXq %rax, %r13, %r12
adoxq %r13, %r11
adcxq %r12, %rbx
MULXq %r8, %r13, %r12
adoxq %r13, %rbx
adcxq %r12, %rbp
MULXq %r9, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rsi, %r12
adoxq %rsi, %r12
movq 72(%rsp), %rdx
MULXq %rcx, %r14, %r13
adoxq %r14, %r11
adcxq %r13, %rbx
MULXq %rax, %r14, %r13
adoxq %r14, %rbx
adcxq %r13, %rbp
MULXq %r8, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %r9, %rdx, %r13
adoxq %rdx, %r12
adcxq %rsi, %r13
adoxq %rsi, %r13
movq 80(%rsp), %rdx
MULXq %rcx, %r14, %rcx
adoxq %r14, %rbx
adcxq %rcx, %rbp
MULXq %rax, %rcx, %rax
adoxq %rcx, %rbp
adcxq %rax, %r12
MULXq %r8, %rcx, %rax
adoxq %rcx, %r12
adcxq %rax, %r13
MULXq %r9, %rcx, %rax
adoxq %rcx, %r13
adcxq %rsi, %rax
adoxq %rsi, %rax
movq $38, %rdx
MULXq %rbp, %r8, %rcx
adoxq %r8, %r10
adcxq %rcx, %rdi
MULXq %r12, %r8, %rcx
adoxq %r8, %rdi
adcxq %rcx, %r11
MULXq %r13, %r8, %rcx
adoxq %r8, %r11
adcxq %rcx, %rbx
MULXq %rax, %rcx, %rax
adoxq %rcx, %rbx
adcxq %rsi, %rax
adoxq %rsi, %rax
imulq $38, %rax, %rax
addq %rax, %r10
adcq %rsi, %rdi
adcq %rsi, %r11
adcq %rsi, %rbx
sbbq %rsi, %rsi
andq $38, %rsi
addq %rsi, %r10
leaq (%rbx,%rbx), %rax
sarq $63, %rbx
shrq $1, %rax
andq $19, %rbx
addq $19, %rbx
addq %rbx, %r10
adcq $0, %rdi
adcq $0, %r11
adcq $0, %rax
leaq (%rax,%rax), %rcx
sarq $63, %rax
shrq $1, %rcx
notq %rax
andq $19, %rax
subq %rax, %r10
sbbq $0, %rdi
sbbq $0, %r11
sbbq $0, %rcx
movq (%rsp), %rax
movq %r10, (%rax)
movq %rdi, 8(%rax)
movq %r11, 16(%rax)
movq %rcx, 24(%rax)
xorq %rax, %rax
movq 352(%rsp), %rbx
movq 360(%rsp), %rbp
movq 368(%rsp), %r12
movq 376(%rsp), %r13
movq 384(%rsp), %r14
movq 392(%rsp), %r15
movq 400(%rsp), %rsp
ret
_jade_scalarmult_curve25519_amd64_mulx:
jade_scalarmult_curve25519_amd64_mulx:
movq %rsp, %rax
leaq -408(%rsp), %rsp
andq $-8, %rsp
movq %rax, 400(%rsp)
movq %rbx, 352(%rsp)
movq %rbp, 360(%rsp)
movq %r12, 368(%rsp)
movq %r13, 376(%rsp)
movq %r14, 384(%rsp)
movq %r15, 392(%rsp)
movq %rdi, (%rsp)
movq (%rsi), %rax
movq %rax, 24(%rsp)
movq 8(%rsi), %rax
movq %rax, 32(%rsp)
movq 16(%rsi), %rax
movq %rax, 40(%rsp)
movq 24(%rsi), %rax
movq %rax, 48(%rsp)
andb $-8, 24(%rsp)
andb $127, 55(%rsp)
orb $64, 55(%rsp)
movq (%rdx), %rcx
movq 8(%rdx), %r8
movq 16(%rdx), %r10
movq 24(%rdx), %rdx
movq $9223372036854775807, %rax
andq %rax, %rdx
xorq %r11, %r11
movq $1, 56(%rsp)
movq $0, %rdi
movq %rcx, 88(%rsp)
movq %r8, 96(%rsp)
movq %r10, 104(%rsp)
movq %rdx, 112(%rsp)
movq $1, 120(%rsp)
movq %r11, 64(%rsp)
movq %r11, %r9
movq %r11, 128(%rsp)
movq %r11, 72(%rsp)
movq %r11, %rax
movq %r11, 136(%rsp)
movq %r11, 80(%rsp)
movq %r11, %rsi
movq %r11, 144(%rsp)
movq %rcx, 152(%rsp)
movq %r8, 160(%rsp)
movq %r10, 168(%rsp)
movq %rdx, 176(%rsp)
movq $255, %rcx
movq $0, 8(%rsp)
Ljade_scalarmult_curve25519_amd64_mulx$9:
addq $-1, %rcx
movq %rcx, 16(%rsp)
movq %rcx, %rdx
shrq $3, %rdx
movzbq 24(%rsp,%rdx), %rdx
andq $7, %rcx
shrq %cl, %rdx
andq $1, %rdx
movq 8(%rsp), %r8
xorq %rdx, %r8
xorq %rcx, %rcx
subq %r8, %rcx
movq 120(%rsp), %r8
movq 128(%rsp), %r10
movq 136(%rsp), %r11
movq 144(%rsp), %rbx
movq %rdi, %rbp
movq %r9, %r12
movq %rax, %r13
movq %rsi, %r14
xorq %r8, %rbp
xorq %r10, %r12
xorq %r11, %r13
xorq %rbx, %r14
andq %rcx, %rbp
andq %rcx, %r12
andq %rcx, %r13
andq %rcx, %r14
xorq %rbp, %rdi
xorq %rbp, %r8
movq %r8, 120(%rsp)
xorq %r12, %r9
xorq %r12, %r10
movq %r10, 128(%rsp)
xorq %r13, %rax
xorq %r13, %r11
movq %r11, 136(%rsp)
xorq %r14, %rsi
xorq %r14, %rbx
movq %rbx, 144(%rsp)
movq 88(%rsp), %r11
movq 96(%rsp), %rbx
movq 104(%rsp), %r8
movq 112(%rsp), %r10
movq 56(%rsp), %rbp
movq %r11, %r12
xorq %rbp, %r12
andq %rcx, %r12
xorq %r12, %rbp
xorq %r12, %r11
movq %rbp, 56(%rsp)
movq %r11, 88(%rsp)
movq 64(%rsp), %r11
movq %rbx, %rbp
xorq %r11, %rbp
andq %rcx, %rbp
xorq %rbp, %r11
xorq %rbp, %rbx
movq %r11, 64(%rsp)
movq %rbx, 96(%rsp)
movq 72(%rsp), %r11
movq %r8, %rbx
xorq %r11, %rbx
andq %rcx, %rbx
xorq %rbx, %r11
xorq %rbx, %r8
movq %r11, 72(%rsp)
movq %r8, 104(%rsp)
movq 80(%rsp), %r8
movq %r10, %r11
xorq %r8, %r11
andq %rcx, %r11
xorq %r11, %r8
xorq %r11, %r10
movq %r8, 80(%rsp)
movq %r10, 112(%rsp)
movq %rdx, 8(%rsp)
xorq %rcx, %rcx
movq 56(%rsp), %rdx
movq 64(%rsp), %r8
movq 72(%rsp), %r10
movq 80(%rsp), %r11
subq %rdi, %rdx
sbbq %r9, %r8
sbbq %rax, %r10
sbbq %rsi, %r11
sbbq %rcx, %rcx
andq $38, %rcx
subq %rcx, %rdx
sbbq $0, %r8
sbbq $0, %r10
sbbq $0, %r11
sbbq %rcx, %rcx
andq $38, %rcx
subq %rcx, %rdx
movq %rdx, 184(%rsp)
movq %r8, 192(%rsp)
movq %r10, 200(%rsp)
movq %r11, 208(%rsp)
xorq %rcx, %rcx
addq 56(%rsp), %rdi
adcq 64(%rsp), %r9
adcq 72(%rsp), %rax
adcq 80(%rsp), %rsi
sbbq %rcx, %rcx
andq $38, %rcx
addq %rcx, %rdi
adcq $0, %r9
adcq $0, %rax
adcq $0, %rsi
sbbq %rcx, %rcx
andq $38, %rcx
addq %rcx, %rdi
movq %rdi, 216(%rsp)
movq %r9, 224(%rsp)
movq %rax, 232(%rsp)
movq %rsi, 240(%rsp)
movq 88(%rsp), %rax
movq 96(%rsp), %rcx
movq 104(%rsp), %rdx
movq 112(%rsp), %rsi
xorq %rdi, %rdi
subq 120(%rsp), %rax
sbbq 128(%rsp), %rcx
sbbq 136(%rsp), %rdx
sbbq 144(%rsp), %rsi
sbbq %rdi, %rdi
andq $38, %rdi
subq %rdi, %rax
sbbq $0, %rcx
sbbq $0, %rdx
sbbq $0, %rsi
sbbq %rdi, %rdi
andq $38, %rdi
subq %rdi, %rax
movq %rax, 248(%rsp)
movq %rcx, 256(%rsp)
movq %rdx, 264(%rsp)
movq %rsi, 272(%rsp)
movq 88(%rsp), %rax
movq 96(%rsp), %rcx
movq 104(%rsp), %rdx
movq 112(%rsp), %rsi
xorq %rdi, %rdi
addq 120(%rsp), %rax
adcq 128(%rsp), %rcx
adcq 136(%rsp), %rdx
adcq 144(%rsp), %rsi
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %rax
adcq $0, %rcx
adcq $0, %rdx
adcq $0, %rsi
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %rax
movq %rax, 280(%rsp)
movq %rcx, 288(%rsp)
movq %rdx, 296(%rsp)
movq %rsi, 304(%rsp)
movq 248(%rsp), %r9
movq 256(%rsp), %r10
movq 264(%rsp), %r11
movq 272(%rsp), %rbx
xorq %rax, %rax
movq 216(%rsp), %rdx
MULXq %r9, %rsi, %rcx
MULXq %r10, %r8, %rdi
adcxq %r8, %rcx
MULXq %r11, %rbp, %r8
adcxq %rbp, %rdi
MULXq %rbx, %rdx, %rbp
adcxq %rdx, %r8
adcxq %rax, %rbp
movq 224(%rsp), %rdx
MULXq %r9, %r13, %r12
adoxq %r13, %rcx
adcxq %r12, %rdi
MULXq %r10, %r13, %r12
adoxq %r13, %rdi
adcxq %r12, %r8
MULXq %r11, %r13, %r12
adoxq %r13, %r8
adcxq %r12, %rbp
MULXq %rbx, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rax, %r12
adoxq %rax, %r12
movq 232(%rsp), %rdx
MULXq %r9, %r14, %r13
adoxq %r14, %rdi
adcxq %r13, %r8
MULXq %r10, %r14, %r13
adoxq %r14, %r8
adcxq %r13, %rbp
MULXq %r11, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %rbx, %rdx, %r13
adoxq %rdx, %r12
adcxq %rax, %r13
adoxq %rax, %r13
movq 240(%rsp), %rdx
MULXq %r9, %r14, %r9
adoxq %r14, %r8
adcxq %r9, %rbp
MULXq %r10, %r10, %r9
adoxq %r10, %rbp
adcxq %r9, %r12
MULXq %r11, %r10, %r9
adoxq %r10, %r12
adcxq %r9, %r13
MULXq %rbx, %rdx, %r9
adoxq %rdx, %r13
adcxq %rax, %r9
adoxq %rax, %r9
movq $38, %rdx
MULXq %rbp, %r11, %r10
adoxq %r11, %rsi
adcxq %r10, %rcx
MULXq %r12, %r11, %r10
adoxq %r11, %rcx
adcxq %r10, %rdi
MULXq %r13, %r11, %r10
adoxq %r11, %rdi
adcxq %r10, %r8
MULXq %r9, %r9, %rdx
adoxq %r9, %r8
adcxq %rax, %rdx
adoxq %rax, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rsi
adcq %rax, %rcx
adcq %rax, %rdi
adcq %rax, %r8
sbbq %rax, %rax
andq $38, %rax
addq %rax, %rsi
movq %rsi, 248(%rsp)
movq %rcx, 256(%rsp)
movq %rdi, 264(%rsp)
movq %r8, 272(%rsp)
movq 184(%rsp), %r9
movq 192(%rsp), %r10
movq 200(%rsp), %r11
movq 208(%rsp), %rbx
xorq %rax, %rax
movq 280(%rsp), %rdx
MULXq %r9, %rsi, %rcx
MULXq %r10, %r8, %rdi
adcxq %r8, %rcx
MULXq %r11, %rbp, %r8
adcxq %rbp, %rdi
MULXq %rbx, %rdx, %rbp
adcxq %rdx, %r8
adcxq %rax, %rbp
movq 288(%rsp), %rdx
MULXq %r9, %r13, %r12
adoxq %r13, %rcx
adcxq %r12, %rdi
MULXq %r10, %r13, %r12
adoxq %r13, %rdi
adcxq %r12, %r8
MULXq %r11, %r13, %r12
adoxq %r13, %r8
adcxq %r12, %rbp
MULXq %rbx, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rax, %r12
adoxq %rax, %r12
movq 296(%rsp), %rdx
MULXq %r9, %r14, %r13
adoxq %r14, %rdi
adcxq %r13, %r8
MULXq %r10, %r14, %r13
adoxq %r14, %r8
adcxq %r13, %rbp
MULXq %r11, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %rbx, %rdx, %r13
adoxq %rdx, %r12
adcxq %rax, %r13
adoxq %rax, %r13
movq 304(%rsp), %rdx
MULXq %r9, %r14, %r9
adoxq %r14, %r8
adcxq %r9, %rbp
MULXq %r10, %r10, %r9
adoxq %r10, %rbp
adcxq %r9, %r12
MULXq %r11, %r10, %r9
adoxq %r10, %r12
adcxq %r9, %r13
MULXq %rbx, %rdx, %r9
adoxq %rdx, %r13
adcxq %rax, %r9
adoxq %rax, %r9
movq $38, %rdx
MULXq %rbp, %r11, %r10
adoxq %r11, %rsi
adcxq %r10, %rcx
MULXq %r12, %r11, %r10
adoxq %r11, %rcx
adcxq %r10, %rdi
MULXq %r13, %r11, %r10
adoxq %r11, %rdi
adcxq %r10, %r8
MULXq %r9, %r9, %rdx
adoxq %r9, %r8
adcxq %rax, %rdx
adoxq %rax, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rsi
adcq %rax, %rcx
adcq %rax, %rdi
adcq %rax, %r8
sbbq %rax, %rax
andq $38, %rax
addq %rax, %rsi
movq %rsi, 280(%rsp)
movq %rcx, 288(%rsp)
movq %rdi, 296(%rsp)
movq %r8, 304(%rsp)
movq 216(%rsp), %rdx
movq 224(%rsp), %r11
movq 232(%rsp), %r13
movq 240(%rsp), %rbx
xorq %rax, %rax
MULXq %rdx, %rsi, %rcx
MULXq %r11, %r8, %rdi
MULXq %r13, %r10, %r9
adcxq %r10, %rdi
MULXq %rbx, %rdx, %r10
adcxq %rdx, %r9
movq %r11, %rdx
MULXq %r13, %rbp, %r11
adoxq %rbp, %r9
adcxq %r11, %r10
MULXq %rbx, %rbp, %r11
adoxq %rbp, %r10
MULXq %rdx, %r12, %rbp
movq %r13, %rdx
MULXq %rbx, %r14, %r13
adcxq %r14, %r11
adoxq %rax, %r11
adcxq %rax, %r13
adoxq %rax, %r13
MULXq %rdx, %r15, %r14
movq %rbx, %rdx
MULXq %rdx, %rdx, %rbx
adcxq %r8, %r8
adoxq %rcx, %r8
adcxq %rdi, %rdi
adoxq %r12, %rdi
adcxq %r9, %r9
adoxq %rbp, %r9
adcxq %r10, %r10
adoxq %r15, %r10
adcxq %r11, %r11
adoxq %r14, %r11
adcxq %r13, %r13
adoxq %rdx, %r13
adcxq %rax, %rbx
adoxq %rax, %rbx
movq $38, %rdx
MULXq %r10, %r10, %rcx
adoxq %r10, %rsi
adcxq %rcx, %r8
MULXq %r11, %r10, %rcx
adoxq %r10, %r8
adcxq %rcx, %rdi
MULXq %r13, %r10, %rcx
adoxq %r10, %rdi
adcxq %rcx, %r9
MULXq %rbx, %rdx, %rcx
adoxq %rdx, %r9
adcxq %rax, %rcx
adoxq %rax, %rcx
imulq $38, %rcx, %rcx
addq %rcx, %rsi
adcq %rax, %r8
adcq %rax, %rdi
adcq %rax, %r9
sbbq %rax, %rax
andq $38, %rax
addq %rax, %rsi
movq %rsi, 216(%rsp)
movq %r8, 224(%rsp)
movq %rdi, 232(%rsp)
movq %r9, 240(%rsp)
movq 184(%rsp), %rdx
movq 192(%rsp), %r11
movq 200(%rsp), %r13
movq 208(%rsp), %rbx
xorq %r8, %r8
MULXq %rdx, %rax, %r9
MULXq %r11, %rsi, %rcx
MULXq %r13, %r10, %rdi
adcxq %r10, %rcx
MULXq %rbx, %rdx, %r10
adcxq %rdx, %rdi
movq %r11, %rdx
MULXq %r13, %rbp, %r11
adoxq %rbp, %rdi
adcxq %r11, %r10
MULXq %rbx, %rbp, %r11
adoxq %rbp, %r10
MULXq %rdx, %r12, %rbp
movq %r13, %rdx
MULXq %rbx, %r14, %r13
adcxq %r14, %r11
adoxq %r8, %r11
adcxq %r8, %r13
adoxq %r8, %r13
MULXq %rdx, %r15, %r14
movq %rbx, %rdx
MULXq %rdx, %rdx, %rbx
adcxq %rsi, %rsi
adoxq %r9, %rsi
adcxq %rcx, %rcx
adoxq %r12, %rcx
adcxq %rdi, %rdi
adoxq %rbp, %rdi
adcxq %r10, %r10
adoxq %r15, %r10
adcxq %r11, %r11
adoxq %r14, %r11
adcxq %r13, %r13
adoxq %rdx, %r13
adcxq %r8, %rbx
adoxq %r8, %rbx
movq $38, %rdx
MULXq %r10, %r10, %r9
adoxq %r10, %rax
adcxq %r9, %rsi
MULXq %r11, %r10, %r9
adoxq %r10, %rsi
adcxq %r9, %rcx
MULXq %r13, %r10, %r9
adoxq %r10, %rcx
adcxq %r9, %rdi
MULXq %rbx, %r9, %rdx
adoxq %r9, %rdi
adcxq %r8, %rdx
adoxq %r8, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rax
adcq %r8, %rsi
adcq %r8, %rcx
adcq %r8, %rdi
sbbq %r8, %r8
andq $38, %r8
addq %r8, %rax
movq 248(%rsp), %rdx
movq 256(%rsp), %r8
movq 264(%rsp), %r9
movq 272(%rsp), %r10
xorq %r11, %r11
addq 280(%rsp), %rdx
adcq 288(%rsp), %r8
adcq 296(%rsp), %r9
adcq 304(%rsp), %r10
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rdx
adcq $0, %r8
adcq $0, %r9
adcq $0, %r10
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rdx
movq %rdx, 184(%rsp)
movq %r8, 192(%rsp)
movq %r9, 200(%rsp)
movq %r10, 208(%rsp)
movq 248(%rsp), %rdx
movq 256(%rsp), %r8
movq 264(%rsp), %r9
movq 272(%rsp), %r10
xorq %r11, %r11
subq 280(%rsp), %rdx
sbbq 288(%rsp), %r8
sbbq 296(%rsp), %r9
sbbq 304(%rsp), %r10
sbbq %r11, %r11
andq $38, %r11
subq %r11, %rdx
sbbq $0, %r8
sbbq $0, %r9
sbbq $0, %r10
sbbq %r11, %r11
andq $38, %r11
subq %r11, %rdx
movq %rdx, 280(%rsp)
movq %r8, 288(%rsp)
movq %r9, 296(%rsp)
movq %r10, 304(%rsp)
xorq %rdx, %rdx
movq 216(%rsp), %r8
movq 224(%rsp), %r9
movq 232(%rsp), %r10
movq 240(%rsp), %r11
subq %rax, %r8
sbbq %rsi, %r9
sbbq %rcx, %r10
sbbq %rdi, %r11
sbbq %rdx, %rdx
andq $38, %rdx
subq %rdx, %r8
sbbq $0, %r9
sbbq $0, %r10
sbbq $0, %r11
sbbq %rdx, %rdx
andq $38, %rdx
subq %rdx, %r8
movq %r8, 248(%rsp)
movq %r9, 256(%rsp)
movq %r10, 264(%rsp)
movq %r11, 272(%rsp)
xorq %r8, %r8
movq 216(%rsp), %rdx
MULXq %rax, %r10, %r9
MULXq %rsi, %rbx, %r11
adcxq %rbx, %r9
MULXq %rcx, %rbp, %rbx
adcxq %rbp, %r11
MULXq %rdi, %rdx, %rbp
adcxq %rdx, %rbx
adcxq %r8, %rbp
movq 224(%rsp), %rdx
MULXq %rax, %r13, %r12
adoxq %r13, %r9
adcxq %r12, %r11
MULXq %rsi, %r13, %r12
adoxq %r13, %r11
adcxq %r12, %rbx
MULXq %rcx, %r13, %r12
adoxq %r13, %rbx
adcxq %r12, %rbp
MULXq %rdi, %rdx, %r12
adoxq %rdx, %rbp
adcxq %r8, %r12
adoxq %r8, %r12
movq 232(%rsp), %rdx
MULXq %rax, %r14, %r13
adoxq %r14, %r11
adcxq %r13, %rbx
MULXq %rsi, %r14, %r13
adoxq %r14, %rbx
adcxq %r13, %rbp
MULXq %rcx, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %rdi, %rdx, %r13
adoxq %rdx, %r12
adcxq %r8, %r13
adoxq %r8, %r13
movq 240(%rsp), %rdx
MULXq %rax, %r14, %rax
adoxq %r14, %rbx
adcxq %rax, %rbp
MULXq %rsi, %rsi, %rax
adoxq %rsi, %rbp
adcxq %rax, %r12
MULXq %rcx, %rcx, %rax
adoxq %rcx, %r12
adcxq %rax, %r13
MULXq %rdi, %rcx, %rax
adoxq %rcx, %r13
adcxq %r8, %rax
adoxq %r8, %rax
movq $38, %rdx
MULXq %rbp, %rsi, %rcx
adoxq %rsi, %r10
adcxq %rcx, %r9
MULXq %r12, %rsi, %rcx
adoxq %rsi, %r9
adcxq %rcx, %r11
MULXq %r13, %rsi, %rcx
adoxq %rsi, %r11
adcxq %rcx, %rbx
MULXq %rax, %rcx, %rax
adoxq %rcx, %rbx
adcxq %r8, %rax
adoxq %r8, %rax
imulq $38, %rax, %rax
addq %rax, %r10
adcq %r8, %r9
adcq %r8, %r11
adcq %r8, %rbx
sbbq %r8, %r8
andq $38, %r8
addq %r8, %r10
movq %r10, 56(%rsp)
movq %r9, 64(%rsp)
movq %r11, 72(%rsp)
movq %rbx, 80(%rsp)
movq 280(%rsp), %rdx
movq 288(%rsp), %r11
movq 296(%rsp), %r13
movq 304(%rsp), %rbx
xorq %rax, %rax
MULXq %rdx, %rsi, %rcx
MULXq %r11, %r8, %rdi
MULXq %r13, %r10, %r9
adcxq %r10, %rdi
MULXq %rbx, %rdx, %r10
adcxq %rdx, %r9
movq %r11, %rdx
MULXq %r13, %rbp, %r11
adoxq %rbp, %r9
adcxq %r11, %r10
MULXq %rbx, %rbp, %r11
adoxq %rbp, %r10
MULXq %rdx, %r12, %rbp
movq %r13, %rdx
MULXq %rbx, %r14, %r13
adcxq %r14, %r11
adoxq %rax, %r11
adcxq %rax, %r13
adoxq %rax, %r13
MULXq %rdx, %r15, %r14
movq %rbx, %rdx
MULXq %rdx, %rdx, %rbx
adcxq %r8, %r8
adoxq %rcx, %r8
adcxq %rdi, %rdi
adoxq %r12, %rdi
adcxq %r9, %r9
adoxq %rbp, %r9
adcxq %r10, %r10
adoxq %r15, %r10
adcxq %r11, %r11
adoxq %r14, %r11
adcxq %r13, %r13
adoxq %rdx, %r13
adcxq %rax, %rbx
adoxq %rax, %rbx
movq $38, %rdx
MULXq %r10, %r10, %rcx
adoxq %r10, %rsi
adcxq %rcx, %r8
MULXq %r11, %r10, %rcx
adoxq %r10, %r8
adcxq %rcx, %rdi
MULXq %r13, %r10, %rcx
adoxq %r10, %rdi
adcxq %rcx, %r9
MULXq %rbx, %rdx, %rcx
adoxq %rdx, %r9
adcxq %rax, %rcx
adoxq %rax, %rcx
imulq $38, %rcx, %rcx
addq %rcx, %rsi
adcq %rax, %r8
adcq %rax, %rdi
adcq %rax, %r9
sbbq %rax, %rax
andq $38, %rax
addq %rax, %rsi
movq %rsi, 280(%rsp)
movq %r8, 288(%rsp)
movq %rdi, 296(%rsp)
movq %r9, 304(%rsp)
movq $121665, %rdx
MULXq 248(%rsp), %rcx, %rax
MULXq 256(%rsp), %rdi, %rsi
addq %rdi, %rax
MULXq 264(%rsp), %r8, %rdi
adcq %r8, %rsi
MULXq 272(%rsp), %r9, %r8
adcq %r9, %rdi
adcq $0, %r8
imulq $38, %r8, %r8
addq %r8, %rcx
adcq $0, %rax
adcq $0, %rsi
adcq $0, %rdi
sbbq %rdx, %rdx
andq $38, %rdx
addq %rdx, %rcx
movq %rcx, 312(%rsp)
movq %rax, 320(%rsp)
movq %rsi, 328(%rsp)
movq %rdi, 336(%rsp)
movq 184(%rsp), %rdx
movq 192(%rsp), %r11
movq 200(%rsp), %r13
movq 208(%rsp), %rbx
xorq %rax, %rax
MULXq %rdx, %rsi, %rcx
MULXq %r11, %r8, %rdi
MULXq %r13, %r10, %r9
adcxq %r10, %rdi
MULXq %rbx, %rdx, %r10
adcxq %rdx, %r9
movq %r11, %rdx
MULXq %r13, %rbp, %r11
adoxq %rbp, %r9
adcxq %r11, %r10
MULXq %rbx, %rbp, %r11
adoxq %rbp, %r10
MULXq %rdx, %r12, %rbp
movq %r13, %rdx
MULXq %rbx, %r14, %r13
adcxq %r14, %r11
adoxq %rax, %r11
adcxq %rax, %r13
adoxq %rax, %r13
MULXq %rdx, %r15, %r14
movq %rbx, %rdx
MULXq %rdx, %rdx, %rbx
adcxq %r8, %r8
adoxq %rcx, %r8
adcxq %rdi, %rdi
adoxq %r12, %rdi
adcxq %r9, %r9
adoxq %rbp, %r9
adcxq %r10, %r10
adoxq %r15, %r10
adcxq %r11, %r11
adoxq %r14, %r11
adcxq %r13, %r13
adoxq %rdx, %r13
adcxq %rax, %rbx
adoxq %rax, %rbx
movq $38, %rdx
MULXq %r10, %r10, %rcx
adoxq %r10, %rsi
adcxq %rcx, %r8
MULXq %r11, %r10, %rcx
adoxq %r10, %r8
adcxq %rcx, %rdi
MULXq %r13, %r10, %rcx
adoxq %r10, %rdi
adcxq %rcx, %r9
MULXq %rbx, %rdx, %rcx
adoxq %rdx, %r9
adcxq %rax, %rcx
adoxq %rax, %rcx
imulq $38, %rcx, %rcx
addq %rcx, %rsi
adcq %rax, %r8
adcq %rax, %rdi
adcq %rax, %r9
sbbq %rax, %rax
andq $38, %rax
addq %rax, %rsi
movq %rsi, 88(%rsp)
movq %r8, 96(%rsp)
movq %rdi, 104(%rsp)
movq %r9, 112(%rsp)
movq 216(%rsp), %rax
movq 224(%rsp), %rcx
movq 232(%rsp), %rdx
movq 240(%rsp), %rsi
xorq %rdi, %rdi
addq 312(%rsp), %rax
adcq 320(%rsp), %rcx
adcq 328(%rsp), %rdx
adcq 336(%rsp), %rsi
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %rax
adcq $0, %rcx
adcq $0, %rdx
adcq $0, %rsi
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %rax
movq %rax, 312(%rsp)
movq %rcx, 320(%rsp)
movq %rdx, 328(%rsp)
movq %rsi, 336(%rsp)
movq 280(%rsp), %r9
movq 288(%rsp), %r10
movq 296(%rsp), %r11
movq 304(%rsp), %rbx
xorq %rax, %rax
movq 152(%rsp), %rdx
MULXq %r9, %rsi, %rcx
MULXq %r10, %r8, %rdi
adcxq %r8, %rcx
MULXq %r11, %rbp, %r8
adcxq %rbp, %rdi
MULXq %rbx, %rdx, %rbp
adcxq %rdx, %r8
adcxq %rax, %rbp
movq 160(%rsp), %rdx
MULXq %r9, %r13, %r12
adoxq %r13, %rcx
adcxq %r12, %rdi
MULXq %r10, %r13, %r12
adoxq %r13, %rdi
adcxq %r12, %r8
MULXq %r11, %r13, %r12
adoxq %r13, %r8
adcxq %r12, %rbp
MULXq %rbx, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rax, %r12
adoxq %rax, %r12
movq 168(%rsp), %rdx
MULXq %r9, %r14, %r13
adoxq %r14, %rdi
adcxq %r13, %r8
MULXq %r10, %r14, %r13
adoxq %r14, %r8
adcxq %r13, %rbp
MULXq %r11, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %rbx, %rdx, %r13
adoxq %rdx, %r12
adcxq %rax, %r13
adoxq %rax, %r13
movq 176(%rsp), %rdx
MULXq %r9, %r14, %r9
adoxq %r14, %r8
adcxq %r9, %rbp
MULXq %r10, %r10, %r9
adoxq %r10, %rbp
adcxq %r9, %r12
MULXq %r11, %r10, %r9
adoxq %r10, %r12
adcxq %r9, %r13
MULXq %rbx, %rdx, %r9
adoxq %rdx, %r13
adcxq %rax, %r9
adoxq %rax, %r9
movq $38, %rdx
MULXq %rbp, %r11, %r10
adoxq %r11, %rsi
adcxq %r10, %rcx
MULXq %r12, %r11, %r10
adoxq %r11, %rcx
adcxq %r10, %rdi
MULXq %r13, %r11, %r10
adoxq %r11, %rdi
adcxq %r10, %r8
MULXq %r9, %r9, %rdx
adoxq %r9, %r8
adcxq %rax, %rdx
adoxq %rax, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rsi
adcq %rax, %rcx
adcq %rax, %rdi
adcq %rax, %r8
sbbq %rax, %rax
andq $38, %rax
addq %rax, %rsi
movq %rsi, 120(%rsp)
movq %rcx, 128(%rsp)
movq %rdi, 136(%rsp)
movq %r8, 144(%rsp)
movq 312(%rsp), %r8
movq 320(%rsp), %r10
movq 328(%rsp), %r11
movq 336(%rsp), %rbx
xorq %rcx, %rcx
movq 248(%rsp), %rdx
MULXq %r8, %rdi, %r9
MULXq %r10, %rsi, %rax
adcxq %rsi, %r9
MULXq %r11, %rbp, %rsi
adcxq %rbp, %rax
MULXq %rbx, %rdx, %rbp
adcxq %rdx, %rsi
adcxq %rcx, %rbp
movq 256(%rsp), %rdx
MULXq %r8, %r13, %r12
adoxq %r13, %r9
adcxq %r12, %rax
MULXq %r10, %r13, %r12
adoxq %r13, %rax
adcxq %r12, %rsi
MULXq %r11, %r13, %r12
adoxq %r13, %rsi
adcxq %r12, %rbp
MULXq %rbx, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rcx, %r12
adoxq %rcx, %r12
movq 264(%rsp), %rdx
MULXq %r8, %r14, %r13
adoxq %r14, %rax
adcxq %r13, %rsi
MULXq %r10, %r14, %r13
adoxq %r14, %rsi
adcxq %r13, %rbp
MULXq %r11, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %rbx, %rdx, %r13
adoxq %rdx, %r12
adcxq %rcx, %r13
adoxq %rcx, %r13
movq 272(%rsp), %rdx
MULXq %r8, %r14, %r8
adoxq %r14, %rsi
adcxq %r8, %rbp
MULXq %r10, %r10, %r8
adoxq %r10, %rbp
adcxq %r8, %r12
MULXq %r11, %r10, %r8
adoxq %r10, %r12
adcxq %r8, %r13
MULXq %rbx, %rdx, %r8
adoxq %rdx, %r13
adcxq %rcx, %r8
adoxq %rcx, %r8
movq $38, %rdx
MULXq %rbp, %r11, %r10
adoxq %r11, %rdi
adcxq %r10, %r9
MULXq %r12, %r11, %r10
adoxq %r11, %r9
adcxq %r10, %rax
MULXq %r13, %r11, %r10
adoxq %r11, %rax
adcxq %r10, %rsi
MULXq %r8, %r8, %rdx
adoxq %r8, %rsi
adcxq %rcx, %rdx
adoxq %rcx, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rdi
adcq %rcx, %r9
adcq %rcx, %rax
adcq %rcx, %rsi
sbbq %rcx, %rcx
andq $38, %rcx
addq %rcx, %rdi
movq 16(%rsp), %rcx
cmpq $0, %rcx
jnbe Ljade_scalarmult_curve25519_amd64_mulx$9
movq %rdi, 120(%rsp)
movq %r9, 128(%rsp)
movq %rax, 136(%rsp)
movq %rsi, 144(%rsp)
xorq %r10, %r10
movq %rdi, %rdx
MULXq %rdx, %r11, %rbx
MULXq %r9, %r8, %rdi
MULXq %rax, %rbp, %rcx
adcxq %rbp, %rdi
MULXq %rsi, %rdx, %rbp
adcxq %rdx, %rcx
movq %r9, %rdx
MULXq %rax, %r12, %r9
adoxq %r12, %rcx
adcxq %r9, %rbp
MULXq %rsi, %r12, %r9
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rax, %rdx
MULXq %rsi, %r14, %rax
adcxq %r14, %r9
adoxq %r10, %r9
adcxq %r10, %rax
adoxq %r10, %rax
MULXq %rdx, %r15, %r14
movq %rsi, %rdx
MULXq %rdx, %rdx, %rsi
adcxq %r8, %r8
adoxq %rbx, %r8
adcxq %rdi, %rdi
adoxq %r13, %rdi
adcxq %rcx, %rcx
adoxq %r12, %rcx
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r9, %r9
adoxq %r14, %r9
adcxq %rax, %rax
adoxq %rdx, %rax
adcxq %r10, %rsi
adoxq %r10, %rsi
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %r11
adcxq %rbx, %r8
MULXq %r9, %rbx, %r9
adoxq %rbx, %r8
adcxq %r9, %rdi
MULXq %rax, %r9, %rax
adoxq %r9, %rdi
adcxq %rax, %rcx
MULXq %rsi, %rdx, %rax
adoxq %rdx, %rcx
adcxq %r10, %rax
adoxq %r10, %rax
imulq $38, %rax, %rax
addq %rax, %r11
adcq %r10, %r8
adcq %r10, %rdi
adcq %r10, %rcx
sbbq %r10, %r10
andq $38, %r10
addq %r10, %r11
movq %r11, 88(%rsp)
movq %r8, 96(%rsp)
movq %rdi, 104(%rsp)
movq %rcx, 112(%rsp)
xorq %rsi, %rsi
movq %r11, %rdx
MULXq %rdx, %r9, %rbx
MULXq %r8, %r11, %r10
MULXq %rdi, %rbp, %rax
adcxq %rbp, %r10
MULXq %rcx, %rdx, %rbp
adcxq %rdx, %rax
movq %r8, %rdx
MULXq %rdi, %r12, %r8
adoxq %r12, %rax
adcxq %r8, %rbp
MULXq %rcx, %r12, %r8
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rdi, %rdx
MULXq %rcx, %r14, %rdi
adcxq %r14, %r8
adoxq %rsi, %r8
adcxq %rsi, %rdi
adoxq %rsi, %rdi
MULXq %rdx, %r15, %r14
movq %rcx, %rdx
MULXq %rdx, %rdx, %rcx
adcxq %r11, %r11
adoxq %rbx, %r11
adcxq %r10, %r10
adoxq %r13, %r10
adcxq %rax, %rax
adoxq %r12, %rax
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r8, %r8
adoxq %r14, %r8
adcxq %rdi, %rdi
adoxq %rdx, %rdi
adcxq %rsi, %rcx
adoxq %rsi, %rcx
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %r9
adcxq %rbx, %r11
MULXq %r8, %rbx, %r8
adoxq %rbx, %r11
adcxq %r8, %r10
MULXq %rdi, %r8, %rdi
adoxq %r8, %r10
adcxq %rdi, %rax
MULXq %rcx, %rdx, %rcx
adoxq %rdx, %rax
adcxq %rsi, %rcx
adoxq %rsi, %rcx
imulq $38, %rcx, %rcx
addq %rcx, %r9
adcq %rsi, %r11
adcq %rsi, %r10
adcq %rsi, %rax
sbbq %rsi, %rsi
andq $38, %rsi
addq %rsi, %r9
xorq %rcx, %rcx
movq %r9, %rdx
MULXq %rdx, %rsi, %rbx
MULXq %r11, %r8, %rdi
MULXq %r10, %rbp, %r9
adcxq %rbp, %rdi
MULXq %rax, %rdx, %rbp
adcxq %rdx, %r9
movq %r11, %rdx
MULXq %r10, %r12, %r11
adoxq %r12, %r9
adcxq %r11, %rbp
MULXq %rax, %r12, %r11
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %r10, %rdx
MULXq %rax, %r14, %r10
adcxq %r14, %r11
adoxq %rcx, %r11
adcxq %rcx, %r10
adoxq %rcx, %r10
MULXq %rdx, %r15, %r14
movq %rax, %rdx
MULXq %rdx, %rdx, %rax
adcxq %r8, %r8
adoxq %rbx, %r8
adcxq %rdi, %rdi
adoxq %r13, %rdi
adcxq %r9, %r9
adoxq %r12, %r9
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r11, %r11
adoxq %r14, %r11
adcxq %r10, %r10
adoxq %rdx, %r10
adcxq %rcx, %rax
adoxq %rcx, %rax
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %rsi
adcxq %rbx, %r8
MULXq %r11, %rbx, %r11
adoxq %rbx, %r8
adcxq %r11, %rdi
MULXq %r10, %r11, %r10
adoxq %r11, %rdi
adcxq %r10, %r9
MULXq %rax, %rdx, %rax
adoxq %rdx, %r9
adcxq %rcx, %rax
adoxq %rcx, %rax
imulq $38, %rax, %rax
addq %rax, %rsi
adcq %rcx, %r8
adcq %rcx, %rdi
adcq %rcx, %r9
sbbq %rcx, %rcx
andq $38, %rcx
addq %rcx, %rsi
xorq %r10, %r10
movq 120(%rsp), %rdx
MULXq %rsi, %rbx, %r11
MULXq %r8, %rcx, %rax
adcxq %rcx, %r11
MULXq %rdi, %rbp, %rcx
adcxq %rbp, %rax
MULXq %r9, %rdx, %rbp
adcxq %rdx, %rcx
adcxq %r10, %rbp
movq 128(%rsp), %rdx
MULXq %rsi, %r13, %r12
adoxq %r13, %r11
adcxq %r12, %rax
MULXq %r8, %r13, %r12
adoxq %r13, %rax
adcxq %r12, %rcx
MULXq %rdi, %r13, %r12
adoxq %r13, %rcx
adcxq %r12, %rbp
MULXq %r9, %rdx, %r12
adoxq %rdx, %rbp
adcxq %r10, %r12
adoxq %r10, %r12
movq 136(%rsp), %rdx
MULXq %rsi, %r14, %r13
adoxq %r14, %rax
adcxq %r13, %rcx
MULXq %r8, %r14, %r13
adoxq %r14, %rcx
adcxq %r13, %rbp
MULXq %rdi, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %r9, %rdx, %r13
adoxq %rdx, %r12
adcxq %r10, %r13
adoxq %r10, %r13
movq 144(%rsp), %rdx
MULXq %rsi, %r14, %rsi
adoxq %r14, %rcx
adcxq %rsi, %rbp
MULXq %r8, %r8, %rsi
adoxq %r8, %rbp
adcxq %rsi, %r12
MULXq %rdi, %rdi, %rsi
adoxq %rdi, %r12
adcxq %rsi, %r13
MULXq %r9, %rdx, %rsi
adoxq %rdx, %r13
adcxq %r10, %rsi
adoxq %r10, %rsi
movq $38, %rdx
MULXq %rbp, %r8, %rdi
adoxq %r8, %rbx
adcxq %rdi, %r11
MULXq %r12, %r8, %rdi
adoxq %r8, %r11
adcxq %rdi, %rax
MULXq %r13, %r8, %rdi
adoxq %r8, %rax
adcxq %rdi, %rcx
MULXq %rsi, %rsi, %rdx
adoxq %rsi, %rcx
adcxq %r10, %rdx
adoxq %r10, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rbx
adcq %r10, %r11
adcq %r10, %rax
adcq %r10, %rcx
sbbq %r10, %r10
andq $38, %r10
addq %r10, %rbx
movq %rbx, 120(%rsp)
movq %r11, 128(%rsp)
movq %rax, 136(%rsp)
movq %rcx, 144(%rsp)
xorq %rsi, %rsi
movq 88(%rsp), %rdx
MULXq %rbx, %rdi, %r10
MULXq %r11, %r8, %r9
adcxq %r8, %r10
MULXq %rax, %rbp, %r8
adcxq %rbp, %r9
MULXq %rcx, %rdx, %rbp
adcxq %rdx, %r8
adcxq %rsi, %rbp
movq 96(%rsp), %rdx
MULXq %rbx, %r13, %r12
adoxq %r13, %r10
adcxq %r12, %r9
MULXq %r11, %r13, %r12
adoxq %r13, %r9
adcxq %r12, %r8
MULXq %rax, %r13, %r12
adoxq %r13, %r8
adcxq %r12, %rbp
MULXq %rcx, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rsi, %r12
adoxq %rsi, %r12
movq 104(%rsp), %rdx
MULXq %rbx, %r14, %r13
adoxq %r14, %r9
adcxq %r13, %r8
MULXq %r11, %r14, %r13
adoxq %r14, %r8
adcxq %r13, %rbp
MULXq %rax, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %rcx, %rdx, %r13
adoxq %rdx, %r12
adcxq %rsi, %r13
adoxq %rsi, %r13
movq 112(%rsp), %rdx
MULXq %rbx, %r14, %rbx
adoxq %r14, %r8
adcxq %rbx, %rbp
MULXq %r11, %rbx, %r11
adoxq %rbx, %rbp
adcxq %r11, %r12
MULXq %rax, %r11, %rax
adoxq %r11, %r12
adcxq %rax, %r13
MULXq %rcx, %rcx, %rax
adoxq %rcx, %r13
adcxq %rsi, %rax
adoxq %rsi, %rax
movq $38, %rdx
MULXq %rbp, %r11, %rcx
adoxq %r11, %rdi
adcxq %rcx, %r10
MULXq %r12, %r11, %rcx
adoxq %r11, %r10
adcxq %rcx, %r9
MULXq %r13, %r11, %rcx
adoxq %r11, %r9
adcxq %rcx, %r8
MULXq %rax, %rcx, %rax
adoxq %rcx, %r8
adcxq %rsi, %rax
adoxq %rsi, %rax
imulq $38, %rax, %rax
addq %rax, %rdi
adcq %rsi, %r10
adcq %rsi, %r9
adcq %rsi, %r8
sbbq %rsi, %rsi
andq $38, %rsi
addq %rsi, %rdi
movq %rdi, 88(%rsp)
movq %r10, 96(%rsp)
movq %r9, 104(%rsp)
movq %r8, 112(%rsp)
xorq %r11, %r11
movq %rdi, %rdx
MULXq %rdx, %rax, %rbx
MULXq %r10, %rsi, %rcx
MULXq %r9, %rbp, %rdi
adcxq %rbp, %rcx
MULXq %r8, %rdx, %rbp
adcxq %rdx, %rdi
movq %r10, %rdx
MULXq %r9, %r12, %r10
adoxq %r12, %rdi
adcxq %r10, %rbp
MULXq %r8, %r12, %r10
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %r9, %rdx
MULXq %r8, %r14, %r9
adcxq %r14, %r10
adoxq %r11, %r10
adcxq %r11, %r9
adoxq %r11, %r9
MULXq %rdx, %r15, %r14
movq %r8, %rdx
MULXq %rdx, %rdx, %r8
adcxq %rsi, %rsi
adoxq %rbx, %rsi
adcxq %rcx, %rcx
adoxq %r13, %rcx
adcxq %rdi, %rdi
adoxq %r12, %rdi
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r10, %r10
adoxq %r14, %r10
adcxq %r9, %r9
adoxq %rdx, %r9
adcxq %r11, %r8
adoxq %r11, %r8
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %rax
adcxq %rbx, %rsi
MULXq %r10, %rbx, %r10
adoxq %rbx, %rsi
adcxq %r10, %rcx
MULXq %r9, %r10, %r9
adoxq %r10, %rcx
adcxq %r9, %rdi
MULXq %r8, %r8, %rdx
adoxq %r8, %rdi
adcxq %r11, %rdx
adoxq %r11, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rax
adcq %r11, %rsi
adcq %r11, %rcx
adcq %r11, %rdi
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rax
xorq %r11, %r11
movq 120(%rsp), %rdx
MULXq %rax, %rbx, %r10
MULXq %rsi, %r9, %r8
adcxq %r9, %r10
MULXq %rcx, %rbp, %r9
adcxq %rbp, %r8
MULXq %rdi, %rdx, %rbp
adcxq %rdx, %r9
adcxq %r11, %rbp
movq 128(%rsp), %rdx
MULXq %rax, %r13, %r12
adoxq %r13, %r10
adcxq %r12, %r8
MULXq %rsi, %r13, %r12
adoxq %r13, %r8
adcxq %r12, %r9
MULXq %rcx, %r13, %r12
adoxq %r13, %r9
adcxq %r12, %rbp
MULXq %rdi, %rdx, %r12
adoxq %rdx, %rbp
adcxq %r11, %r12
adoxq %r11, %r12
movq 136(%rsp), %rdx
MULXq %rax, %r14, %r13
adoxq %r14, %r8
adcxq %r13, %r9
MULXq %rsi, %r14, %r13
adoxq %r14, %r9
adcxq %r13, %rbp
MULXq %rcx, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %rdi, %rdx, %r13
adoxq %rdx, %r12
adcxq %r11, %r13
adoxq %r11, %r13
movq 144(%rsp), %rdx
MULXq %rax, %r14, %rax
adoxq %r14, %r9
adcxq %rax, %rbp
MULXq %rsi, %rsi, %rax
adoxq %rsi, %rbp
adcxq %rax, %r12
MULXq %rcx, %rcx, %rax
adoxq %rcx, %r12
adcxq %rax, %r13
MULXq %rdi, %rcx, %rax
adoxq %rcx, %r13
adcxq %r11, %rax
adoxq %r11, %rax
movq $38, %rdx
MULXq %rbp, %rsi, %rcx
adoxq %rsi, %rbx
adcxq %rcx, %r10
MULXq %r12, %rsi, %rcx
adoxq %rsi, %r10
adcxq %rcx, %r8
MULXq %r13, %rsi, %rcx
adoxq %rsi, %r8
adcxq %rcx, %r9
MULXq %rax, %rcx, %rax
adoxq %rcx, %r9
adcxq %r11, %rax
adoxq %r11, %rax
imulq $38, %rax, %rax
addq %rax, %rbx
adcq %r11, %r10
adcq %r11, %r8
adcq %r11, %r9
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rbx
movq %rbx, 120(%rsp)
movq %r10, 128(%rsp)
movq %r8, 136(%rsp)
movq %r9, 144(%rsp)
xorq %r11, %r11
movq %rbx, %rdx
MULXq %rdx, %rdi, %rbx
MULXq %r10, %rax, %rsi
MULXq %r8, %rbp, %rcx
adcxq %rbp, %rsi
MULXq %r9, %rdx, %rbp
adcxq %rdx, %rcx
movq %r10, %rdx
MULXq %r8, %r12, %r10
adoxq %r12, %rcx
adcxq %r10, %rbp
MULXq %r9, %r12, %r10
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %r8, %rdx
MULXq %r9, %r14, %r8
adcxq %r14, %r10
adoxq %r11, %r10
adcxq %r11, %r8
adoxq %r11, %r8
MULXq %rdx, %r15, %r14
movq %r9, %rdx
MULXq %rdx, %rdx, %r9
adcxq %rax, %rax
adoxq %rbx, %rax
adcxq %rsi, %rsi
adoxq %r13, %rsi
adcxq %rcx, %rcx
adoxq %r12, %rcx
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r10, %r10
adoxq %r14, %r10
adcxq %r8, %r8
adoxq %rdx, %r8
adcxq %r11, %r9
adoxq %r11, %r9
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %rdi
adcxq %rbx, %rax
MULXq %r10, %rbx, %r10
adoxq %rbx, %rax
adcxq %r10, %rsi
MULXq %r8, %r10, %r8
adoxq %r10, %rsi
adcxq %r8, %rcx
MULXq %r9, %r8, %rdx
adoxq %r8, %rcx
adcxq %r11, %rdx
adoxq %r11, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rdi
adcq %r11, %rax
adcq %r11, %rsi
adcq %r11, %rcx
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rdi
movl $2, %edx
Ljade_scalarmult_curve25519_amd64_mulx$8:
movl %edx, 344(%rsp)
xorq %r11, %r11
movq %rdi, %rdx
MULXq %rdx, %rdi, %rbx
MULXq %rax, %r9, %r8
MULXq %rsi, %rbp, %r10
adcxq %rbp, %r8
MULXq %rcx, %rdx, %rbp
adcxq %rdx, %r10
movq %rax, %rdx
MULXq %rsi, %r12, %rax
adoxq %r12, %r10
adcxq %rax, %rbp
MULXq %rcx, %r12, %rax
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rsi, %rdx
MULXq %rcx, %r14, %rsi
adcxq %r14, %rax
adoxq %r11, %rax
adcxq %r11, %rsi
adoxq %r11, %rsi
MULXq %rdx, %r15, %r14
movq %rcx, %rdx
MULXq %rdx, %rdx, %rcx
adcxq %r9, %r9
adoxq %rbx, %r9
adcxq %r8, %r8
adoxq %r13, %r8
adcxq %r10, %r10
adoxq %r12, %r10
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %rax, %rax
adoxq %r14, %rax
adcxq %rsi, %rsi
adoxq %rdx, %rsi
adcxq %r11, %rcx
adoxq %r11, %rcx
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %rdi
adcxq %rbx, %r9
MULXq %rax, %rbx, %rax
adoxq %rbx, %r9
adcxq %rax, %r8
MULXq %rsi, %rsi, %rax
adoxq %rsi, %r8
adcxq %rax, %r10
MULXq %rcx, %rcx, %rax
adoxq %rcx, %r10
adcxq %r11, %rax
adoxq %r11, %rax
imulq $38, %rax, %rax
addq %rax, %rdi
adcq %r11, %r9
adcq %r11, %r8
adcq %r11, %r10
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rdi
xorq %r11, %r11
movq %rdi, %rdx
MULXq %rdx, %rdi, %rbx
MULXq %r9, %rax, %rsi
MULXq %r8, %rbp, %rcx
adcxq %rbp, %rsi
MULXq %r10, %rdx, %rbp
adcxq %rdx, %rcx
movq %r9, %rdx
MULXq %r8, %r12, %r9
adoxq %r12, %rcx
adcxq %r9, %rbp
MULXq %r10, %r12, %r9
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %r8, %rdx
MULXq %r10, %r14, %r8
adcxq %r14, %r9
adoxq %r11, %r9
adcxq %r11, %r8
adoxq %r11, %r8
MULXq %rdx, %r15, %r14
movq %r10, %rdx
MULXq %rdx, %rdx, %r10
adcxq %rax, %rax
adoxq %rbx, %rax
adcxq %rsi, %rsi
adoxq %r13, %rsi
adcxq %rcx, %rcx
adoxq %r12, %rcx
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r9, %r9
adoxq %r14, %r9
adcxq %r8, %r8
adoxq %rdx, %r8
adcxq %r11, %r10
adoxq %r11, %r10
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %rdi
adcxq %rbx, %rax
MULXq %r9, %rbx, %r9
adoxq %rbx, %rax
adcxq %r9, %rsi
MULXq %r8, %r9, %r8
adoxq %r9, %rsi
adcxq %r8, %rcx
MULXq %r10, %r8, %rdx
adoxq %r8, %rcx
adcxq %r11, %rdx
adoxq %r11, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rdi
adcq %r11, %rax
adcq %r11, %rsi
adcq %r11, %rcx
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rdi
movl 344(%rsp), %edx
decl %edx
jne Ljade_scalarmult_curve25519_amd64_mulx$8
xorq %rbx, %rbx
movq 120(%rsp), %rdx
MULXq %rdi, %r8, %r11
MULXq %rax, %r10, %r9
adcxq %r10, %r11
MULXq %rsi, %rbp, %r10
adcxq %rbp, %r9
MULXq %rcx, %rdx, %rbp
adcxq %rdx, %r10
adcxq %rbx, %rbp
movq 128(%rsp), %rdx
MULXq %rdi, %r13, %r12
adoxq %r13, %r11
adcxq %r12, %r9
MULXq %rax, %r13, %r12
adoxq %r13, %r9
adcxq %r12, %r10
MULXq %rsi, %r13, %r12
adoxq %r13, %r10
adcxq %r12, %rbp
MULXq %rcx, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rbx, %r12
adoxq %rbx, %r12
movq 136(%rsp), %rdx
MULXq %rdi, %r14, %r13
adoxq %r14, %r9
adcxq %r13, %r10
MULXq %rax, %r14, %r13
adoxq %r14, %r10
adcxq %r13, %rbp
MULXq %rsi, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %rcx, %rdx, %r13
adoxq %rdx, %r12
adcxq %rbx, %r13
adoxq %rbx, %r13
movq 144(%rsp), %rdx
MULXq %rdi, %r14, %rdi
adoxq %r14, %r10
adcxq %rdi, %rbp
MULXq %rax, %rdi, %rax
adoxq %rdi, %rbp
adcxq %rax, %r12
MULXq %rsi, %rsi, %rax
adoxq %rsi, %r12
adcxq %rax, %r13
MULXq %rcx, %rcx, %rax
adoxq %rcx, %r13
adcxq %rbx, %rax
adoxq %rbx, %rax
movq $38, %rdx
MULXq %rbp, %rsi, %rcx
adoxq %rsi, %r8
adcxq %rcx, %r11
MULXq %r12, %rsi, %rcx
adoxq %rsi, %r11
adcxq %rcx, %r9
MULXq %r13, %rsi, %rcx
adoxq %rsi, %r9
adcxq %rcx, %r10
MULXq %rax, %rcx, %rax
adoxq %rcx, %r10
adcxq %rbx, %rax
adoxq %rbx, %rax
imulq $38, %rax, %rax
addq %rax, %r8
adcq %rbx, %r11
adcq %rbx, %r9
adcq %rbx, %r10
sbbq %rbx, %rbx
andq $38, %rbx
addq %rbx, %r8
movq %r8, 120(%rsp)
movq %r11, 128(%rsp)
movq %r9, 136(%rsp)
movq %r10, 144(%rsp)
movl $5, %eax
Ljade_scalarmult_curve25519_amd64_mulx$7:
movl %eax, 344(%rsp)
xorq %rdi, %rdi
movq %r8, %rdx
MULXq %rdx, %r8, %rbx
MULXq %r11, %rcx, %rax
MULXq %r9, %rbp, %rsi
adcxq %rbp, %rax
MULXq %r10, %rdx, %rbp
adcxq %rdx, %rsi
movq %r11, %rdx
MULXq %r9, %r12, %r11
adoxq %r12, %rsi
adcxq %r11, %rbp
MULXq %r10, %r12, %r11
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %r9, %rdx
MULXq %r10, %r14, %r9
adcxq %r14, %r11
adoxq %rdi, %r11
adcxq %rdi, %r9
adoxq %rdi, %r9
MULXq %rdx, %r15, %r14
movq %r10, %rdx
MULXq %rdx, %rdx, %r10
adcxq %rcx, %rcx
adoxq %rbx, %rcx
adcxq %rax, %rax
adoxq %r13, %rax
adcxq %rsi, %rsi
adoxq %r12, %rsi
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r11, %r11
adoxq %r14, %r11
adcxq %r9, %r9
adoxq %rdx, %r9
adcxq %rdi, %r10
adoxq %rdi, %r10
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %r8
adcxq %rbx, %rcx
MULXq %r11, %rbx, %r11
adoxq %rbx, %rcx
adcxq %r11, %rax
MULXq %r9, %r11, %r9
adoxq %r11, %rax
adcxq %r9, %rsi
MULXq %r10, %r9, %rdx
adoxq %r9, %rsi
adcxq %rdi, %rdx
adoxq %rdi, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %r8
adcq %rdi, %rcx
adcq %rdi, %rax
adcq %rdi, %rsi
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %r8
xorq %rdi, %rdi
movq %r8, %rdx
MULXq %rdx, %r8, %rbx
MULXq %rcx, %r11, %r9
MULXq %rax, %rbp, %r10
adcxq %rbp, %r9
MULXq %rsi, %rdx, %rbp
adcxq %rdx, %r10
movq %rcx, %rdx
MULXq %rax, %r12, %rcx
adoxq %r12, %r10
adcxq %rcx, %rbp
MULXq %rsi, %r12, %rcx
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rax, %rdx
MULXq %rsi, %r14, %rax
adcxq %r14, %rcx
adoxq %rdi, %rcx
adcxq %rdi, %rax
adoxq %rdi, %rax
MULXq %rdx, %r15, %r14
movq %rsi, %rdx
MULXq %rdx, %rdx, %rsi
adcxq %r11, %r11
adoxq %rbx, %r11
adcxq %r9, %r9
adoxq %r13, %r9
adcxq %r10, %r10
adoxq %r12, %r10
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %rcx, %rcx
adoxq %r14, %rcx
adcxq %rax, %rax
adoxq %rdx, %rax
adcxq %rdi, %rsi
adoxq %rdi, %rsi
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %r8
adcxq %rbx, %r11
MULXq %rcx, %rbx, %rcx
adoxq %rbx, %r11
adcxq %rcx, %r9
MULXq %rax, %rcx, %rax
adoxq %rcx, %r9
adcxq %rax, %r10
MULXq %rsi, %rcx, %rax
adoxq %rcx, %r10
adcxq %rdi, %rax
adoxq %rdi, %rax
imulq $38, %rax, %rax
addq %rax, %r8
adcq %rdi, %r11
adcq %rdi, %r9
adcq %rdi, %r10
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %r8
movl 344(%rsp), %eax
decl %eax
jne Ljade_scalarmult_curve25519_amd64_mulx$7
xorq %rbx, %rbx
movq 120(%rsp), %rdx
MULXq %r8, %rax, %rcx
MULXq %r11, %rsi, %rdi
adcxq %rsi, %rcx
MULXq %r9, %rbp, %rsi
adcxq %rbp, %rdi
MULXq %r10, %rdx, %rbp
adcxq %rdx, %rsi
adcxq %rbx, %rbp
movq 128(%rsp), %rdx
MULXq %r8, %r13, %r12
adoxq %r13, %rcx
adcxq %r12, %rdi
MULXq %r11, %r13, %r12
adoxq %r13, %rdi
adcxq %r12, %rsi
MULXq %r9, %r13, %r12
adoxq %r13, %rsi
adcxq %r12, %rbp
MULXq %r10, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rbx, %r12
adoxq %rbx, %r12
movq 136(%rsp), %rdx
MULXq %r8, %r14, %r13
adoxq %r14, %rdi
adcxq %r13, %rsi
MULXq %r11, %r14, %r13
adoxq %r14, %rsi
adcxq %r13, %rbp
MULXq %r9, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %r10, %rdx, %r13
adoxq %rdx, %r12
adcxq %rbx, %r13
adoxq %rbx, %r13
movq 144(%rsp), %rdx
MULXq %r8, %r14, %r8
adoxq %r14, %rsi
adcxq %r8, %rbp
MULXq %r11, %r11, %r8
adoxq %r11, %rbp
adcxq %r8, %r12
MULXq %r9, %r9, %r8
adoxq %r9, %r12
adcxq %r8, %r13
MULXq %r10, %rdx, %r8
adoxq %rdx, %r13
adcxq %rbx, %r8
adoxq %rbx, %r8
movq $38, %rdx
MULXq %rbp, %r10, %r9
adoxq %r10, %rax
adcxq %r9, %rcx
MULXq %r12, %r10, %r9
adoxq %r10, %rcx
adcxq %r9, %rdi
MULXq %r13, %r10, %r9
adoxq %r10, %rdi
adcxq %r9, %rsi
MULXq %r8, %r8, %rdx
adoxq %r8, %rsi
adcxq %rbx, %rdx
adoxq %rbx, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rax
adcq %rbx, %rcx
adcq %rbx, %rdi
adcq %rbx, %rsi
sbbq %rbx, %rbx
andq $38, %rbx
addq %rbx, %rax
movq %rax, 152(%rsp)
movq %rcx, 160(%rsp)
movq %rdi, 168(%rsp)
movq %rsi, 176(%rsp)
movl $10, %edx
Ljade_scalarmult_curve25519_amd64_mulx$6:
movl %edx, 344(%rsp)
xorq %r11, %r11
movq %rax, %rdx
MULXq %rdx, %rax, %rbx
MULXq %rcx, %r9, %r8
MULXq %rdi, %rbp, %r10
adcxq %rbp, %r8
MULXq %rsi, %rdx, %rbp
adcxq %rdx, %r10
movq %rcx, %rdx
MULXq %rdi, %r12, %rcx
adoxq %r12, %r10
adcxq %rcx, %rbp
MULXq %rsi, %r12, %rcx
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rdi, %rdx
MULXq %rsi, %r14, %rdi
adcxq %r14, %rcx
adoxq %r11, %rcx
adcxq %r11, %rdi
adoxq %r11, %rdi
MULXq %rdx, %r15, %r14
movq %rsi, %rdx
MULXq %rdx, %rdx, %rsi
adcxq %r9, %r9
adoxq %rbx, %r9
adcxq %r8, %r8
adoxq %r13, %r8
adcxq %r10, %r10
adoxq %r12, %r10
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %rcx, %rcx
adoxq %r14, %rcx
adcxq %rdi, %rdi
adoxq %rdx, %rdi
adcxq %r11, %rsi
adoxq %r11, %rsi
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %rax
adcxq %rbx, %r9
MULXq %rcx, %rbx, %rcx
adoxq %rbx, %r9
adcxq %rcx, %r8
MULXq %rdi, %rdi, %rcx
adoxq %rdi, %r8
adcxq %rcx, %r10
MULXq %rsi, %rdx, %rcx
adoxq %rdx, %r10
adcxq %r11, %rcx
adoxq %r11, %rcx
imulq $38, %rcx, %rcx
addq %rcx, %rax
adcq %r11, %r9
adcq %r11, %r8
adcq %r11, %r10
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rax
xorq %r11, %r11
movq %rax, %rdx
MULXq %rdx, %rax, %rbx
MULXq %r9, %rcx, %rdi
MULXq %r8, %rbp, %rsi
adcxq %rbp, %rdi
MULXq %r10, %rdx, %rbp
adcxq %rdx, %rsi
movq %r9, %rdx
MULXq %r8, %r12, %r9
adoxq %r12, %rsi
adcxq %r9, %rbp
MULXq %r10, %r12, %r9
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %r8, %rdx
MULXq %r10, %r14, %r8
adcxq %r14, %r9
adoxq %r11, %r9
adcxq %r11, %r8
adoxq %r11, %r8
MULXq %rdx, %r15, %r14
movq %r10, %rdx
MULXq %rdx, %rdx, %r10
adcxq %rcx, %rcx
adoxq %rbx, %rcx
adcxq %rdi, %rdi
adoxq %r13, %rdi
adcxq %rsi, %rsi
adoxq %r12, %rsi
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r9, %r9
adoxq %r14, %r9
adcxq %r8, %r8
adoxq %rdx, %r8
adcxq %r11, %r10
adoxq %r11, %r10
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %rax
adcxq %rbx, %rcx
MULXq %r9, %rbx, %r9
adoxq %rbx, %rcx
adcxq %r9, %rdi
MULXq %r8, %r9, %r8
adoxq %r9, %rdi
adcxq %r8, %rsi
MULXq %r10, %r8, %rdx
adoxq %r8, %rsi
adcxq %r11, %rdx
adoxq %r11, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rax
adcq %r11, %rcx
adcq %r11, %rdi
adcq %r11, %rsi
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rax
movl 344(%rsp), %edx
decl %edx
jne Ljade_scalarmult_curve25519_amd64_mulx$6
xorq %rbx, %rbx
movq 152(%rsp), %rdx
MULXq %rax, %r11, %r9
MULXq %rcx, %r10, %r8
adcxq %r10, %r9
MULXq %rdi, %rbp, %r10
adcxq %rbp, %r8
MULXq %rsi, %rdx, %rbp
adcxq %rdx, %r10
adcxq %rbx, %rbp
movq 160(%rsp), %rdx
MULXq %rax, %r13, %r12
adoxq %r13, %r9
adcxq %r12, %r8
MULXq %rcx, %r13, %r12
adoxq %r13, %r8
adcxq %r12, %r10
MULXq %rdi, %r13, %r12
adoxq %r13, %r10
adcxq %r12, %rbp
MULXq %rsi, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rbx, %r12
adoxq %rbx, %r12
movq 168(%rsp), %rdx
MULXq %rax, %r14, %r13
adoxq %r14, %r8
adcxq %r13, %r10
MULXq %rcx, %r14, %r13
adoxq %r14, %r10
adcxq %r13, %rbp
MULXq %rdi, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %rsi, %rdx, %r13
adoxq %rdx, %r12
adcxq %rbx, %r13
adoxq %rbx, %r13
movq 176(%rsp), %rdx
MULXq %rax, %r14, %rax
adoxq %r14, %r10
adcxq %rax, %rbp
MULXq %rcx, %rcx, %rax
adoxq %rcx, %rbp
adcxq %rax, %r12
MULXq %rdi, %rcx, %rax
adoxq %rcx, %r12
adcxq %rax, %r13
MULXq %rsi, %rcx, %rax
adoxq %rcx, %r13
adcxq %rbx, %rax
adoxq %rbx, %rax
movq $38, %rdx
MULXq %rbp, %rsi, %rcx
adoxq %rsi, %r11
adcxq %rcx, %r9
MULXq %r12, %rsi, %rcx
adoxq %rsi, %r9
adcxq %rcx, %r8
MULXq %r13, %rsi, %rcx
adoxq %rsi, %r8
adcxq %rcx, %r10
MULXq %rax, %rcx, %rax
adoxq %rcx, %r10
adcxq %rbx, %rax
adoxq %rbx, %rax
imulq $38, %rax, %rax
addq %rax, %r11
adcq %rbx, %r9
adcq %rbx, %r8
adcq %rbx, %r10
sbbq %rbx, %rbx
andq $38, %rbx
addq %rbx, %r11
movl $5, %eax
Ljade_scalarmult_curve25519_amd64_mulx$5:
movl %eax, 344(%rsp)
xorq %rdi, %rdi
movq %r11, %rdx
MULXq %rdx, %r11, %rbx
MULXq %r9, %rcx, %rax
MULXq %r8, %rbp, %rsi
adcxq %rbp, %rax
MULXq %r10, %rdx, %rbp
adcxq %rdx, %rsi
movq %r9, %rdx
MULXq %r8, %r12, %r9
adoxq %r12, %rsi
adcxq %r9, %rbp
MULXq %r10, %r12, %r9
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %r8, %rdx
MULXq %r10, %r14, %r8
adcxq %r14, %r9
adoxq %rdi, %r9
adcxq %rdi, %r8
adoxq %rdi, %r8
MULXq %rdx, %r15, %r14
movq %r10, %rdx
MULXq %rdx, %rdx, %r10
adcxq %rcx, %rcx
adoxq %rbx, %rcx
adcxq %rax, %rax
adoxq %r13, %rax
adcxq %rsi, %rsi
adoxq %r12, %rsi
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r9, %r9
adoxq %r14, %r9
adcxq %r8, %r8
adoxq %rdx, %r8
adcxq %rdi, %r10
adoxq %rdi, %r10
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %r11
adcxq %rbx, %rcx
MULXq %r9, %rbx, %r9
adoxq %rbx, %rcx
adcxq %r9, %rax
MULXq %r8, %r9, %r8
adoxq %r9, %rax
adcxq %r8, %rsi
MULXq %r10, %r8, %rdx
adoxq %r8, %rsi
adcxq %rdi, %rdx
adoxq %rdi, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %r11
adcq %rdi, %rcx
adcq %rdi, %rax
adcq %rdi, %rsi
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %r11
xorq %rdi, %rdi
movq %r11, %rdx
MULXq %rdx, %r11, %rbx
MULXq %rcx, %r9, %r8
MULXq %rax, %rbp, %r10
adcxq %rbp, %r8
MULXq %rsi, %rdx, %rbp
adcxq %rdx, %r10
movq %rcx, %rdx
MULXq %rax, %r12, %rcx
adoxq %r12, %r10
adcxq %rcx, %rbp
MULXq %rsi, %r12, %rcx
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rax, %rdx
MULXq %rsi, %r14, %rax
adcxq %r14, %rcx
adoxq %rdi, %rcx
adcxq %rdi, %rax
adoxq %rdi, %rax
MULXq %rdx, %r15, %r14
movq %rsi, %rdx
MULXq %rdx, %rdx, %rsi
adcxq %r9, %r9
adoxq %rbx, %r9
adcxq %r8, %r8
adoxq %r13, %r8
adcxq %r10, %r10
adoxq %r12, %r10
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %rcx, %rcx
adoxq %r14, %rcx
adcxq %rax, %rax
adoxq %rdx, %rax
adcxq %rdi, %rsi
adoxq %rdi, %rsi
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %r11
adcxq %rbx, %r9
MULXq %rcx, %rbx, %rcx
adoxq %rbx, %r9
adcxq %rcx, %r8
MULXq %rax, %rcx, %rax
adoxq %rcx, %r8
adcxq %rax, %r10
MULXq %rsi, %rcx, %rax
adoxq %rcx, %r10
adcxq %rdi, %rax
adoxq %rdi, %rax
imulq $38, %rax, %rax
addq %rax, %r11
adcq %rdi, %r9
adcq %rdi, %r8
adcq %rdi, %r10
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %r11
movl 344(%rsp), %eax
decl %eax
jne Ljade_scalarmult_curve25519_amd64_mulx$5
xorq %rbx, %rbx
movq 120(%rsp), %rdx
MULXq %r11, %rsi, %rax
MULXq %r9, %rcx, %rdi
adcxq %rcx, %rax
MULXq %r8, %rbp, %rcx
adcxq %rbp, %rdi
MULXq %r10, %rdx, %rbp
adcxq %rdx, %rcx
adcxq %rbx, %rbp
movq 128(%rsp), %rdx
MULXq %r11, %r13, %r12
adoxq %r13, %rax
adcxq %r12, %rdi
MULXq %r9, %r13, %r12
adoxq %r13, %rdi
adcxq %r12, %rcx
MULXq %r8, %r13, %r12
adoxq %r13, %rcx
adcxq %r12, %rbp
MULXq %r10, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rbx, %r12
adoxq %rbx, %r12
movq 136(%rsp), %rdx
MULXq %r11, %r14, %r13
adoxq %r14, %rdi
adcxq %r13, %rcx
MULXq %r9, %r14, %r13
adoxq %r14, %rcx
adcxq %r13, %rbp
MULXq %r8, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %r10, %rdx, %r13
adoxq %rdx, %r12
adcxq %rbx, %r13
adoxq %rbx, %r13
movq 144(%rsp), %rdx
MULXq %r11, %r14, %r11
adoxq %r14, %rcx
adcxq %r11, %rbp
MULXq %r9, %r11, %r9
adoxq %r11, %rbp
adcxq %r9, %r12
MULXq %r8, %r9, %r8
adoxq %r9, %r12
adcxq %r8, %r13
MULXq %r10, %rdx, %r8
adoxq %rdx, %r13
adcxq %rbx, %r8
adoxq %rbx, %r8
movq $38, %rdx
MULXq %rbp, %r10, %r9
adoxq %r10, %rsi
adcxq %r9, %rax
MULXq %r12, %r10, %r9
adoxq %r10, %rax
adcxq %r9, %rdi
MULXq %r13, %r10, %r9
adoxq %r10, %rdi
adcxq %r9, %rcx
MULXq %r8, %r8, %rdx
adoxq %r8, %rcx
adcxq %rbx, %rdx
adoxq %rbx, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rsi
adcq %rbx, %rax
adcq %rbx, %rdi
adcq %rbx, %rcx
sbbq %rbx, %rbx
andq $38, %rbx
addq %rbx, %rsi
movq %rsi, 120(%rsp)
movq %rax, 128(%rsp)
movq %rdi, 136(%rsp)
movq %rcx, 144(%rsp)
movl $25, %edx
Ljade_scalarmult_curve25519_amd64_mulx$4:
movl %edx, 344(%rsp)
xorq %r11, %r11
movq %rsi, %rdx
MULXq %rdx, %rsi, %rbx
MULXq %rax, %r9, %r8
MULXq %rdi, %rbp, %r10
adcxq %rbp, %r8
MULXq %rcx, %rdx, %rbp
adcxq %rdx, %r10
movq %rax, %rdx
MULXq %rdi, %r12, %rax
adoxq %r12, %r10
adcxq %rax, %rbp
MULXq %rcx, %r12, %rax
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rdi, %rdx
MULXq %rcx, %r14, %rdi
adcxq %r14, %rax
adoxq %r11, %rax
adcxq %r11, %rdi
adoxq %r11, %rdi
MULXq %rdx, %r15, %r14
movq %rcx, %rdx
MULXq %rdx, %rdx, %rcx
adcxq %r9, %r9
adoxq %rbx, %r9
adcxq %r8, %r8
adoxq %r13, %r8
adcxq %r10, %r10
adoxq %r12, %r10
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %rax, %rax
adoxq %r14, %rax
adcxq %rdi, %rdi
adoxq %rdx, %rdi
adcxq %r11, %rcx
adoxq %r11, %rcx
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %rsi
adcxq %rbx, %r9
MULXq %rax, %rbx, %rax
adoxq %rbx, %r9
adcxq %rax, %r8
MULXq %rdi, %rdi, %rax
adoxq %rdi, %r8
adcxq %rax, %r10
MULXq %rcx, %rcx, %rax
adoxq %rcx, %r10
adcxq %r11, %rax
adoxq %r11, %rax
imulq $38, %rax, %rax
addq %rax, %rsi
adcq %r11, %r9
adcq %r11, %r8
adcq %r11, %r10
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rsi
xorq %r11, %r11
movq %rsi, %rdx
MULXq %rdx, %rsi, %rbx
MULXq %r9, %rax, %rdi
MULXq %r8, %rbp, %rcx
adcxq %rbp, %rdi
MULXq %r10, %rdx, %rbp
adcxq %rdx, %rcx
movq %r9, %rdx
MULXq %r8, %r12, %r9
adoxq %r12, %rcx
adcxq %r9, %rbp
MULXq %r10, %r12, %r9
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %r8, %rdx
MULXq %r10, %r14, %r8
adcxq %r14, %r9
adoxq %r11, %r9
adcxq %r11, %r8
adoxq %r11, %r8
MULXq %rdx, %r15, %r14
movq %r10, %rdx
MULXq %rdx, %rdx, %r10
adcxq %rax, %rax
adoxq %rbx, %rax
adcxq %rdi, %rdi
adoxq %r13, %rdi
adcxq %rcx, %rcx
adoxq %r12, %rcx
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r9, %r9
adoxq %r14, %r9
adcxq %r8, %r8
adoxq %rdx, %r8
adcxq %r11, %r10
adoxq %r11, %r10
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %rsi
adcxq %rbx, %rax
MULXq %r9, %rbx, %r9
adoxq %rbx, %rax
adcxq %r9, %rdi
MULXq %r8, %r9, %r8
adoxq %r9, %rdi
adcxq %r8, %rcx
MULXq %r10, %r8, %rdx
adoxq %r8, %rcx
adcxq %r11, %rdx
adoxq %r11, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rsi
adcq %r11, %rax
adcq %r11, %rdi
adcq %r11, %rcx
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rsi
movl 344(%rsp), %edx
decl %edx
jne Ljade_scalarmult_curve25519_amd64_mulx$4
xorq %r11, %r11
movq 120(%rsp), %rdx
MULXq %rsi, %rbp, %r9
MULXq %rax, %r8, %r10
adcxq %r8, %r9
MULXq %rdi, %rbx, %r8
adcxq %rbx, %r10
MULXq %rcx, %rdx, %rbx
adcxq %rdx, %r8
adcxq %r11, %rbx
movq 128(%rsp), %rdx
MULXq %rsi, %r13, %r12
adoxq %r13, %r9
adcxq %r12, %r10
MULXq %rax, %r13, %r12
adoxq %r13, %r10
adcxq %r12, %r8
MULXq %rdi, %r13, %r12
adoxq %r13, %r8
adcxq %r12, %rbx
MULXq %rcx, %rdx, %r12
adoxq %rdx, %rbx
adcxq %r11, %r12
adoxq %r11, %r12
movq 136(%rsp), %rdx
MULXq %rsi, %r14, %r13
adoxq %r14, %r10
adcxq %r13, %r8
MULXq %rax, %r14, %r13
adoxq %r14, %r8
adcxq %r13, %rbx
MULXq %rdi, %r14, %r13
adoxq %r14, %rbx
adcxq %r13, %r12
MULXq %rcx, %rdx, %r13
adoxq %rdx, %r12
adcxq %r11, %r13
adoxq %r11, %r13
movq 144(%rsp), %rdx
MULXq %rsi, %r14, %rsi
adoxq %r14, %r8
adcxq %rsi, %rbx
MULXq %rax, %rsi, %rax
adoxq %rsi, %rbx
adcxq %rax, %r12
MULXq %rdi, %rsi, %rax
adoxq %rsi, %r12
adcxq %rax, %r13
MULXq %rcx, %rcx, %rax
adoxq %rcx, %r13
adcxq %r11, %rax
adoxq %r11, %rax
movq $38, %rdx
MULXq %rbx, %rsi, %rcx
adoxq %rsi, %rbp
adcxq %rcx, %r9
MULXq %r12, %rsi, %rcx
adoxq %rsi, %r9
adcxq %rcx, %r10
MULXq %r13, %rsi, %rcx
adoxq %rsi, %r10
adcxq %rcx, %r8
MULXq %rax, %rcx, %rax
adoxq %rcx, %r8
adcxq %r11, %rax
adoxq %r11, %rax
imulq $38, %rax, %rax
addq %rax, %rbp
adcq %r11, %r9
adcq %r11, %r10
adcq %r11, %r8
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rbp
movq %rbp, 152(%rsp)
movq %r9, 160(%rsp)
movq %r10, 168(%rsp)
movq %r8, 176(%rsp)
movl $50, %eax
Ljade_scalarmult_curve25519_amd64_mulx$3:
movl %eax, 344(%rsp)
xorq %rdi, %rdi
movq %rbp, %rdx
MULXq %rdx, %r11, %rbx
MULXq %r9, %rcx, %rax
MULXq %r10, %rbp, %rsi
adcxq %rbp, %rax
MULXq %r8, %rdx, %rbp
adcxq %rdx, %rsi
movq %r9, %rdx
MULXq %r10, %r12, %r9
adoxq %r12, %rsi
adcxq %r9, %rbp
MULXq %r8, %r12, %r9
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %r10, %rdx
MULXq %r8, %r14, %r10
adcxq %r14, %r9
adoxq %rdi, %r9
adcxq %rdi, %r10
adoxq %rdi, %r10
MULXq %rdx, %r15, %r14
movq %r8, %rdx
MULXq %rdx, %rdx, %r8
adcxq %rcx, %rcx
adoxq %rbx, %rcx
adcxq %rax, %rax
adoxq %r13, %rax
adcxq %rsi, %rsi
adoxq %r12, %rsi
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r9, %r9
adoxq %r14, %r9
adcxq %r10, %r10
adoxq %rdx, %r10
adcxq %rdi, %r8
adoxq %rdi, %r8
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %r11
adcxq %rbx, %rcx
MULXq %r9, %rbx, %r9
adoxq %rbx, %rcx
adcxq %r9, %rax
MULXq %r10, %r10, %r9
adoxq %r10, %rax
adcxq %r9, %rsi
MULXq %r8, %r8, %rdx
adoxq %r8, %rsi
adcxq %rdi, %rdx
adoxq %rdi, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %r11
adcq %rdi, %rcx
adcq %rdi, %rax
adcq %rdi, %rsi
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %r11
xorq %rdi, %rdi
movq %r11, %rdx
MULXq %rdx, %rbp, %r11
MULXq %rcx, %r9, %r10
MULXq %rax, %rbx, %r8
adcxq %rbx, %r10
MULXq %rsi, %rdx, %rbx
adcxq %rdx, %r8
movq %rcx, %rdx
MULXq %rax, %r12, %rcx
adoxq %r12, %r8
adcxq %rcx, %rbx
MULXq %rsi, %r12, %rcx
adoxq %r12, %rbx
MULXq %rdx, %r13, %r12
movq %rax, %rdx
MULXq %rsi, %r14, %rax
adcxq %r14, %rcx
adoxq %rdi, %rcx
adcxq %rdi, %rax
adoxq %rdi, %rax
MULXq %rdx, %r15, %r14
movq %rsi, %rdx
MULXq %rdx, %rdx, %rsi
adcxq %r9, %r9
adoxq %r11, %r9
adcxq %r10, %r10
adoxq %r13, %r10
adcxq %r8, %r8
adoxq %r12, %r8
adcxq %rbx, %rbx
adoxq %r15, %rbx
adcxq %rcx, %rcx
adoxq %r14, %rcx
adcxq %rax, %rax
adoxq %rdx, %rax
adcxq %rdi, %rsi
adoxq %rdi, %rsi
movq $38, %rdx
MULXq %rbx, %rbx, %r11
adoxq %rbx, %rbp
adcxq %r11, %r9
MULXq %rcx, %r11, %rcx
adoxq %r11, %r9
adcxq %rcx, %r10
MULXq %rax, %rcx, %rax
adoxq %rcx, %r10
adcxq %rax, %r8
MULXq %rsi, %rcx, %rax
adoxq %rcx, %r8
adcxq %rdi, %rax
adoxq %rdi, %rax
imulq $38, %rax, %rax
addq %rax, %rbp
adcq %rdi, %r9
adcq %rdi, %r10
adcq %rdi, %r8
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %rbp
movl 344(%rsp), %eax
decl %eax
jne Ljade_scalarmult_curve25519_amd64_mulx$3
xorq %rcx, %rcx
movq 152(%rsp), %rdx
MULXq %rbp, %rbx, %r12
MULXq %r9, %rsi, %rax
adcxq %rsi, %r12
MULXq %r10, %rsi, %r11
adcxq %rsi, %rax
MULXq %r8, %rdx, %rsi
adcxq %rdx, %r11
adcxq %rcx, %rsi
movq 160(%rsp), %rdx
MULXq %rbp, %r13, %rdi
adoxq %r13, %r12
adcxq %rdi, %rax
MULXq %r9, %r13, %rdi
adoxq %r13, %rax
adcxq %rdi, %r11
MULXq %r10, %r13, %rdi
adoxq %r13, %r11
adcxq %rdi, %rsi
MULXq %r8, %rdx, %rdi
adoxq %rdx, %rsi
adcxq %rcx, %rdi
adoxq %rcx, %rdi
movq 168(%rsp), %rdx
MULXq %rbp, %r14, %r13
adoxq %r14, %rax
adcxq %r13, %r11
MULXq %r9, %r14, %r13
adoxq %r14, %r11
adcxq %r13, %rsi
MULXq %r10, %r14, %r13
adoxq %r14, %rsi
adcxq %r13, %rdi
MULXq %r8, %rdx, %r13
adoxq %rdx, %rdi
adcxq %rcx, %r13
adoxq %rcx, %r13
movq 176(%rsp), %rdx
MULXq %rbp, %r14, %rbp
adoxq %r14, %r11
adcxq %rbp, %rsi
MULXq %r9, %rbp, %r9
adoxq %rbp, %rsi
adcxq %r9, %rdi
MULXq %r10, %r10, %r9
adoxq %r10, %rdi
adcxq %r9, %r13
MULXq %r8, %rdx, %r8
adoxq %rdx, %r13
adcxq %rcx, %r8
adoxq %rcx, %r8
movq $38, %rdx
MULXq %rsi, %r9, %rsi
adoxq %r9, %rbx
adcxq %rsi, %r12
MULXq %rdi, %rdi, %rsi
adoxq %rdi, %r12
adcxq %rsi, %rax
MULXq %r13, %rdi, %rsi
adoxq %rdi, %rax
adcxq %rsi, %r11
MULXq %r8, %rsi, %rdx
adoxq %rsi, %r11
adcxq %rcx, %rdx
adoxq %rcx, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rbx
adcq %rcx, %r12
adcq %rcx, %rax
adcq %rcx, %r11
sbbq %rcx, %rcx
andq $38, %rcx
addq %rcx, %rbx
movl $25, %ecx
Ljade_scalarmult_curve25519_amd64_mulx$2:
movl %ecx, 344(%rsp)
xorq %r8, %r8
movq %rbx, %rdx
MULXq %rdx, %r9, %r10
MULXq %r12, %rsi, %rcx
MULXq %rax, %rbx, %rdi
adcxq %rbx, %rcx
MULXq %r11, %rdx, %rbx
adcxq %rdx, %rdi
movq %r12, %rdx
MULXq %rax, %r12, %rbp
adoxq %r12, %rdi
adcxq %rbp, %rbx
MULXq %r11, %r12, %rbp
adoxq %r12, %rbx
MULXq %rdx, %r13, %r12
movq %rax, %rdx
MULXq %r11, %r14, %rax
adcxq %r14, %rbp
adoxq %r8, %rbp
adcxq %r8, %rax
adoxq %r8, %rax
MULXq %rdx, %r15, %r14
movq %r11, %rdx
MULXq %rdx, %rdx, %r11
adcxq %rsi, %rsi
adoxq %r10, %rsi
adcxq %rcx, %rcx
adoxq %r13, %rcx
adcxq %rdi, %rdi
adoxq %r12, %rdi
adcxq %rbx, %rbx
adoxq %r15, %rbx
adcxq %rbp, %rbp
adoxq %r14, %rbp
adcxq %rax, %rax
adoxq %rdx, %rax
adcxq %r8, %r11
adoxq %r8, %r11
movq $38, %rdx
MULXq %rbx, %rbx, %r10
adoxq %rbx, %r9
adcxq %r10, %rsi
MULXq %rbp, %rbx, %r10
adoxq %rbx, %rsi
adcxq %r10, %rcx
MULXq %rax, %r10, %rax
adoxq %r10, %rcx
adcxq %rax, %rdi
MULXq %r11, %rdx, %rax
adoxq %rdx, %rdi
adcxq %r8, %rax
adoxq %r8, %rax
imulq $38, %rax, %rax
addq %rax, %r9
adcq %r8, %rsi
adcq %r8, %rcx
adcq %r8, %rdi
sbbq %r8, %r8
andq $38, %r8
addq %r8, %r9
xorq %r8, %r8
movq %r9, %rdx
MULXq %rdx, %rbx, %r9
MULXq %rsi, %r12, %rax
MULXq %rcx, %r10, %r11
adcxq %r10, %rax
MULXq %rdi, %rdx, %r10
adcxq %rdx, %r11
movq %rsi, %rdx
MULXq %rcx, %rbp, %rsi
adoxq %rbp, %r11
adcxq %rsi, %r10
MULXq %rdi, %rbp, %rsi
adoxq %rbp, %r10
MULXq %rdx, %r13, %rbp
movq %rcx, %rdx
MULXq %rdi, %r14, %rcx
adcxq %r14, %rsi
adoxq %r8, %rsi
adcxq %r8, %rcx
adoxq %r8, %rcx
MULXq %rdx, %r15, %r14
movq %rdi, %rdx
MULXq %rdx, %rdx, %rdi
adcxq %r12, %r12
adoxq %r9, %r12
adcxq %rax, %rax
adoxq %r13, %rax
adcxq %r11, %r11
adoxq %rbp, %r11
adcxq %r10, %r10
adoxq %r15, %r10
adcxq %rsi, %rsi
adoxq %r14, %rsi
adcxq %rcx, %rcx
adoxq %rdx, %rcx
adcxq %r8, %rdi
adoxq %r8, %rdi
movq $38, %rdx
MULXq %r10, %r10, %r9
adoxq %r10, %rbx
adcxq %r9, %r12
MULXq %rsi, %r9, %rsi
adoxq %r9, %r12
adcxq %rsi, %rax
MULXq %rcx, %rsi, %rcx
adoxq %rsi, %rax
adcxq %rcx, %r11
MULXq %rdi, %rdx, %rcx
adoxq %rdx, %r11
adcxq %r8, %rcx
adoxq %r8, %rcx
imulq $38, %rcx, %rcx
addq %rcx, %rbx
adcq %r8, %r12
adcq %r8, %rax
adcq %r8, %r11
sbbq %r8, %r8
andq $38, %r8
addq %r8, %rbx
movl 344(%rsp), %ecx
decl %ecx
jne Ljade_scalarmult_curve25519_amd64_mulx$2
xorq %r9, %r9
movq 120(%rsp), %rdx
MULXq %rbx, %r8, %rsi
MULXq %r12, %rdi, %rcx
adcxq %rdi, %rsi
MULXq %rax, %r10, %rdi
adcxq %r10, %rcx
MULXq %r11, %rdx, %r10
adcxq %rdx, %rdi
adcxq %r9, %r10
movq 128(%rsp), %rdx
MULXq %rbx, %r13, %rbp
adoxq %r13, %rsi
adcxq %rbp, %rcx
MULXq %r12, %r13, %rbp
adoxq %r13, %rcx
adcxq %rbp, %rdi
MULXq %rax, %r13, %rbp
adoxq %r13, %rdi
adcxq %rbp, %r10
MULXq %r11, %rdx, %rbp
adoxq %rdx, %r10
adcxq %r9, %rbp
adoxq %r9, %rbp
movq 136(%rsp), %rdx
MULXq %rbx, %r14, %r13
adoxq %r14, %rcx
adcxq %r13, %rdi
MULXq %r12, %r14, %r13
adoxq %r14, %rdi
adcxq %r13, %r10
MULXq %rax, %r14, %r13
adoxq %r14, %r10
adcxq %r13, %rbp
MULXq %r11, %rdx, %r13
adoxq %rdx, %rbp
adcxq %r9, %r13
adoxq %r9, %r13
movq 144(%rsp), %rdx
MULXq %rbx, %r14, %rbx
adoxq %r14, %rdi
adcxq %rbx, %r10
MULXq %r12, %r12, %rbx
adoxq %r12, %r10
adcxq %rbx, %rbp
MULXq %rax, %rbx, %rax
adoxq %rbx, %rbp
adcxq %rax, %r13
MULXq %r11, %rdx, %rax
adoxq %rdx, %r13
adcxq %r9, %rax
adoxq %r9, %rax
movq $38, %rdx
MULXq %r10, %r11, %r10
adoxq %r11, %r8
adcxq %r10, %rsi
MULXq %rbp, %r11, %r10
adoxq %r11, %rsi
adcxq %r10, %rcx
MULXq %r13, %r11, %r10
adoxq %r11, %rcx
adcxq %r10, %rdi
MULXq %rax, %rdx, %rax
adoxq %rdx, %rdi
adcxq %r9, %rax
adoxq %r9, %rax
imulq $38, %rax, %rax
addq %rax, %r8
adcq %r9, %rsi
adcq %r9, %rcx
adcq %r9, %rdi
sbbq %r9, %r9
andq $38, %r9
addq %r9, %r8
movl $2, %eax
Ljade_scalarmult_curve25519_amd64_mulx$1:
movl %eax, 344(%rsp)
xorq %r11, %r11
movq %r8, %rdx
MULXq %rdx, %r8, %rbx
MULXq %rsi, %r9, %rax
MULXq %rcx, %rbp, %r10
adcxq %rbp, %rax
MULXq %rdi, %rdx, %rbp
adcxq %rdx, %r10
movq %rsi, %rdx
MULXq %rcx, %r12, %rsi
adoxq %r12, %r10
adcxq %rsi, %rbp
MULXq %rdi, %r12, %rsi
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rcx, %rdx
MULXq %rdi, %r14, %rcx
adcxq %r14, %rsi
adoxq %r11, %rsi
adcxq %r11, %rcx
adoxq %r11, %rcx
MULXq %rdx, %r15, %r14
movq %rdi, %rdx
MULXq %rdx, %rdx, %rdi
adcxq %r9, %r9
adoxq %rbx, %r9
adcxq %rax, %rax
adoxq %r13, %rax
adcxq %r10, %r10
adoxq %r12, %r10
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %rsi, %rsi
adoxq %r14, %rsi
adcxq %rcx, %rcx
adoxq %rdx, %rcx
adcxq %r11, %rdi
adoxq %r11, %rdi
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %r8
adcxq %rbx, %r9
MULXq %rsi, %rbx, %rsi
adoxq %rbx, %r9
adcxq %rsi, %rax
MULXq %rcx, %rsi, %rcx
adoxq %rsi, %rax
adcxq %rcx, %r10
MULXq %rdi, %rdx, %rcx
adoxq %rdx, %r10
adcxq %r11, %rcx
adoxq %r11, %rcx
imulq $38, %rcx, %rcx
addq %rcx, %r8
adcq %r11, %r9
adcq %r11, %rax
adcq %r11, %r10
sbbq %r11, %r11
andq $38, %r11
addq %r11, %r8
xorq %r11, %r11
movq %r8, %rdx
MULXq %rdx, %r8, %rbx
MULXq %r9, %rsi, %rcx
MULXq %rax, %rbp, %rdi
adcxq %rbp, %rcx
MULXq %r10, %rdx, %rbp
adcxq %rdx, %rdi
movq %r9, %rdx
MULXq %rax, %r12, %r9
adoxq %r12, %rdi
adcxq %r9, %rbp
MULXq %r10, %r12, %r9
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rax, %rdx
MULXq %r10, %r14, %rax
adcxq %r14, %r9
adoxq %r11, %r9
adcxq %r11, %rax
adoxq %r11, %rax
MULXq %rdx, %r15, %r14
movq %r10, %rdx
MULXq %rdx, %rdx, %r10
adcxq %rsi, %rsi
adoxq %rbx, %rsi
adcxq %rcx, %rcx
adoxq %r13, %rcx
adcxq %rdi, %rdi
adoxq %r12, %rdi
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r9, %r9
adoxq %r14, %r9
adcxq %rax, %rax
adoxq %rdx, %rax
adcxq %r11, %r10
adoxq %r11, %r10
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %r8
adcxq %rbx, %rsi
MULXq %r9, %rbx, %r9
adoxq %rbx, %rsi
adcxq %r9, %rcx
MULXq %rax, %r9, %rax
adoxq %r9, %rcx
adcxq %rax, %rdi
MULXq %r10, %rdx, %rax
adoxq %rdx, %rdi
adcxq %r11, %rax
adoxq %r11, %rax
imulq $38, %rax, %rax
addq %rax, %r8
adcq %r11, %rsi
adcq %r11, %rcx
adcq %r11, %rdi
sbbq %r11, %r11
andq $38, %r11
addq %r11, %r8
movl 344(%rsp), %eax
decl %eax
jne Ljade_scalarmult_curve25519_amd64_mulx$1
xorq %r9, %r9
movq %r8, %rdx
MULXq %rdx, %rax, %rbx
MULXq %rsi, %r10, %r11
MULXq %rcx, %rbp, %r8
adcxq %rbp, %r11
MULXq %rdi, %rdx, %rbp
adcxq %rdx, %r8
movq %rsi, %rdx
MULXq %rcx, %r12, %rsi
adoxq %r12, %r8
adcxq %rsi, %rbp
MULXq %rdi, %r12, %rsi
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rcx, %rdx
MULXq %rdi, %r14, %rcx
adcxq %r14, %rsi
adoxq %r9, %rsi
adcxq %r9, %rcx
adoxq %r9, %rcx
MULXq %rdx, %r15, %r14
movq %rdi, %rdx
MULXq %rdx, %rdx, %rdi
adcxq %r10, %r10
adoxq %rbx, %r10
adcxq %r11, %r11
adoxq %r13, %r11
adcxq %r8, %r8
adoxq %r12, %r8
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %rsi, %rsi
adoxq %r14, %rsi
adcxq %rcx, %rcx
adoxq %rdx, %rcx
adcxq %r9, %rdi
adoxq %r9, %rdi
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %rax
adcxq %rbx, %r10
MULXq %rsi, %rbx, %rsi
adoxq %rbx, %r10
adcxq %rsi, %r11
MULXq %rcx, %rsi, %rcx
adoxq %rsi, %r11
adcxq %rcx, %r8
MULXq %rdi, %rdx, %rcx
adoxq %rdx, %r8
adcxq %r9, %rcx
adoxq %r9, %rcx
imulq $38, %rcx, %rcx
addq %rcx, %rax
adcq %r9, %r10
adcq %r9, %r11
adcq %r9, %r8
sbbq %r9, %r9
andq $38, %r9
addq %r9, %rax
xorq %rbx, %rbx
movq 88(%rsp), %rdx
MULXq %rax, %rsi, %rcx
MULXq %r10, %r9, %rdi
adcxq %r9, %rcx
MULXq %r11, %rbp, %r9
adcxq %rbp, %rdi
MULXq %r8, %rdx, %rbp
adcxq %rdx, %r9
adcxq %rbx, %rbp
movq 96(%rsp), %rdx
MULXq %rax, %r13, %r12
adoxq %r13, %rcx
adcxq %r12, %rdi
MULXq %r10, %r13, %r12
adoxq %r13, %rdi
adcxq %r12, %r9
MULXq %r11, %r13, %r12
adoxq %r13, %r9
adcxq %r12, %rbp
MULXq %r8, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rbx, %r12
adoxq %rbx, %r12
movq 104(%rsp), %rdx
MULXq %rax, %r14, %r13
adoxq %r14, %rdi
adcxq %r13, %r9
MULXq %r10, %r14, %r13
adoxq %r14, %r9
adcxq %r13, %rbp
MULXq %r11, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %r8, %rdx, %r13
adoxq %rdx, %r12
adcxq %rbx, %r13
adoxq %rbx, %r13
movq 112(%rsp), %rdx
MULXq %rax, %r14, %rax
adoxq %r14, %r9
adcxq %rax, %rbp
MULXq %r10, %r10, %rax
adoxq %r10, %rbp
adcxq %rax, %r12
MULXq %r11, %r10, %rax
adoxq %r10, %r12
adcxq %rax, %r13
MULXq %r8, %rdx, %rax
adoxq %rdx, %r13
adcxq %rbx, %rax
adoxq %rbx, %rax
movq $38, %rdx
MULXq %rbp, %r10, %r8
adoxq %r10, %rsi
adcxq %r8, %rcx
MULXq %r12, %r10, %r8
adoxq %r10, %rcx
adcxq %r8, %rdi
MULXq %r13, %r10, %r8
adoxq %r10, %rdi
adcxq %r8, %r9
MULXq %rax, %rdx, %rax
adoxq %rdx, %r9
adcxq %rbx, %rax
adoxq %rbx, %rax
imulq $38, %rax, %rax
addq %rax, %rsi
adcq %rbx, %rcx
adcq %rbx, %rdi
adcq %rbx, %r9
sbbq %rbx, %rbx
andq $38, %rbx
addq %rbx, %rsi
xorq %rax, %rax
movq 56(%rsp), %rdx
MULXq %rsi, %r10, %r8
MULXq %rcx, %rbx, %r11
adcxq %rbx, %r8
MULXq %rdi, %rbp, %rbx
adcxq %rbp, %r11
MULXq %r9, %rdx, %rbp
adcxq %rdx, %rbx
adcxq %rax, %rbp
movq 64(%rsp), %rdx
MULXq %rsi, %r13, %r12
adoxq %r13, %r8
adcxq %r12, %r11
MULXq %rcx, %r13, %r12
adoxq %r13, %r11
adcxq %r12, %rbx
MULXq %rdi, %r13, %r12
adoxq %r13, %rbx
adcxq %r12, %rbp
MULXq %r9, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rax, %r12
adoxq %rax, %r12
movq 72(%rsp), %rdx
MULXq %rsi, %r14, %r13
adoxq %r14, %r11
adcxq %r13, %rbx
MULXq %rcx, %r14, %r13
adoxq %r14, %rbx
adcxq %r13, %rbp
MULXq %rdi, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %r9, %rdx, %r13
adoxq %rdx, %r12
adcxq %rax, %r13
adoxq %rax, %r13
movq 80(%rsp), %rdx
MULXq %rsi, %r14, %rsi
adoxq %r14, %rbx
adcxq %rsi, %rbp
MULXq %rcx, %rsi, %rcx
adoxq %rsi, %rbp
adcxq %rcx, %r12
MULXq %rdi, %rsi, %rcx
adoxq %rsi, %r12
adcxq %rcx, %r13
MULXq %r9, %rdx, %rcx
adoxq %rdx, %r13
adcxq %rax, %rcx
adoxq %rax, %rcx
movq $38, %rdx
MULXq %rbp, %rdi, %rsi
adoxq %rdi, %r10
adcxq %rsi, %r8
MULXq %r12, %rdi, %rsi
adoxq %rdi, %r8
adcxq %rsi, %r11
MULXq %r13, %rdi, %rsi
adoxq %rdi, %r11
adcxq %rsi, %rbx
MULXq %rcx, %rdx, %rcx
adoxq %rdx, %rbx
adcxq %rax, %rcx
adoxq %rax, %rcx
imulq $38, %rcx, %rcx
addq %rcx, %r10
adcq %rax, %r8
adcq %rax, %r11
adcq %rax, %rbx
sbbq %rax, %rax
andq $38, %rax
addq %rax, %r10
leaq (%rbx,%rbx), %rax
sarq $63, %rbx
shrq $1, %rax
andq $19, %rbx
addq $19, %rbx
addq %rbx, %r10
adcq $0, %r8
adcq $0, %r11
adcq $0, %rax
leaq (%rax,%rax), %rcx
sarq $63, %rax
shrq $1, %rcx
notq %rax
andq $19, %rax
subq %rax, %r10
sbbq $0, %r8
sbbq $0, %r11
sbbq $0, %rcx
movq (%rsp), %rax
movq %r10, (%rax)
movq %r8, 8(%rax)
movq %r11, 16(%rax)
movq %rcx, 24(%rax)
xorq %rax, %rax
movq 352(%rsp), %rbx
movq 360(%rsp), %rbp
movq 368(%rsp), %r12
movq 376(%rsp), %r13
movq 384(%rsp), %r14
movq 392(%rsp), %r15
movq 400(%rsp), %rsp
ret
|
usenix-security-verdict/verdict
| 31,349
|
deps/libcrux/sys/libjade/jazz/sha3_512_ref.s
|
.att_syntax
.text
.p2align 5
.globl _jade_hash_sha3_512_amd64_ref
.globl jade_hash_sha3_512_amd64_ref
_jade_hash_sha3_512_amd64_ref:
jade_hash_sha3_512_amd64_ref:
movq %rsp, %rax
leaq -48(%rsp), %rsp
andq $-8, %rsp
movq %rax, 40(%rsp)
movq %rbx, (%rsp)
movq %rbp, 8(%rsp)
movq %r12, 16(%rsp)
movq %r13, 24(%rsp)
movq %r14, 32(%rsp)
movq $64, %rcx
movb $6, %r8b
movq $72, %rax
leaq -448(%rsp), %rsp
call L_keccak1600_ref$1
Ljade_hash_sha3_512_amd64_ref$1:
leaq 448(%rsp), %rsp
xorq %rax, %rax
movq (%rsp), %rbx
movq 8(%rsp), %rbp
movq 16(%rsp), %r12
movq 24(%rsp), %r13
movq 32(%rsp), %r14
movq 40(%rsp), %rsp
ret
L_keccak1600_ref$1:
movq %rdi, 8(%rsp)
movq %rcx, 16(%rsp)
movb %r8b, 448(%rsp)
xorq %rcx, %rcx
movq %rcx, 48(%rsp)
movq %rcx, 56(%rsp)
movq %rcx, 64(%rsp)
movq %rcx, 72(%rsp)
movq %rcx, 80(%rsp)
movq %rcx, 88(%rsp)
movq %rcx, 96(%rsp)
movq %rcx, 104(%rsp)
movq %rcx, 112(%rsp)
movq %rcx, 120(%rsp)
movq %rcx, 128(%rsp)
movq %rcx, 136(%rsp)
movq %rcx, 144(%rsp)
movq %rcx, 152(%rsp)
movq %rcx, 160(%rsp)
movq %rcx, 168(%rsp)
movq %rcx, 176(%rsp)
movq %rcx, 184(%rsp)
movq %rcx, 192(%rsp)
movq %rcx, 200(%rsp)
movq %rcx, 208(%rsp)
movq %rcx, 216(%rsp)
movq %rcx, 224(%rsp)
movq %rcx, 232(%rsp)
movq %rcx, 240(%rsp)
jmp L_keccak1600_ref$16
L_keccak1600_ref$17:
movq %rax, %rcx
shrq $3, %rcx
movq $0, %rdi
jmp L_keccak1600_ref$19
L_keccak1600_ref$20:
movq (%rsi,%rdi,8), %r8
xorq %r8, 48(%rsp,%rdi,8)
incq %rdi
L_keccak1600_ref$19:
cmpq %rcx, %rdi
jb L_keccak1600_ref$20
addq %rax, %rsi
subq %rax, %rdx
movq %rsi, 24(%rsp)
movq %rdx, 32(%rsp)
movq %rax, 40(%rsp)
leaq glob_data + 0(%rip), %rax
movq $0, %rcx
L_keccak1600_ref$18:
movq (%rax,%rcx,8), %r10
movq 48(%rsp), %r9
movq 56(%rsp), %r8
movq 64(%rsp), %r11
movq 72(%rsp), %rbx
movq 80(%rsp), %rbp
xorq 88(%rsp), %r9
xorq 96(%rsp), %r8
xorq 104(%rsp), %r11
xorq 112(%rsp), %rbx
xorq 120(%rsp), %rbp
xorq 128(%rsp), %r9
xorq 136(%rsp), %r8
xorq 144(%rsp), %r11
xorq 152(%rsp), %rbx
xorq 160(%rsp), %rbp
xorq 168(%rsp), %r9
xorq 176(%rsp), %r8
xorq 184(%rsp), %r11
xorq 192(%rsp), %rbx
xorq 200(%rsp), %rbp
xorq 208(%rsp), %r9
xorq 216(%rsp), %r8
xorq 224(%rsp), %r11
xorq 232(%rsp), %rbx
xorq 240(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 48(%rsp), %r11
xorq %rdx, %r11
movq 96(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 144(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 192(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 240(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 248(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 256(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 264(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 272(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 280(%rsp)
movq 72(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 120(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 128(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 176(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 224(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 288(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 296(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 304(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 312(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 320(%rsp)
movq 56(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 104(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 152(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 200(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 208(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 328(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 336(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 344(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 352(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 360(%rsp)
movq 80(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 88(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 136(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 184(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 232(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 368(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 376(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 384(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 392(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 400(%rsp)
movq 64(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 112(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 160(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 168(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 216(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 408(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 416(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 424(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 432(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 440(%rsp)
movq 8(%rax,%rcx,8), %r10
movq 248(%rsp), %r9
movq 256(%rsp), %r8
movq 264(%rsp), %r11
movq 272(%rsp), %rbx
movq 280(%rsp), %rbp
xorq 288(%rsp), %r9
xorq 296(%rsp), %r8
xorq 304(%rsp), %r11
xorq 312(%rsp), %rbx
xorq 320(%rsp), %rbp
xorq 328(%rsp), %r9
xorq 336(%rsp), %r8
xorq 344(%rsp), %r11
xorq 352(%rsp), %rbx
xorq 360(%rsp), %rbp
xorq 368(%rsp), %r9
xorq 376(%rsp), %r8
xorq 384(%rsp), %r11
xorq 392(%rsp), %rbx
xorq 400(%rsp), %rbp
xorq 408(%rsp), %r9
xorq 416(%rsp), %r8
xorq 424(%rsp), %r11
xorq 432(%rsp), %rbx
xorq 440(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 248(%rsp), %r11
xorq %rdx, %r11
movq 296(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 344(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 392(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 440(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 48(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 56(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 64(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 72(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 80(%rsp)
movq 272(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 320(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 328(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 376(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 424(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 88(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 96(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 104(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 112(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 120(%rsp)
movq 256(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 304(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 352(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 400(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 408(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 128(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 136(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 144(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 152(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 160(%rsp)
movq 280(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 288(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 336(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 384(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 432(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 168(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 176(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 184(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 192(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 200(%rsp)
movq 264(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 312(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 360(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 368(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 416(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 208(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 216(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 224(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 232(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 240(%rsp)
addq $2, %rcx
cmpq $23, %rcx
jb L_keccak1600_ref$18
movq 24(%rsp), %rsi
movq 32(%rsp), %rdx
movq 40(%rsp), %rax
L_keccak1600_ref$16:
cmpq %rax, %rdx
jnb L_keccak1600_ref$17
movb 448(%rsp), %cl
movq %rdx, %rdi
shrq $3, %rdi
movq $0, %r8
jmp L_keccak1600_ref$14
L_keccak1600_ref$15:
movq (%rsi,%r8,8), %r9
xorq %r9, 48(%rsp,%r8,8)
incq %r8
L_keccak1600_ref$14:
cmpq %rdi, %r8
jb L_keccak1600_ref$15
shlq $3, %r8
jmp L_keccak1600_ref$12
L_keccak1600_ref$13:
movb (%rsi,%r8), %dil
xorb %dil, 48(%rsp,%r8)
incq %r8
L_keccak1600_ref$12:
cmpq %rdx, %r8
jb L_keccak1600_ref$13
xorb %cl, 48(%rsp,%r8)
movq %rax, %rcx
addq $-1, %rcx
xorb $-128, 48(%rsp,%rcx)
movq 16(%rsp), %rdx
jmp L_keccak1600_ref$7
L_keccak1600_ref$8:
movq %rdx, 16(%rsp)
movq %rax, 40(%rsp)
leaq glob_data + 0(%rip), %rax
movq $0, %rcx
L_keccak1600_ref$11:
movq (%rax,%rcx,8), %r10
movq 48(%rsp), %r9
movq 56(%rsp), %r8
movq 64(%rsp), %r11
movq 72(%rsp), %rbx
movq 80(%rsp), %rbp
xorq 88(%rsp), %r9
xorq 96(%rsp), %r8
xorq 104(%rsp), %r11
xorq 112(%rsp), %rbx
xorq 120(%rsp), %rbp
xorq 128(%rsp), %r9
xorq 136(%rsp), %r8
xorq 144(%rsp), %r11
xorq 152(%rsp), %rbx
xorq 160(%rsp), %rbp
xorq 168(%rsp), %r9
xorq 176(%rsp), %r8
xorq 184(%rsp), %r11
xorq 192(%rsp), %rbx
xorq 200(%rsp), %rbp
xorq 208(%rsp), %r9
xorq 216(%rsp), %r8
xorq 224(%rsp), %r11
xorq 232(%rsp), %rbx
xorq 240(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 48(%rsp), %r11
xorq %rdx, %r11
movq 96(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 144(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 192(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 240(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 248(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 256(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 264(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 272(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 280(%rsp)
movq 72(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 120(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 128(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 176(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 224(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 288(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 296(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 304(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 312(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 320(%rsp)
movq 56(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 104(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 152(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 200(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 208(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 328(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 336(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 344(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 352(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 360(%rsp)
movq 80(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 88(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 136(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 184(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 232(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 368(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 376(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 384(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 392(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 400(%rsp)
movq 64(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 112(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 160(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 168(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 216(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 408(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 416(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 424(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 432(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 440(%rsp)
movq 8(%rax,%rcx,8), %r10
movq 248(%rsp), %r9
movq 256(%rsp), %r8
movq 264(%rsp), %r11
movq 272(%rsp), %rbx
movq 280(%rsp), %rbp
xorq 288(%rsp), %r9
xorq 296(%rsp), %r8
xorq 304(%rsp), %r11
xorq 312(%rsp), %rbx
xorq 320(%rsp), %rbp
xorq 328(%rsp), %r9
xorq 336(%rsp), %r8
xorq 344(%rsp), %r11
xorq 352(%rsp), %rbx
xorq 360(%rsp), %rbp
xorq 368(%rsp), %r9
xorq 376(%rsp), %r8
xorq 384(%rsp), %r11
xorq 392(%rsp), %rbx
xorq 400(%rsp), %rbp
xorq 408(%rsp), %r9
xorq 416(%rsp), %r8
xorq 424(%rsp), %r11
xorq 432(%rsp), %rbx
xorq 440(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 248(%rsp), %r11
xorq %rdx, %r11
movq 296(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 344(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 392(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 440(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 48(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 56(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 64(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 72(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 80(%rsp)
movq 272(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 320(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 328(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 376(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 424(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 88(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 96(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 104(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 112(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 120(%rsp)
movq 256(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 304(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 352(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 400(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 408(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 128(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 136(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 144(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 152(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 160(%rsp)
movq 280(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 288(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 336(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 384(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 432(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 168(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 176(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 184(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 192(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 200(%rsp)
movq 264(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 312(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 360(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 368(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 416(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 208(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 216(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 224(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 232(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 240(%rsp)
addq $2, %rcx
cmpq $23, %rcx
jb L_keccak1600_ref$11
movq 8(%rsp), %rcx
movq 16(%rsp), %rdx
movq 40(%rsp), %rax
movq %rax, %rsi
shrq $3, %rsi
movq $0, %rdi
jmp L_keccak1600_ref$9
L_keccak1600_ref$10:
movq 48(%rsp,%rdi,8), %r8
movq %r8, (%rcx,%rdi,8)
incq %rdi
L_keccak1600_ref$9:
cmpq %rsi, %rdi
jb L_keccak1600_ref$10
addq %rax, %rcx
subq %rax, %rdx
movq %rcx, 8(%rsp)
L_keccak1600_ref$7:
cmpq %rax, %rdx
jnbe L_keccak1600_ref$8
movq %rdx, 40(%rsp)
leaq glob_data + 0(%rip), %rax
movq $0, %rcx
L_keccak1600_ref$6:
movq (%rax,%rcx,8), %r10
movq 48(%rsp), %r9
movq 56(%rsp), %r8
movq 64(%rsp), %r11
movq 72(%rsp), %rbx
movq 80(%rsp), %rbp
xorq 88(%rsp), %r9
xorq 96(%rsp), %r8
xorq 104(%rsp), %r11
xorq 112(%rsp), %rbx
xorq 120(%rsp), %rbp
xorq 128(%rsp), %r9
xorq 136(%rsp), %r8
xorq 144(%rsp), %r11
xorq 152(%rsp), %rbx
xorq 160(%rsp), %rbp
xorq 168(%rsp), %r9
xorq 176(%rsp), %r8
xorq 184(%rsp), %r11
xorq 192(%rsp), %rbx
xorq 200(%rsp), %rbp
xorq 208(%rsp), %r9
xorq 216(%rsp), %r8
xorq 224(%rsp), %r11
xorq 232(%rsp), %rbx
xorq 240(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 48(%rsp), %r11
xorq %rdx, %r11
movq 96(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 144(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 192(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 240(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 248(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 256(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 264(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 272(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 280(%rsp)
movq 72(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 120(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 128(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 176(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 224(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 288(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 296(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 304(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 312(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 320(%rsp)
movq 56(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 104(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 152(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 200(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 208(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 328(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 336(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 344(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 352(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 360(%rsp)
movq 80(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 88(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 136(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 184(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 232(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 368(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 376(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 384(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 392(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 400(%rsp)
movq 64(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 112(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 160(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 168(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 216(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 408(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 416(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 424(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 432(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 440(%rsp)
movq 8(%rax,%rcx,8), %r10
movq 248(%rsp), %r9
movq 256(%rsp), %r8
movq 264(%rsp), %r11
movq 272(%rsp), %rbx
movq 280(%rsp), %rbp
xorq 288(%rsp), %r9
xorq 296(%rsp), %r8
xorq 304(%rsp), %r11
xorq 312(%rsp), %rbx
xorq 320(%rsp), %rbp
xorq 328(%rsp), %r9
xorq 336(%rsp), %r8
xorq 344(%rsp), %r11
xorq 352(%rsp), %rbx
xorq 360(%rsp), %rbp
xorq 368(%rsp), %r9
xorq 376(%rsp), %r8
xorq 384(%rsp), %r11
xorq 392(%rsp), %rbx
xorq 400(%rsp), %rbp
xorq 408(%rsp), %r9
xorq 416(%rsp), %r8
xorq 424(%rsp), %r11
xorq 432(%rsp), %rbx
xorq 440(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 248(%rsp), %r11
xorq %rdx, %r11
movq 296(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 344(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 392(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 440(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 48(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 56(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 64(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 72(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 80(%rsp)
movq 272(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 320(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 328(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 376(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 424(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 88(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 96(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 104(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 112(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 120(%rsp)
movq 256(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 304(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 352(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 400(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 408(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 128(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 136(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 144(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 152(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 160(%rsp)
movq 280(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 288(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 336(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 384(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 432(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 168(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 176(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 184(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 192(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 200(%rsp)
movq 264(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 312(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 360(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 368(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 416(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 208(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 216(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 224(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 232(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 240(%rsp)
addq $2, %rcx
cmpq $23, %rcx
jb L_keccak1600_ref$6
movq 8(%rsp), %rax
movq 40(%rsp), %rcx
movq %rcx, %rdx
shrq $3, %rdx
movq $0, %rsi
jmp L_keccak1600_ref$4
L_keccak1600_ref$5:
movq 48(%rsp,%rsi,8), %rdi
movq %rdi, (%rax,%rsi,8)
incq %rsi
L_keccak1600_ref$4:
cmpq %rdx, %rsi
jb L_keccak1600_ref$5
shlq $3, %rsi
jmp L_keccak1600_ref$2
L_keccak1600_ref$3:
movb 48(%rsp,%rsi), %dl
movb %dl, (%rax,%rsi)
incq %rsi
L_keccak1600_ref$2:
cmpq %rcx, %rsi
jb L_keccak1600_ref$3
ret
.data
.p2align 5
_glob_data:
glob_data:
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
|
usenix-security-verdict/verdict
| 6,042
|
deps/libcrux/sys/libjade/jazz/poly1305_ref.s
|
.att_syntax
.text
.p2align 5
.globl _jade_onetimeauth_poly1305_amd64_ref_verify
.globl jade_onetimeauth_poly1305_amd64_ref_verify
.globl _jade_onetimeauth_poly1305_amd64_ref
.globl jade_onetimeauth_poly1305_amd64_ref
_jade_onetimeauth_poly1305_amd64_ref_verify:
jade_onetimeauth_poly1305_amd64_ref_verify:
movq %rsp, %rax
leaq -56(%rsp), %rsp
andq $-8, %rsp
movq %rax, 48(%rsp)
movq %rbx, (%rsp)
movq %rbp, 8(%rsp)
movq %r12, 16(%rsp)
movq %r13, 24(%rsp)
movq %r14, 32(%rsp)
movq %r15, 40(%rsp)
movq %rdx, %r11
movq %rcx, %r8
movq $0, %r15
movq $0, %rbp
movq $0, %r12
movq (%r8), %r9
movq 8(%r8), %r14
movq $1152921487695413247, %rax
andq %rax, %r9
movq $1152921487695413244, %rax
andq %rax, %r14
movq %r14, %r13
shrq $2, %r13
addq %r14, %r13
addq $16, %r8
jmp Ljade_onetimeauth_poly1305_amd64_ref_verify$2
Ljade_onetimeauth_poly1305_amd64_ref_verify$3:
addq (%rsi), %r15
adcq 8(%rsi), %rbp
adcq $1, %r12
movq %r13, %rcx
imulq %r12, %rcx
imulq %r9, %r12
movq %r9, %rax
mulq %r15
movq %rax, %rbx
movq %rdx, %r10
movq %r9, %rax
mulq %rbp
addq %rax, %r10
adcq %rdx, %r12
movq %r13, %rax
mulq %rbp
movq %rdx, %rbp
addq %rcx, %rbp
movq %rax, %rcx
movq %r14, %rax
mulq %r15
addq %rcx, %rbx
adcq %rax, %r10
adcq %rdx, %r12
movq $-4, %r15
movq %r12, %rax
shrq $2, %rax
andq %r12, %r15
addq %rax, %r15
andq $3, %r12
addq %rbx, %r15
adcq %r10, %rbp
adcq $0, %r12
addq $16, %rsi
addq $-16, %r11
Ljade_onetimeauth_poly1305_amd64_ref_verify$2:
cmpq $16, %r11
jnb Ljade_onetimeauth_poly1305_amd64_ref_verify$3
cmpq $0, %r11
jbe Ljade_onetimeauth_poly1305_amd64_ref_verify$1
xorq %rcx, %rcx
movq %r11, %rax
andq $7, %rax
shlq $3, %rax
shrq $3, %r11
movq %r11, %rdx
xorq $1, %rdx
movq %r11, %r10
addq $-1, %r10
movq %rax, %rbx
andq %r10, %rbx
xorq %rbx, %rcx
xorq %rbx, %rax
shlq %cl, %rdx
movq %rax, %rcx
shlq %cl, %r11
movq %rdx, %rax
movq %r11, %rcx
subq $1, %rax
sbbq $0, %rcx
movq (%rsi), %r10
andq %rax, %r10
orq %rdx, %r10
movq 8(%rsi), %rax
andq %rcx, %rax
orq %r11, %rax
addq %r10, %r15
adcq %rax, %rbp
adcq $0, %r12
movq %r13, %rsi
imulq %r12, %rsi
imulq %r9, %r12
movq %r9, %rax
mulq %r15
movq %rax, %rcx
movq %rdx, %r10
movq %r9, %rax
mulq %rbp
addq %rax, %r10
adcq %rdx, %r12
movq %r13, %rax
mulq %rbp
movq %rdx, %rbp
addq %rsi, %rbp
movq %rax, %rsi
movq %r14, %rax
mulq %r15
addq %rsi, %rcx
adcq %rax, %r10
adcq %rdx, %r12
movq $-4, %r15
movq %r12, %rax
shrq $2, %rax
andq %r12, %r15
addq %rax, %r15
andq $3, %r12
addq %rcx, %r15
adcq %r10, %rbp
adcq $0, %r12
Ljade_onetimeauth_poly1305_amd64_ref_verify$1:
movq %r15, %rax
movq %rbp, %rcx
addq $5, %rax
adcq $0, %rcx
adcq $0, %r12
shrq $2, %r12
negq %r12
xorq %r15, %rax
xorq %rbp, %rcx
andq %r12, %rax
andq %r12, %rcx
xorq %r15, %rax
xorq %rbp, %rcx
movq (%r8), %rdx
movq 8(%r8), %rsi
addq %rdx, %rax
adcq %rsi, %rcx
movq %rax, %rdx
xorq (%rdi), %rdx
xorq 8(%rdi), %rcx
orq %rcx, %rdx
xorq %rax, %rax
subq $1, %rdx
adcq $0, %rax
addq $-1, %rax
movq (%rsp), %rbx
movq 8(%rsp), %rbp
movq 16(%rsp), %r12
movq 24(%rsp), %r13
movq 32(%rsp), %r14
movq 40(%rsp), %r15
movq 48(%rsp), %rsp
ret
_jade_onetimeauth_poly1305_amd64_ref:
jade_onetimeauth_poly1305_amd64_ref:
movq %rsp, %rax
leaq -56(%rsp), %rsp
andq $-8, %rsp
movq %rax, 48(%rsp)
movq %rbx, (%rsp)
movq %rbp, 8(%rsp)
movq %r12, 16(%rsp)
movq %r13, 24(%rsp)
movq %r14, 32(%rsp)
movq %r15, 40(%rsp)
movq %rdx, %rbx
movq %rcx, %r9
movq $0, %r15
movq $0, %r8
movq $0, %r14
movq (%r9), %r12
movq 8(%r9), %r13
movq $1152921487695413247, %rax
andq %rax, %r12
movq $1152921487695413244, %rax
andq %rax, %r13
movq %r13, %rbp
shrq $2, %rbp
addq %r13, %rbp
addq $16, %r9
jmp Ljade_onetimeauth_poly1305_amd64_ref$2
Ljade_onetimeauth_poly1305_amd64_ref$3:
addq (%rsi), %r15
adcq 8(%rsi), %r8
adcq $1, %r14
movq %rbp, %rcx
imulq %r14, %rcx
imulq %r12, %r14
movq %r12, %rax
mulq %r15
movq %rax, %r11
movq %rdx, %r10
movq %r12, %rax
mulq %r8
addq %rax, %r10
adcq %rdx, %r14
movq %rbp, %rax
mulq %r8
movq %rdx, %r8
addq %rcx, %r8
movq %rax, %rcx
movq %r13, %rax
mulq %r15
addq %rcx, %r11
adcq %rax, %r10
adcq %rdx, %r14
movq $-4, %r15
movq %r14, %rax
shrq $2, %rax
andq %r14, %r15
addq %rax, %r15
andq $3, %r14
addq %r11, %r15
adcq %r10, %r8
adcq $0, %r14
addq $16, %rsi
addq $-16, %rbx
Ljade_onetimeauth_poly1305_amd64_ref$2:
cmpq $16, %rbx
jnb Ljade_onetimeauth_poly1305_amd64_ref$3
cmpq $0, %rbx
jbe Ljade_onetimeauth_poly1305_amd64_ref$1
xorq %rcx, %rcx
movq %rbx, %rax
andq $7, %rax
shlq $3, %rax
shrq $3, %rbx
movq %rbx, %rdx
xorq $1, %rdx
movq %rbx, %r10
addq $-1, %r10
movq %rax, %r11
andq %r10, %r11
xorq %r11, %rcx
xorq %r11, %rax
shlq %cl, %rdx
movq %rax, %rcx
shlq %cl, %rbx
movq %rdx, %rax
movq %rbx, %rcx
subq $1, %rax
sbbq $0, %rcx
movq (%rsi), %r10
andq %rax, %r10
orq %rdx, %r10
movq 8(%rsi), %rax
andq %rcx, %rax
orq %rbx, %rax
addq %r10, %r15
adcq %rax, %r8
adcq $0, %r14
movq %rbp, %rsi
imulq %r14, %rsi
imulq %r12, %r14
movq %r12, %rax
mulq %r15
movq %rax, %rcx
movq %rdx, %r10
movq %r12, %rax
mulq %r8
addq %rax, %r10
adcq %rdx, %r14
movq %rbp, %rax
mulq %r8
movq %rdx, %r8
addq %rsi, %r8
movq %rax, %rsi
movq %r13, %rax
mulq %r15
addq %rsi, %rcx
adcq %rax, %r10
adcq %rdx, %r14
movq $-4, %r15
movq %r14, %rax
shrq $2, %rax
andq %r14, %r15
addq %rax, %r15
andq $3, %r14
addq %rcx, %r15
adcq %r10, %r8
adcq $0, %r14
Ljade_onetimeauth_poly1305_amd64_ref$1:
movq %r15, %rax
movq %r8, %rcx
addq $5, %rax
adcq $0, %rcx
adcq $0, %r14
shrq $2, %r14
negq %r14
xorq %r15, %rax
xorq %r8, %rcx
andq %r14, %rax
andq %r14, %rcx
xorq %r15, %rax
xorq %r8, %rcx
movq (%r9), %rdx
movq 8(%r9), %rsi
addq %rdx, %rax
adcq %rsi, %rcx
movq %rax, (%rdi)
movq %rcx, 8(%rdi)
xorq %rax, %rax
movq (%rsp), %rbx
movq 8(%rsp), %rbp
movq 16(%rsp), %r12
movq 24(%rsp), %r13
movq 32(%rsp), %r14
movq 40(%rsp), %r15
movq 48(%rsp), %rsp
ret
|
usenix-security-verdict/verdict
| 46,736
|
deps/libcrux/sys/libjade/jazz/sha256.s
|
.att_syntax
.text
.p2align 5
.globl _jade_hash_sha256_amd64_ref
.globl jade_hash_sha256_amd64_ref
_jade_hash_sha256_amd64_ref:
jade_hash_sha256_amd64_ref:
movq %rsp, %rax
leaq -232(%rsp), %rsp
andq $-8, %rsp
movq %rax, 224(%rsp)
movq %rbx, 176(%rsp)
movq %rbp, 184(%rsp)
movq %r12, 192(%rsp)
movq %r13, 200(%rsp)
movq %r14, 208(%rsp)
movq %r15, 216(%rsp)
movq %rdi, (%rsp)
movq %rdx, %rax
shlq $3, %rax
movq %rax, 8(%rsp)
movl $1779033703, 16(%rsp)
movl $-1150833019, 20(%rsp)
movl $1013904242, 24(%rsp)
movl $-1521486534, 28(%rsp)
movl $1359893119, 32(%rsp)
movl $-1694144372, 36(%rsp)
movl $528734635, 40(%rsp)
movl $1541459225, 44(%rsp)
leaq 16(%rsp), %rdi
leaq -272(%rsp), %rsp
leaq Ljade_hash_sha256_amd64_ref$12(%rip), %rcx
jmp L_blocks_0_ref$1
Ljade_hash_sha256_amd64_ref$12:
leaq 272(%rsp), %rsp
movq 8(%rsp), %rcx
movq $0, %rdi
jmp Ljade_hash_sha256_amd64_ref$10
Ljade_hash_sha256_amd64_ref$11:
movb (%rsi,%rdi), %al
movb %al, 48(%rsp,%rdi)
incq %rdi
Ljade_hash_sha256_amd64_ref$10:
cmpq %rdx, %rdi
jb Ljade_hash_sha256_amd64_ref$11
movb $-128, 48(%rsp,%rdi)
incq %rdi
cmpq $56, %rdx
jb Ljade_hash_sha256_amd64_ref$8
movq $120, %rdx
movq $2, %rax
jmp Ljade_hash_sha256_amd64_ref$9
Ljade_hash_sha256_amd64_ref$8:
movq $56, %rdx
movq $1, %rax
Ljade_hash_sha256_amd64_ref$9:
movb $0, %sil
jmp Ljade_hash_sha256_amd64_ref$6
Ljade_hash_sha256_amd64_ref$7:
movb %sil, 48(%rsp,%rdi)
incq %rdi
Ljade_hash_sha256_amd64_ref$6:
cmpq %rdx, %rdi
jb Ljade_hash_sha256_amd64_ref$7
addq $7, %rdi
jmp Ljade_hash_sha256_amd64_ref$4
Ljade_hash_sha256_amd64_ref$5:
movb %cl, 48(%rsp,%rdi)
shrq $8, %rcx
addq $-1, %rdi
Ljade_hash_sha256_amd64_ref$4:
cmpq %rdx, %rdi
jnb Ljade_hash_sha256_amd64_ref$5
addq $9, %rdi
jmp Ljade_hash_sha256_amd64_ref$2
Ljade_hash_sha256_amd64_ref$3:
movb %sil, 48(%rsp,%rdi)
incq %rdi
Ljade_hash_sha256_amd64_ref$2:
cmpq $128, %rdi
jb Ljade_hash_sha256_amd64_ref$3
leaq 48(%rsp), %r8
leaq -280(%rsp), %rsp
leaq Ljade_hash_sha256_amd64_ref$1(%rip), %rdx
jmp L_blocks_1_ref$1
Ljade_hash_sha256_amd64_ref$1:
leaq 280(%rsp), %rsp
movq (%rsp), %rax
movl 16(%rsp), %ecx
bswapl %ecx
movl %ecx, (%rax)
movl 20(%rsp), %ecx
bswapl %ecx
movl %ecx, 4(%rax)
movl 24(%rsp), %ecx
bswapl %ecx
movl %ecx, 8(%rax)
movl 28(%rsp), %ecx
bswapl %ecx
movl %ecx, 12(%rax)
movl 32(%rsp), %ecx
bswapl %ecx
movl %ecx, 16(%rax)
movl 36(%rsp), %ecx
bswapl %ecx
movl %ecx, 20(%rax)
movl 40(%rsp), %ecx
bswapl %ecx
movl %ecx, 24(%rax)
movl 44(%rsp), %ecx
bswapl %ecx
movl %ecx, 28(%rax)
xorq %rax, %rax
movq 176(%rsp), %rbx
movq 184(%rsp), %rbp
movq 192(%rsp), %r12
movq 200(%rsp), %r13
movq 208(%rsp), %r14
movq 216(%rsp), %r15
movq 224(%rsp), %rsp
ret
L_blocks_1_ref$1:
leaq glob_data + 0(%rip), %rcx
movq %r9, (%rsp)
movq $0, %rsi
movq (%rsp), %rdi
jmp L_blocks_1_ref$2
L_blocks_1_ref$3:
movl (%r8,%rsi,4), %r9d
bswapl %r9d
movl %r9d, 24(%rsp)
movl 4(%r8,%rsi,4), %r9d
bswapl %r9d
movl %r9d, 28(%rsp)
movl 8(%r8,%rsi,4), %r9d
bswapl %r9d
movl %r9d, 32(%rsp)
movl 12(%r8,%rsi,4), %r9d
bswapl %r9d
movl %r9d, 36(%rsp)
movl 16(%r8,%rsi,4), %r9d
bswapl %r9d
movl %r9d, 40(%rsp)
movl 20(%r8,%rsi,4), %r9d
bswapl %r9d
movl %r9d, 44(%rsp)
movl 24(%r8,%rsi,4), %r9d
bswapl %r9d
movl %r9d, 48(%rsp)
movl 28(%r8,%rsi,4), %r9d
bswapl %r9d
movl %r9d, 52(%rsp)
movl 32(%r8,%rsi,4), %r9d
bswapl %r9d
movl %r9d, 56(%rsp)
movl 36(%r8,%rsi,4), %r9d
bswapl %r9d
movl %r9d, 60(%rsp)
movl 40(%r8,%rsi,4), %r9d
bswapl %r9d
movl %r9d, 64(%rsp)
movl 44(%r8,%rsi,4), %r9d
bswapl %r9d
movl %r9d, 68(%rsp)
movl 48(%r8,%rsi,4), %r9d
bswapl %r9d
movl %r9d, 72(%rsp)
movl 52(%r8,%rsi,4), %r9d
bswapl %r9d
movl %r9d, 76(%rsp)
movl 56(%r8,%rsi,4), %r9d
bswapl %r9d
movl %r9d, 80(%rsp)
movl 60(%r8,%rsi,4), %r9d
bswapl %r9d
movl %r9d, 84(%rsp)
addq $16, %rsi
movq %rsi, (%rsp)
movq %r8, 8(%rsp)
movl 80(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 60(%rsp), %r8d
movl 28(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 24(%rsp), %r8d
movl %r8d, 88(%rsp)
movl 84(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 64(%rsp), %r8d
movl 32(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 28(%rsp), %r8d
movl %r8d, 92(%rsp)
movl 88(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 68(%rsp), %r8d
movl 36(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 32(%rsp), %r8d
movl %r8d, 96(%rsp)
movl 92(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 72(%rsp), %r8d
movl 40(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 36(%rsp), %r8d
movl %r8d, 100(%rsp)
movl 96(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 76(%rsp), %r8d
movl 44(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 40(%rsp), %r8d
movl %r8d, 104(%rsp)
movl 100(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 80(%rsp), %r8d
movl 48(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 44(%rsp), %r8d
movl %r8d, 108(%rsp)
movl 104(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 84(%rsp), %r8d
movl 52(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 48(%rsp), %r8d
movl %r8d, 112(%rsp)
movl 108(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 88(%rsp), %r8d
movl 56(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 52(%rsp), %r8d
movl %r8d, 116(%rsp)
movl 112(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 92(%rsp), %r8d
movl 60(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 56(%rsp), %r8d
movl %r8d, 120(%rsp)
movl 116(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 96(%rsp), %r8d
movl 64(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 60(%rsp), %r8d
movl %r8d, 124(%rsp)
movl 120(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 100(%rsp), %r8d
movl 68(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 64(%rsp), %r8d
movl %r8d, 128(%rsp)
movl 124(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 104(%rsp), %r8d
movl 72(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 68(%rsp), %r8d
movl %r8d, 132(%rsp)
movl 128(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 108(%rsp), %r8d
movl 76(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 72(%rsp), %r8d
movl %r8d, 136(%rsp)
movl 132(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 112(%rsp), %r8d
movl 80(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 76(%rsp), %r8d
movl %r8d, 140(%rsp)
movl 136(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 116(%rsp), %r8d
movl 84(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 80(%rsp), %r8d
movl %r8d, 144(%rsp)
movl 140(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 120(%rsp), %r8d
movl 88(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 84(%rsp), %r8d
movl %r8d, 148(%rsp)
movl 144(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 124(%rsp), %r8d
movl 92(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 88(%rsp), %r8d
movl %r8d, 152(%rsp)
movl 148(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 128(%rsp), %r8d
movl 96(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 92(%rsp), %r8d
movl %r8d, 156(%rsp)
movl 152(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 132(%rsp), %r8d
movl 100(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 96(%rsp), %r8d
movl %r8d, 160(%rsp)
movl 156(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 136(%rsp), %r8d
movl 104(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 100(%rsp), %r8d
movl %r8d, 164(%rsp)
movl 160(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 140(%rsp), %r8d
movl 108(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 104(%rsp), %r8d
movl %r8d, 168(%rsp)
movl 164(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 144(%rsp), %r8d
movl 112(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 108(%rsp), %r8d
movl %r8d, 172(%rsp)
movl 168(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 148(%rsp), %r8d
movl 116(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 112(%rsp), %r8d
movl %r8d, 176(%rsp)
movl 172(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 152(%rsp), %r8d
movl 120(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 116(%rsp), %r8d
movl %r8d, 180(%rsp)
movl 176(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 156(%rsp), %r8d
movl 124(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 120(%rsp), %r8d
movl %r8d, 184(%rsp)
movl 180(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 160(%rsp), %r8d
movl 128(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 124(%rsp), %r8d
movl %r8d, 188(%rsp)
movl 184(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 164(%rsp), %r8d
movl 132(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 128(%rsp), %r8d
movl %r8d, 192(%rsp)
movl 188(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 168(%rsp), %r8d
movl 136(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 132(%rsp), %r8d
movl %r8d, 196(%rsp)
movl 192(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 172(%rsp), %r8d
movl 140(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 136(%rsp), %r8d
movl %r8d, 200(%rsp)
movl 196(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 176(%rsp), %r8d
movl 144(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 140(%rsp), %r8d
movl %r8d, 204(%rsp)
movl 200(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 180(%rsp), %r8d
movl 148(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 144(%rsp), %r8d
movl %r8d, 208(%rsp)
movl 204(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 184(%rsp), %r8d
movl 152(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 148(%rsp), %r8d
movl %r8d, 212(%rsp)
movl 208(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 188(%rsp), %r8d
movl 156(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 152(%rsp), %r8d
movl %r8d, 216(%rsp)
movl 212(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 192(%rsp), %r8d
movl 160(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 156(%rsp), %r8d
movl %r8d, 220(%rsp)
movl 216(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 196(%rsp), %r8d
movl 164(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 160(%rsp), %r8d
movl %r8d, 224(%rsp)
movl 220(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 200(%rsp), %r8d
movl 168(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 164(%rsp), %r8d
movl %r8d, 228(%rsp)
movl 224(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 204(%rsp), %r8d
movl 172(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 168(%rsp), %r8d
movl %r8d, 232(%rsp)
movl 228(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 208(%rsp), %r8d
movl 176(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 172(%rsp), %r8d
movl %r8d, 236(%rsp)
movl 232(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 212(%rsp), %r8d
movl 180(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 176(%rsp), %r8d
movl %r8d, 240(%rsp)
movl 236(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 216(%rsp), %r8d
movl 184(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 180(%rsp), %r8d
movl %r8d, 244(%rsp)
movl 240(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 220(%rsp), %r8d
movl 188(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 184(%rsp), %r8d
movl %r8d, 248(%rsp)
movl 244(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 224(%rsp), %r8d
movl 192(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 188(%rsp), %r8d
movl %r8d, 252(%rsp)
movl 248(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 228(%rsp), %r8d
movl 196(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 192(%rsp), %r8d
movl %r8d, 256(%rsp)
movl 252(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 232(%rsp), %r8d
movl 200(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 196(%rsp), %r8d
movl %r8d, 260(%rsp)
movl 256(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 236(%rsp), %r8d
movl 204(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 200(%rsp), %r8d
movl %r8d, 264(%rsp)
movl 260(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 240(%rsp), %r8d
movl 208(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 204(%rsp), %r8d
movl %r8d, 268(%rsp)
movl 264(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 244(%rsp), %r8d
movl 212(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 208(%rsp), %r8d
movl %r8d, 272(%rsp)
movl 268(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 248(%rsp), %r8d
movl 216(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 212(%rsp), %r8d
movl %r8d, 276(%rsp)
movl (%rdi), %r14d
movl 4(%rdi), %esi
movl 8(%rdi), %r8d
movl 12(%rdi), %r9d
movl 16(%rdi), %r13d
movl 20(%rdi), %r10d
movl 24(%rdi), %r11d
movl 28(%rdi), %r12d
movq %rdi, 16(%rsp)
movq $0, %rdi
jmp L_blocks_1_ref$4
L_blocks_1_ref$5:
movl %r12d, %ebx
movl %r13d, %ebp
rorl $6, %ebp
movl %r13d, %r12d
rorl $11, %r12d
xorl %r12d, %ebp
movl %r13d, %r12d
rorl $25, %r12d
xorl %r12d, %ebp
addl %ebp, %ebx
movl %r13d, %ebp
andl %r10d, %ebp
movl %r13d, %r12d
notl %r12d
andl %r11d, %r12d
xorl %r12d, %ebp
addl %ebp, %ebx
addl (%rcx,%rdi,4), %ebx
addl 24(%rsp,%rdi,4), %ebx
movl %r14d, %ebp
rorl $2, %ebp
movl %r14d, %r12d
rorl $13, %r12d
xorl %r12d, %ebp
movl %r14d, %r12d
rorl $22, %r12d
xorl %r12d, %ebp
movl %r14d, %r12d
andl %esi, %r12d
movl %r14d, %r15d
andl %r8d, %r15d
xorl %r15d, %r12d
movl %esi, %r15d
andl %r8d, %r15d
xorl %r15d, %r12d
addl %r12d, %ebp
movl %r11d, %r12d
movl %r10d, %r11d
movl %r13d, %r10d
movl %r9d, %r13d
addl %ebx, %r13d
movl %r8d, %r9d
movl %esi, %r8d
movl %r14d, %esi
movl %ebx, %r14d
addl %ebp, %r14d
incq %rdi
L_blocks_1_ref$4:
cmpq $64, %rdi
jb L_blocks_1_ref$5
movq 16(%rsp), %rdi
addl (%rdi), %r14d
addl 4(%rdi), %esi
addl 8(%rdi), %r8d
addl 12(%rdi), %r9d
addl 16(%rdi), %r13d
addl 20(%rdi), %r10d
addl 24(%rdi), %r11d
addl 28(%rdi), %r12d
movl %r14d, (%rdi)
movl %esi, 4(%rdi)
movl %r8d, 8(%rdi)
movl %r9d, 12(%rdi)
movl %r13d, 16(%rdi)
movl %r10d, 20(%rdi)
movl %r11d, 24(%rdi)
movl %r12d, 28(%rdi)
movq 8(%rsp), %r8
movq (%rsp), %rsi
addq $-1, %rax
L_blocks_1_ref$2:
cmpq $0, %rax
jnbe L_blocks_1_ref$3
jmp *%rdx
L_blocks_0_ref$1:
leaq glob_data + 0(%rip), %rax
movq %rdi, (%rsp)
movq (%rsp), %rdi
jmp L_blocks_0_ref$2
L_blocks_0_ref$3:
movl (%rsi), %r8d
bswapl %r8d
movl %r8d, 16(%rsp)
movl 4(%rsi), %r8d
bswapl %r8d
movl %r8d, 20(%rsp)
movl 8(%rsi), %r8d
bswapl %r8d
movl %r8d, 24(%rsp)
movl 12(%rsi), %r8d
bswapl %r8d
movl %r8d, 28(%rsp)
movl 16(%rsi), %r8d
bswapl %r8d
movl %r8d, 32(%rsp)
movl 20(%rsi), %r8d
bswapl %r8d
movl %r8d, 36(%rsp)
movl 24(%rsi), %r8d
bswapl %r8d
movl %r8d, 40(%rsp)
movl 28(%rsi), %r8d
bswapl %r8d
movl %r8d, 44(%rsp)
movl 32(%rsi), %r8d
bswapl %r8d
movl %r8d, 48(%rsp)
movl 36(%rsi), %r8d
bswapl %r8d
movl %r8d, 52(%rsp)
movl 40(%rsi), %r8d
bswapl %r8d
movl %r8d, 56(%rsp)
movl 44(%rsi), %r8d
bswapl %r8d
movl %r8d, 60(%rsp)
movl 48(%rsi), %r8d
bswapl %r8d
movl %r8d, 64(%rsp)
movl 52(%rsi), %r8d
bswapl %r8d
movl %r8d, 68(%rsp)
movl 56(%rsi), %r8d
bswapl %r8d
movl %r8d, 72(%rsp)
movl 60(%rsi), %r8d
bswapl %r8d
movl %r8d, 76(%rsp)
movq %rsi, (%rsp)
movl 72(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 52(%rsp), %r8d
movl 20(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 16(%rsp), %r8d
movl %r8d, 80(%rsp)
movl 76(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 56(%rsp), %r8d
movl 24(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 20(%rsp), %r8d
movl %r8d, 84(%rsp)
movl 80(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 60(%rsp), %r8d
movl 28(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 24(%rsp), %r8d
movl %r8d, 88(%rsp)
movl 84(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 64(%rsp), %r8d
movl 32(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 28(%rsp), %r8d
movl %r8d, 92(%rsp)
movl 88(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 68(%rsp), %r8d
movl 36(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 32(%rsp), %r8d
movl %r8d, 96(%rsp)
movl 92(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 72(%rsp), %r8d
movl 40(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 36(%rsp), %r8d
movl %r8d, 100(%rsp)
movl 96(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 76(%rsp), %r8d
movl 44(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 40(%rsp), %r8d
movl %r8d, 104(%rsp)
movl 100(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 80(%rsp), %r8d
movl 48(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 44(%rsp), %r8d
movl %r8d, 108(%rsp)
movl 104(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 84(%rsp), %r8d
movl 52(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 48(%rsp), %r8d
movl %r8d, 112(%rsp)
movl 108(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 88(%rsp), %r8d
movl 56(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 52(%rsp), %r8d
movl %r8d, 116(%rsp)
movl 112(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 92(%rsp), %r8d
movl 60(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 56(%rsp), %r8d
movl %r8d, 120(%rsp)
movl 116(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 96(%rsp), %r8d
movl 64(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 60(%rsp), %r8d
movl %r8d, 124(%rsp)
movl 120(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 100(%rsp), %r8d
movl 68(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 64(%rsp), %r8d
movl %r8d, 128(%rsp)
movl 124(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 104(%rsp), %r8d
movl 72(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 68(%rsp), %r8d
movl %r8d, 132(%rsp)
movl 128(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 108(%rsp), %r8d
movl 76(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 72(%rsp), %r8d
movl %r8d, 136(%rsp)
movl 132(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 112(%rsp), %r8d
movl 80(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 76(%rsp), %r8d
movl %r8d, 140(%rsp)
movl 136(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 116(%rsp), %r8d
movl 84(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 80(%rsp), %r8d
movl %r8d, 144(%rsp)
movl 140(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 120(%rsp), %r8d
movl 88(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 84(%rsp), %r8d
movl %r8d, 148(%rsp)
movl 144(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 124(%rsp), %r8d
movl 92(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 88(%rsp), %r8d
movl %r8d, 152(%rsp)
movl 148(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 128(%rsp), %r8d
movl 96(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 92(%rsp), %r8d
movl %r8d, 156(%rsp)
movl 152(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 132(%rsp), %r8d
movl 100(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 96(%rsp), %r8d
movl %r8d, 160(%rsp)
movl 156(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 136(%rsp), %r8d
movl 104(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 100(%rsp), %r8d
movl %r8d, 164(%rsp)
movl 160(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 140(%rsp), %r8d
movl 108(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 104(%rsp), %r8d
movl %r8d, 168(%rsp)
movl 164(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 144(%rsp), %r8d
movl 112(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 108(%rsp), %r8d
movl %r8d, 172(%rsp)
movl 168(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 148(%rsp), %r8d
movl 116(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 112(%rsp), %r8d
movl %r8d, 176(%rsp)
movl 172(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 152(%rsp), %r8d
movl 120(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 116(%rsp), %r8d
movl %r8d, 180(%rsp)
movl 176(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 156(%rsp), %r8d
movl 124(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 120(%rsp), %r8d
movl %r8d, 184(%rsp)
movl 180(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 160(%rsp), %r8d
movl 128(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 124(%rsp), %r8d
movl %r8d, 188(%rsp)
movl 184(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 164(%rsp), %r8d
movl 132(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 128(%rsp), %r8d
movl %r8d, 192(%rsp)
movl 188(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 168(%rsp), %r8d
movl 136(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 132(%rsp), %r8d
movl %r8d, 196(%rsp)
movl 192(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 172(%rsp), %r8d
movl 140(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 136(%rsp), %r8d
movl %r8d, 200(%rsp)
movl 196(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 176(%rsp), %r8d
movl 144(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 140(%rsp), %r8d
movl %r8d, 204(%rsp)
movl 200(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 180(%rsp), %r8d
movl 148(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 144(%rsp), %r8d
movl %r8d, 208(%rsp)
movl 204(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 184(%rsp), %r8d
movl 152(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 148(%rsp), %r8d
movl %r8d, 212(%rsp)
movl 208(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 188(%rsp), %r8d
movl 156(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 152(%rsp), %r8d
movl %r8d, 216(%rsp)
movl 212(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 192(%rsp), %r8d
movl 160(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 156(%rsp), %r8d
movl %r8d, 220(%rsp)
movl 216(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 196(%rsp), %r8d
movl 164(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 160(%rsp), %r8d
movl %r8d, 224(%rsp)
movl 220(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 200(%rsp), %r8d
movl 168(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 164(%rsp), %r8d
movl %r8d, 228(%rsp)
movl 224(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 204(%rsp), %r8d
movl 172(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 168(%rsp), %r8d
movl %r8d, 232(%rsp)
movl 228(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 208(%rsp), %r8d
movl 176(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 172(%rsp), %r8d
movl %r8d, 236(%rsp)
movl 232(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 212(%rsp), %r8d
movl 180(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 176(%rsp), %r8d
movl %r8d, 240(%rsp)
movl 236(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 216(%rsp), %r8d
movl 184(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 180(%rsp), %r8d
movl %r8d, 244(%rsp)
movl 240(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 220(%rsp), %r8d
movl 188(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 184(%rsp), %r8d
movl %r8d, 248(%rsp)
movl 244(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 224(%rsp), %r8d
movl 192(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 188(%rsp), %r8d
movl %r8d, 252(%rsp)
movl 248(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 228(%rsp), %r8d
movl 196(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 192(%rsp), %r8d
movl %r8d, 256(%rsp)
movl 252(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 232(%rsp), %r8d
movl 200(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 196(%rsp), %r8d
movl %r8d, 260(%rsp)
movl 256(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 236(%rsp), %r8d
movl 204(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 200(%rsp), %r8d
movl %r8d, 264(%rsp)
movl 260(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 240(%rsp), %r8d
movl 208(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 204(%rsp), %r8d
movl %r8d, 268(%rsp)
movl (%rdi), %r14d
movl 4(%rdi), %esi
movl 8(%rdi), %r8d
movl 12(%rdi), %r9d
movl 16(%rdi), %r13d
movl 20(%rdi), %r10d
movl 24(%rdi), %r11d
movl 28(%rdi), %r12d
movq %rdi, 8(%rsp)
movq $0, %rdi
jmp L_blocks_0_ref$4
L_blocks_0_ref$5:
movl %r12d, %ebx
movl %r13d, %ebp
rorl $6, %ebp
movl %r13d, %r12d
rorl $11, %r12d
xorl %r12d, %ebp
movl %r13d, %r12d
rorl $25, %r12d
xorl %r12d, %ebp
addl %ebp, %ebx
movl %r13d, %ebp
andl %r10d, %ebp
movl %r13d, %r12d
notl %r12d
andl %r11d, %r12d
xorl %r12d, %ebp
addl %ebp, %ebx
addl (%rax,%rdi,4), %ebx
addl 16(%rsp,%rdi,4), %ebx
movl %r14d, %ebp
rorl $2, %ebp
movl %r14d, %r12d
rorl $13, %r12d
xorl %r12d, %ebp
movl %r14d, %r12d
rorl $22, %r12d
xorl %r12d, %ebp
movl %r14d, %r12d
andl %esi, %r12d
movl %r14d, %r15d
andl %r8d, %r15d
xorl %r15d, %r12d
movl %esi, %r15d
andl %r8d, %r15d
xorl %r15d, %r12d
addl %r12d, %ebp
movl %r11d, %r12d
movl %r10d, %r11d
movl %r13d, %r10d
movl %r9d, %r13d
addl %ebx, %r13d
movl %r8d, %r9d
movl %esi, %r8d
movl %r14d, %esi
movl %ebx, %r14d
addl %ebp, %r14d
incq %rdi
L_blocks_0_ref$4:
cmpq $64, %rdi
jb L_blocks_0_ref$5
movq 8(%rsp), %rdi
addl (%rdi), %r14d
addl 4(%rdi), %esi
addl 8(%rdi), %r8d
addl 12(%rdi), %r9d
addl 16(%rdi), %r13d
addl 20(%rdi), %r10d
addl 24(%rdi), %r11d
addl 28(%rdi), %r12d
movl %r14d, (%rdi)
movl %esi, 4(%rdi)
movl %r8d, 8(%rdi)
movl %r9d, 12(%rdi)
movl %r13d, 16(%rdi)
movl %r10d, 20(%rdi)
movl %r11d, 24(%rdi)
movl %r12d, 28(%rdi)
movq (%rsp), %rsi
addq $64, %rsi
addq $-64, %rdx
L_blocks_0_ref$2:
cmpq $64, %rdx
jnb L_blocks_0_ref$3
movq %rdi, %r9
jmp *%rcx
.data
.p2align 5
_glob_data:
glob_data:
.byte -104
.byte 47
.byte -118
.byte 66
.byte -111
.byte 68
.byte 55
.byte 113
.byte -49
.byte -5
.byte -64
.byte -75
.byte -91
.byte -37
.byte -75
.byte -23
.byte 91
.byte -62
.byte 86
.byte 57
.byte -15
.byte 17
.byte -15
.byte 89
.byte -92
.byte -126
.byte 63
.byte -110
.byte -43
.byte 94
.byte 28
.byte -85
.byte -104
.byte -86
.byte 7
.byte -40
.byte 1
.byte 91
.byte -125
.byte 18
.byte -66
.byte -123
.byte 49
.byte 36
.byte -61
.byte 125
.byte 12
.byte 85
.byte 116
.byte 93
.byte -66
.byte 114
.byte -2
.byte -79
.byte -34
.byte -128
.byte -89
.byte 6
.byte -36
.byte -101
.byte 116
.byte -15
.byte -101
.byte -63
.byte -63
.byte 105
.byte -101
.byte -28
.byte -122
.byte 71
.byte -66
.byte -17
.byte -58
.byte -99
.byte -63
.byte 15
.byte -52
.byte -95
.byte 12
.byte 36
.byte 111
.byte 44
.byte -23
.byte 45
.byte -86
.byte -124
.byte 116
.byte 74
.byte -36
.byte -87
.byte -80
.byte 92
.byte -38
.byte -120
.byte -7
.byte 118
.byte 82
.byte 81
.byte 62
.byte -104
.byte 109
.byte -58
.byte 49
.byte -88
.byte -56
.byte 39
.byte 3
.byte -80
.byte -57
.byte 127
.byte 89
.byte -65
.byte -13
.byte 11
.byte -32
.byte -58
.byte 71
.byte -111
.byte -89
.byte -43
.byte 81
.byte 99
.byte -54
.byte 6
.byte 103
.byte 41
.byte 41
.byte 20
.byte -123
.byte 10
.byte -73
.byte 39
.byte 56
.byte 33
.byte 27
.byte 46
.byte -4
.byte 109
.byte 44
.byte 77
.byte 19
.byte 13
.byte 56
.byte 83
.byte 84
.byte 115
.byte 10
.byte 101
.byte -69
.byte 10
.byte 106
.byte 118
.byte 46
.byte -55
.byte -62
.byte -127
.byte -123
.byte 44
.byte 114
.byte -110
.byte -95
.byte -24
.byte -65
.byte -94
.byte 75
.byte 102
.byte 26
.byte -88
.byte 112
.byte -117
.byte 75
.byte -62
.byte -93
.byte 81
.byte 108
.byte -57
.byte 25
.byte -24
.byte -110
.byte -47
.byte 36
.byte 6
.byte -103
.byte -42
.byte -123
.byte 53
.byte 14
.byte -12
.byte 112
.byte -96
.byte 106
.byte 16
.byte 22
.byte -63
.byte -92
.byte 25
.byte 8
.byte 108
.byte 55
.byte 30
.byte 76
.byte 119
.byte 72
.byte 39
.byte -75
.byte -68
.byte -80
.byte 52
.byte -77
.byte 12
.byte 28
.byte 57
.byte 74
.byte -86
.byte -40
.byte 78
.byte 79
.byte -54
.byte -100
.byte 91
.byte -13
.byte 111
.byte 46
.byte 104
.byte -18
.byte -126
.byte -113
.byte 116
.byte 111
.byte 99
.byte -91
.byte 120
.byte 20
.byte 120
.byte -56
.byte -124
.byte 8
.byte 2
.byte -57
.byte -116
.byte -6
.byte -1
.byte -66
.byte -112
.byte -21
.byte 108
.byte 80
.byte -92
.byte -9
.byte -93
.byte -7
.byte -66
.byte -14
.byte 120
.byte 113
.byte -58
|
usenix-security-verdict/verdict
| 34,209
|
deps/libcrux/sys/libjade/jazz/sha3_256_avx2.s
|
.att_syntax
.text
.p2align 5
.globl _jade_hash_sha3_256_amd64_avx2
.globl jade_hash_sha3_256_amd64_avx2
_jade_hash_sha3_256_amd64_avx2:
jade_hash_sha3_256_amd64_avx2:
movq %rsp, %rax
leaq -40(%rsp), %rsp
andq $-32, %rsp
movq %rax, 32(%rsp)
movq %rbx, (%rsp)
movq %rbp, 8(%rsp)
movq %r12, 16(%rsp)
movq %r13, 24(%rsp)
movq $32, %r9
movb $6, %al
movq $136, %rcx
leaq -224(%rsp), %rsp
leaq Ljade_hash_sha3_256_amd64_avx2$1(%rip), %r10
jmp L_keccak1600_avx2$1
Ljade_hash_sha3_256_amd64_avx2$1:
leaq 224(%rsp), %rsp
xorq %rax, %rax
movq (%rsp), %rbx
movq 8(%rsp), %rbp
movq 16(%rsp), %r12
movq 24(%rsp), %r13
movq 32(%rsp), %rsp
ret
L_keccak1600_avx2$1:
vpxor %ymm6, %ymm6, %ymm6
vpxor %ymm3, %ymm3, %ymm3
vpxor %ymm4, %ymm4, %ymm4
vpxor %ymm0, %ymm0, %ymm0
vpxor %ymm5, %ymm5, %ymm5
vpxor %ymm1, %ymm1, %ymm1
vpxor %ymm2, %ymm2, %ymm2
leaq glob_data + 1152(%rip), %r8
vpxor %ymm7, %ymm7, %ymm7
vmovdqu %ymm7, (%rsp)
vmovdqu %ymm7, 32(%rsp)
vmovdqu %ymm7, 64(%rsp)
vmovdqu %ymm7, 96(%rsp)
vmovdqu %ymm7, 128(%rsp)
vmovdqu %ymm7, 160(%rsp)
vmovdqu %ymm7, 192(%rsp)
jmp L_keccak1600_avx2$16
L_keccak1600_avx2$17:
movq %rcx, %r11
shrq $3, %r11
movq $0, %rbx
jmp L_keccak1600_avx2$19
L_keccak1600_avx2$20:
movq (%rsi,%rbx,8), %rbp
movq (%r8,%rbx,8), %r12
movq %rbp, (%rsp,%r12,8)
incq %rbx
L_keccak1600_avx2$19:
cmpq %r11, %rbx
jb L_keccak1600_avx2$20
movq (%rsp), %r11
movq %r11, 8(%rsp)
movq %r11, 16(%rsp)
movq %r11, 24(%rsp)
vpxor (%rsp), %ymm6, %ymm6
vpxor 32(%rsp), %ymm3, %ymm3
vpxor 64(%rsp), %ymm4, %ymm4
vpxor 96(%rsp), %ymm0, %ymm0
vpxor 128(%rsp), %ymm5, %ymm5
vpxor 160(%rsp), %ymm1, %ymm1
vpxor 192(%rsp), %ymm2, %ymm2
addq %rcx, %rsi
subq %rcx, %rdx
leaq glob_data + 384(%rip), %r11
movq $0, %rbx
leaq glob_data + 192(%rip), %rbp
leaq glob_data + 0(%rip), %r12
movq $24, %r13
L_keccak1600_avx2$18:
vpshufd $78, %ymm4, %ymm8
vpxor %ymm0, %ymm1, %ymm7
vpxor %ymm2, %ymm5, %ymm9
vpxor %ymm3, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm4, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm4, %ymm4
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rbp), %ymm4, %ymm7
vpsrlvq (%r12), %ymm4, %ymm4
vpor %ymm7, %ymm4, %ymm4
vpxor %ymm9, %ymm0, %ymm0
vpsllvq 64(%rbp), %ymm0, %ymm7
vpsrlvq 64(%r12), %ymm0, %ymm0
vpor %ymm7, %ymm0, %ymm0
vpxor %ymm9, %ymm5, %ymm5
vpsllvq 96(%rbp), %ymm5, %ymm7
vpsrlvq 96(%r12), %ymm5, %ymm5
vpor %ymm7, %ymm5, %ymm10
vpxor %ymm9, %ymm1, %ymm1
vpsllvq 128(%rbp), %ymm1, %ymm5
vpsrlvq 128(%r12), %ymm1, %ymm1
vpor %ymm5, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpermq $-115, %ymm4, %ymm5
vpermq $-115, %ymm0, %ymm7
vpsllvq 160(%rbp), %ymm2, %ymm0
vpsrlvq 160(%r12), %ymm2, %ymm2
vpor %ymm0, %ymm2, %ymm8
vpxor %ymm9, %ymm3, %ymm0
vpermq $27, %ymm10, %ymm3
vpermq $114, %ymm1, %ymm9
vpsllvq 32(%rbp), %ymm0, %ymm1
vpsrlvq 32(%r12), %ymm0, %ymm0
vpor %ymm1, %ymm0, %ymm10
vpsrldq $8, %ymm8, %ymm0
vpandn %ymm0, %ymm8, %ymm0
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm2
vpblendd $12, %ymm7, %ymm5, %ymm4
vpblendd $12, %ymm5, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm2, %ymm2
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm2, %ymm2
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm2, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm2
vpblendd $12, %ymm10, %ymm3, %ymm4
vpblendd $12, %ymm3, %ymm5, %ymm11
vpxor %ymm5, %ymm1, %ymm1
vpblendd $48, %ymm5, %ymm4, %ymm4
vpblendd $48, %ymm7, %ymm11, %ymm11
vpxor %ymm3, %ymm2, %ymm2
vpblendd $-64, %ymm7, %ymm4, %ymm4
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm4, %ymm4
vpxor %ymm9, %ymm4, %ymm12
vpermq $30, %ymm8, %ymm4
vpblendd $48, %ymm6, %ymm4, %ymm4
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm4, %ymm11, %ymm11
vpblendd $12, %ymm3, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm4, %ymm4
vpblendd $48, %ymm5, %ymm13, %ymm13
vpblendd $-64, %ymm5, %ymm4, %ymm4
vpblendd $-64, %ymm3, %ymm13, %ymm13
vpandn %ymm13, %ymm4, %ymm4
vpxor %ymm10, %ymm4, %ymm4
vpermq $0, %ymm0, %ymm13
vpermq $27, %ymm1, %ymm0
vpermq $-115, %ymm2, %ymm1
vpermq $114, %ymm12, %ymm2
vpblendd $12, %ymm5, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm3, %ymm9
vpblendd $48, %ymm3, %ymm12, %ymm3
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm3, %ymm3
vpblendd $-64, %ymm5, %ymm9, %ymm5
vpandn %ymm5, %ymm3, %ymm5
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm3
vpxor %ymm7, %ymm5, %ymm5
vpxor (%r11,%rbx), %ymm6, %ymm6
addq $32, %rbx
decq %r13
jne L_keccak1600_avx2$18
L_keccak1600_avx2$16:
cmpq %rcx, %rdx
jnb L_keccak1600_avx2$17
vpxor %ymm7, %ymm7, %ymm7
vmovdqu %ymm7, (%rsp)
vmovdqu %ymm7, 32(%rsp)
vmovdqu %ymm7, 64(%rsp)
vmovdqu %ymm7, 96(%rsp)
vmovdqu %ymm7, 128(%rsp)
vmovdqu %ymm7, 160(%rsp)
vmovdqu %ymm7, 192(%rsp)
movq %rdx, %r11
shrq $3, %r11
movq $0, %rbx
jmp L_keccak1600_avx2$14
L_keccak1600_avx2$15:
movq (%rsi,%rbx,8), %rbp
movq (%r8,%rbx,8), %r12
movq %rbp, (%rsp,%r12,8)
incq %rbx
L_keccak1600_avx2$14:
cmpq %r11, %rbx
jb L_keccak1600_avx2$15
movq (%r8,%rbx,8), %r11
shlq $3, %r11
shlq $3, %rbx
jmp L_keccak1600_avx2$12
L_keccak1600_avx2$13:
movb (%rsi,%rbx), %bpl
movb %bpl, (%rsp,%r11)
incq %rbx
incq %r11
L_keccak1600_avx2$12:
cmpq %rdx, %rbx
jb L_keccak1600_avx2$13
movb %al, (%rsp,%r11)
movq %rcx, %rax
addq $-1, %rax
shrq $3, %rax
movq (%r8,%rax,8), %rax
shlq $3, %rax
movq %rcx, %rdx
addq $-1, %rdx
andq $7, %rdx
addq %rdx, %rax
xorb $-128, (%rsp,%rax)
movq (%rsp), %rax
movq %rax, 8(%rsp)
movq %rax, 16(%rsp)
movq %rax, 24(%rsp)
vpxor (%rsp), %ymm6, %ymm6
vpxor 32(%rsp), %ymm3, %ymm3
vpxor 64(%rsp), %ymm4, %ymm4
vpxor 96(%rsp), %ymm0, %ymm0
vpxor 128(%rsp), %ymm5, %ymm5
vpxor 160(%rsp), %ymm1, %ymm1
vpxor 192(%rsp), %ymm2, %ymm2
leaq glob_data + 1152(%rip), %rax
jmp L_keccak1600_avx2$7
L_keccak1600_avx2$8:
leaq glob_data + 384(%rip), %rdx
movq $0, %rsi
leaq glob_data + 192(%rip), %r8
leaq glob_data + 0(%rip), %r11
movq $24, %rbx
L_keccak1600_avx2$11:
vpshufd $78, %ymm4, %ymm8
vpxor %ymm0, %ymm1, %ymm7
vpxor %ymm2, %ymm5, %ymm9
vpxor %ymm3, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm4, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm4, %ymm4
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%r8), %ymm4, %ymm7
vpsrlvq (%r11), %ymm4, %ymm4
vpor %ymm7, %ymm4, %ymm4
vpxor %ymm9, %ymm0, %ymm0
vpsllvq 64(%r8), %ymm0, %ymm7
vpsrlvq 64(%r11), %ymm0, %ymm0
vpor %ymm7, %ymm0, %ymm0
vpxor %ymm9, %ymm5, %ymm5
vpsllvq 96(%r8), %ymm5, %ymm7
vpsrlvq 96(%r11), %ymm5, %ymm5
vpor %ymm7, %ymm5, %ymm10
vpxor %ymm9, %ymm1, %ymm1
vpsllvq 128(%r8), %ymm1, %ymm5
vpsrlvq 128(%r11), %ymm1, %ymm1
vpor %ymm5, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpermq $-115, %ymm4, %ymm5
vpermq $-115, %ymm0, %ymm7
vpsllvq 160(%r8), %ymm2, %ymm0
vpsrlvq 160(%r11), %ymm2, %ymm2
vpor %ymm0, %ymm2, %ymm8
vpxor %ymm9, %ymm3, %ymm0
vpermq $27, %ymm10, %ymm3
vpermq $114, %ymm1, %ymm9
vpsllvq 32(%r8), %ymm0, %ymm1
vpsrlvq 32(%r11), %ymm0, %ymm0
vpor %ymm1, %ymm0, %ymm10
vpsrldq $8, %ymm8, %ymm0
vpandn %ymm0, %ymm8, %ymm0
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm2
vpblendd $12, %ymm7, %ymm5, %ymm4
vpblendd $12, %ymm5, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm2, %ymm2
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm2, %ymm2
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm2, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm2
vpblendd $12, %ymm10, %ymm3, %ymm4
vpblendd $12, %ymm3, %ymm5, %ymm11
vpxor %ymm5, %ymm1, %ymm1
vpblendd $48, %ymm5, %ymm4, %ymm4
vpblendd $48, %ymm7, %ymm11, %ymm11
vpxor %ymm3, %ymm2, %ymm2
vpblendd $-64, %ymm7, %ymm4, %ymm4
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm4, %ymm4
vpxor %ymm9, %ymm4, %ymm12
vpermq $30, %ymm8, %ymm4
vpblendd $48, %ymm6, %ymm4, %ymm4
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm4, %ymm11, %ymm11
vpblendd $12, %ymm3, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm4, %ymm4
vpblendd $48, %ymm5, %ymm13, %ymm13
vpblendd $-64, %ymm5, %ymm4, %ymm4
vpblendd $-64, %ymm3, %ymm13, %ymm13
vpandn %ymm13, %ymm4, %ymm4
vpxor %ymm10, %ymm4, %ymm4
vpermq $0, %ymm0, %ymm13
vpermq $27, %ymm1, %ymm0
vpermq $-115, %ymm2, %ymm1
vpermq $114, %ymm12, %ymm2
vpblendd $12, %ymm5, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm3, %ymm9
vpblendd $48, %ymm3, %ymm12, %ymm3
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm3, %ymm3
vpblendd $-64, %ymm5, %ymm9, %ymm5
vpandn %ymm5, %ymm3, %ymm5
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm3
vpxor %ymm7, %ymm5, %ymm5
vpxor (%rdx,%rsi), %ymm6, %ymm6
addq $32, %rsi
decq %rbx
jne L_keccak1600_avx2$11
vmovdqu %ymm6, (%rsp)
vmovdqu %ymm3, 32(%rsp)
vmovdqu %ymm4, 64(%rsp)
vmovdqu %ymm0, 96(%rsp)
vmovdqu %ymm5, 128(%rsp)
vmovdqu %ymm1, 160(%rsp)
vmovdqu %ymm2, 192(%rsp)
movq %rcx, %rdx
shrq $3, %rdx
movq $0, %rsi
jmp L_keccak1600_avx2$9
L_keccak1600_avx2$10:
movq (%rax,%rsi,8), %r8
movq (%rsp,%r8,8), %r8
movq %r8, (%rdi,%rsi,8)
incq %rsi
L_keccak1600_avx2$9:
cmpq %rdx, %rsi
jb L_keccak1600_avx2$10
addq %rcx, %rdi
subq %rcx, %r9
L_keccak1600_avx2$7:
cmpq %rcx, %r9
jnbe L_keccak1600_avx2$8
leaq glob_data + 384(%rip), %rcx
movq $0, %rdx
leaq glob_data + 192(%rip), %rsi
leaq glob_data + 0(%rip), %r8
movq $24, %r11
L_keccak1600_avx2$6:
vpshufd $78, %ymm4, %ymm8
vpxor %ymm0, %ymm1, %ymm7
vpxor %ymm2, %ymm5, %ymm9
vpxor %ymm3, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm4, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm4, %ymm4
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm4, %ymm7
vpsrlvq (%r8), %ymm4, %ymm4
vpor %ymm7, %ymm4, %ymm4
vpxor %ymm9, %ymm0, %ymm0
vpsllvq 64(%rsi), %ymm0, %ymm7
vpsrlvq 64(%r8), %ymm0, %ymm0
vpor %ymm7, %ymm0, %ymm0
vpxor %ymm9, %ymm5, %ymm5
vpsllvq 96(%rsi), %ymm5, %ymm7
vpsrlvq 96(%r8), %ymm5, %ymm5
vpor %ymm7, %ymm5, %ymm10
vpxor %ymm9, %ymm1, %ymm1
vpsllvq 128(%rsi), %ymm1, %ymm5
vpsrlvq 128(%r8), %ymm1, %ymm1
vpor %ymm5, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpermq $-115, %ymm4, %ymm5
vpermq $-115, %ymm0, %ymm7
vpsllvq 160(%rsi), %ymm2, %ymm0
vpsrlvq 160(%r8), %ymm2, %ymm2
vpor %ymm0, %ymm2, %ymm8
vpxor %ymm9, %ymm3, %ymm0
vpermq $27, %ymm10, %ymm3
vpermq $114, %ymm1, %ymm9
vpsllvq 32(%rsi), %ymm0, %ymm1
vpsrlvq 32(%r8), %ymm0, %ymm0
vpor %ymm1, %ymm0, %ymm10
vpsrldq $8, %ymm8, %ymm0
vpandn %ymm0, %ymm8, %ymm0
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm2
vpblendd $12, %ymm7, %ymm5, %ymm4
vpblendd $12, %ymm5, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm2, %ymm2
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm2, %ymm2
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm2, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm2
vpblendd $12, %ymm10, %ymm3, %ymm4
vpblendd $12, %ymm3, %ymm5, %ymm11
vpxor %ymm5, %ymm1, %ymm1
vpblendd $48, %ymm5, %ymm4, %ymm4
vpblendd $48, %ymm7, %ymm11, %ymm11
vpxor %ymm3, %ymm2, %ymm2
vpblendd $-64, %ymm7, %ymm4, %ymm4
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm4, %ymm4
vpxor %ymm9, %ymm4, %ymm12
vpermq $30, %ymm8, %ymm4
vpblendd $48, %ymm6, %ymm4, %ymm4
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm4, %ymm11, %ymm11
vpblendd $12, %ymm3, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm4, %ymm4
vpblendd $48, %ymm5, %ymm13, %ymm13
vpblendd $-64, %ymm5, %ymm4, %ymm4
vpblendd $-64, %ymm3, %ymm13, %ymm13
vpandn %ymm13, %ymm4, %ymm4
vpxor %ymm10, %ymm4, %ymm4
vpermq $0, %ymm0, %ymm13
vpermq $27, %ymm1, %ymm0
vpermq $-115, %ymm2, %ymm1
vpermq $114, %ymm12, %ymm2
vpblendd $12, %ymm5, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm3, %ymm9
vpblendd $48, %ymm3, %ymm12, %ymm3
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm3, %ymm3
vpblendd $-64, %ymm5, %ymm9, %ymm5
vpandn %ymm5, %ymm3, %ymm5
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm3
vpxor %ymm7, %ymm5, %ymm5
vpxor (%rcx,%rdx), %ymm6, %ymm6
addq $32, %rdx
decq %r11
jne L_keccak1600_avx2$6
vmovdqu %ymm6, (%rsp)
vmovdqu %ymm3, 32(%rsp)
vmovdqu %ymm4, 64(%rsp)
vmovdqu %ymm0, 96(%rsp)
vmovdqu %ymm5, 128(%rsp)
vmovdqu %ymm1, 160(%rsp)
vmovdqu %ymm2, 192(%rsp)
movq %r9, %rcx
shrq $3, %rcx
movq $0, %rdx
jmp L_keccak1600_avx2$4
L_keccak1600_avx2$5:
movq (%rax,%rdx,8), %rsi
movq (%rsp,%rsi,8), %rsi
movq %rsi, (%rdi,%rdx,8)
incq %rdx
L_keccak1600_avx2$4:
cmpq %rcx, %rdx
jb L_keccak1600_avx2$5
movq (%rax,%rdx,8), %rax
shlq $3, %rdx
shlq $3, %rax
jmp L_keccak1600_avx2$2
L_keccak1600_avx2$3:
movb (%rsp,%rax), %cl
movb %cl, (%rdi,%rdx)
incq %rdx
incq %rax
L_keccak1600_avx2$2:
cmpq %r9, %rdx
jb L_keccak1600_avx2$3
jmp *%r10
.data
.p2align 5
_glob_data:
glob_data:
.byte 61
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 46
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 28
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 23
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 63
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 2
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 36
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 37
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 19
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 58
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 25
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 54
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 3
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 56
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 62
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 49
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 39
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 44
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 20
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 21
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 43
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 50
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 3
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 18
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 36
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 41
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 62
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 28
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 27
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 45
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 6
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 56
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 39
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 61
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 55
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 2
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 15
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 25
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 20
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 44
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 43
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 21
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 14
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 4
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 5
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 6
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 7
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 24
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 13
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 18
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 23
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 16
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 25
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 22
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 15
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 11
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 12
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 21
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 26
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 19
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 20
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 17
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 14
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 27
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
|
usenix-security-verdict/verdict
| 199,579
|
deps/libcrux/sys/hacl/c/vale/src/aesgcm-x86_64-linux.S
|
.text
.global aes128_key_expansion
aes128_key_expansion:
movdqu 0(%rdi), %xmm1
mov %rsi, %rdx
movdqu %xmm1, 0(%rdx)
aeskeygenassist $1, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 16(%rdx)
aeskeygenassist $2, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 32(%rdx)
aeskeygenassist $4, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 48(%rdx)
aeskeygenassist $8, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 64(%rdx)
aeskeygenassist $16, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 80(%rdx)
aeskeygenassist $32, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 96(%rdx)
aeskeygenassist $64, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 112(%rdx)
aeskeygenassist $128, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 128(%rdx)
aeskeygenassist $27, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 144(%rdx)
aeskeygenassist $54, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 160(%rdx)
pxor %xmm1, %xmm1
pxor %xmm2, %xmm2
pxor %xmm3, %xmm3
ret
.global aes128_keyhash_init
aes128_keyhash_init:
mov $579005069656919567, %r8
pinsrq $0, %r8, %xmm4
mov $283686952306183, %r8
pinsrq $1, %r8, %xmm4
pxor %xmm0, %xmm0
movdqu %xmm0, 80(%rsi)
mov %rdi, %r8
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pshufb %xmm4, %xmm0
mov %rsi, %rcx
movdqu %xmm0, 32(%rcx)
movdqu %xmm6, %xmm0
mov %r12, %rax
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 0(%rcx)
movdqu %xmm6, %xmm1
movdqu %xmm6, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 16(%rcx)
movdqu %xmm6, %xmm2
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 48(%rcx)
movdqu %xmm6, %xmm2
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 64(%rcx)
movdqu %xmm6, %xmm2
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 96(%rcx)
movdqu %xmm6, %xmm2
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 112(%rcx)
movdqu %xmm0, %xmm6
mov %rax, %r12
ret
.global aes256_key_expansion
aes256_key_expansion:
movdqu 0(%rdi), %xmm1
movdqu 16(%rdi), %xmm3
mov %rsi, %rdx
movdqu %xmm1, 0(%rdx)
movdqu %xmm3, 16(%rdx)
aeskeygenassist $1, %xmm3, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 32(%rdx)
aeskeygenassist $0, %xmm1, %xmm2
pshufd $170, %xmm2, %xmm2
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
pxor %xmm2, %xmm3
movdqu %xmm3, 48(%rdx)
aeskeygenassist $2, %xmm3, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 64(%rdx)
aeskeygenassist $0, %xmm1, %xmm2
pshufd $170, %xmm2, %xmm2
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
pxor %xmm2, %xmm3
movdqu %xmm3, 80(%rdx)
aeskeygenassist $4, %xmm3, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 96(%rdx)
aeskeygenassist $0, %xmm1, %xmm2
pshufd $170, %xmm2, %xmm2
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
pxor %xmm2, %xmm3
movdqu %xmm3, 112(%rdx)
aeskeygenassist $8, %xmm3, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 128(%rdx)
aeskeygenassist $0, %xmm1, %xmm2
pshufd $170, %xmm2, %xmm2
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
pxor %xmm2, %xmm3
movdqu %xmm3, 144(%rdx)
aeskeygenassist $16, %xmm3, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 160(%rdx)
aeskeygenassist $0, %xmm1, %xmm2
pshufd $170, %xmm2, %xmm2
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
pxor %xmm2, %xmm3
movdqu %xmm3, 176(%rdx)
aeskeygenassist $32, %xmm3, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 192(%rdx)
aeskeygenassist $0, %xmm1, %xmm2
pshufd $170, %xmm2, %xmm2
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
pxor %xmm2, %xmm3
movdqu %xmm3, 208(%rdx)
aeskeygenassist $64, %xmm3, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 224(%rdx)
pxor %xmm1, %xmm1
pxor %xmm2, %xmm2
pxor %xmm3, %xmm3
pxor %xmm4, %xmm4
ret
.global aes256_keyhash_init
aes256_keyhash_init:
mov $579005069656919567, %r8
pinsrq $0, %r8, %xmm4
mov $283686952306183, %r8
pinsrq $1, %r8, %xmm4
pxor %xmm0, %xmm0
movdqu %xmm0, 80(%rsi)
mov %rdi, %r8
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pshufb %xmm4, %xmm0
mov %rsi, %rcx
movdqu %xmm0, 32(%rcx)
movdqu %xmm6, %xmm0
mov %r12, %rax
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 0(%rcx)
movdqu %xmm6, %xmm1
movdqu %xmm6, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 16(%rcx)
movdqu %xmm6, %xmm2
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 48(%rcx)
movdqu %xmm6, %xmm2
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 64(%rcx)
movdqu %xmm6, %xmm2
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 96(%rcx)
movdqu %xmm6, %xmm2
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 112(%rcx)
movdqu %xmm0, %xmm6
mov %rax, %r12
ret
.global gctr128_bytes
gctr128_bytes:
push %r15
push %r14
push %r13
push %r12
push %rsi
push %rdi
push %rbp
push %rbx
movdqu 0(%r9), %xmm7
mov %rdi, %rax
mov %rdx, %rbx
mov %rcx, %r13
mov 72(%rsp), %rcx
mov %rcx, %rbp
imul $16, %rbp
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm8
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm8
mov %rcx, %rdx
shr $2, %rdx
and $3, %rcx
cmp $0, %rdx
jbe L0
mov %rax, %r9
mov %rbx, %r10
pshufb %xmm8, %xmm7
movdqu %xmm7, %xmm9
mov $579005069656919567, %rax
pinsrq $0, %rax, %xmm0
mov $579005069656919567, %rax
pinsrq $1, %rax, %xmm0
pshufb %xmm0, %xmm9
movdqu %xmm9, %xmm10
pxor %xmm3, %xmm3
mov $1, %rax
pinsrd $2, %eax, %xmm3
paddd %xmm3, %xmm9
mov $3, %rax
pinsrd $2, %eax, %xmm3
mov $2, %rax
pinsrd $0, %eax, %xmm3
paddd %xmm3, %xmm10
pshufb %xmm8, %xmm9
pshufb %xmm8, %xmm10
pextrq $0, %xmm7, %rdi
mov $283686952306183, %rax
pinsrq $0, %rax, %xmm0
mov $579005069656919567, %rax
pinsrq $1, %rax, %xmm0
pxor %xmm15, %xmm15
mov $4, %rax
pinsrd $0, %eax, %xmm15
mov $4, %rax
pinsrd $2, %eax, %xmm15
jmp L3
.balign 16
L2:
pinsrq $0, %rdi, %xmm2
pinsrq $0, %rdi, %xmm12
pinsrq $0, %rdi, %xmm13
pinsrq $0, %rdi, %xmm14
shufpd $2, %xmm9, %xmm2
shufpd $0, %xmm9, %xmm12
shufpd $2, %xmm10, %xmm13
shufpd $0, %xmm10, %xmm14
pshufb %xmm0, %xmm9
pshufb %xmm0, %xmm10
movdqu 0(%r8), %xmm3
movdqu 16(%r8), %xmm4
movdqu 32(%r8), %xmm5
movdqu 48(%r8), %xmm6
paddd %xmm15, %xmm9
paddd %xmm15, %xmm10
pxor %xmm3, %xmm2
pxor %xmm3, %xmm12
pxor %xmm3, %xmm13
pxor %xmm3, %xmm14
pshufb %xmm0, %xmm9
pshufb %xmm0, %xmm10
aesenc %xmm4, %xmm2
aesenc %xmm4, %xmm12
aesenc %xmm4, %xmm13
aesenc %xmm4, %xmm14
aesenc %xmm5, %xmm2
aesenc %xmm5, %xmm12
aesenc %xmm5, %xmm13
aesenc %xmm5, %xmm14
aesenc %xmm6, %xmm2
aesenc %xmm6, %xmm12
aesenc %xmm6, %xmm13
aesenc %xmm6, %xmm14
movdqu 64(%r8), %xmm3
movdqu 80(%r8), %xmm4
movdqu 96(%r8), %xmm5
movdqu 112(%r8), %xmm6
aesenc %xmm3, %xmm2
aesenc %xmm3, %xmm12
aesenc %xmm3, %xmm13
aesenc %xmm3, %xmm14
aesenc %xmm4, %xmm2
aesenc %xmm4, %xmm12
aesenc %xmm4, %xmm13
aesenc %xmm4, %xmm14
aesenc %xmm5, %xmm2
aesenc %xmm5, %xmm12
aesenc %xmm5, %xmm13
aesenc %xmm5, %xmm14
aesenc %xmm6, %xmm2
aesenc %xmm6, %xmm12
aesenc %xmm6, %xmm13
aesenc %xmm6, %xmm14
movdqu 128(%r8), %xmm3
movdqu 144(%r8), %xmm4
movdqu 160(%r8), %xmm5
aesenc %xmm3, %xmm2
aesenc %xmm3, %xmm12
aesenc %xmm3, %xmm13
aesenc %xmm3, %xmm14
aesenc %xmm4, %xmm2
aesenc %xmm4, %xmm12
aesenc %xmm4, %xmm13
aesenc %xmm4, %xmm14
aesenclast %xmm5, %xmm2
aesenclast %xmm5, %xmm12
aesenclast %xmm5, %xmm13
aesenclast %xmm5, %xmm14
movdqu 0(%r9), %xmm7
pxor %xmm7, %xmm2
movdqu 16(%r9), %xmm7
pxor %xmm7, %xmm12
movdqu 32(%r9), %xmm7
pxor %xmm7, %xmm13
movdqu 48(%r9), %xmm7
pxor %xmm7, %xmm14
movdqu %xmm2, 0(%r10)
movdqu %xmm12, 16(%r10)
movdqu %xmm13, 32(%r10)
movdqu %xmm14, 48(%r10)
sub $1, %rdx
add $64, %r9
add $64, %r10
.balign 16
L3:
cmp $0, %rdx
ja L2
movdqu %xmm9, %xmm7
pinsrq $0, %rdi, %xmm7
pshufb %xmm8, %xmm7
mov %r9, %rax
mov %r10, %rbx
jmp L1
L0:
L1:
mov $0, %rdx
mov %rax, %r9
mov %rbx, %r10
pxor %xmm4, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
jmp L5
.balign 16
L4:
movdqu %xmm7, %xmm0
pshufb %xmm8, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
movdqu 0(%r9), %xmm2
pxor %xmm0, %xmm2
movdqu %xmm2, 0(%r10)
add $1, %rdx
add $16, %r9
add $16, %r10
paddd %xmm4, %xmm7
.balign 16
L5:
cmp %rcx, %rdx
jne L4
cmp %rbp, %rsi
jbe L6
movdqu 0(%r13), %xmm1
movdqu %xmm7, %xmm0
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm2
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm2
pshufb %xmm2, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pxor %xmm0, %xmm1
movdqu %xmm1, 0(%r13)
jmp L7
L6:
L7:
pop %rbx
pop %rbp
pop %rdi
pop %rsi
pop %r12
pop %r13
pop %r14
pop %r15
ret
.global gctr256_bytes
gctr256_bytes:
push %r15
push %r14
push %r13
push %r12
push %rsi
push %rdi
push %rbp
push %rbx
movdqu 0(%r9), %xmm7
mov %rdi, %rax
mov %rdx, %rbx
mov %rcx, %r13
mov 72(%rsp), %rcx
mov %rcx, %rbp
imul $16, %rbp
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm8
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm8
mov %rcx, %rdx
shr $2, %rdx
and $3, %rcx
cmp $0, %rdx
jbe L8
mov %rax, %r9
mov %rbx, %r10
pshufb %xmm8, %xmm7
movdqu %xmm7, %xmm9
mov $579005069656919567, %rax
pinsrq $0, %rax, %xmm0
mov $579005069656919567, %rax
pinsrq $1, %rax, %xmm0
pshufb %xmm0, %xmm9
movdqu %xmm9, %xmm10
pxor %xmm3, %xmm3
mov $1, %rax
pinsrd $2, %eax, %xmm3
paddd %xmm3, %xmm9
mov $3, %rax
pinsrd $2, %eax, %xmm3
mov $2, %rax
pinsrd $0, %eax, %xmm3
paddd %xmm3, %xmm10
pshufb %xmm8, %xmm9
pshufb %xmm8, %xmm10
pextrq $0, %xmm7, %rdi
mov $283686952306183, %rax
pinsrq $0, %rax, %xmm0
mov $579005069656919567, %rax
pinsrq $1, %rax, %xmm0
pxor %xmm15, %xmm15
mov $4, %rax
pinsrd $0, %eax, %xmm15
mov $4, %rax
pinsrd $2, %eax, %xmm15
jmp L11
.balign 16
L10:
pinsrq $0, %rdi, %xmm2
pinsrq $0, %rdi, %xmm12
pinsrq $0, %rdi, %xmm13
pinsrq $0, %rdi, %xmm14
shufpd $2, %xmm9, %xmm2
shufpd $0, %xmm9, %xmm12
shufpd $2, %xmm10, %xmm13
shufpd $0, %xmm10, %xmm14
pshufb %xmm0, %xmm9
pshufb %xmm0, %xmm10
movdqu 0(%r8), %xmm3
movdqu 16(%r8), %xmm4
movdqu 32(%r8), %xmm5
movdqu 48(%r8), %xmm6
paddd %xmm15, %xmm9
paddd %xmm15, %xmm10
pxor %xmm3, %xmm2
pxor %xmm3, %xmm12
pxor %xmm3, %xmm13
pxor %xmm3, %xmm14
pshufb %xmm0, %xmm9
pshufb %xmm0, %xmm10
aesenc %xmm4, %xmm2
aesenc %xmm4, %xmm12
aesenc %xmm4, %xmm13
aesenc %xmm4, %xmm14
aesenc %xmm5, %xmm2
aesenc %xmm5, %xmm12
aesenc %xmm5, %xmm13
aesenc %xmm5, %xmm14
aesenc %xmm6, %xmm2
aesenc %xmm6, %xmm12
aesenc %xmm6, %xmm13
aesenc %xmm6, %xmm14
movdqu 64(%r8), %xmm3
movdqu 80(%r8), %xmm4
movdqu 96(%r8), %xmm5
movdqu 112(%r8), %xmm6
aesenc %xmm3, %xmm2
aesenc %xmm3, %xmm12
aesenc %xmm3, %xmm13
aesenc %xmm3, %xmm14
aesenc %xmm4, %xmm2
aesenc %xmm4, %xmm12
aesenc %xmm4, %xmm13
aesenc %xmm4, %xmm14
aesenc %xmm5, %xmm2
aesenc %xmm5, %xmm12
aesenc %xmm5, %xmm13
aesenc %xmm5, %xmm14
aesenc %xmm6, %xmm2
aesenc %xmm6, %xmm12
aesenc %xmm6, %xmm13
aesenc %xmm6, %xmm14
movdqu 128(%r8), %xmm3
movdqu 144(%r8), %xmm4
movdqu 160(%r8), %xmm5
aesenc %xmm3, %xmm2
aesenc %xmm3, %xmm12
aesenc %xmm3, %xmm13
aesenc %xmm3, %xmm14
aesenc %xmm4, %xmm2
aesenc %xmm4, %xmm12
aesenc %xmm4, %xmm13
aesenc %xmm4, %xmm14
movdqu %xmm5, %xmm3
movdqu 176(%r8), %xmm4
movdqu 192(%r8), %xmm5
movdqu 208(%r8), %xmm6
aesenc %xmm3, %xmm2
aesenc %xmm3, %xmm12
aesenc %xmm3, %xmm13
aesenc %xmm3, %xmm14
aesenc %xmm4, %xmm2
aesenc %xmm4, %xmm12
aesenc %xmm4, %xmm13
aesenc %xmm4, %xmm14
aesenc %xmm5, %xmm2
aesenc %xmm5, %xmm12
aesenc %xmm5, %xmm13
aesenc %xmm5, %xmm14
aesenc %xmm6, %xmm2
aesenc %xmm6, %xmm12
aesenc %xmm6, %xmm13
aesenc %xmm6, %xmm14
movdqu 224(%r8), %xmm5
aesenclast %xmm5, %xmm2
aesenclast %xmm5, %xmm12
aesenclast %xmm5, %xmm13
aesenclast %xmm5, %xmm14
movdqu 0(%r9), %xmm7
pxor %xmm7, %xmm2
movdqu 16(%r9), %xmm7
pxor %xmm7, %xmm12
movdqu 32(%r9), %xmm7
pxor %xmm7, %xmm13
movdqu 48(%r9), %xmm7
pxor %xmm7, %xmm14
movdqu %xmm2, 0(%r10)
movdqu %xmm12, 16(%r10)
movdqu %xmm13, 32(%r10)
movdqu %xmm14, 48(%r10)
sub $1, %rdx
add $64, %r9
add $64, %r10
.balign 16
L11:
cmp $0, %rdx
ja L10
movdqu %xmm9, %xmm7
pinsrq $0, %rdi, %xmm7
pshufb %xmm8, %xmm7
mov %r9, %rax
mov %r10, %rbx
jmp L9
L8:
L9:
mov $0, %rdx
mov %rax, %r9
mov %rbx, %r10
pxor %xmm4, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
jmp L13
.balign 16
L12:
movdqu %xmm7, %xmm0
pshufb %xmm8, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
movdqu 0(%r9), %xmm2
pxor %xmm0, %xmm2
movdqu %xmm2, 0(%r10)
add $1, %rdx
add $16, %r9
add $16, %r10
paddd %xmm4, %xmm7
.balign 16
L13:
cmp %rcx, %rdx
jne L12
cmp %rbp, %rsi
jbe L14
movdqu 0(%r13), %xmm1
movdqu %xmm7, %xmm0
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm2
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm2
pshufb %xmm2, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pxor %xmm0, %xmm1
movdqu %xmm1, 0(%r13)
jmp L15
L14:
L15:
pop %rbx
pop %rbp
pop %rdi
pop %rsi
pop %r12
pop %r13
pop %r14
pop %r15
ret
.global compute_iv_stdcall
compute_iv_stdcall:
cmp $12, %rsi
jne L16
cmp $12, %rsi
jne L18
movdqu 0(%r8), %xmm0
mov $579005069656919567, %rax
pinsrq $0, %rax, %xmm1
mov $283686952306183, %rax
pinsrq $1, %rax, %xmm1
pshufb %xmm1, %xmm0
mov $1, %rax
pinsrd $0, %eax, %xmm0
movdqu %xmm0, 0(%rcx)
jmp L19
L18:
mov %rcx, %rax
add $32, %r9
mov %r8, %rbx
mov %rdx, %rcx
imul $16, %rcx
mov $579005069656919567, %r10
pinsrq $0, %r10, %xmm9
mov $283686952306183, %r10
pinsrq $1, %r10, %xmm9
pxor %xmm8, %xmm8
mov %rdi, %r11
jmp L21
.balign 16
L20:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L21:
cmp $6, %rdx
jae L20
cmp $0, %rdx
jbe L22
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L24
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L25
L24:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L26
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L28
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L30
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L31
L30:
L31:
jmp L29
L28:
L29:
jmp L27
L26:
L27:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L25:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L23
L22:
L23:
mov %rsi, %r15
cmp %rcx, %rsi
jbe L32
movdqu 0(%rbx), %xmm0
mov %rsi, %r10
and $15, %r10
cmp $8, %r10
jae L34
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L35
L34:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L35:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L33
L32:
L33:
mov %rax, %rcx
mov $0, %r11
mov %rsi, %r13
pxor %xmm0, %xmm0
mov %r11, %rax
imul $8, %rax
pinsrq $1, %rax, %xmm0
mov %r13, %rax
imul $8, %rax
pinsrq $0, %rax, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
movdqu %xmm8, 0(%rcx)
L19:
jmp L17
L16:
push %r15
push %r14
push %r13
push %r12
push %rsi
push %rdi
push %rbp
push %rbx
cmp $12, %rsi
jne L36
movdqu 0(%r8), %xmm0
mov $579005069656919567, %rax
pinsrq $0, %rax, %xmm1
mov $283686952306183, %rax
pinsrq $1, %rax, %xmm1
pshufb %xmm1, %xmm0
mov $1, %rax
pinsrd $0, %eax, %xmm0
movdqu %xmm0, 0(%rcx)
jmp L37
L36:
mov %rcx, %rax
add $32, %r9
mov %r8, %rbx
mov %rdx, %rcx
imul $16, %rcx
mov $579005069656919567, %r10
pinsrq $0, %r10, %xmm9
mov $283686952306183, %r10
pinsrq $1, %r10, %xmm9
pxor %xmm8, %xmm8
mov %rdi, %r11
jmp L39
.balign 16
L38:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L39:
cmp $6, %rdx
jae L38
cmp $0, %rdx
jbe L40
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L42
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L43
L42:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L44
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L46
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L48
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L49
L48:
L49:
jmp L47
L46:
L47:
jmp L45
L44:
L45:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L43:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L41
L40:
L41:
mov %rsi, %r15
cmp %rcx, %rsi
jbe L50
movdqu 0(%rbx), %xmm0
mov %rsi, %r10
and $15, %r10
cmp $8, %r10
jae L52
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L53
L52:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L53:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L51
L50:
L51:
mov %rax, %rcx
mov $0, %r11
mov %rsi, %r13
pxor %xmm0, %xmm0
mov %r11, %rax
imul $8, %rax
pinsrq $1, %rax, %xmm0
mov %r13, %rax
imul $8, %rax
pinsrq $0, %rax, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
movdqu %xmm8, 0(%rcx)
L37:
pop %rbx
pop %rbp
pop %rdi
pop %rsi
pop %r12
pop %r13
pop %r14
pop %r15
L17:
ret
.global gcm128_encrypt_opt
gcm128_encrypt_opt:
push %r15
push %r14
push %r13
push %r12
push %rsi
push %rdi
push %rbp
push %rbx
mov 144(%rsp), %rbp
mov %rcx, %r13
lea 32(%r9), %r9
mov 72(%rsp), %rbx
mov %rdx, %rcx
imul $16, %rcx
mov $579005069656919567, %r10
pinsrq $0, %r10, %xmm9
mov $283686952306183, %r10
pinsrq $1, %r10, %xmm9
pxor %xmm8, %xmm8
mov %rdi, %r11
jmp L55
.balign 16
L54:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L55:
cmp $6, %rdx
jae L54
cmp $0, %rdx
jbe L56
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L58
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L59
L58:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L60
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L62
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L64
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L65
L64:
L65:
jmp L63
L62:
L63:
jmp L61
L60:
L61:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L59:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L57
L56:
L57:
mov %rsi, %r15
cmp %rcx, %rsi
jbe L66
movdqu 0(%rbx), %xmm0
mov %rsi, %r10
and $15, %r10
cmp $8, %r10
jae L68
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L69
L68:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L69:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L67
L66:
L67:
mov 80(%rsp), %rdi
mov 88(%rsp), %rsi
mov 96(%rsp), %rdx
mov %r13, %rcx
movdqu %xmm9, %xmm0
movdqu 0(%r8), %xmm1
movdqu %xmm1, 0(%rbp)
pxor %xmm10, %xmm10
mov $1, %r11
pinsrq $0, %r11, %xmm10
vpaddd %xmm10, %xmm1, %xmm1
cmp $0, %rdx
jne L70
vpshufb %xmm0, %xmm1, %xmm1
movdqu %xmm1, 32(%rbp)
jmp L71
L70:
movdqu %xmm8, 32(%rbp)
add $128, %rcx
pextrq $0, %xmm1, %rbx
and $255, %rbx
vpshufb %xmm0, %xmm1, %xmm1
lea 96(%rsi), %r14
movdqu -128(%rcx), %xmm4
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
movdqu -112(%rcx), %xmm15
mov %rcx, %r12
sub $96, %r12
vpxor %xmm4, %xmm1, %xmm9
add $6, %rbx
cmp $256, %rbx
jae L72
vpaddd %xmm2, %xmm1, %xmm10
vpaddd %xmm2, %xmm10, %xmm11
vpxor %xmm4, %xmm10, %xmm10
vpaddd %xmm2, %xmm11, %xmm12
vpxor %xmm4, %xmm11, %xmm11
vpaddd %xmm2, %xmm12, %xmm13
vpxor %xmm4, %xmm12, %xmm12
vpaddd %xmm2, %xmm13, %xmm14
vpxor %xmm4, %xmm13, %xmm13
vpaddd %xmm2, %xmm14, %xmm1
vpxor %xmm4, %xmm14, %xmm14
jmp L73
L72:
sub $256, %rbx
vpshufb %xmm0, %xmm1, %xmm6
pxor %xmm5, %xmm5
mov $1, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm10
pxor %xmm5, %xmm5
mov $2, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm11
vpaddd %xmm5, %xmm10, %xmm12
vpshufb %xmm0, %xmm10, %xmm10
vpaddd %xmm5, %xmm11, %xmm13
vpshufb %xmm0, %xmm11, %xmm11
vpxor %xmm4, %xmm10, %xmm10
vpaddd %xmm5, %xmm12, %xmm14
vpshufb %xmm0, %xmm12, %xmm12
vpxor %xmm4, %xmm11, %xmm11
vpaddd %xmm5, %xmm13, %xmm1
vpshufb %xmm0, %xmm13, %xmm13
vpxor %xmm4, %xmm12, %xmm12
vpshufb %xmm0, %xmm14, %xmm14
vpxor %xmm4, %xmm13, %xmm13
vpshufb %xmm0, %xmm1, %xmm1
vpxor %xmm4, %xmm14, %xmm14
L73:
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -96(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -80(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -64(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -48(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -32(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -16(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 0(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 16(%rcx), %xmm15
movdqu 32(%rcx), %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor 0(%rdi), %xmm3, %xmm4
vaesenc %xmm15, %xmm10, %xmm10
vpxor 16(%rdi), %xmm3, %xmm5
vaesenc %xmm15, %xmm11, %xmm11
vpxor 32(%rdi), %xmm3, %xmm6
vaesenc %xmm15, %xmm12, %xmm12
vpxor 48(%rdi), %xmm3, %xmm8
vaesenc %xmm15, %xmm13, %xmm13
vpxor 64(%rdi), %xmm3, %xmm2
vaesenc %xmm15, %xmm14, %xmm14
vpxor 80(%rdi), %xmm3, %xmm3
lea 96(%rdi), %rdi
vaesenclast %xmm4, %xmm9, %xmm9
vaesenclast %xmm5, %xmm10, %xmm10
vaesenclast %xmm6, %xmm11, %xmm11
vaesenclast %xmm8, %xmm12, %xmm12
vaesenclast %xmm2, %xmm13, %xmm13
vaesenclast %xmm3, %xmm14, %xmm14
movdqu %xmm9, 0(%rsi)
movdqu %xmm10, 16(%rsi)
movdqu %xmm11, 32(%rsi)
movdqu %xmm12, 48(%rsi)
movdqu %xmm13, 64(%rsi)
movdqu %xmm14, 80(%rsi)
lea 96(%rsi), %rsi
vpshufb %xmm0, %xmm9, %xmm8
vpshufb %xmm0, %xmm10, %xmm2
movdqu %xmm8, 112(%rbp)
vpshufb %xmm0, %xmm11, %xmm4
movdqu %xmm2, 96(%rbp)
vpshufb %xmm0, %xmm12, %xmm5
movdqu %xmm4, 80(%rbp)
vpshufb %xmm0, %xmm13, %xmm6
movdqu %xmm5, 64(%rbp)
vpshufb %xmm0, %xmm14, %xmm7
movdqu %xmm6, 48(%rbp)
movdqu -128(%rcx), %xmm4
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
movdqu -112(%rcx), %xmm15
mov %rcx, %r12
sub $96, %r12
vpxor %xmm4, %xmm1, %xmm9
add $6, %rbx
cmp $256, %rbx
jae L74
vpaddd %xmm2, %xmm1, %xmm10
vpaddd %xmm2, %xmm10, %xmm11
vpxor %xmm4, %xmm10, %xmm10
vpaddd %xmm2, %xmm11, %xmm12
vpxor %xmm4, %xmm11, %xmm11
vpaddd %xmm2, %xmm12, %xmm13
vpxor %xmm4, %xmm12, %xmm12
vpaddd %xmm2, %xmm13, %xmm14
vpxor %xmm4, %xmm13, %xmm13
vpaddd %xmm2, %xmm14, %xmm1
vpxor %xmm4, %xmm14, %xmm14
jmp L75
L74:
sub $256, %rbx
vpshufb %xmm0, %xmm1, %xmm6
pxor %xmm5, %xmm5
mov $1, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm10
pxor %xmm5, %xmm5
mov $2, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm11
vpaddd %xmm5, %xmm10, %xmm12
vpshufb %xmm0, %xmm10, %xmm10
vpaddd %xmm5, %xmm11, %xmm13
vpshufb %xmm0, %xmm11, %xmm11
vpxor %xmm4, %xmm10, %xmm10
vpaddd %xmm5, %xmm12, %xmm14
vpshufb %xmm0, %xmm12, %xmm12
vpxor %xmm4, %xmm11, %xmm11
vpaddd %xmm5, %xmm13, %xmm1
vpshufb %xmm0, %xmm13, %xmm13
vpxor %xmm4, %xmm12, %xmm12
vpshufb %xmm0, %xmm14, %xmm14
vpxor %xmm4, %xmm13, %xmm13
vpshufb %xmm0, %xmm1, %xmm1
vpxor %xmm4, %xmm14, %xmm14
L75:
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -96(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -80(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -64(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -48(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -32(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -16(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 0(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 16(%rcx), %xmm15
movdqu 32(%rcx), %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor 0(%rdi), %xmm3, %xmm4
vaesenc %xmm15, %xmm10, %xmm10
vpxor 16(%rdi), %xmm3, %xmm5
vaesenc %xmm15, %xmm11, %xmm11
vpxor 32(%rdi), %xmm3, %xmm6
vaesenc %xmm15, %xmm12, %xmm12
vpxor 48(%rdi), %xmm3, %xmm8
vaesenc %xmm15, %xmm13, %xmm13
vpxor 64(%rdi), %xmm3, %xmm2
vaesenc %xmm15, %xmm14, %xmm14
vpxor 80(%rdi), %xmm3, %xmm3
lea 96(%rdi), %rdi
vaesenclast %xmm4, %xmm9, %xmm9
vaesenclast %xmm5, %xmm10, %xmm10
vaesenclast %xmm6, %xmm11, %xmm11
vaesenclast %xmm8, %xmm12, %xmm12
vaesenclast %xmm2, %xmm13, %xmm13
vaesenclast %xmm3, %xmm14, %xmm14
movdqu %xmm9, 0(%rsi)
movdqu %xmm10, 16(%rsi)
movdqu %xmm11, 32(%rsi)
movdqu %xmm12, 48(%rsi)
movdqu %xmm13, 64(%rsi)
movdqu %xmm14, 80(%rsi)
lea 96(%rsi), %rsi
sub $12, %rdx
movdqu 32(%rbp), %xmm8
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
vpxor %xmm4, %xmm4, %xmm4
movdqu -128(%rcx), %xmm15
vpaddd %xmm2, %xmm1, %xmm10
vpaddd %xmm2, %xmm10, %xmm11
vpaddd %xmm2, %xmm11, %xmm12
vpaddd %xmm2, %xmm12, %xmm13
vpaddd %xmm2, %xmm13, %xmm14
vpxor %xmm15, %xmm1, %xmm9
movdqu %xmm4, 16(%rbp)
jmp L77
.balign 16
L76:
add $6, %rbx
cmp $256, %rbx
jb L78
mov $579005069656919567, %r11
pinsrq $0, %r11, %xmm0
mov $283686952306183, %r11
pinsrq $1, %r11, %xmm0
vpshufb %xmm0, %xmm1, %xmm6
pxor %xmm5, %xmm5
mov $1, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm10
pxor %xmm5, %xmm5
mov $2, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm11
movdqu -32(%r9), %xmm3
vpaddd %xmm5, %xmm10, %xmm12
vpshufb %xmm0, %xmm10, %xmm10
vpaddd %xmm5, %xmm11, %xmm13
vpshufb %xmm0, %xmm11, %xmm11
vpxor %xmm15, %xmm10, %xmm10
vpaddd %xmm5, %xmm12, %xmm14
vpshufb %xmm0, %xmm12, %xmm12
vpxor %xmm15, %xmm11, %xmm11
vpaddd %xmm5, %xmm13, %xmm1
vpshufb %xmm0, %xmm13, %xmm13
vpshufb %xmm0, %xmm14, %xmm14
vpshufb %xmm0, %xmm1, %xmm1
sub $256, %rbx
jmp L79
L78:
movdqu -32(%r9), %xmm3
vpaddd %xmm14, %xmm2, %xmm1
vpxor %xmm15, %xmm10, %xmm10
vpxor %xmm15, %xmm11, %xmm11
L79:
movdqu %xmm1, 128(%rbp)
vpclmulqdq $16, %xmm3, %xmm7, %xmm5
vpxor %xmm15, %xmm12, %xmm12
movdqu -112(%rcx), %xmm2
vpclmulqdq $1, %xmm3, %xmm7, %xmm6
vaesenc %xmm2, %xmm9, %xmm9
movdqu 48(%rbp), %xmm0
vpxor %xmm15, %xmm13, %xmm13
vpclmulqdq $0, %xmm3, %xmm7, %xmm1
vaesenc %xmm2, %xmm10, %xmm10
vpxor %xmm15, %xmm14, %xmm14
vpclmulqdq $17, %xmm3, %xmm7, %xmm7
vaesenc %xmm2, %xmm11, %xmm11
movdqu -16(%r9), %xmm3
vaesenc %xmm2, %xmm12, %xmm12
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpxor %xmm4, %xmm8, %xmm8
vaesenc %xmm2, %xmm13, %xmm13
vpxor %xmm5, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vaesenc %xmm2, %xmm14, %xmm14
movdqu -96(%rcx), %xmm15
vpclmulqdq $1, %xmm3, %xmm0, %xmm2
vaesenc %xmm15, %xmm9, %xmm9
vpxor 16(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
movdqu 64(%rbp), %xmm0
vaesenc %xmm15, %xmm10, %xmm10
movbeq 88(%r14), %r13
vaesenc %xmm15, %xmm11, %xmm11
movbeq 80(%r14), %r12
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 32(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 40(%rbp)
movdqu 16(%r9), %xmm5
vaesenc %xmm15, %xmm14, %xmm14
movdqu -80(%rcx), %xmm15
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vaesenc %xmm15, %xmm10, %xmm10
vpxor %xmm3, %xmm7, %xmm7
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vaesenc %xmm15, %xmm11, %xmm11
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 80(%rbp), %xmm0
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vaesenc %xmm15, %xmm14, %xmm14
movdqu -64(%rcx), %xmm15
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vaesenc %xmm15, %xmm10, %xmm10
movbeq 72(%r14), %r13
vpxor %xmm5, %xmm7, %xmm7
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vaesenc %xmm15, %xmm11, %xmm11
movbeq 64(%r14), %r12
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
movdqu 96(%rbp), %xmm0
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 48(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 56(%rbp)
vpxor %xmm2, %xmm4, %xmm4
movdqu 64(%r9), %xmm2
vaesenc %xmm15, %xmm14, %xmm14
movdqu -48(%rcx), %xmm15
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm0, %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm5
vaesenc %xmm15, %xmm10, %xmm10
movbeq 56(%r14), %r13
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor 112(%rbp), %xmm8, %xmm8
vaesenc %xmm15, %xmm11, %xmm11
movbeq 48(%r14), %r12
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 64(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 72(%rbp)
vpxor %xmm3, %xmm4, %xmm4
movdqu 80(%r9), %xmm3
vaesenc %xmm15, %xmm14, %xmm14
movdqu -32(%rcx), %xmm15
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm8, %xmm5
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm3, %xmm8, %xmm1
vaesenc %xmm15, %xmm10, %xmm10
movbeq 40(%r14), %r13
vpxor %xmm2, %xmm7, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm2
vaesenc %xmm15, %xmm11, %xmm11
movbeq 32(%r14), %r12
vpclmulqdq $17, %xmm3, %xmm8, %xmm8
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 80(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 88(%rbp)
vpxor %xmm5, %xmm6, %xmm6
vaesenc %xmm15, %xmm14, %xmm14
vpxor %xmm1, %xmm6, %xmm6
movdqu -16(%rcx), %xmm15
vpslldq $8, %xmm6, %xmm5
vpxor %xmm2, %xmm4, %xmm4
pxor %xmm3, %xmm3
mov $13979173243358019584, %r11
pinsrq $1, %r11, %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm8, %xmm7, %xmm7
vaesenc %xmm15, %xmm10, %xmm10
vpxor %xmm5, %xmm4, %xmm4
movbeq 24(%r14), %r13
vaesenc %xmm15, %xmm11, %xmm11
movbeq 16(%r14), %r12
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
movq %r13, 96(%rbp)
vaesenc %xmm15, %xmm12, %xmm12
movq %r12, 104(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 0(%rcx), %xmm1
vaesenc %xmm1, %xmm9, %xmm9
movdqu 16(%rcx), %xmm15
vaesenc %xmm1, %xmm10, %xmm10
vpsrldq $8, %xmm6, %xmm6
vaesenc %xmm1, %xmm11, %xmm11
vpxor %xmm6, %xmm7, %xmm7
vaesenc %xmm1, %xmm12, %xmm12
vpxor %xmm0, %xmm4, %xmm4
movbeq 8(%r14), %r13
vaesenc %xmm1, %xmm13, %xmm13
movbeq 0(%r14), %r12
vaesenc %xmm1, %xmm14, %xmm14
movdqu 32(%rcx), %xmm1
vaesenc %xmm15, %xmm9, %xmm9
movdqu %xmm7, 16(%rbp)
vpalignr $8, %xmm4, %xmm4, %xmm8
vaesenc %xmm15, %xmm10, %xmm10
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor 0(%rdi), %xmm1, %xmm2
vaesenc %xmm15, %xmm11, %xmm11
vpxor 16(%rdi), %xmm1, %xmm0
vaesenc %xmm15, %xmm12, %xmm12
vpxor 32(%rdi), %xmm1, %xmm5
vaesenc %xmm15, %xmm13, %xmm13
vpxor 48(%rdi), %xmm1, %xmm6
vaesenc %xmm15, %xmm14, %xmm14
vpxor 64(%rdi), %xmm1, %xmm7
vpxor 80(%rdi), %xmm1, %xmm3
movdqu 128(%rbp), %xmm1
vaesenclast %xmm2, %xmm9, %xmm9
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
vaesenclast %xmm0, %xmm10, %xmm10
vpaddd %xmm2, %xmm1, %xmm0
movq %r13, 112(%rbp)
lea 96(%rdi), %rdi
vaesenclast %xmm5, %xmm11, %xmm11
vpaddd %xmm2, %xmm0, %xmm5
movq %r12, 120(%rbp)
lea 96(%rsi), %rsi
movdqu -128(%rcx), %xmm15
vaesenclast %xmm6, %xmm12, %xmm12
vpaddd %xmm2, %xmm5, %xmm6
vaesenclast %xmm7, %xmm13, %xmm13
vpaddd %xmm2, %xmm6, %xmm7
vaesenclast %xmm3, %xmm14, %xmm14
vpaddd %xmm2, %xmm7, %xmm3
sub $6, %rdx
add $96, %r14
cmp $0, %rdx
jbe L80
movdqu %xmm9, -96(%rsi)
vpxor %xmm15, %xmm1, %xmm9
movdqu %xmm10, -80(%rsi)
movdqu %xmm0, %xmm10
movdqu %xmm11, -64(%rsi)
movdqu %xmm5, %xmm11
movdqu %xmm12, -48(%rsi)
movdqu %xmm6, %xmm12
movdqu %xmm13, -32(%rsi)
movdqu %xmm7, %xmm13
movdqu %xmm14, -16(%rsi)
movdqu %xmm3, %xmm14
movdqu 32(%rbp), %xmm7
jmp L81
L80:
vpxor 16(%rbp), %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
L81:
.balign 16
L77:
cmp $0, %rdx
ja L76
movdqu 32(%rbp), %xmm7
movdqu %xmm1, 32(%rbp)
pxor %xmm4, %xmm4
movdqu %xmm4, 16(%rbp)
movdqu -32(%r9), %xmm3
vpclmulqdq $0, %xmm3, %xmm7, %xmm1
vpclmulqdq $16, %xmm3, %xmm7, %xmm5
movdqu 48(%rbp), %xmm0
vpclmulqdq $1, %xmm3, %xmm7, %xmm6
vpclmulqdq $17, %xmm3, %xmm7, %xmm7
movdqu -16(%r9), %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpxor %xmm4, %xmm8, %xmm8
vpxor %xmm5, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vpclmulqdq $1, %xmm3, %xmm0, %xmm2
vpxor 16(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
movdqu 64(%rbp), %xmm0
movdqu 16(%r9), %xmm5
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpxor %xmm3, %xmm7, %xmm7
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 80(%rbp), %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vpxor %xmm5, %xmm7, %xmm7
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
movdqu 96(%rbp), %xmm0
vpxor %xmm2, %xmm4, %xmm4
movdqu 64(%r9), %xmm2
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm0, %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm5
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor 112(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vpxor %xmm3, %xmm4, %xmm4
movdqu 80(%r9), %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm8, %xmm5
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm3, %xmm8, %xmm1
vpxor %xmm2, %xmm7, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm2
vpclmulqdq $17, %xmm3, %xmm8, %xmm8
vpxor %xmm5, %xmm6, %xmm6
vpxor %xmm1, %xmm6, %xmm6
vpxor %xmm2, %xmm4, %xmm4
pxor %xmm3, %xmm3
mov $3254779904, %rax
pinsrd $3, %eax, %xmm3
vpxor %xmm8, %xmm7, %xmm7
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm0
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm0
movdqu %xmm9, -96(%rsi)
vpshufb %xmm0, %xmm9, %xmm9
vpxor %xmm7, %xmm1, %xmm1
movdqu %xmm10, -80(%rsi)
vpshufb %xmm0, %xmm10, %xmm10
movdqu %xmm11, -64(%rsi)
vpshufb %xmm0, %xmm11, %xmm11
movdqu %xmm12, -48(%rsi)
vpshufb %xmm0, %xmm12, %xmm12
movdqu %xmm13, -32(%rsi)
vpshufb %xmm0, %xmm13, %xmm13
movdqu %xmm14, -16(%rsi)
vpshufb %xmm0, %xmm14, %xmm14
pxor %xmm4, %xmm4
movdqu %xmm14, %xmm7
movdqu %xmm4, 16(%rbp)
movdqu %xmm13, 48(%rbp)
movdqu %xmm12, 64(%rbp)
movdqu %xmm11, 80(%rbp)
movdqu %xmm10, 96(%rbp)
movdqu %xmm9, 112(%rbp)
movdqu -32(%r9), %xmm3
vpclmulqdq $0, %xmm3, %xmm7, %xmm1
vpclmulqdq $16, %xmm3, %xmm7, %xmm5
movdqu 48(%rbp), %xmm0
vpclmulqdq $1, %xmm3, %xmm7, %xmm6
vpclmulqdq $17, %xmm3, %xmm7, %xmm7
movdqu -16(%r9), %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpxor %xmm4, %xmm8, %xmm8
vpxor %xmm5, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vpclmulqdq $1, %xmm3, %xmm0, %xmm2
vpxor 16(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
movdqu 64(%rbp), %xmm0
movdqu 16(%r9), %xmm5
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpxor %xmm3, %xmm7, %xmm7
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 80(%rbp), %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vpxor %xmm5, %xmm7, %xmm7
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
movdqu 96(%rbp), %xmm0
vpxor %xmm2, %xmm4, %xmm4
movdqu 64(%r9), %xmm2
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm0, %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm5
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor 112(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vpxor %xmm3, %xmm4, %xmm4
movdqu 80(%r9), %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm8, %xmm5
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm3, %xmm8, %xmm1
vpxor %xmm2, %xmm7, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm2
vpclmulqdq $17, %xmm3, %xmm8, %xmm8
vpxor %xmm5, %xmm6, %xmm6
vpxor %xmm1, %xmm6, %xmm6
vpxor %xmm2, %xmm4, %xmm4
pxor %xmm3, %xmm3
mov $3254779904, %rax
pinsrd $3, %eax, %xmm3
vpxor %xmm8, %xmm7, %xmm7
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
sub $128, %rcx
L71:
movdqu 32(%rbp), %xmm11
mov %rcx, %r8
mov 104(%rsp), %rax
mov 112(%rsp), %rdi
mov 120(%rsp), %rdx
mov %rdx, %r14
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm9
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm9
pshufb %xmm9, %xmm11
pxor %xmm10, %xmm10
mov $1, %rbx
pinsrd $0, %ebx, %xmm10
mov %rax, %r11
mov %rdi, %r10
mov $0, %rbx
jmp L83
.balign 16
L82:
movdqu %xmm11, %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
movdqu 0(%r11), %xmm2
pxor %xmm0, %xmm2
movdqu %xmm2, 0(%r10)
add $1, %rbx
add $16, %r11
add $16, %r10
paddd %xmm10, %xmm11
.balign 16
L83:
cmp %rdx, %rbx
jne L82
mov %rdi, %r11
jmp L85
.balign 16
L84:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L85:
cmp $6, %rdx
jae L84
cmp $0, %rdx
jbe L86
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L88
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L89
L88:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L90
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L92
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L94
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L95
L94:
L95:
jmp L93
L92:
L93:
jmp L91
L90:
L91:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L89:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L87
L86:
L87:
add 96(%rsp), %r14
imul $16, %r14
mov 136(%rsp), %r13
cmp %r14, %r13
jbe L96
mov 128(%rsp), %rax
mov %r13, %r10
and $15, %r10
movdqu %xmm11, %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
movdqu 0(%rax), %xmm4
pxor %xmm4, %xmm0
movdqu %xmm0, 0(%rax)
cmp $8, %r10
jae L98
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L99
L98:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L99:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L97
L96:
L97:
mov %r15, %r11
pxor %xmm0, %xmm0
mov %r11, %rax
imul $8, %rax
pinsrq $1, %rax, %xmm0
mov %r13, %rax
imul $8, %rax
pinsrq $0, %rax, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
movdqu 0(%rbp), %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pshufb %xmm9, %xmm8
pxor %xmm0, %xmm8
mov 152(%rsp), %r15
movdqu %xmm8, 0(%r15)
pop %rbx
pop %rbp
pop %rdi
pop %rsi
pop %r12
pop %r13
pop %r14
pop %r15
ret
.global gcm256_encrypt_opt
gcm256_encrypt_opt:
push %r15
push %r14
push %r13
push %r12
push %rsi
push %rdi
push %rbp
push %rbx
mov 144(%rsp), %rbp
mov %rcx, %r13
lea 32(%r9), %r9
mov 72(%rsp), %rbx
mov %rdx, %rcx
imul $16, %rcx
mov $579005069656919567, %r10
pinsrq $0, %r10, %xmm9
mov $283686952306183, %r10
pinsrq $1, %r10, %xmm9
pxor %xmm8, %xmm8
mov %rdi, %r11
jmp L101
.balign 16
L100:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L101:
cmp $6, %rdx
jae L100
cmp $0, %rdx
jbe L102
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L104
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L105
L104:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L106
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L108
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L110
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L111
L110:
L111:
jmp L109
L108:
L109:
jmp L107
L106:
L107:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L105:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L103
L102:
L103:
mov %rsi, %r15
cmp %rcx, %rsi
jbe L112
movdqu 0(%rbx), %xmm0
mov %rsi, %r10
and $15, %r10
cmp $8, %r10
jae L114
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L115
L114:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L115:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L113
L112:
L113:
mov 80(%rsp), %rdi
mov 88(%rsp), %rsi
mov 96(%rsp), %rdx
mov %r13, %rcx
movdqu %xmm9, %xmm0
movdqu 0(%r8), %xmm1
movdqu %xmm1, 0(%rbp)
pxor %xmm10, %xmm10
mov $1, %r11
pinsrq $0, %r11, %xmm10
vpaddd %xmm10, %xmm1, %xmm1
cmp $0, %rdx
jne L116
vpshufb %xmm0, %xmm1, %xmm1
movdqu %xmm1, 32(%rbp)
jmp L117
L116:
movdqu %xmm8, 32(%rbp)
add $128, %rcx
pextrq $0, %xmm1, %rbx
and $255, %rbx
vpshufb %xmm0, %xmm1, %xmm1
lea 96(%rsi), %r14
movdqu -128(%rcx), %xmm4
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
movdqu -112(%rcx), %xmm15
mov %rcx, %r12
sub $96, %r12
vpxor %xmm4, %xmm1, %xmm9
add $6, %rbx
cmp $256, %rbx
jae L118
vpaddd %xmm2, %xmm1, %xmm10
vpaddd %xmm2, %xmm10, %xmm11
vpxor %xmm4, %xmm10, %xmm10
vpaddd %xmm2, %xmm11, %xmm12
vpxor %xmm4, %xmm11, %xmm11
vpaddd %xmm2, %xmm12, %xmm13
vpxor %xmm4, %xmm12, %xmm12
vpaddd %xmm2, %xmm13, %xmm14
vpxor %xmm4, %xmm13, %xmm13
vpaddd %xmm2, %xmm14, %xmm1
vpxor %xmm4, %xmm14, %xmm14
jmp L119
L118:
sub $256, %rbx
vpshufb %xmm0, %xmm1, %xmm6
pxor %xmm5, %xmm5
mov $1, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm10
pxor %xmm5, %xmm5
mov $2, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm11
vpaddd %xmm5, %xmm10, %xmm12
vpshufb %xmm0, %xmm10, %xmm10
vpaddd %xmm5, %xmm11, %xmm13
vpshufb %xmm0, %xmm11, %xmm11
vpxor %xmm4, %xmm10, %xmm10
vpaddd %xmm5, %xmm12, %xmm14
vpshufb %xmm0, %xmm12, %xmm12
vpxor %xmm4, %xmm11, %xmm11
vpaddd %xmm5, %xmm13, %xmm1
vpshufb %xmm0, %xmm13, %xmm13
vpxor %xmm4, %xmm12, %xmm12
vpshufb %xmm0, %xmm14, %xmm14
vpxor %xmm4, %xmm13, %xmm13
vpshufb %xmm0, %xmm1, %xmm1
vpxor %xmm4, %xmm14, %xmm14
L119:
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -96(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -80(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -64(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -48(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -32(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -16(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 0(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 16(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 32(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 48(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 64(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 80(%rcx), %xmm15
movdqu 96(%rcx), %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor 0(%rdi), %xmm3, %xmm4
vaesenc %xmm15, %xmm10, %xmm10
vpxor 16(%rdi), %xmm3, %xmm5
vaesenc %xmm15, %xmm11, %xmm11
vpxor 32(%rdi), %xmm3, %xmm6
vaesenc %xmm15, %xmm12, %xmm12
vpxor 48(%rdi), %xmm3, %xmm8
vaesenc %xmm15, %xmm13, %xmm13
vpxor 64(%rdi), %xmm3, %xmm2
vaesenc %xmm15, %xmm14, %xmm14
vpxor 80(%rdi), %xmm3, %xmm3
lea 96(%rdi), %rdi
vaesenclast %xmm4, %xmm9, %xmm9
vaesenclast %xmm5, %xmm10, %xmm10
vaesenclast %xmm6, %xmm11, %xmm11
vaesenclast %xmm8, %xmm12, %xmm12
vaesenclast %xmm2, %xmm13, %xmm13
vaesenclast %xmm3, %xmm14, %xmm14
movdqu %xmm9, 0(%rsi)
movdqu %xmm10, 16(%rsi)
movdqu %xmm11, 32(%rsi)
movdqu %xmm12, 48(%rsi)
movdqu %xmm13, 64(%rsi)
movdqu %xmm14, 80(%rsi)
lea 96(%rsi), %rsi
vpshufb %xmm0, %xmm9, %xmm8
vpshufb %xmm0, %xmm10, %xmm2
movdqu %xmm8, 112(%rbp)
vpshufb %xmm0, %xmm11, %xmm4
movdqu %xmm2, 96(%rbp)
vpshufb %xmm0, %xmm12, %xmm5
movdqu %xmm4, 80(%rbp)
vpshufb %xmm0, %xmm13, %xmm6
movdqu %xmm5, 64(%rbp)
vpshufb %xmm0, %xmm14, %xmm7
movdqu %xmm6, 48(%rbp)
movdqu -128(%rcx), %xmm4
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
movdqu -112(%rcx), %xmm15
mov %rcx, %r12
sub $96, %r12
vpxor %xmm4, %xmm1, %xmm9
add $6, %rbx
cmp $256, %rbx
jae L120
vpaddd %xmm2, %xmm1, %xmm10
vpaddd %xmm2, %xmm10, %xmm11
vpxor %xmm4, %xmm10, %xmm10
vpaddd %xmm2, %xmm11, %xmm12
vpxor %xmm4, %xmm11, %xmm11
vpaddd %xmm2, %xmm12, %xmm13
vpxor %xmm4, %xmm12, %xmm12
vpaddd %xmm2, %xmm13, %xmm14
vpxor %xmm4, %xmm13, %xmm13
vpaddd %xmm2, %xmm14, %xmm1
vpxor %xmm4, %xmm14, %xmm14
jmp L121
L120:
sub $256, %rbx
vpshufb %xmm0, %xmm1, %xmm6
pxor %xmm5, %xmm5
mov $1, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm10
pxor %xmm5, %xmm5
mov $2, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm11
vpaddd %xmm5, %xmm10, %xmm12
vpshufb %xmm0, %xmm10, %xmm10
vpaddd %xmm5, %xmm11, %xmm13
vpshufb %xmm0, %xmm11, %xmm11
vpxor %xmm4, %xmm10, %xmm10
vpaddd %xmm5, %xmm12, %xmm14
vpshufb %xmm0, %xmm12, %xmm12
vpxor %xmm4, %xmm11, %xmm11
vpaddd %xmm5, %xmm13, %xmm1
vpshufb %xmm0, %xmm13, %xmm13
vpxor %xmm4, %xmm12, %xmm12
vpshufb %xmm0, %xmm14, %xmm14
vpxor %xmm4, %xmm13, %xmm13
vpshufb %xmm0, %xmm1, %xmm1
vpxor %xmm4, %xmm14, %xmm14
L121:
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -96(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -80(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -64(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -48(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -32(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -16(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 0(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 16(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 32(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 48(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 64(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 80(%rcx), %xmm15
movdqu 96(%rcx), %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor 0(%rdi), %xmm3, %xmm4
vaesenc %xmm15, %xmm10, %xmm10
vpxor 16(%rdi), %xmm3, %xmm5
vaesenc %xmm15, %xmm11, %xmm11
vpxor 32(%rdi), %xmm3, %xmm6
vaesenc %xmm15, %xmm12, %xmm12
vpxor 48(%rdi), %xmm3, %xmm8
vaesenc %xmm15, %xmm13, %xmm13
vpxor 64(%rdi), %xmm3, %xmm2
vaesenc %xmm15, %xmm14, %xmm14
vpxor 80(%rdi), %xmm3, %xmm3
lea 96(%rdi), %rdi
vaesenclast %xmm4, %xmm9, %xmm9
vaesenclast %xmm5, %xmm10, %xmm10
vaesenclast %xmm6, %xmm11, %xmm11
vaesenclast %xmm8, %xmm12, %xmm12
vaesenclast %xmm2, %xmm13, %xmm13
vaesenclast %xmm3, %xmm14, %xmm14
movdqu %xmm9, 0(%rsi)
movdqu %xmm10, 16(%rsi)
movdqu %xmm11, 32(%rsi)
movdqu %xmm12, 48(%rsi)
movdqu %xmm13, 64(%rsi)
movdqu %xmm14, 80(%rsi)
lea 96(%rsi), %rsi
sub $12, %rdx
movdqu 32(%rbp), %xmm8
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
vpxor %xmm4, %xmm4, %xmm4
movdqu -128(%rcx), %xmm15
vpaddd %xmm2, %xmm1, %xmm10
vpaddd %xmm2, %xmm10, %xmm11
vpaddd %xmm2, %xmm11, %xmm12
vpaddd %xmm2, %xmm12, %xmm13
vpaddd %xmm2, %xmm13, %xmm14
vpxor %xmm15, %xmm1, %xmm9
movdqu %xmm4, 16(%rbp)
jmp L123
.balign 16
L122:
add $6, %rbx
cmp $256, %rbx
jb L124
mov $579005069656919567, %r11
pinsrq $0, %r11, %xmm0
mov $283686952306183, %r11
pinsrq $1, %r11, %xmm0
vpshufb %xmm0, %xmm1, %xmm6
pxor %xmm5, %xmm5
mov $1, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm10
pxor %xmm5, %xmm5
mov $2, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm11
movdqu -32(%r9), %xmm3
vpaddd %xmm5, %xmm10, %xmm12
vpshufb %xmm0, %xmm10, %xmm10
vpaddd %xmm5, %xmm11, %xmm13
vpshufb %xmm0, %xmm11, %xmm11
vpxor %xmm15, %xmm10, %xmm10
vpaddd %xmm5, %xmm12, %xmm14
vpshufb %xmm0, %xmm12, %xmm12
vpxor %xmm15, %xmm11, %xmm11
vpaddd %xmm5, %xmm13, %xmm1
vpshufb %xmm0, %xmm13, %xmm13
vpshufb %xmm0, %xmm14, %xmm14
vpshufb %xmm0, %xmm1, %xmm1
sub $256, %rbx
jmp L125
L124:
movdqu -32(%r9), %xmm3
vpaddd %xmm14, %xmm2, %xmm1
vpxor %xmm15, %xmm10, %xmm10
vpxor %xmm15, %xmm11, %xmm11
L125:
movdqu %xmm1, 128(%rbp)
vpclmulqdq $16, %xmm3, %xmm7, %xmm5
vpxor %xmm15, %xmm12, %xmm12
movdqu -112(%rcx), %xmm2
vpclmulqdq $1, %xmm3, %xmm7, %xmm6
vaesenc %xmm2, %xmm9, %xmm9
movdqu 48(%rbp), %xmm0
vpxor %xmm15, %xmm13, %xmm13
vpclmulqdq $0, %xmm3, %xmm7, %xmm1
vaesenc %xmm2, %xmm10, %xmm10
vpxor %xmm15, %xmm14, %xmm14
vpclmulqdq $17, %xmm3, %xmm7, %xmm7
vaesenc %xmm2, %xmm11, %xmm11
movdqu -16(%r9), %xmm3
vaesenc %xmm2, %xmm12, %xmm12
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpxor %xmm4, %xmm8, %xmm8
vaesenc %xmm2, %xmm13, %xmm13
vpxor %xmm5, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vaesenc %xmm2, %xmm14, %xmm14
movdqu -96(%rcx), %xmm15
vpclmulqdq $1, %xmm3, %xmm0, %xmm2
vaesenc %xmm15, %xmm9, %xmm9
vpxor 16(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
movdqu 64(%rbp), %xmm0
vaesenc %xmm15, %xmm10, %xmm10
movbeq 88(%r14), %r13
vaesenc %xmm15, %xmm11, %xmm11
movbeq 80(%r14), %r12
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 32(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 40(%rbp)
movdqu 16(%r9), %xmm5
vaesenc %xmm15, %xmm14, %xmm14
movdqu -80(%rcx), %xmm15
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vaesenc %xmm15, %xmm10, %xmm10
vpxor %xmm3, %xmm7, %xmm7
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vaesenc %xmm15, %xmm11, %xmm11
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 80(%rbp), %xmm0
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vaesenc %xmm15, %xmm14, %xmm14
movdqu -64(%rcx), %xmm15
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vaesenc %xmm15, %xmm10, %xmm10
movbeq 72(%r14), %r13
vpxor %xmm5, %xmm7, %xmm7
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vaesenc %xmm15, %xmm11, %xmm11
movbeq 64(%r14), %r12
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
movdqu 96(%rbp), %xmm0
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 48(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 56(%rbp)
vpxor %xmm2, %xmm4, %xmm4
movdqu 64(%r9), %xmm2
vaesenc %xmm15, %xmm14, %xmm14
movdqu -48(%rcx), %xmm15
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm0, %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm5
vaesenc %xmm15, %xmm10, %xmm10
movbeq 56(%r14), %r13
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor 112(%rbp), %xmm8, %xmm8
vaesenc %xmm15, %xmm11, %xmm11
movbeq 48(%r14), %r12
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 64(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 72(%rbp)
vpxor %xmm3, %xmm4, %xmm4
movdqu 80(%r9), %xmm3
vaesenc %xmm15, %xmm14, %xmm14
movdqu -32(%rcx), %xmm15
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm8, %xmm5
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm3, %xmm8, %xmm1
vaesenc %xmm15, %xmm10, %xmm10
movbeq 40(%r14), %r13
vpxor %xmm2, %xmm7, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm2
vaesenc %xmm15, %xmm11, %xmm11
movbeq 32(%r14), %r12
vpclmulqdq $17, %xmm3, %xmm8, %xmm8
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 80(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 88(%rbp)
vpxor %xmm5, %xmm6, %xmm6
vaesenc %xmm15, %xmm14, %xmm14
vpxor %xmm1, %xmm6, %xmm6
movdqu -16(%rcx), %xmm15
vpslldq $8, %xmm6, %xmm5
vpxor %xmm2, %xmm4, %xmm4
pxor %xmm3, %xmm3
mov $13979173243358019584, %r11
pinsrq $1, %r11, %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm8, %xmm7, %xmm7
vaesenc %xmm15, %xmm10, %xmm10
vpxor %xmm5, %xmm4, %xmm4
movbeq 24(%r14), %r13
vaesenc %xmm15, %xmm11, %xmm11
movbeq 16(%r14), %r12
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
movq %r13, 96(%rbp)
vaesenc %xmm15, %xmm12, %xmm12
movq %r12, 104(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 0(%rcx), %xmm1
vaesenc %xmm1, %xmm9, %xmm9
movdqu 16(%rcx), %xmm15
vaesenc %xmm1, %xmm10, %xmm10
vpsrldq $8, %xmm6, %xmm6
vaesenc %xmm1, %xmm11, %xmm11
vpxor %xmm6, %xmm7, %xmm7
vaesenc %xmm1, %xmm12, %xmm12
vpxor %xmm0, %xmm4, %xmm4
movbeq 8(%r14), %r13
vaesenc %xmm1, %xmm13, %xmm13
movbeq 0(%r14), %r12
vaesenc %xmm1, %xmm14, %xmm14
movdqu 32(%rcx), %xmm1
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
vaesenc %xmm1, %xmm9, %xmm9
vaesenc %xmm1, %xmm10, %xmm10
vaesenc %xmm1, %xmm11, %xmm11
vaesenc %xmm1, %xmm12, %xmm12
vaesenc %xmm1, %xmm13, %xmm13
movdqu 48(%rcx), %xmm15
vaesenc %xmm1, %xmm14, %xmm14
movdqu 64(%rcx), %xmm1
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
vaesenc %xmm1, %xmm9, %xmm9
vaesenc %xmm1, %xmm10, %xmm10
vaesenc %xmm1, %xmm11, %xmm11
vaesenc %xmm1, %xmm12, %xmm12
vaesenc %xmm1, %xmm13, %xmm13
movdqu 80(%rcx), %xmm15
vaesenc %xmm1, %xmm14, %xmm14
movdqu 96(%rcx), %xmm1
vaesenc %xmm15, %xmm9, %xmm9
movdqu %xmm7, 16(%rbp)
vpalignr $8, %xmm4, %xmm4, %xmm8
vaesenc %xmm15, %xmm10, %xmm10
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor 0(%rdi), %xmm1, %xmm2
vaesenc %xmm15, %xmm11, %xmm11
vpxor 16(%rdi), %xmm1, %xmm0
vaesenc %xmm15, %xmm12, %xmm12
vpxor 32(%rdi), %xmm1, %xmm5
vaesenc %xmm15, %xmm13, %xmm13
vpxor 48(%rdi), %xmm1, %xmm6
vaesenc %xmm15, %xmm14, %xmm14
vpxor 64(%rdi), %xmm1, %xmm7
vpxor 80(%rdi), %xmm1, %xmm3
movdqu 128(%rbp), %xmm1
vaesenclast %xmm2, %xmm9, %xmm9
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
vaesenclast %xmm0, %xmm10, %xmm10
vpaddd %xmm2, %xmm1, %xmm0
movq %r13, 112(%rbp)
lea 96(%rdi), %rdi
vaesenclast %xmm5, %xmm11, %xmm11
vpaddd %xmm2, %xmm0, %xmm5
movq %r12, 120(%rbp)
lea 96(%rsi), %rsi
movdqu -128(%rcx), %xmm15
vaesenclast %xmm6, %xmm12, %xmm12
vpaddd %xmm2, %xmm5, %xmm6
vaesenclast %xmm7, %xmm13, %xmm13
vpaddd %xmm2, %xmm6, %xmm7
vaesenclast %xmm3, %xmm14, %xmm14
vpaddd %xmm2, %xmm7, %xmm3
sub $6, %rdx
add $96, %r14
cmp $0, %rdx
jbe L126
movdqu %xmm9, -96(%rsi)
vpxor %xmm15, %xmm1, %xmm9
movdqu %xmm10, -80(%rsi)
movdqu %xmm0, %xmm10
movdqu %xmm11, -64(%rsi)
movdqu %xmm5, %xmm11
movdqu %xmm12, -48(%rsi)
movdqu %xmm6, %xmm12
movdqu %xmm13, -32(%rsi)
movdqu %xmm7, %xmm13
movdqu %xmm14, -16(%rsi)
movdqu %xmm3, %xmm14
movdqu 32(%rbp), %xmm7
jmp L127
L126:
vpxor 16(%rbp), %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
L127:
.balign 16
L123:
cmp $0, %rdx
ja L122
movdqu 32(%rbp), %xmm7
movdqu %xmm1, 32(%rbp)
pxor %xmm4, %xmm4
movdqu %xmm4, 16(%rbp)
movdqu -32(%r9), %xmm3
vpclmulqdq $0, %xmm3, %xmm7, %xmm1
vpclmulqdq $16, %xmm3, %xmm7, %xmm5
movdqu 48(%rbp), %xmm0
vpclmulqdq $1, %xmm3, %xmm7, %xmm6
vpclmulqdq $17, %xmm3, %xmm7, %xmm7
movdqu -16(%r9), %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpxor %xmm4, %xmm8, %xmm8
vpxor %xmm5, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vpclmulqdq $1, %xmm3, %xmm0, %xmm2
vpxor 16(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
movdqu 64(%rbp), %xmm0
movdqu 16(%r9), %xmm5
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpxor %xmm3, %xmm7, %xmm7
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 80(%rbp), %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vpxor %xmm5, %xmm7, %xmm7
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
movdqu 96(%rbp), %xmm0
vpxor %xmm2, %xmm4, %xmm4
movdqu 64(%r9), %xmm2
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm0, %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm5
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor 112(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vpxor %xmm3, %xmm4, %xmm4
movdqu 80(%r9), %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm8, %xmm5
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm3, %xmm8, %xmm1
vpxor %xmm2, %xmm7, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm2
vpclmulqdq $17, %xmm3, %xmm8, %xmm8
vpxor %xmm5, %xmm6, %xmm6
vpxor %xmm1, %xmm6, %xmm6
vpxor %xmm2, %xmm4, %xmm4
pxor %xmm3, %xmm3
mov $3254779904, %rax
pinsrd $3, %eax, %xmm3
vpxor %xmm8, %xmm7, %xmm7
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm0
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm0
movdqu %xmm9, -96(%rsi)
vpshufb %xmm0, %xmm9, %xmm9
vpxor %xmm7, %xmm1, %xmm1
movdqu %xmm10, -80(%rsi)
vpshufb %xmm0, %xmm10, %xmm10
movdqu %xmm11, -64(%rsi)
vpshufb %xmm0, %xmm11, %xmm11
movdqu %xmm12, -48(%rsi)
vpshufb %xmm0, %xmm12, %xmm12
movdqu %xmm13, -32(%rsi)
vpshufb %xmm0, %xmm13, %xmm13
movdqu %xmm14, -16(%rsi)
vpshufb %xmm0, %xmm14, %xmm14
pxor %xmm4, %xmm4
movdqu %xmm14, %xmm7
movdqu %xmm4, 16(%rbp)
movdqu %xmm13, 48(%rbp)
movdqu %xmm12, 64(%rbp)
movdqu %xmm11, 80(%rbp)
movdqu %xmm10, 96(%rbp)
movdqu %xmm9, 112(%rbp)
movdqu -32(%r9), %xmm3
vpclmulqdq $0, %xmm3, %xmm7, %xmm1
vpclmulqdq $16, %xmm3, %xmm7, %xmm5
movdqu 48(%rbp), %xmm0
vpclmulqdq $1, %xmm3, %xmm7, %xmm6
vpclmulqdq $17, %xmm3, %xmm7, %xmm7
movdqu -16(%r9), %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpxor %xmm4, %xmm8, %xmm8
vpxor %xmm5, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vpclmulqdq $1, %xmm3, %xmm0, %xmm2
vpxor 16(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
movdqu 64(%rbp), %xmm0
movdqu 16(%r9), %xmm5
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpxor %xmm3, %xmm7, %xmm7
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 80(%rbp), %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vpxor %xmm5, %xmm7, %xmm7
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
movdqu 96(%rbp), %xmm0
vpxor %xmm2, %xmm4, %xmm4
movdqu 64(%r9), %xmm2
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm0, %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm5
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor 112(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vpxor %xmm3, %xmm4, %xmm4
movdqu 80(%r9), %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm8, %xmm5
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm3, %xmm8, %xmm1
vpxor %xmm2, %xmm7, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm2
vpclmulqdq $17, %xmm3, %xmm8, %xmm8
vpxor %xmm5, %xmm6, %xmm6
vpxor %xmm1, %xmm6, %xmm6
vpxor %xmm2, %xmm4, %xmm4
pxor %xmm3, %xmm3
mov $3254779904, %rax
pinsrd $3, %eax, %xmm3
vpxor %xmm8, %xmm7, %xmm7
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
sub $128, %rcx
L117:
movdqu 32(%rbp), %xmm11
mov %rcx, %r8
mov 104(%rsp), %rax
mov 112(%rsp), %rdi
mov 120(%rsp), %rdx
mov %rdx, %r14
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm9
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm9
pshufb %xmm9, %xmm11
pxor %xmm10, %xmm10
mov $1, %rbx
pinsrd $0, %ebx, %xmm10
mov %rax, %r11
mov %rdi, %r10
mov $0, %rbx
jmp L129
.balign 16
L128:
movdqu %xmm11, %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
movdqu 0(%r11), %xmm2
pxor %xmm0, %xmm2
movdqu %xmm2, 0(%r10)
add $1, %rbx
add $16, %r11
add $16, %r10
paddd %xmm10, %xmm11
.balign 16
L129:
cmp %rdx, %rbx
jne L128
mov %rdi, %r11
jmp L131
.balign 16
L130:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L131:
cmp $6, %rdx
jae L130
cmp $0, %rdx
jbe L132
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L134
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L135
L134:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L136
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L138
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L140
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L141
L140:
L141:
jmp L139
L138:
L139:
jmp L137
L136:
L137:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L135:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L133
L132:
L133:
add 96(%rsp), %r14
imul $16, %r14
mov 136(%rsp), %r13
cmp %r14, %r13
jbe L142
mov 128(%rsp), %rax
mov %r13, %r10
and $15, %r10
movdqu %xmm11, %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
movdqu 0(%rax), %xmm4
pxor %xmm4, %xmm0
movdqu %xmm0, 0(%rax)
cmp $8, %r10
jae L144
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L145
L144:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L145:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L143
L142:
L143:
mov %r15, %r11
pxor %xmm0, %xmm0
mov %r11, %rax
imul $8, %rax
pinsrq $1, %rax, %xmm0
mov %r13, %rax
imul $8, %rax
pinsrq $0, %rax, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
movdqu 0(%rbp), %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pshufb %xmm9, %xmm8
pxor %xmm0, %xmm8
mov 152(%rsp), %r15
movdqu %xmm8, 0(%r15)
pop %rbx
pop %rbp
pop %rdi
pop %rsi
pop %r12
pop %r13
pop %r14
pop %r15
ret
.global gcm128_decrypt_opt
gcm128_decrypt_opt:
push %r15
push %r14
push %r13
push %r12
push %rsi
push %rdi
push %rbp
push %rbx
mov 144(%rsp), %rbp
mov %rcx, %r13
lea 32(%r9), %r9
mov 72(%rsp), %rbx
mov %rdx, %rcx
imul $16, %rcx
mov $579005069656919567, %r10
pinsrq $0, %r10, %xmm9
mov $283686952306183, %r10
pinsrq $1, %r10, %xmm9
pxor %xmm8, %xmm8
mov %rdi, %r11
jmp L147
.balign 16
L146:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L147:
cmp $6, %rdx
jae L146
cmp $0, %rdx
jbe L148
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L150
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L151
L150:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L152
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L154
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L156
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L157
L156:
L157:
jmp L155
L154:
L155:
jmp L153
L152:
L153:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L151:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L149
L148:
L149:
mov %rsi, %r15
cmp %rcx, %rsi
jbe L158
movdqu 0(%rbx), %xmm0
mov %rsi, %r10
and $15, %r10
cmp $8, %r10
jae L160
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L161
L160:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L161:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L159
L158:
L159:
mov 80(%rsp), %rdi
mov 88(%rsp), %rsi
mov 96(%rsp), %rdx
mov %r13, %rcx
movdqu %xmm9, %xmm0
movdqu 0(%r8), %xmm1
movdqu %xmm1, 0(%rbp)
pxor %xmm10, %xmm10
mov $1, %r11
pinsrq $0, %r11, %xmm10
vpaddd %xmm10, %xmm1, %xmm1
cmp $0, %rdx
jne L162
vpshufb %xmm0, %xmm1, %xmm1
movdqu %xmm1, 32(%rbp)
jmp L163
L162:
movdqu %xmm8, 32(%rbp)
add $128, %rcx
pextrq $0, %xmm1, %rbx
and $255, %rbx
vpshufb %xmm0, %xmm1, %xmm1
lea 96(%rdi), %r14
movdqu 32(%rbp), %xmm8
movdqu 80(%rdi), %xmm7
movdqu 64(%rdi), %xmm4
movdqu 48(%rdi), %xmm5
movdqu 32(%rdi), %xmm6
vpshufb %xmm0, %xmm7, %xmm7
movdqu 16(%rdi), %xmm2
vpshufb %xmm0, %xmm4, %xmm4
movdqu 0(%rdi), %xmm3
vpshufb %xmm0, %xmm5, %xmm5
movdqu %xmm4, 48(%rbp)
vpshufb %xmm0, %xmm6, %xmm6
movdqu %xmm5, 64(%rbp)
vpshufb %xmm0, %xmm2, %xmm2
movdqu %xmm6, 80(%rbp)
vpshufb %xmm0, %xmm3, %xmm3
movdqu %xmm2, 96(%rbp)
movdqu %xmm3, 112(%rbp)
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
vpxor %xmm4, %xmm4, %xmm4
movdqu -128(%rcx), %xmm15
vpaddd %xmm2, %xmm1, %xmm10
vpaddd %xmm2, %xmm10, %xmm11
vpaddd %xmm2, %xmm11, %xmm12
vpaddd %xmm2, %xmm12, %xmm13
vpaddd %xmm2, %xmm13, %xmm14
vpxor %xmm15, %xmm1, %xmm9
movdqu %xmm4, 16(%rbp)
cmp $6, %rdx
jne L164
sub $96, %r14
jmp L165
L164:
L165:
jmp L167
.balign 16
L166:
add $6, %rbx
cmp $256, %rbx
jb L168
mov $579005069656919567, %r11
pinsrq $0, %r11, %xmm0
mov $283686952306183, %r11
pinsrq $1, %r11, %xmm0
vpshufb %xmm0, %xmm1, %xmm6
pxor %xmm5, %xmm5
mov $1, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm10
pxor %xmm5, %xmm5
mov $2, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm11
movdqu -32(%r9), %xmm3
vpaddd %xmm5, %xmm10, %xmm12
vpshufb %xmm0, %xmm10, %xmm10
vpaddd %xmm5, %xmm11, %xmm13
vpshufb %xmm0, %xmm11, %xmm11
vpxor %xmm15, %xmm10, %xmm10
vpaddd %xmm5, %xmm12, %xmm14
vpshufb %xmm0, %xmm12, %xmm12
vpxor %xmm15, %xmm11, %xmm11
vpaddd %xmm5, %xmm13, %xmm1
vpshufb %xmm0, %xmm13, %xmm13
vpshufb %xmm0, %xmm14, %xmm14
vpshufb %xmm0, %xmm1, %xmm1
sub $256, %rbx
jmp L169
L168:
movdqu -32(%r9), %xmm3
vpaddd %xmm14, %xmm2, %xmm1
vpxor %xmm15, %xmm10, %xmm10
vpxor %xmm15, %xmm11, %xmm11
L169:
movdqu %xmm1, 128(%rbp)
vpclmulqdq $16, %xmm3, %xmm7, %xmm5
vpxor %xmm15, %xmm12, %xmm12
movdqu -112(%rcx), %xmm2
vpclmulqdq $1, %xmm3, %xmm7, %xmm6
vaesenc %xmm2, %xmm9, %xmm9
movdqu 48(%rbp), %xmm0
vpxor %xmm15, %xmm13, %xmm13
vpclmulqdq $0, %xmm3, %xmm7, %xmm1
vaesenc %xmm2, %xmm10, %xmm10
vpxor %xmm15, %xmm14, %xmm14
vpclmulqdq $17, %xmm3, %xmm7, %xmm7
vaesenc %xmm2, %xmm11, %xmm11
movdqu -16(%r9), %xmm3
vaesenc %xmm2, %xmm12, %xmm12
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpxor %xmm4, %xmm8, %xmm8
vaesenc %xmm2, %xmm13, %xmm13
vpxor %xmm5, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vaesenc %xmm2, %xmm14, %xmm14
movdqu -96(%rcx), %xmm15
vpclmulqdq $1, %xmm3, %xmm0, %xmm2
vaesenc %xmm15, %xmm9, %xmm9
vpxor 16(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
movdqu 64(%rbp), %xmm0
vaesenc %xmm15, %xmm10, %xmm10
movbeq 88(%r14), %r13
vaesenc %xmm15, %xmm11, %xmm11
movbeq 80(%r14), %r12
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 32(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 40(%rbp)
movdqu 16(%r9), %xmm5
vaesenc %xmm15, %xmm14, %xmm14
movdqu -80(%rcx), %xmm15
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vaesenc %xmm15, %xmm10, %xmm10
vpxor %xmm3, %xmm7, %xmm7
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vaesenc %xmm15, %xmm11, %xmm11
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 80(%rbp), %xmm0
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vaesenc %xmm15, %xmm14, %xmm14
movdqu -64(%rcx), %xmm15
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vaesenc %xmm15, %xmm10, %xmm10
movbeq 72(%r14), %r13
vpxor %xmm5, %xmm7, %xmm7
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vaesenc %xmm15, %xmm11, %xmm11
movbeq 64(%r14), %r12
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
movdqu 96(%rbp), %xmm0
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 48(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 56(%rbp)
vpxor %xmm2, %xmm4, %xmm4
movdqu 64(%r9), %xmm2
vaesenc %xmm15, %xmm14, %xmm14
movdqu -48(%rcx), %xmm15
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm0, %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm5
vaesenc %xmm15, %xmm10, %xmm10
movbeq 56(%r14), %r13
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor 112(%rbp), %xmm8, %xmm8
vaesenc %xmm15, %xmm11, %xmm11
movbeq 48(%r14), %r12
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 64(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 72(%rbp)
vpxor %xmm3, %xmm4, %xmm4
movdqu 80(%r9), %xmm3
vaesenc %xmm15, %xmm14, %xmm14
movdqu -32(%rcx), %xmm15
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm8, %xmm5
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm3, %xmm8, %xmm1
vaesenc %xmm15, %xmm10, %xmm10
movbeq 40(%r14), %r13
vpxor %xmm2, %xmm7, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm2
vaesenc %xmm15, %xmm11, %xmm11
movbeq 32(%r14), %r12
vpclmulqdq $17, %xmm3, %xmm8, %xmm8
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 80(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 88(%rbp)
vpxor %xmm5, %xmm6, %xmm6
vaesenc %xmm15, %xmm14, %xmm14
vpxor %xmm1, %xmm6, %xmm6
movdqu -16(%rcx), %xmm15
vpslldq $8, %xmm6, %xmm5
vpxor %xmm2, %xmm4, %xmm4
pxor %xmm3, %xmm3
mov $13979173243358019584, %r11
pinsrq $1, %r11, %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm8, %xmm7, %xmm7
vaesenc %xmm15, %xmm10, %xmm10
vpxor %xmm5, %xmm4, %xmm4
movbeq 24(%r14), %r13
vaesenc %xmm15, %xmm11, %xmm11
movbeq 16(%r14), %r12
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
movq %r13, 96(%rbp)
vaesenc %xmm15, %xmm12, %xmm12
movq %r12, 104(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 0(%rcx), %xmm1
vaesenc %xmm1, %xmm9, %xmm9
movdqu 16(%rcx), %xmm15
vaesenc %xmm1, %xmm10, %xmm10
vpsrldq $8, %xmm6, %xmm6
vaesenc %xmm1, %xmm11, %xmm11
vpxor %xmm6, %xmm7, %xmm7
vaesenc %xmm1, %xmm12, %xmm12
vpxor %xmm0, %xmm4, %xmm4
movbeq 8(%r14), %r13
vaesenc %xmm1, %xmm13, %xmm13
movbeq 0(%r14), %r12
vaesenc %xmm1, %xmm14, %xmm14
movdqu 32(%rcx), %xmm1
vaesenc %xmm15, %xmm9, %xmm9
movdqu %xmm7, 16(%rbp)
vpalignr $8, %xmm4, %xmm4, %xmm8
vaesenc %xmm15, %xmm10, %xmm10
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor 0(%rdi), %xmm1, %xmm2
vaesenc %xmm15, %xmm11, %xmm11
vpxor 16(%rdi), %xmm1, %xmm0
vaesenc %xmm15, %xmm12, %xmm12
vpxor 32(%rdi), %xmm1, %xmm5
vaesenc %xmm15, %xmm13, %xmm13
vpxor 48(%rdi), %xmm1, %xmm6
vaesenc %xmm15, %xmm14, %xmm14
vpxor 64(%rdi), %xmm1, %xmm7
vpxor 80(%rdi), %xmm1, %xmm3
movdqu 128(%rbp), %xmm1
vaesenclast %xmm2, %xmm9, %xmm9
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
vaesenclast %xmm0, %xmm10, %xmm10
vpaddd %xmm2, %xmm1, %xmm0
movq %r13, 112(%rbp)
lea 96(%rdi), %rdi
vaesenclast %xmm5, %xmm11, %xmm11
vpaddd %xmm2, %xmm0, %xmm5
movq %r12, 120(%rbp)
lea 96(%rsi), %rsi
movdqu -128(%rcx), %xmm15
vaesenclast %xmm6, %xmm12, %xmm12
vpaddd %xmm2, %xmm5, %xmm6
vaesenclast %xmm7, %xmm13, %xmm13
vpaddd %xmm2, %xmm6, %xmm7
vaesenclast %xmm3, %xmm14, %xmm14
vpaddd %xmm2, %xmm7, %xmm3
sub $6, %rdx
cmp $6, %rdx
jbe L170
add $96, %r14
jmp L171
L170:
L171:
cmp $0, %rdx
jbe L172
movdqu %xmm9, -96(%rsi)
vpxor %xmm15, %xmm1, %xmm9
movdqu %xmm10, -80(%rsi)
movdqu %xmm0, %xmm10
movdqu %xmm11, -64(%rsi)
movdqu %xmm5, %xmm11
movdqu %xmm12, -48(%rsi)
movdqu %xmm6, %xmm12
movdqu %xmm13, -32(%rsi)
movdqu %xmm7, %xmm13
movdqu %xmm14, -16(%rsi)
movdqu %xmm3, %xmm14
movdqu 32(%rbp), %xmm7
jmp L173
L172:
vpxor 16(%rbp), %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
L173:
.balign 16
L167:
cmp $0, %rdx
ja L166
movdqu %xmm1, 32(%rbp)
movdqu %xmm9, -96(%rsi)
movdqu %xmm10, -80(%rsi)
movdqu %xmm11, -64(%rsi)
movdqu %xmm12, -48(%rsi)
movdqu %xmm13, -32(%rsi)
movdqu %xmm14, -16(%rsi)
sub $128, %rcx
L163:
movdqu 32(%rbp), %xmm11
mov %rcx, %r8
mov 104(%rsp), %rax
mov 112(%rsp), %rdi
mov 120(%rsp), %rdx
mov %rdx, %r14
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm9
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm9
pshufb %xmm9, %xmm11
mov %rdi, %rbx
mov %rdx, %r12
mov %rax, %rdi
mov %rdi, %r11
jmp L175
.balign 16
L174:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L175:
cmp $6, %rdx
jae L174
cmp $0, %rdx
jbe L176
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L178
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L179
L178:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L180
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L182
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L184
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L185
L184:
L185:
jmp L183
L182:
L183:
jmp L181
L180:
L181:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L179:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L177
L176:
L177:
mov %rbx, %rdi
mov %r12, %rdx
pxor %xmm10, %xmm10
mov $1, %rbx
pinsrd $0, %ebx, %xmm10
mov %rax, %r11
mov %rdi, %r10
mov $0, %rbx
jmp L187
.balign 16
L186:
movdqu %xmm11, %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
movdqu 0(%r11), %xmm2
pxor %xmm0, %xmm2
movdqu %xmm2, 0(%r10)
add $1, %rbx
add $16, %r11
add $16, %r10
paddd %xmm10, %xmm11
.balign 16
L187:
cmp %rdx, %rbx
jne L186
add 96(%rsp), %r14
imul $16, %r14
mov 136(%rsp), %r13
cmp %r14, %r13
jbe L188
mov 128(%rsp), %rax
mov %r13, %r10
and $15, %r10
movdqu 0(%rax), %xmm0
movdqu %xmm0, %xmm10
cmp $8, %r10
jae L190
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L191
L190:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L191:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
movdqu %xmm11, %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pxor %xmm0, %xmm10
movdqu %xmm10, 0(%rax)
jmp L189
L188:
L189:
mov %r15, %r11
pxor %xmm0, %xmm0
mov %r11, %rax
imul $8, %rax
pinsrq $1, %rax, %xmm0
mov %r13, %rax
imul $8, %rax
pinsrq $0, %rax, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
movdqu 0(%rbp), %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pshufb %xmm9, %xmm8
pxor %xmm0, %xmm8
mov 152(%rsp), %r15
movdqu 0(%r15), %xmm0
pcmpeqd %xmm8, %xmm0
pextrq $0, %xmm0, %rdx
sub $18446744073709551615, %rdx
mov $0, %rax
adc $0, %rax
pextrq $1, %xmm0, %rdx
sub $18446744073709551615, %rdx
mov $0, %rdx
adc $0, %rdx
add %rdx, %rax
mov %rax, %rcx
pop %rbx
pop %rbp
pop %rdi
pop %rsi
pop %r12
pop %r13
pop %r14
pop %r15
mov %rcx, %rax
ret
.global gcm256_decrypt_opt
gcm256_decrypt_opt:
push %r15
push %r14
push %r13
push %r12
push %rsi
push %rdi
push %rbp
push %rbx
mov 144(%rsp), %rbp
mov %rcx, %r13
lea 32(%r9), %r9
mov 72(%rsp), %rbx
mov %rdx, %rcx
imul $16, %rcx
mov $579005069656919567, %r10
pinsrq $0, %r10, %xmm9
mov $283686952306183, %r10
pinsrq $1, %r10, %xmm9
pxor %xmm8, %xmm8
mov %rdi, %r11
jmp L193
.balign 16
L192:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L193:
cmp $6, %rdx
jae L192
cmp $0, %rdx
jbe L194
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L196
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L197
L196:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L198
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L200
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L202
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L203
L202:
L203:
jmp L201
L200:
L201:
jmp L199
L198:
L199:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L197:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L195
L194:
L195:
mov %rsi, %r15
cmp %rcx, %rsi
jbe L204
movdqu 0(%rbx), %xmm0
mov %rsi, %r10
and $15, %r10
cmp $8, %r10
jae L206
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L207
L206:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L207:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L205
L204:
L205:
mov 80(%rsp), %rdi
mov 88(%rsp), %rsi
mov 96(%rsp), %rdx
mov %r13, %rcx
movdqu %xmm9, %xmm0
movdqu 0(%r8), %xmm1
movdqu %xmm1, 0(%rbp)
pxor %xmm10, %xmm10
mov $1, %r11
pinsrq $0, %r11, %xmm10
vpaddd %xmm10, %xmm1, %xmm1
cmp $0, %rdx
jne L208
vpshufb %xmm0, %xmm1, %xmm1
movdqu %xmm1, 32(%rbp)
jmp L209
L208:
movdqu %xmm8, 32(%rbp)
add $128, %rcx
pextrq $0, %xmm1, %rbx
and $255, %rbx
vpshufb %xmm0, %xmm1, %xmm1
lea 96(%rdi), %r14
movdqu 32(%rbp), %xmm8
movdqu 80(%rdi), %xmm7
movdqu 64(%rdi), %xmm4
movdqu 48(%rdi), %xmm5
movdqu 32(%rdi), %xmm6
vpshufb %xmm0, %xmm7, %xmm7
movdqu 16(%rdi), %xmm2
vpshufb %xmm0, %xmm4, %xmm4
movdqu 0(%rdi), %xmm3
vpshufb %xmm0, %xmm5, %xmm5
movdqu %xmm4, 48(%rbp)
vpshufb %xmm0, %xmm6, %xmm6
movdqu %xmm5, 64(%rbp)
vpshufb %xmm0, %xmm2, %xmm2
movdqu %xmm6, 80(%rbp)
vpshufb %xmm0, %xmm3, %xmm3
movdqu %xmm2, 96(%rbp)
movdqu %xmm3, 112(%rbp)
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
vpxor %xmm4, %xmm4, %xmm4
movdqu -128(%rcx), %xmm15
vpaddd %xmm2, %xmm1, %xmm10
vpaddd %xmm2, %xmm10, %xmm11
vpaddd %xmm2, %xmm11, %xmm12
vpaddd %xmm2, %xmm12, %xmm13
vpaddd %xmm2, %xmm13, %xmm14
vpxor %xmm15, %xmm1, %xmm9
movdqu %xmm4, 16(%rbp)
cmp $6, %rdx
jne L210
sub $96, %r14
jmp L211
L210:
L211:
jmp L213
.balign 16
L212:
add $6, %rbx
cmp $256, %rbx
jb L214
mov $579005069656919567, %r11
pinsrq $0, %r11, %xmm0
mov $283686952306183, %r11
pinsrq $1, %r11, %xmm0
vpshufb %xmm0, %xmm1, %xmm6
pxor %xmm5, %xmm5
mov $1, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm10
pxor %xmm5, %xmm5
mov $2, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm11
movdqu -32(%r9), %xmm3
vpaddd %xmm5, %xmm10, %xmm12
vpshufb %xmm0, %xmm10, %xmm10
vpaddd %xmm5, %xmm11, %xmm13
vpshufb %xmm0, %xmm11, %xmm11
vpxor %xmm15, %xmm10, %xmm10
vpaddd %xmm5, %xmm12, %xmm14
vpshufb %xmm0, %xmm12, %xmm12
vpxor %xmm15, %xmm11, %xmm11
vpaddd %xmm5, %xmm13, %xmm1
vpshufb %xmm0, %xmm13, %xmm13
vpshufb %xmm0, %xmm14, %xmm14
vpshufb %xmm0, %xmm1, %xmm1
sub $256, %rbx
jmp L215
L214:
movdqu -32(%r9), %xmm3
vpaddd %xmm14, %xmm2, %xmm1
vpxor %xmm15, %xmm10, %xmm10
vpxor %xmm15, %xmm11, %xmm11
L215:
movdqu %xmm1, 128(%rbp)
vpclmulqdq $16, %xmm3, %xmm7, %xmm5
vpxor %xmm15, %xmm12, %xmm12
movdqu -112(%rcx), %xmm2
vpclmulqdq $1, %xmm3, %xmm7, %xmm6
vaesenc %xmm2, %xmm9, %xmm9
movdqu 48(%rbp), %xmm0
vpxor %xmm15, %xmm13, %xmm13
vpclmulqdq $0, %xmm3, %xmm7, %xmm1
vaesenc %xmm2, %xmm10, %xmm10
vpxor %xmm15, %xmm14, %xmm14
vpclmulqdq $17, %xmm3, %xmm7, %xmm7
vaesenc %xmm2, %xmm11, %xmm11
movdqu -16(%r9), %xmm3
vaesenc %xmm2, %xmm12, %xmm12
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpxor %xmm4, %xmm8, %xmm8
vaesenc %xmm2, %xmm13, %xmm13
vpxor %xmm5, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vaesenc %xmm2, %xmm14, %xmm14
movdqu -96(%rcx), %xmm15
vpclmulqdq $1, %xmm3, %xmm0, %xmm2
vaesenc %xmm15, %xmm9, %xmm9
vpxor 16(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
movdqu 64(%rbp), %xmm0
vaesenc %xmm15, %xmm10, %xmm10
movbeq 88(%r14), %r13
vaesenc %xmm15, %xmm11, %xmm11
movbeq 80(%r14), %r12
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 32(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 40(%rbp)
movdqu 16(%r9), %xmm5
vaesenc %xmm15, %xmm14, %xmm14
movdqu -80(%rcx), %xmm15
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vaesenc %xmm15, %xmm10, %xmm10
vpxor %xmm3, %xmm7, %xmm7
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vaesenc %xmm15, %xmm11, %xmm11
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 80(%rbp), %xmm0
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vaesenc %xmm15, %xmm14, %xmm14
movdqu -64(%rcx), %xmm15
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vaesenc %xmm15, %xmm10, %xmm10
movbeq 72(%r14), %r13
vpxor %xmm5, %xmm7, %xmm7
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vaesenc %xmm15, %xmm11, %xmm11
movbeq 64(%r14), %r12
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
movdqu 96(%rbp), %xmm0
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 48(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 56(%rbp)
vpxor %xmm2, %xmm4, %xmm4
movdqu 64(%r9), %xmm2
vaesenc %xmm15, %xmm14, %xmm14
movdqu -48(%rcx), %xmm15
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm0, %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm5
vaesenc %xmm15, %xmm10, %xmm10
movbeq 56(%r14), %r13
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor 112(%rbp), %xmm8, %xmm8
vaesenc %xmm15, %xmm11, %xmm11
movbeq 48(%r14), %r12
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 64(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 72(%rbp)
vpxor %xmm3, %xmm4, %xmm4
movdqu 80(%r9), %xmm3
vaesenc %xmm15, %xmm14, %xmm14
movdqu -32(%rcx), %xmm15
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm8, %xmm5
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm3, %xmm8, %xmm1
vaesenc %xmm15, %xmm10, %xmm10
movbeq 40(%r14), %r13
vpxor %xmm2, %xmm7, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm2
vaesenc %xmm15, %xmm11, %xmm11
movbeq 32(%r14), %r12
vpclmulqdq $17, %xmm3, %xmm8, %xmm8
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 80(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 88(%rbp)
vpxor %xmm5, %xmm6, %xmm6
vaesenc %xmm15, %xmm14, %xmm14
vpxor %xmm1, %xmm6, %xmm6
movdqu -16(%rcx), %xmm15
vpslldq $8, %xmm6, %xmm5
vpxor %xmm2, %xmm4, %xmm4
pxor %xmm3, %xmm3
mov $13979173243358019584, %r11
pinsrq $1, %r11, %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm8, %xmm7, %xmm7
vaesenc %xmm15, %xmm10, %xmm10
vpxor %xmm5, %xmm4, %xmm4
movbeq 24(%r14), %r13
vaesenc %xmm15, %xmm11, %xmm11
movbeq 16(%r14), %r12
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
movq %r13, 96(%rbp)
vaesenc %xmm15, %xmm12, %xmm12
movq %r12, 104(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 0(%rcx), %xmm1
vaesenc %xmm1, %xmm9, %xmm9
movdqu 16(%rcx), %xmm15
vaesenc %xmm1, %xmm10, %xmm10
vpsrldq $8, %xmm6, %xmm6
vaesenc %xmm1, %xmm11, %xmm11
vpxor %xmm6, %xmm7, %xmm7
vaesenc %xmm1, %xmm12, %xmm12
vpxor %xmm0, %xmm4, %xmm4
movbeq 8(%r14), %r13
vaesenc %xmm1, %xmm13, %xmm13
movbeq 0(%r14), %r12
vaesenc %xmm1, %xmm14, %xmm14
movdqu 32(%rcx), %xmm1
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
vaesenc %xmm1, %xmm9, %xmm9
vaesenc %xmm1, %xmm10, %xmm10
vaesenc %xmm1, %xmm11, %xmm11
vaesenc %xmm1, %xmm12, %xmm12
vaesenc %xmm1, %xmm13, %xmm13
movdqu 48(%rcx), %xmm15
vaesenc %xmm1, %xmm14, %xmm14
movdqu 64(%rcx), %xmm1
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
vaesenc %xmm1, %xmm9, %xmm9
vaesenc %xmm1, %xmm10, %xmm10
vaesenc %xmm1, %xmm11, %xmm11
vaesenc %xmm1, %xmm12, %xmm12
vaesenc %xmm1, %xmm13, %xmm13
movdqu 80(%rcx), %xmm15
vaesenc %xmm1, %xmm14, %xmm14
movdqu 96(%rcx), %xmm1
vaesenc %xmm15, %xmm9, %xmm9
movdqu %xmm7, 16(%rbp)
vpalignr $8, %xmm4, %xmm4, %xmm8
vaesenc %xmm15, %xmm10, %xmm10
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor 0(%rdi), %xmm1, %xmm2
vaesenc %xmm15, %xmm11, %xmm11
vpxor 16(%rdi), %xmm1, %xmm0
vaesenc %xmm15, %xmm12, %xmm12
vpxor 32(%rdi), %xmm1, %xmm5
vaesenc %xmm15, %xmm13, %xmm13
vpxor 48(%rdi), %xmm1, %xmm6
vaesenc %xmm15, %xmm14, %xmm14
vpxor 64(%rdi), %xmm1, %xmm7
vpxor 80(%rdi), %xmm1, %xmm3
movdqu 128(%rbp), %xmm1
vaesenclast %xmm2, %xmm9, %xmm9
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
vaesenclast %xmm0, %xmm10, %xmm10
vpaddd %xmm2, %xmm1, %xmm0
movq %r13, 112(%rbp)
lea 96(%rdi), %rdi
vaesenclast %xmm5, %xmm11, %xmm11
vpaddd %xmm2, %xmm0, %xmm5
movq %r12, 120(%rbp)
lea 96(%rsi), %rsi
movdqu -128(%rcx), %xmm15
vaesenclast %xmm6, %xmm12, %xmm12
vpaddd %xmm2, %xmm5, %xmm6
vaesenclast %xmm7, %xmm13, %xmm13
vpaddd %xmm2, %xmm6, %xmm7
vaesenclast %xmm3, %xmm14, %xmm14
vpaddd %xmm2, %xmm7, %xmm3
sub $6, %rdx
cmp $6, %rdx
jbe L216
add $96, %r14
jmp L217
L216:
L217:
cmp $0, %rdx
jbe L218
movdqu %xmm9, -96(%rsi)
vpxor %xmm15, %xmm1, %xmm9
movdqu %xmm10, -80(%rsi)
movdqu %xmm0, %xmm10
movdqu %xmm11, -64(%rsi)
movdqu %xmm5, %xmm11
movdqu %xmm12, -48(%rsi)
movdqu %xmm6, %xmm12
movdqu %xmm13, -32(%rsi)
movdqu %xmm7, %xmm13
movdqu %xmm14, -16(%rsi)
movdqu %xmm3, %xmm14
movdqu 32(%rbp), %xmm7
jmp L219
L218:
vpxor 16(%rbp), %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
L219:
.balign 16
L213:
cmp $0, %rdx
ja L212
movdqu %xmm1, 32(%rbp)
movdqu %xmm9, -96(%rsi)
movdqu %xmm10, -80(%rsi)
movdqu %xmm11, -64(%rsi)
movdqu %xmm12, -48(%rsi)
movdqu %xmm13, -32(%rsi)
movdqu %xmm14, -16(%rsi)
sub $128, %rcx
L209:
movdqu 32(%rbp), %xmm11
mov %rcx, %r8
mov 104(%rsp), %rax
mov 112(%rsp), %rdi
mov 120(%rsp), %rdx
mov %rdx, %r14
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm9
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm9
pshufb %xmm9, %xmm11
mov %rdi, %rbx
mov %rdx, %r12
mov %rax, %rdi
mov %rdi, %r11
jmp L221
.balign 16
L220:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L221:
cmp $6, %rdx
jae L220
cmp $0, %rdx
jbe L222
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L224
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L225
L224:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L226
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L228
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L230
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L231
L230:
L231:
jmp L229
L228:
L229:
jmp L227
L226:
L227:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L225:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L223
L222:
L223:
mov %rbx, %rdi
mov %r12, %rdx
pxor %xmm10, %xmm10
mov $1, %rbx
pinsrd $0, %ebx, %xmm10
mov %rax, %r11
mov %rdi, %r10
mov $0, %rbx
jmp L233
.balign 16
L232:
movdqu %xmm11, %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
movdqu 0(%r11), %xmm2
pxor %xmm0, %xmm2
movdqu %xmm2, 0(%r10)
add $1, %rbx
add $16, %r11
add $16, %r10
paddd %xmm10, %xmm11
.balign 16
L233:
cmp %rdx, %rbx
jne L232
add 96(%rsp), %r14
imul $16, %r14
mov 136(%rsp), %r13
cmp %r14, %r13
jbe L234
mov 128(%rsp), %rax
mov %r13, %r10
and $15, %r10
movdqu 0(%rax), %xmm0
movdqu %xmm0, %xmm10
cmp $8, %r10
jae L236
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L237
L236:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L237:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
movdqu %xmm11, %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pxor %xmm0, %xmm10
movdqu %xmm10, 0(%rax)
jmp L235
L234:
L235:
mov %r15, %r11
pxor %xmm0, %xmm0
mov %r11, %rax
imul $8, %rax
pinsrq $1, %rax, %xmm0
mov %r13, %rax
imul $8, %rax
pinsrq $0, %rax, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
movdqu 0(%rbp), %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pshufb %xmm9, %xmm8
pxor %xmm0, %xmm8
mov 152(%rsp), %r15
movdqu 0(%r15), %xmm0
pcmpeqd %xmm8, %xmm0
pextrq $0, %xmm0, %rdx
sub $18446744073709551615, %rdx
mov $0, %rax
adc $0, %rax
pextrq $1, %xmm0, %rdx
sub $18446744073709551615, %rdx
mov $0, %rdx
adc $0, %rdx
add %rdx, %rax
mov %rax, %rcx
pop %rbx
pop %rbp
pop %rdi
pop %rsi
pop %r12
pop %r13
pop %r14
pop %r15
mov %rcx, %rax
ret
.section .note.GNU-stack,"",%progbits
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.